Resúmenes por Área


Cargando resúmenes...

Área I: Física, Matemáticas y Ciencias de la Tierra

Abreu Cosío Francisco Javier, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Andres Manuel Garay Tapia, Centro de Investigación en Materiales Avanzados (CONACYT)

THERMODINAMICA Y SIMULACIÓN COMPUTACIONAL


THERMODINAMICA Y SIMULACIÓN COMPUTACIONAL

Abreu Cosío Francisco Javier, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Andres Manuel Garay Tapia, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Introducción En la actualidad, la demanda de materiales avanzados con propiedades específicas y mejoradas está en aumento en diversas industrias, incluyendo la aeroespacial, automotriz, y de tecnologías de la información. Estos materiales, como los compuestos de matriz polimérica, aleaciones de alta resistencia, y materiales con propiedades nanoestructuradas, ofrecen características superiores que son cruciales para el desarrollo de productos de alto rendimiento. Definición del Problema La predicción precisa del comportamiento de estos materiales bajo condiciones específicas es un desafío significativo. Las simulaciones computacionales juegan un papel fundamental en la evaluación de sus propiedades mecánicas, térmicas, y eléctricas. La verificación y validación de los resultados simulados con datos experimentales es complicada, ya que la parte experimental es costosa y difícil de realizar. Objetivo de la Investigación El objetivo de esta investigación es mejorar la precisión y la eficiencia de las simulaciones computacionales de materiales avanzados mediante el desarrollo de nuevos métodos y herramientas de simulación. Para ello se busca crear modelos computacionales que puedan capturar de manera más efectiva los fenómenos físicos relevantes en materiales avanzados. Justificación La mejora en la simulación de materiales avanzados permitirá un diseño más eficiente y una evaluación más precisa de sus propiedades. Reduciendo así el costo y el tiempo del desarrollo y prueba de nuevos materiales, también facilitar la innovación al permitir una exploración más amplia de combinaciones de materiales y condiciones operativas sin necesidad de pasar por una parte experimental, y de igual manera aumentar la exactitud y el rendimiento de los productos finales en aplicaciones críticas.  



METODOLOGÍA

Metodología Para realizar la simulación computacional utilizando VASP, usamos el compuesto Ti₂AlC₃. El compuesto Ti₂AlC₃ es un compuesto de la familia de los carburos MAX, conocido por sus propiedades únicas que incluyen alta dureza, buena conductividad eléctrica y térmica, y estabilidad química. Metodología para Simulación de Ti₂AlC₃ usando VASP Definición del Compuesto Ti₂AlC₃ es un compuesto MAX, lo que significa que tiene una estructura hexagonal con capas alternas de metales y carburo. Ti₂AlC₃ tiene una estructura cristalina tipo hexagonal con una celda unitaria específica. Utiliza una celda unitaria hexagonal adecuada para Ti₂AlC₃. Se encontraron datos sobre la celda unitaria en literatura o bases de datos cristalográficas. Se utilizó el programa VESTA para la visualización de la estructura cristalina, para construir el modelo. Uso de VASP Para la simulación computacional se utilizan los siguientes archivos principales para poder realizar la simulación con VASP INCAR: Este controla la simulación. Aquí se especifican parámetros como los algoritmos de convergencia, los métodos de optimización de la estructura, los tipos de cálculos. POSCAR: Especifica la estructura cristalina del sistema que se va a simular. Contiene información sobre los átomos, sus posiciones en la celda unitaria y los vectores de celda del cristal. KPOINTS: Este determina los puntos en el espacio de los vectores de onda donde se realizarán los cálculos. POTCAR: Contiene los potenciales pseudopotenciales atómicos necesarios para los cálculos y nos ayuda a mejorar la eficiencia en el calculo Ejecución de la Simulación Optimización de la Geometría:  Se corrió la simulación inicial para optimizar la geometría del compuesto utilizando el archivo INCAR configurado para la optimización. Verificación de la Convergencia: Se verificaron los archivos de salida (OUTCAR, CONTCAR) para asegurar que la estructura se ha optimizado adecuadamente y los resultados han convergido. Análisis de Propiedades: Se calcularon las propiedades adicionales, en este caso la densidad de estados, energía total, ajustando el archivo INCAR para cálculos de densidad de estados y estructuras de bandas. Validación y Análisis de Resultados Comparación con Datos Experimentales: Se compararon los resultados obtenidos de las graficas con datos experimentales o literatura para validar la precisión de tus simulaciones. Interpretación de Resultados: Se analizo la información obtenida para entender las propiedades del material, como estabilidad estructural, características electrónicas, etc.


CONCLUSIONES

Conclusiones: La simulación computacional de los compuestos cristalinos realizada mediante VASP ha proporcionado una comprensión detallada de las propiedades estructurales, electrónicas y termodinámicas de los materiales estudiados. La optimización de la estructura cristalina ha revelado que los compuestos presentan una configuración geométrica estable con distancias de enlace y ángulos consistentes con los datos experimentales disponibles. Las estructuras calculadas muestran una buena concordancia con los modelos cristalinos esperados, confirmando la precisión del método de simulación y los parámetros utilizados. El análisis de la densidad de estados electrónicos (DOS) y las bandas de energía indica que los compuestos exhiben una banda de valencia completa y una banda de conducción que se encuentra parcialmente llena. Además, los cálculos de la energía de formación han confirmado que los compuestos son termodinámicamente estables en la región de condiciones simuladas. La simulación computacional ha demostrado ser una herramienta efectiva para explorar las propiedades de los compuestos cristalinos, proporcionando una base sólida para futuras investigaciones. Los resultados obtenidos no solo confirman la viabilidad de los compuestos para aplicaciones tecnológicas, sino que también abren nuevas vías para el diseño y la optimización de materiales con propiedades deseadas
Aceves Jiménez Rodrigo Daniel, Universidad de Guadalajara
Asesor: Dr. Erik Díaz Bautista, Instituto Politécnico Nacional

UN PRIMER ACERCAMIENTO A LA CONSTRUCCIóN DE CAMPOS MAGNéTICOS NO HOMOGéNEOS CON SIMETRíA AXIAL EN GRAFENO PRíSTINO MEDIANTE MECáNICA CUáNTICA SUPERSIMéTRICA


UN PRIMER ACERCAMIENTO A LA CONSTRUCCIóN DE CAMPOS MAGNéTICOS NO HOMOGéNEOS CON SIMETRíA AXIAL EN GRAFENO PRíSTINO MEDIANTE MECáNICA CUáNTICA SUPERSIMéTRICA

Aceves Jiménez Rodrigo Daniel, Universidad de Guadalajara. Asesor: Dr. Erik Díaz Bautista, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El concepto de supersimetría es comúnmente utilizado en la física de partículas elementales al hablar de partículas bosónicas y fermiónicas y sus compañeras llamadas superpartículas. Sin embargo, la supersimetría también encuentra aplicaciones en la mecánica cuántica para determinar el espectro de energía de estados ligados de potenciales analíticamente solubles. En este sentido, la llamada mecánica cuántica supersimétrica (SUSY QM, por sus siglas en inglés) permite plantear y responder la siguiente pregunta: dado un potencial V(x) con eigenvalores de energía E­n, ¿existen otros potenciales con los mismos eigenvalores de energía? En los casos en los que la respuesta sea afirmativa, el estudio de la SUSY QM permite identificar potenciales isoespectrales a potenciales exactamente solubles, los cuales son conocidos como compañeros supersimétricos de V(x).



METODOLOGÍA

Se aborda el Hamiltoniano de Dirac-Weyl para modelar el comportamiento de portadores de carga en una lámina de grafeno sometida a un campo magnético de simetría axial perpendicular al plano. Para ello, se empleó la norma de Coulomb para el potencial vectorial, de manera que el campo magnético y el potencial vectorial se expresen mediante una función característica que dependa únicamente de la coordenada radial. El Hamiltoniano de Dirac-Weyl da a lugar a un par de ecuaciones diferenciales acopladas para las entradas del eigenespinor que describe al sistema. Estas ecuaciones se pueden desacoplar dando lugar a un par de Hamiltonianos efectivos que gobiernan a cada una de las componentes del espinor. Posteriormente, haciendo uso de la simetría axial del sistema, se llega a la conclusión de que el operador de momento angular total, que es la adición del momento angular orbital y el momento de pseudoespín, se debe de conservar, por lo que las dos funciones de onda que describen el estado se pueden expresar como el producto de una función dependiente solo de la parte angular, que corresponde a una fase, y de otra función que describe solo la parte radial. A partir de las consideraciones previas y de un cambio de variable para la función radial, se puede llegar a nuevos Hamiltonianos efectivos para estas funciones, los cuales recuerdan a relaciones propias de la mecánica cuántica supersimétrica. Este formalismo permite relacionar un par Hamiltonianos caracterizados por sus respectivos potenciales, denominados socios supersimétricos, de tal manera que ambos poseen el mismo espectro de energías (salvo la posibilidad de un nivel extra en uno de ellos). En tanto, los estados propios de estos Hamiltonianos se relacionan mediante un par de operadores llamados de entrelazamiento, los cuales son operadores diferenciales de primer orden caracterizados por una función denominada superpotencial. Esta función se puede generar a partir de las soluciones a la ecuación de estados propios de uno de los Hamiltonianos socios, incluyendo aquellas que no son de cuadrado integrables. Finalmente, se identifica a uno de los potenciales socios supersimétricos como el resultado de considerar un campo magnético homogéneo, cuyo espectro y estados propios son conocidos. A partir de la solución general de la ecuación diferencial de estados propios se pueda generar una familia de superpotenciales que caractericen distintos perfiles del campo magnético inhomogéneos y cuyos estados estacionarios compartan el espectro de energía del caso de campo magnético homogéneo.


CONCLUSIONES

En el desarrollo de este proyecto se adquirieron nuevos conocimientos en el contexto de la mecánica cuántica. Particularmente, se estudió la interacción del grafeno con campos magnéticos a partir del Hamiltoniano de Dirac-Weyl, y mediante el formalismo de la mecánica cuántica supersimétrica se analizaron las relaciones entre las soluciones del sistema físico. Se obtuvieron resultados importantes entorno al objetivo principal de encontrar nuevos perfiles de campos magnético inhomogéneos cuyos estados propios posean el mismo espectro de energía al caso del campo homogéneo. Sin embargo, aún quedan algunas cuestiones por indagar, por lo que la investigación ha de continuar.
Acosta Basopoli Dora Sofia, Universidad Autónoma de Occidente
Asesor: Dr. Jeován Alberto Ávila Díaz, Universidad Autónoma de Occidente

BIOFERTILIZANTES LíQUIDOS ELABORADOS A PARTIR DE SUBPRODUCTOS DE PESCADO Y RESTOS VEGETALES COMO ALTERNATIVA SUSTENTABLE EN EL MANEJO INTEGRAL DE RESIDUOS ORGáNICOS.


BIOFERTILIZANTES LíQUIDOS ELABORADOS A PARTIR DE SUBPRODUCTOS DE PESCADO Y RESTOS VEGETALES COMO ALTERNATIVA SUSTENTABLE EN EL MANEJO INTEGRAL DE RESIDUOS ORGáNICOS.

Acosta Basopoli Dora Sofia, Universidad Autónoma de Occidente. Pretalia Hernández Silvana Quetzalli, Universidad Autónoma de Occidente. Asesor: Dr. Jeován Alberto Ávila Díaz, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La principal actividad que desempeña Sinaloa es la pesca y agricultura. En el caso de la pesca, como resultado de una gran demanda de productos derivados de las especies marinas se generan grandes volúmenes de subproductos, los cuales no llegan a ser aprovechados, por lo que terminan siendo un residuo. Estos tienen un mal manejo y son depositados en tiraderos clandestinos, rellenos sanitarios o devueltos en cuerpo de agua, generando un impacto ambiental; dando como resultado problemas indirectos, hacia la salud, estéticos, malos olores, etc. Otro problema que ha enfrentado Sinaloa es el uso excesivo de fertilizantes químicos, estos ayudan a las plantas a desarrollarse adecuadamente y en menor tiempo, logrando una mejor producción, sin embargo, esto mismo ha sido lo que ha deteriorado la estructura de los suelos, debido a la acumulación de sales y la ausencia de la materia orgánica. Por lo tanto, un exceso de fertilizante trae consigo problemas hacia el medio ambiente y a la salud. Esto al ser un problema ambiental significativo, se ha propuesto realizar un biofertilizante a partir de subproductos de pescado, teniendo como objetivo evaluar la calidad de los biofertilizantes líquidos elaborados a partir de subproductos de pescado como alternativa sustentable en el manejo de residuos orgánicos. Esto ofrecerá una alternativa más viable y económica, siendo un producto que aportará los nutrientes esenciales y se reducirá un residuo que se genera en grandes cantidades.



METODOLOGÍA

El trabajo de investigación se realizó durante el mes de junio a agosto del 2024, en la UAdeO UR Los Mochis, en las instalaciones del Laboratorio de Operaciones Unitarias ubicado en el edificio E planta baja. El montaje de los digestores anaeróbicos tuvo una duración de 30 días, durante los cuales ocurrió un proceso de fermentación anaeróbica favorecida por la temperatura ambiente que permitió la generación de un biofertilizante líquido. Se utilizaron los subproductos de pescado (estómago, intestino, hígado, corazón, sangre y gónadas) de importancia comercial para la región norte de Sinaloa. El eviscerado de pescado se obtuvieron de la zona pesquera del Maviri, pescadería ubicada en la calle Agustín Melgar 239 y del mercado Independencia. Estas vísceras se sometieron a un proceso de molienda utilizando una licuadora industrial International LI-5ª. Para la presente investigación se utilizarán 5 tratamientos, con 3 repeticiones cada uno: T1: 25% subproductos de pescado-75% agua T2: 33% subproductos de pescado-67% agua T3: 50% subproductos de pescado-50% agua T4: 66% subproductos de pescado- 34% agua T5: 75% subproductos de pescado-25% agua. A cada unidad experimental se le agrego el volumen de las vísceras de pescado procesadas previamente, correspondiente a cada uno de los tratamientos utilizados. En cada unidad experimental se utilizó un volumen total de 700 ml más la adición de 7 gr de azúcar convencional, en todos los tratamientos. Después del proceso de fermentación anaeróbica, el producto generado en los cinco diferentes tratamientos se llevó a colar y colocar el líquido en una botella de 1 L. Una vez embotellados todos los tratamientos se les realizaron diferentes pruebas de PH, salinidad, nutrientes (P, K y N) y M. O, para determinar cuál tratamiento de diferentes concentraciones proporciona las mejores concentraciones de pH, nutrientes y M.O.


CONCLUSIONES

pH: Las diferencias en el pH de las mezclas de subproductos de pescado son significativas. El Tratamiento 5 destaca por su consistencia y pH ligeramente alcalino, mientras que el Tratamiento 1 tiene mayor variabilidad y un pH más cercano a neutro. Nitrógeno: Los resultados obtenidos indican que los tratamientos con biofertilizantes elaborados a partir de subproductos de pescado presentan variaciones significativas en los niveles de nitrógeno. El tratamiento T5 mostró el mayor contenido de nitrógeno con un promedio de 0.9145%, mientras que el tratamiento T1 tuvo el menor contenido con un promedio de 0.4423%. Fósforo: Al igual que el nitrógeno, el tratamiento T5 mostró el mayor contenido de fósforo con un promedio de 0.4834%, mientras que el tratamiento T2 tuvo el menor contenido con un promedio de 0.3272%.  Potasio: Los resultados sugieren que el Tratamiento 5 es el más efectivo en términos de la cantidad de potasio extraído, mientras que el Tratamiento 2 es el menos efectivo.  M.O: El Tratamiento 5 es el más eficaz en términos de contenido de materia orgánica, lo que sugiere que este tratamiento es el mejor para aumentar la materia orgánica en el biofertilizante. El Tratamiento 1 es el menos eficaz en términos de contenido de materia orgánica.  En conclusión, con base a los resultados obtenidos de NPK en las diferentes lecturas de los tratamientos de biofertilizantes, así como en pH y M.O, se pudieron determinar las diferencias significativas entre estos. Los tratamientos T5 representaron mayor porcentaje de nitrógeno, fósforo y potasio, esto nos indica que, a mayor cantidad de subproductos de pescado, mayor será la disponibilidad de nutrientes en el biofertilizante.
Acuña Acosta Brissa, Universidad de Sonora
Asesor: Dr. José Augusto Valencia Gasti, Universidad Autónoma de Baja California

ABUNDANCIA DE MEJILLóN (MYTILUS CALIFORNIANUS) EN DOS SITIOS DEL INTERMAREAL ROCOSO DE BAJA CALIFORNIA: BAJAMAR Y LA BUFADORA


ABUNDANCIA DE MEJILLóN (MYTILUS CALIFORNIANUS) EN DOS SITIOS DEL INTERMAREAL ROCOSO DE BAJA CALIFORNIA: BAJAMAR Y LA BUFADORA

Acuña Acosta Brissa, Universidad de Sonora. Hernandez Cueva Maria Elisa, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. José Augusto Valencia Gasti, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema: El intermareal rocoso es un ecosistema costero vital para la productividad de los ecosistemas marinos y terrestres adyacentes. Está compuesto por plataformas, canto rodado o conglomerados, y sufre cambios ambientales continuos debido a las mareas, como exposición aérea y variaciones en temperatura y salinidad. Estos cambios crean gradientes que influyen en la biodiversidad del área, albergando una amplia variedad de invertebrados como moluscos, equinodermos, cnidarios, crustáceos, contribuyendo al ciclo de nutrientes y a la estabilidad del ecosistema. Un ejemplo clave en este ecosistema son los mejillones californianos (Mytilus californianus), que actúan como ingenieros del ecosistema al formar hábitats tridimensionales en las rocas y servir de refugio para otras especies, además, son filtradores que mejoran la calidad del agua. La investigación del intermareal rocoso de Baja California busca proporcionar información precisa sobre la densidad de mejillones y su impacto en la comunidad, facilitando el seguimiento de los efectos de perturbaciones climáticas y humanas.  



METODOLOGÍA

Metodología: Área de muestreo Se realizaron estudios en los intermareales rocosos de Bajamar y La Bufadora, ubicados a 30 y 40 km de Ensenada, Baja California, México, respectivamente. Bajamar tiene terrazas expuestas a oleajes intensos y temperaturas entre 13 y 22°C, mientras que La Bufadora tiene una fauna similar a las islas del sur de Ensenada y un sustrato de rocas ígneas con un límite biológico superior a 2.27 m del nivel medio. Ambos sitios tienen características ambientales y biológicas específicas. Trabajo en Campo Se delimitaron cinco transectos perpendiculares a la línea de costa en cada sitio, desde el límite superior hasta el inferior del intermareal medio. Se usó una cinta métrica para guiar el conteo de mejillones en cuadrantes de PVC de 50 x 50 cm². Además, se recolectaron más de 15 mejillones por sitio para análisis biológicos. Las condiciones ambientales fueron registradas con una sonda multiparamétrica y un sensor HOBO para monitoreo continuo de la temperatura. Trabajo en Laboratorio: Conteo y Clasificación Se contaron y clasificaron mejillones a partir de imágenes de los cuadrantes utilizando el software BIIGLE 2.0 para análisis y anotación de imágenes. Procesamiento de Muestras Los mejillones recolectados se midieron y pesaron. El volumen de la concha se calculó utilizando la fórmula:   Volumen de la concha (cm) = (43)(largo)(ancho)(alto) Ecuación 1. Se identificó el sexo y se midieron los parámetros de condición. Las valvas se rompieron para separar las partes del mejillón, que luego se secaron a 50°C durante 48 horas. Se calculó el factor de condición y el índice gonadosomático usando las fórmulas: Factor de condición= (peso seco del tejido del animal) / (peso seco de las valvas) Ecuación 2. Índice gonadosomático= (peso seco de las gónadas) / (peso seco de la carne) Ecuación 3.  


CONCLUSIONES

Conclusiones El análisis de mejillones (Mytilus californianus) en La Bufadora y Bajamar muestra diferencias notables en densidad y características biológicas. En La Bufadora, las densidades varían según la orientación del transecto, con mayores concentraciones en transectos perpendiculares a la costa y menores en el transecto paralelo. En Bajamar, la densidad disminuye con la distancia desde la zona cubierta por agua, siendo más alta cerca del agua. Biológicamente, La Bufadora presenta una mayor proporción de hembras y mejillones de mayor altura relativa. Los mejillones aquí invierten más en la producción de gónadas, en comparación con Bajamar, donde el factor de condición es más bajo. Estos patrones sugieren que las diferencias en densidad y características biológicas están influenciadas por las condiciones ambientales locales y la ubicación de los transectos.  
Aguillón Álvarez Luis Enrique, Instituto Tecnológico de Querétaro
Asesor: Mtra. Paula María Guevara Fierro, Universidad Autónoma de Occidente

HABITABILIDAD EN VIVIENDA HORIZONTAL PARA UN AMBIENTE CALIDO SECO DE LOS MOCHIS SINALOA Y UN AMBIENTE SEMISECO DE QUERÉTARO


HABITABILIDAD EN VIVIENDA HORIZONTAL PARA UN AMBIENTE CALIDO SECO DE LOS MOCHIS SINALOA Y UN AMBIENTE SEMISECO DE QUERÉTARO

Aguillón Álvarez Luis Enrique, Instituto Tecnológico de Querétaro. Asesor: Mtra. Paula María Guevara Fierro, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Para relacionar un espacio habitado se debe conocer primero a las personas que lo van habitar y su cultura, ya que es muy importante para conocer las necesidades que van hacer que el espacio sea habitable. Al construir una edificación se van más por lo estético que por las necesidades que requiere el espacio, ya que se van más al moderno y de construir solo por decoración y no por necesidad, entonces eso delimita la necesidad del espacio.    



METODOLOGÍA

El proceso de la investigación consistio primeramente en un análisis del contexto de estuudio en el cual  se seleccionaron dos viviendas con diferente ubicación geográfica. Utilizando aplicación para identificar la temperatura y dióxido de carbono (CO2) del interior y hacer un análisis para obtención de datos, el primero a partir del monitoreo directo de temperaturas al interior de la vivienda se procede a evaluar a los consumos de energía eléctrica que relacionan el confort con las características climáticas del sitio. Se selecciono el periodo en el que se monitoreando la temperatura y dióxido de carbono (CO2) fue en periodo de verano durante 15 días consecutivos del 04 al 18 de julio del 2024. Las áreas de estudio fueron dos: Área uno para Querétaro y área dos para Los Mochis Sinaloa, con los siguientes datos  El área de estudio uno se localiza en el centro de México, en el estado de Querétaro, en Querétaro, se encuentra en una latitud 20°35'17'' N y longitud 100°23'17'' O, y con altura sobre el nivel del mar de 1826 metros, se tienen registro de temperatura de semiseco máxima anual de 33°C y mínima anual de 5°C.. El área de estudio dos se localiza al noroeste de México, en el estado de Sinaloa, en Los Mochis, se encuentra en una latitud 25°33'50'' N y longitud 108°46'00'' O, y con altura sobre el nivel del mar de diez metros, se tienen registro de temperatura de bulbo secos máxima anual de 48°C y mínima anual de 18°C (Figura 4) (IMPLAN 2015; CONAGUA 2022). Finalmente se realizo el análisis estadistico del promedio mediante gráficas de barra e histogramas para la interpretación de los datos monitoriados. 


CONCLUSIONES

De acuerdo con la investigación el (CO2) dentro del espacio de estudio en el caso de la cocina comedor el máximo son 280 de (CO2), y en el comedor supera los 500, lo cual 500 de (CO2). se considera riesgoso, por lo que siempre mantener el espacio por debajo de los 500, se puede evitar teniendo ventilación en el espacio. En relación entre temperatura y (CO2), La temperatura nos ayuda a medir la intensidad de que tanto frio o caliente se encuentra una zona, y el (CO2) es un compuesto de carbono y oxígeno que existe como gas incoloro en condiciones de temperatura y presión estándar, lo cual no lleva que entre más alta la temperatura mayor (CO2) habrá en el espacio, y menor sea la temperatura menor (CO2) habrá en el espacio, por lo tanto, si hay una relación directa. La investigación subraya cómo las condiciones socioeconómicas y culturales influyen directamente en la calidad de vida de quienes residen en viviendas sociales. Se destaca la adaptación y modificaciones que los habitantes realizan en sus espacios para satisfacer necesidades básicas como agua, luz y drenaje, así como la importancia de infraestructuras adecuadas y servicios básicos para el bienestar humano.  La habitabilidad debe ser evaluada de manera integral, incluyendo aspectos como satisfacción, entorno natural y urbano, infraestructura y servicios, para asegurar un desarrollo sostenible y una mejor calidad de vida para todos. En conclusión, mejorar la habitabilidad en la vivienda social requiere un enfoque holístico que integre aspectos culturales, económicos, sociales y ambientales, promoviendo condiciones de vida dignas y sustentables para los habitantes de las comunidades vulnerables en México y América Latina en general.
Alcalá Carrasco Víctor Ernesto, Universidad de Guadalajara
Asesor: Dr. Sergio Ivvan Valdez Peña, Centro de Investigación en Ciencias de Información Geoespacial, A.C. (CONACYT)

PREDICCIóN CON VARIABLES EXóGENAS DE LA SERIE TEMPORAL DE HOMICIDIOS EN LA CIUDAD DE GUADALAJARA, JALISCO.


PREDICCIóN CON VARIABLES EXóGENAS DE LA SERIE TEMPORAL DE HOMICIDIOS EN LA CIUDAD DE GUADALAJARA, JALISCO.

Alcalá Carrasco Víctor Ernesto, Universidad de Guadalajara. Asesor: Dr. Sergio Ivvan Valdez Peña, Centro de Investigación en Ciencias de Información Geoespacial, A.C. (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El planteamiento de este trabajo se centra en predecir el número de homicidios en la Zona Metropolitana de Guadalajara (ZMG) utilizando modelos de pronóstico multivariado. Para ello, se realiza una comparación entre el modelo SARIMAX, que utiliza variables exógenas relacionadas con otros delitos cometidos en municipios vecinos de la ZMG, y el modelo ARIMA, que se enfoca únicamente en la serie temporal de homicidios en Guadalajara. El objetivo principal es mejorar la precisión de las predicciones a corto plazo (1 y 2 meses) de los homicidios en Guadalajara, al identificar las características y delitos en municipios vecinos que mejor predicen futuros homicidios. La metodología también incluye la selección de características utilizando técnicas como la correlación cruzada y la información mutua, y la evaluación de los modelos mediante métricas de error absoluto medio (MAE) y error cuadrático medio (MSE).



METODOLOGÍA

La metodología del trabajo se describe en varias etapas clave: 1. Preprocesamiento de Datos: Los datos de incidencia delictiva son obtenidos del Secretariado Ejecutivo del Sistema Nacional de Seguridad Pública y el Instituto Nacional de Estadística y Geografía, cubriendo el período de enero de 2015 a abril de 2024. Se filtran los incidentes para centrarse en la Zona Metropolitana de Guadalajara (ZMG) y se crean series temporales normalizadas por tipo de delito y municipio. 2. Métodos de Correlación: Se calculan las correlaciones de Pearson, Spearman y Kendall para identificar las series temporales con mayor correlación con la serie objetivo (homicidios en Guadalajara). Se analizan las correlaciones con diferentes desfases temporales (1, 3, 6 y 12 meses). 3. Modelos ARIMA y SARIMAX: ARIMA: Se utiliza para analizar y pronosticar series temporales basadas en valores históricos, ajustando los parámetros (p, d, q) para minimizar el error cuadrático medio (MSE). SARIMAX: Extiende ARIMA al incorporar componentes estacionales y variables exógenas. Se entrenan modelos SARIMAX utilizando series temporales de municipios vecinos y otros delitos seleccionados por su alta correlación. 4. Selección de Características: Se emplean métodos de selección de características como la correlación cruzada y la información mutua para identificar las series exógenas que mejoran la predicción del modelo. Se seleccionan las mejores características sin desfase y con desfase, usando criterios de correlación y metodologías automatizadas como "SelectKBest". 5. Predicción: Los modelos ARIMA y SARIMAX son entrenados y evaluados para predecir homicidios a uno y dos meses vista. Se actualizan y retrenan los modelos mensualmente, simulando la actualización de la base de datos por el SESNSP. 6. Evaluación: Los modelos se evalúan utilizando las métricas de error absoluto medio (MAE) y error cuadrático medio (MSE) para comparar la precisión de las predicciones. Se comparan los resultados de los modelos ARIMA y SARIMAX, destacando las mejoras en la precisión al incorporar datos de vecinos geográficos y delitos correlacionados. 7. Resultados: Se presentan las evaluaciones de los modelos, mostrando una mejora significativa en la precisión al incluir variables exógenas. Los resultados indican la importancia de considerar la información geoespacial y la relación entre diferentes tipos de delitos para mejorar la predicción de homicidios.


CONCLUSIONES

El trabajo presenta varias conclusiones importantes derivadas de la comparación de los modelos ARIMA y SARIMAX para predecir la tasa de homicidios en la Zona Metropolitana de Guadalajara (ZMG): Mejora de la Precisión con SARIMAX: La inclusión de variables exógenas provenientes de delitos en municipios vecinos mejora significativamente la precisión de las predicciones de homicidios en Guadalajara en comparación con el modelo ARIMA univariado. Importancia de la Información Geoespacial: Los datos de homicidios y otros delitos en los municipios vecinos tienen una alta correlación con los homicidios en Guadalajara, lo que sugiere una interdependencia geoespacial en las tasas de criminalidad. Los delitos en municipios cercanos, como San Pedro Tlaquepaque, Tonalá, Zapopan y Tlajomulco de Zúñiga, son especialmente relevantes para mejorar las predicciones de homicidios en Guadalajara. Selección de Características: La selección de características mediante métodos como la correlación cruzada y la información mutua permite identificar las series temporales exógenas que mejoran la precisión del modelo. Los delitos de robo de vehículos, abuso de confianza y crímenes cometidos por funcionarios públicos, entre otros, muestran correlaciones significativas con los homicidios y son útiles como variables exógenas en el modelo SARIMAX. Causalidad y Correlación: La alta correlación entre ciertos delitos y los homicidios sugiere una posible causalidad, lo que indica que las políticas de prevención del crimen en un municipio podrían tener efectos en otros municipios cercanos. Aplicabilidad de la Metodología: La metodología utilizada en este estudio puede ser aplicable a otras áreas metropolitanas en México y otros países, con ajustes en la selección de variables exógenas según el contexto local de criminalidad. El enfoque de predicción a corto plazo, con actualizaciones mensuales del modelo, es práctico y puede ser útil para las autoridades en la planificación y ejecución de políticas de seguridad pública. Políticas Públicas: Las políticas públicas deben considerar la interconexión de delitos entre municipios y la necesidad de estrategias de prevención del crimen que aborden tanto los factores locales como los regionales.
Alonso Sandoval Yahaira Elizabeth, Universidad de Guadalajara
Asesor: Dr. Erik Díaz Bautista, Instituto Politécnico Nacional

DESCRIPCIóN EN EL ESPACIO DE FASE DE LA INTERACCIóN DE GRAFENO PRíSTINO CON CAMPOS MAGNéTICOS


DESCRIPCIóN EN EL ESPACIO DE FASE DE LA INTERACCIóN DE GRAFENO PRíSTINO CON CAMPOS MAGNéTICOS

Alonso Sandoval Yahaira Elizabeth, Universidad de Guadalajara. Asesor: Dr. Erik Díaz Bautista, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El grafeno es un material bidimensional compuesto de átomos de carbono dispuestos en una estructura hexagonal, cuyas propiedades eléctricas ha sido objeto de estudio en los últimos años. Dado su potencial aplicación en el diseño de dispositivos electrónicos, es esencial estudiar la dinámica de sus portadores de carga ante diferentes situaciones.   Sin embargo, al tratarse de un material que presenta propiedades cuánticas, la dinámica de sus partículas cargadas no puede ser analizada con las herramientas convencionales de la mecánica clásica. Recordemos que, gracias al principio de Heisenberg, en la mecánica cuántica no se puede medir simultáneamente la posición q y el momento p con precisión arbitraria. A pesar de esta dificultad, existen herramientas que, bajo ciertas condiciones, permiten el estudio de fenómenos cuánticos mediante enfoques semi-clásicos. Una de estas herramientas es la función de Wigner, que es una distribución de cuasi-probabilidad que nos permite estudiar un estado cuántico en el espacio de fase q-p, proporcionando una manera efectiva de explorar la dinámica cuántica de las partículas cargadas del grafeno.



METODOLOGÍA

El grafeno es un material bidimensional compuesto de átomos de carbono dispuestos en una estructura hexagonal, cuyas propiedades eléctricas ha sido objeto de estudio en los últimos años. Dado su potencial aplicación en el diseño de dispositivos electrónicos, es esencial estudiar la dinámica de sus portadores de carga ante diferentes situaciones.   Sin embargo, al tratarse de un material que presenta propiedades cuánticas, la dinámica de sus partículas cargadas no puede ser analizada con las herramientas convencionales de la mecánica clásica. Recordemos que, gracias al principio de Heisenberg, en la mecánica cuántica no se puede medir simultáneamente la posición q y el momento p con precisión arbitraria. A pesar de esta dificultad, existen herramientas que, bajo ciertas condiciones, permiten el estudio de fenómenos cuánticos mediante enfoques semi-clásicos. Una de estas herramientas es la función de Wigner, que es una distribución de cuasi-probabilidad que nos permite estudiar un estado cuántico en el espacio de fase q-p, proporcionando una manera efectiva de explorar la dinámica cuántica de las partículas cargadas del grafeno. Para el primer caso, se resolvió la ecuación de valores propios implementando cambios de variables que permitieron obtener un par de ecuaciones diferenciales cada una correspondiente al de un oscilador armónico cuántico, y cuya solución, proporcional a polinomios de Hermite, está documentada en literatura. El siguiente caso que se abordó fue el de un campo magnético cuyo perfil decae exponencialmente en función de la distancia. Este problema, en comparación con el anterior, arroja un par de ecuaciones diferenciales más complicadas de resolver. Recurriendo a la literatura para obtener la solución a cada una de ellas, se encontró que estas son proporcionales a los polinomios asociados de Laguerre. En ambos casos, el objetivo principal inmediato fue estudiar la dinámica de los portadores de carga del grafeno en el espacio de fase utilizando la función de Wigner. Por lo tanto, una vez obtenidos los estados estacionarios, se calcularon sus respectivas funciones de Wigner.


CONCLUSIONES

Durante la estancia de investigación se amplió el conocimiento sobre la teoría cuántica estudiando un sistema conocido y después aplicándolo al estudio de la dinámica de las partículas cargadas del grafeno cuando estas interactúan con un campo magnético. Se logró cumplir con los objetivos principales de la investigación, siendo estos el comprender la utilidad de la función de Wigner para la descripción de un estado cuántico y el obtener la descripción en el espacio de fase para los estados estacionarios que surgen de la interacción de una placa de grafeno con un campo magnético. Sin embargo, por la limitación de tiempo no fue posible estudiar todos los casos de campo magnético que se hubiesen querido. A pesar de esto, los conocimientos que se adquirieron son fundamentales para el trayecto de mi carrera universitaria, y tener un acercamiento a una investigación científica me ha expuesto las dificultades y hazañas que se necesitan para continuar ese camino.
Alvarado Bañales Ana Cristina, Universidad de Guadalajara
Asesor: Dr. Ricardo Escobedo Alcaraz, Universidad de Guadalajara

ANáLISIS HAMILTONIANO Y TEMAS SELECTOS DE MECáNICA CLáSICA


ANáLISIS HAMILTONIANO Y TEMAS SELECTOS DE MECáNICA CLáSICA

Alvarado Bañales Ana Cristina, Universidad de Guadalajara. Asesor: Dr. Ricardo Escobedo Alcaraz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El estudio comenzó con una introducción al formalismo hamiltoniano, repasando conceptos fundamentales de las leyes de Newton y el formalismo lagrangiano. Se discutieron en detalle conceptos clave como las propiedades de las lagrangianas y la derivación de los hamiltonianos utilizando varios sistemas de coordenadas. Este enfoque facilitó una comprensión integral de cómo se pueden utilizar diferentes sistemas de coordenadas para simplificar y resolver problemas mecánicos. El estudio se extendió a problemas específicos, como el cálculo de constantes de movimiento en sistemas como el oscilador armónico amortiguado y la derivación de una lagrangiana que reproduce la ecuación de Emden-Fowler. Estos ejemplos fueron fundamentales para demostrar aplicaciones prácticas de los conceptos teóricos.  



METODOLOGÍA

Manejo de Lagrangianas No Regulares: Se realizó un análisis de ejemplos donde la lagrangiana no es regular. Se desarrollaron y aplicaron métodos para calcular lagrangianas a partir de ecuaciones diferenciales ordinarias de segundo orden. Introducción a los Corchetes de Poisson: Se introdujeron y exploraron los corchetes de Poisson y sus propiedades. Transformaciones Canónicas: Se proporcionó una introducción a las transformaciones canónicas, incluyendo la derivación de los cuatro tipos de funciones generatrices. Se hizo una comparación con los potenciales termodinámicos. Verificación y Aplicación de Corchetes de Poisson: Se calcularon funciones generatrices a partir de transformaciones dadas entre coordenadas. Se verificó la invariancia del corchete de Poisson entre dos funciones dependientes de las variables del espacio fase bajo transformaciones canónicas. Se identificaron los casos en los que una transformación es canónica. Teorema de Liouville y Formalismo de Hamilton-Jacobi: Se demostró el teorema de Liouville (o teorema del volumen) al inicio. Se obtuvo el formalismo de Hamilton-Jacobi usando transformaciones canónicas y se resolvieron dos ejemplos mediante este formalismo. Método de R-Separables: Se utilizó el método de R-separables para separar variables y resolver la ecuación de Hamilton-Jacobi para ejemplos específicos. Se introdujo el algoritmo de Dirac para el análisis hamiltoniano de lagrangianas singulares, donde las velocidades generalizadas no pueden expresarse en términos de los momentos generalizados y coordenadas generalizadas una vez definidos los momentos generalizados Esta metodología estructurada permitió una exploración de la mecánica hamiltoniana


CONCLUSIONES

A continuación se muestra un resumen detallado de los problemas que abordé y el conocimiento que adquirí al resolverlos:    Partícula en un campo de fuerza central:  Comencé considerando una partícula influenciada por un potencial central dado por U(ρ)=−κ/ρ. La tarea consistía en encontrar el hamiltoniano para este sistema en coordenadas cilíndricas, y para una partícula  restringida dentro de un paraboloide z=aρ^2, donde ρ es la coordenada radial cilíndrica. Al considerar cuidadosamente la restricción, deduje el hamiltoniano para estos sistema, enfatizando la importancia de las transformaciones de coordenadas y las restricciones en la mecánica hamiltoniana. Un problema desafiante me requirió encontrar las ecuaciones hamiltonianas y hamiltonianas para una partícula descrita en coordenadas parabólicas (ξ,η,ϕ)(ξ,η,ϕ). Dado el lagrangiano: L=m/2(ξ^2+η^2)(ξ˙^2+η˙^2)+m/2ξ^2η^2ϕ˙^2−U(ξ,η)   Este problema fue fundamental para demostrar la transición del formalismo lagrangiano al hamiltoniano. Transformaciones canónicas Exploré las transformaciones canónicas a través de dos problemas:  Transformación de coordenadas exponenciales:  Dada la transformación:  Q=qe^(γt),P=(p−2Aq)e^(−γt)  Demostré la canonicidad encontrando una función generadora F2(q,P,t). Entonces, para un hamiltoniano de la forma:  H=(p^2e^(-2γt))/2m+(mω^2q^2e^(2γt))/2    Encontré el nuevo K hamiltoniano cuando A=0. Este problema fue crucial para comprender el papel de las funciones generadoras en las transformaciones canónicas y las simplificaciones resultantes en el hamiltoniano.  Transformación de oscilador armónico simple:  Aplicar la transformación:  q=Psin⁡(Q/P), p=Pcos⁡(Q/P)  al hamiltoniano de un oscilador armónico simple:  H=1/2(p^2+q^2)    Después de encontrar el nuevo hamiltoniano K(P,Q,t), resolví las ecuaciones de movimiento para Q y P. A partir de estas soluciones, derivé q(t) y p(t). Este problema proporcionó información sobre el profundo impacto de las transformaciones canónicas en la simplificación del análisis de sistemas físicos. Ecuación de Hamilton-Jacobi Me acerqué a la ecuación de Hamilton-Jacobi en:  Oscilador armónico isotrópico 3D:  Para el hamiltoniano:  H=1/2m(px^2+py^2+pz^2)+k/2(x^2+y^2+z^2)    resolví la ecuación de Hamilton-Jacobi y determiné las funciones x(t), y(t) y z(t). Este problema destacó el poder del método de Hamilton-Jacobi para resolver sistemas multidimensionales.  Oscilador armónico lineal:  Mostraré que la función:  S=mω^2(q^2+α^2)cot⁡ωt−mωqαcsc⁡ωt    es una solución de la ecuación de Hamilton-Jacobi para la función principal de Hamilton correspondiente a un oscilador armónico lineal con hamiltoniano:  H=1/2m(p^2+m^2ω^2q^2)  Este problema reforzó la utilidad de la ecuación de Hamilton-Jacobi para encontrar soluciones exactas a problemas clásicos. En general, estos problemas me proporcionaron una exploración integral de la mecánica avanzada, desde la dinámica hamiltoniana y las transformaciones canónicas hasta la ecuación de Hamilton-Jacobi.
Alvarado Lopéz Maria de Jesús, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Mg. Nadia Judith Olaya Coronado, Universidad de la Costa

IMPACTO AMBIENTAL DE LOS RESIDUOS SóLIDOS EN LA CIUDAD DE MANAGUA, NICARAGUA


IMPACTO AMBIENTAL DE LOS RESIDUOS SóLIDOS EN LA CIUDAD DE MANAGUA, NICARAGUA

Alvarado Lopéz Maria de Jesús, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Mg. Nadia Judith Olaya Coronado, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Según (Chucos, 2020) el ser humano en cada actividad que realiza genera todo tipo de residuos orgánicos e inorgánicos, estos pueden ser de origen urbano, industrial, agrario, médicos, de laboratorios, etc. El problema de la gestión de residuos sólidos se fue agudizando debido a la acumulación de residuos que se ha incrementado en las últimas décadas por el aumento de población, el crecimiento industrial y sobre todo por la deficiente gestión de residuos sólidos de varios países en el mundo y en consecuencia se generan impactos ambientales significativos que afectan a la salud del ser humano y sobre todo al medio ambiente alterando la calidad de los suelos, agua y aire. La generación de residuos sólidos en Managua ha aumentado considerablemente en las últimas décadas, debido al crecimiento poblacional, la aceleración del consumo y la industrialización. Según  (Espinoza , 2020) se estima que la ciudad produce diariamente alrededor de 1600 toneladas de desechos, solo el 7% de los residuos están siendo colectados para su reciclaje y el resto termina en el vertedero controlados o botaderos ilegales, calles y drenajes de la ciudad, agravando el problema de las inundaciones durante la época de lluvias, por lo que durante el verano de investigación se trabajara con la siguiente pregunta: ¿Cómo los residuos sólidos impactan en el medio ambiente de forma negativa y como la gestión municipal tiene un reto grande hoy en día en la ciudad de Managua, Nicaragua?



METODOLOGÍA

La metodología tiene un enfoque analítico, de tipo descriptivo, ya que, según (Hernández y otros, 2014) utiliza la recolección y análisis de los datos para afinar las preguntas de investigación siguiendo áreas o temas significativos de investigación. Para esta investigación se realizó una búsqueda exhausta en bases de datos bibliográficos utilizando palabras clave como "residuos sólidos", "impacto ambiental" en plataformas como Google académico, Redalyc, Dialnet y SciELO con el fin de encontrar documentos de acuerdo al tema de investigación para este estudio se utilizó el método de revisión sistemática que consiste en los siguientes pasos metodológicos: Definición de la Pregunta de Investigación. Establecer criterios de inclusión y exclusión para los estudios a revisar Definir la estrategia de búsqueda de literatura. Búsqueda de Literatura. Selección de datos. Extracción de Datos y síntesis de resultados. Se comenzó con una pregunta clave  para luego establecer los criterios de inclusión los cuales se eligió solamente publicaciones realizadas desde el año 2013 al 2023  los cuales están en un rango de los 10 años y fueron seleccionadas conforme al tema de interés formando parte de revistas universitarias o gubernamentales conteniendo información que abordaran el tema de desechos sólidos, proporcionando datos específicos sobre la generación, composición, manejo y disposición de residuos solido urbano en Managua, y su impacto ambiental asociado; en cuanto  a la exclusión se obvio información de fuentes que no estaban registradas y aprobadas por ninguna comunidad científica, institucional o gubernamental y documentos que se pasaran más del rango establecido.


CONCLUSIONES

El inadecuado manejo de residuos sólidos genera graves impactos ambientales y sanitarios, como contaminación del agua, suelo y aire, y proliferación de vectores de enfermedades. Esto afecta seriamente la salud pública y el medio ambiente en Managua. Para abordar este reto, la municipalidad debe implementar soluciones que incluyan educación ambiental, fortalecimiento de capacidades, mejora de infraestructura y coordinación interinstitucional, trabajando en conjunto con la ciudadanía. Solo así podrá lograrse una gestión integral y sostenible de los residuos sólidos en la capital nicaragüense. Es necesario mencionar que durante la estancia de verano se logró adquirir una serie de conocimientos claves que abarcan aspectos ambientales, de salud, sociales y de gestión. Estos conocimientos son cruciales para desarrollar estrategias efectivas que mitiguen los efectos negativos de los residuos en el entorno y la salud de la población.
Alvarado Orozco Santiago, Universidad Autónoma de Baja California
Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional

CURVAS DE BRILLO DE TETRABORATO DE LITIO CON DIFERENTES TIPOS DE RADIACIóN


CURVAS DE BRILLO DE TETRABORATO DE LITIO CON DIFERENTES TIPOS DE RADIACIóN

Alvarado Orozco Santiago, Universidad Autónoma de Baja California. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Diferentes tipos de radiación interactúan y afectan de forma distinta a los tejidos de nuestro cuerpo, por lo que, para una buena dosimetría, es necesario detectar estas radiaciones y ser capaces de discriminarlas entre sí. En este trabajo se usaron diferentes tipos de radiación para irradiar muestras de tetraborato de litio (Li2B4O7) por ser un material termoluminiscente popular en dosimetría. Lo anterior se hizo con el fin de caracterizar las curvas de brillo obtenidas mediante dosimetría por termoluminiscencia. 



METODOLOGÍA

  Preparación de muestra: Se usó Tetraborato de litio  preparado en CICATA Legaria, el cual fue caracterizado mediante difracción de rayos X. Se hicieron tres muestras colocando 5mg de  en tres charolas de aluminio, finalmente para evitar la perdida de material, se les colocó una gota de silicón y se dejó secar por veinticuatro horas.   Tratamiento térmico: Las muestras se sometieron a una temperatura de  durante cinco minutos con la finalidad de eliminar información indeseada en la muestra, posteriormente las muestras se retiraban de la mufla y se dejaban enfriar a temperatura ambiente. Una vez estaban frías, se guardaban y recubrían en papel aluminio, para evitar que adquirieran alguna señal antes de su irradiación.   Irradiación: Para los rayos X de baja energía, las muestras se colocaron en el punto de irradiación de un mastografo Siotto a una geometría SSD de 56cm irradiando el material a un kV de 36 y un mAs de 80, realizando 20 disparos. En el caso de los rayos X de alta energía, las muestras se irradiaron a una dosis de 10 Gy utilizando un acelerador lineal a 6 MV (linac electa), con una geometría SSD de 100 cm y un tamaño de campo de 10 por 10 cm. Por otra parte, las muestras se expusieron a una fuente  cuya tasa de dosis en el punto de irradiación era 110 mGy/s en la fecha 19 de julio del 2014. Sin embargo, realizando una simulación en Python del decaimiento de la fuente, se encontró que para la fecha de irradiación del  (18 de junio del 2024) esta tasa de dosis era de 87.5 mGy/s. Finalmente, para medir radiación solar, las muestras se expusieron a la luz solar durante dos horas, asegurando que incidiera en ellas de forma constante. En todo proceso de irradiación, las muestras fueron sometidas previamente a un tratamiento térmico de borrado.   Curvas de brillo termoluminiscentes Las curvas de brillo fueron obtenidas con los siguientes parámetros de calentamiento: temperatura inicial de , tasa de calentamiento de  y temperatura final de , los datos fueron graficados y comparados utilizando el software Origin.


CONCLUSIONES

En base a los resultados anteriores, se puede decir que el tetraborato de litio presenta un comportamiento termoluminiscente al ser expuesto a diferentes tipos de radiación, como lo son, rayos X de mastografía, rayos X de radioterapia, partículas beta y radiación solar. Además, en el caso de radiación ionizante, presenta curvas de brillo complejas, aptas para aplicaciones dosimétricas, sin embargo, debido a un pico más prominente en la segunda región, el material sugiere ser buen candidato para aplicaciones en radioterapia. Por otra parte, se observan diferencias en las curvas de brillo debidas a radiación ionizante, por lo que es posible utilizarlo para diferenciar y discriminar diferentes tipos de radiación, lo cual es de relevancia en protección radiológica pues, los diferentes tejidos, reaccionan diferente a cada tipo de radiación ionizante, ya que los diferentes tipos de radiación presentan diferentes calidades y maneras de depositar la energía. Adicionalmente, la radiación no ionizante, muestra una curva de brillo diferente a la generada por radiación ionizante, este material también puede ser utilizado en aplicaciones de radiación solar. Se propone, para trabajo a futuro realizar pruebas con más radiaciones distintas, especialmente ionizantes y determinar la estructura de la curva de brillo como función de la calidad del haz e indagar sobre la respuesta del material al ser expuesto a radiación UV. Otro punto que podría explorarse, es ampliar el rango de calentamiento del material al realizar la lectura con el HARSHAW, para buscar picos en temperaturas mayores.
Alvarez Barajas Cesar, Universidad de Guadalajara
Asesor: Dra. Ma. Estela Calixto Rodríguez, Benemérita Universidad Autónoma de Puebla

PELíCULAS DELGADAS DE NI3SE2 PARA APLICACIONES EN SUPERCAPACITORES.


PELíCULAS DELGADAS DE NI3SE2 PARA APLICACIONES EN SUPERCAPACITORES.

Alvarez Barajas Cesar, Universidad de Guadalajara. Asesor: Dra. Ma. Estela Calixto Rodríguez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Actualmente, la demanda en la industria por el desarrollo de nuevos materiales está en constante aumento, especialmente en las áreas de electrónica y energías renovables. Un ejemplo de ello es el desarrollo de materiales para supercapacitores, dispositivos que destacan por su alta densidad de potencia y su rápida tasa de carga/descarga, además de contar con un ciclo de vida superior al de un capacitor convencional. Un supercapacitor almacena menos energía que una batería, pero entrega una mayor cantidad al consumidor en el mismo plazo. A diferencia de las baterías electroquímicas, que son inherentemente inestables frente a variables externas como la temperatura, estos dispositivos no pueden explosionar, por lo que ofrecen mayor seguridad. Por esta razón, se busca la investigación y desarrollo de nuevos materiales que sean más eficientes y económicos de fabricar, con el fin de potenciar el avance tecnológico e industrial.  



METODOLOGÍA

En este trabajo se usó la técnica de depósito electroquímico (ED) en modo potenciostato para intentar obtener películas delgadas de Ni3Se2 sobre un sustrato de vidrio con una capa conductora de FTO, además se realizó la caracterización del material para obtener sus propiedades físicas. Para el desarrollo teórico se comenzó con el planteamiento teórico para la preparación de materiales, es decir, siempre se inicia tomando en cuenta la fórmula química del compuesto a obtener, en este caso se desea obtener el Ni3Se2, para ello se usó sulfato de níquel (NiSO4·6H2O) y ácido selenioso (H2SeO3) y se prepararon disoluciones electrolíticas individuales a una concentración de 0.5  M. A partir de estas disoluciones de Ni y Se individuales se preparan dos tipos de disoluciones una de baja concentración molar, para realizar las voltametrías cíclicas, y una más concentrada para realizar los depósitos de las películas delgadas de Ni3Se2.   Para encontrar la cantidad en gramos tanto del sulfato de níquel como del ácido selenioso, se multiplicó el peso molecular por la concentración molar y esto por el volumen. Esto dio como resultado 13.14 gr de Ni y 6.44 gr de Se. Para elaborar la disolución se usó una proporción de 3:2, 0.003 M de Ni y 0.002 de Se. Conociendo el volumen final y la concentración tanto inicial como final, podemos encontrar el volumen inicial que se requiere para la disolución. Haciendo estos cálculos, se encontró que para la voltametría cíclica se requerían 0.3 ml de Ni y 0.2 ml de Se. Después del primer experimento, se cambió la proporción a 5:2 debido a que solo se obtenía selenio, por lo que se volvió a hacer otra disolución ahora con una concentración de 0.005 M de Ni y 0.002 M de Se. Para las voltametrías se usaron 0.5 ml de Ni y 0.2 ml de Se y para los depósitos 5 ml de Ni y 2 ml de Se.   Para la preparación del material se empieza con el lavado de los sustratos, primero se identifica el lado conductor donde se encuentra el FTO usando un multímetro para medir continuidad y asegurar que el material se deposite en el lado conductivo, posteriormente se enjuagan usando jabón neutro y agua desionizada y se ponen en un vaso de precipitados donde se coloca en un baño ultrasónico por 15 min, después pasan a un vaso con acetona y se aplica otro baño ultrasónico por 15 min, por último pasan a un vaso con etanol y se aplica el último baño ultrasónico con la misma duración, finalmente los sustratos se sacan del etanol y se secan con nitrógeno. Después de este proceso, los sustratos se guardan en pomaderas y ya están listos para su uso. El depósito electroquímico consiste en un proceso donde se aplica una corriente eléctrica para reducir sobre la superficie del cátodo los cationes contenidos en una solución acuosa. Al ser reducidos, los cationes precipitan sobre la superficie, creando así la película delgada sobre la superficie del sustrato. El sistema de depósito electroquímico utiliza una celda con 3 electrodos y se hace un arreglo en forma de placas paralelas, en el cátodo se coloca el electrodo de trabajo donde se conecta el sustrato mediante un caimán, en frente de este se encuentra el contraelectrodo (malla de platino) y entre ambos el electrodo de referencia Ag/AgCl. Con el potenciostato y el software Framework Echem Analyst del equipo se realizaron las voltametrías cíclicas y la Cronoculometría. Las películas delgadas de Cu3Se2 obtenidas fueron llevadas al laboratorio central para realizar la caracterización de sus propiedades físicas. Algunas de las técnicas que se usaron para la caracterización fueron: la espectroscopia Raman, transmitancia óptica, perfilometría, e imágenes de la morfología por medio del microscopio de fuerza atómica AFM y microscopía óptica.  


CONCLUSIONES

Al evaluar los resultados, observamos que posiblemente no se obtuvo el Ni3Se2 (diseleniuro de triniquel), ya que el desplazamiento Raman obtenido no coincide con este compuesto. Sin embargo, es posible que se haya formado otro compuesto de níquel y selenio con propiedades y aplicaciones distintivas, como el NiSe2 (diseleniuro de níquel). Para confirmar la formación de estos materiales y determinar su estructura cristalina, es necesario analizar las muestras mediante difracción de rayos X, microscopía electrónica de barrido y análisis de composición química por la espectroscopia de dispersión de energía por rayos X (EDS). En conclusión, los resultados de este trabajo nos proporcionan nuevas perspectivas para explorar parámetros adicionales en el desarrollo de este material mediante la técnica de electrodepósito. Esto podría permitir la obtención de Ni3Se2 de manera rápida y económica, lo que a su vez beneficiaría el avance tecnológico en diversas aplicaciones. La optimización de parámetros como el pH y la concentración molar de los elementos no solo mejoraría la eficiencia de la síntesis, sino que también podría abrir nuevas vías para la implementación de este material en dispositivos avanzados.   
Alvarez Benitez Gonzalo, Instituto Tecnológico de Colima
Asesor: Mtra. Leticia Oguri Campos, Tecnológico de Estudios Superiores de Jocotitlán

DISEñO DE KINECTBRICK MEDIANTE EL USO DEL MACHIHEMBRADO MILANO


DISEñO DE KINECTBRICK MEDIANTE EL USO DEL MACHIHEMBRADO MILANO

Alvarez Benitez Gonzalo, Instituto Tecnológico de Colima. Asesor: Mtra. Leticia Oguri Campos, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la industria de la construcción enfrenta desafíos constantes relacionados con la eficiencia, sostenibilidad y adaptabilidad. Los métodos de construcción tradicionales suelen ser lentos, generar muchos residuos según la Secretaría de medio ambiente, Durante el año 2022, se enviaron 6,555.25 toneladas de residuos  al día a cinco rellenos sanitarios ubicados en estados aledaños a la Ciudad de México. La búsqueda de mejorar la eficiencia constructiva, crear espacios dinámicos y funcionales de las edificaciones, centra este trabajo en el diseño y creación de un modelo de bloque que sea movible siendo de suma importancia ya que según se afirma que los edificios construidos con este sistema son tan diversos como los usuarios que los habitan. Además, tienen la capacidad de transformarse en el tiempo, adaptándose a las necesidades, expectativas y condiciones cambiantes de sus habitantes, por lo que reafirma la importancia de una construcción dinámica. Además la industria de la construcción está en constante evolución, buscando soluciones innovadoras que optimicen procesos, reduzcan costos y minimicen el impacto ambiental. En este contexto, el presente proyecto realizó una propuesta de un sistema de construcción modular innovador mediante bloques, que combina las ventajas de KinectBrick, un sistema de bloques de construcción modular, y el machiembrado, un sistema oriental de unión de madera. En un mundo dinámico y cambiante es necesario que la construcción también lo sea, la búsqueda de creación de viviendas económicas y con poco impacto ambiental es indispensable en un mundo con recursos limitados, teniendo como premisa lo anterior la propuesta de generar construcciones modulares con baja carga ambiental es una alternativa viable y sostenible.  Los Objetivos de Desarrollo Sostenible (ODS) tienen un papel fundamental en la creación de nuevas técnicas de construcciones sostenibles de acuerdo al objetivo número 9 que habla sobre construir infraestructuras resilientes, promover la industrialización sostenible y fomentar la innovación, de las cuales el crecimiento económico, el desarrollo social y la acción por el clima dependen en gran medida de las inversiones en infraestructuras, el desarrollo industrial sostenible y el progreso tecnológico.



METODOLOGÍA

La  investigación se basa en un diseño experimental caracterizado por el control de variables experimentales para evaluar la viabilidad técnica del desarrollo de un prototipo. Este enfoque experimental incluye la determinación de las propiedades físicas y mecánicas de los encofrados de madera en comparación con otros materiales, así como la posibilidad de elegir este material.  Se propone dividir este proyecto en tres fases: corto, mediano y largo plazo, para explicar mejor la investigación según la fase de investigación teórica, práctica y de evaluación. Además, durante el estudio se establecieron estudios de viabilidad internos en función de los avances alcanzados. Esto incluye la interpretación y evaluación de resultados y consecuencias. En la fase a corto plazo se realizó una exhaustiva investigación de tipologías de ensamblado enfocándonos en el machihembrado además de la arquitectura modular, las cuales sientan las bases del proyecto. Se considera que la investigación fue bastante completa ya que se pudo obtener la información suficiente para decantarnos entre un tipo de ensamblaje. Además se investigó sobre casos análogos para recabar información de lo que se ha hecho y como se puede mejorar. En la fase a mediano plazo en base a la información obtenida en la etapa documenta se selecciona el ensamblado milano ya que se concluyo que es el más óptimo para la creación del bloque procediendo a realizar el modelo 3d del prototipo del bloque obteniendo uniones positivas en la parte superior y negativas en la inferior.  Se optó la contratación de un carpintero para armar el molde del bloque ya que se consideró la manera más óptima de crearlo, se creó un plano de ensamble en donde se especifican dimensiones de cada parte del molde y de cómo unirse.  En la fase a largo plazo, una vez creado el molde se comenzó a hacer pruebas de creación del bloque, dando como resultado la creación exitosa del mismo, además se evaluaron las propiedades físicas del mismo concluyendo que cumple con el objetivo de crear un nuevo elemento constructivo innovador.


CONCLUSIONES

El diseño del bloque ha cumplido con el objetivo planteado, logrando crear un nuevo bloque innovador que permite a la industria de la construcción contar con elementos constructivos novedosos. Este diseño no solo facilita el proceso de construcción, sino que también ofrece características de uso únicas así como los usuarios que lo utilicen. Se considera que el diseño del molde podría ser más eficiente ya que su forma dificulta el desmolde de las piezas lo cual retrasa la producción del bloque. Al parecer, la geometría compleja del molde, especialmente en las zonas más angostas, generan una mayor fricción con el material a moldear, dificultando su liberación.
Alvarez Sandoval Vanessa, Universidad Autónoma del Estado de México
Asesor: Dr. Héctor Reyes Bonilla, Universidad Autónoma de Baja California Sur

ANÁLISIS DE LA BIODIVERSIDAD Y SU RELACIÓN CON LOS SERVICIOS AMBIENTALES EN EL PARQUE NACIONAL CABO PULMO.


ANÁLISIS DE LA BIODIVERSIDAD Y SU RELACIÓN CON LOS SERVICIOS AMBIENTALES EN EL PARQUE NACIONAL CABO PULMO.

Alvarez Sandoval Vanessa, Universidad Autónoma del Estado de México. Asesor: Dr. Héctor Reyes Bonilla, Universidad Autónoma de Baja California Sur



PLANTEAMIENTO DEL PROBLEMA

Uno de los problemas ambientales que han suscitado mayor interés mundial en esta década es la pérdida de biodiversidad como consecuencia de las actividades humanas, ya sea de manera directa o indirecta. La biodiversidad o diversidad biológica se define como la variabilidad entre los organismos vivientes de todas las fuentes, incluyendo, entre otros, los organismos terrestres, marinos y de otros ecosistemas acuáticos, así como los complejos ecológicos de los que forman parte; esto incluye diversidad dentro de las especies, entre especies y de ecosistemas (Arroyo Chacón et al., 2013). Hoy en día el PNCP enfrenta desafíos significativos debido a la creciente presión antropogénica y los cambios ambientales globales. Estos factores podrían estar afectando la biodiversidad marina del área, la cual es crucial para la provisión de servicios ambientales como la pesca sostenible y el turismo. Por lo anterior se requiere entender cómo el estado de la biodiversidad está relacionado con la disponibilidad y calidad de los servicios ambientales. Por lo anterior, en este estudio se realizó un análisis de indicadores de la diversidad marina y su relación con los servicios ambientales en el PNCP, los cuales permiten conocer la aportación que proveen los ecosistemas a la sociedad



METODOLOGÍA

El estudio se fundamentó en una base de datos de censos en el PNCP que contiene 85 especies de peces en 204 transectos visuales de 25 x 4 m, tomados en seis sitios dentro del ANP, entre los meses de agosto del 2023 a febrero del 2024. El primer análisis consistió en realizar investigación bibliográfica y teórica para elegir los índices de biodiversidad más adecuados para evaluar la estructura de la comunidad de peces, y se eligieron la riqueza, abundancia y diversidad (Espinosa, 2024). Estos índices fueron calculados para cada transecto con la ayuda del programa estadístico de PAST 2.0. Posteriormente se identificaron los servicios ambientales que ofrecen los peces en el PNCP tomando en cuenta una clasificación obtenida por el investigador a cargo de la estancia, en la cual se muestran 12 servicios clasificados en cuatro categorías sostén (Fijadores de nitrógeno, trasportadores de energía y producción de sedimento carbonatado), regulación (Herbívoros, carnívoros y limpiadores), aprovechamiento (Pesca de ornato, pesca comercial y pesca deportiva) y cultura (especies protegidas en la NOM, especies endémicas y especies carismáticas). Para calcular la abundancia de especies que ofrecen cada servicio por transecto se utilizó el programa Excel, en donde se organizaron los datos en una tabla con las columnas de especies, servicio ambiental y transectos. Una vez con estos datos se hizo la estandarización de los 12 servicios en los 204 transectos, calculando los valores mínimos y máximos de abundancia en cada servicio Por último, para identificar la relación entre la provisión de servicios ambientales en el PNCP y la riqueza, abundancia y diversidad de especies, se calcularon correlaciones estadísticas y la P en el programa estadístico PAST 2.0 utilizando los datos obtenidos por cada índice de biodiversidad y los datos normalizados por cada servicio ambiental.


CONCLUSIONES

Índice de riqueza (S): Los resultados obtenidos nos muestran que los sitios con mayor número de especies presentes tuvieron entre 21 y 26 especies, mientras que los que muestran menor riqueza presentaron solamente entre 4 y 7 tipos de peces. Índice de abundancia (N): Los sitios con mayor cantidad de organismos tuvieron entre 683 y 1,096 individuos por transecto, y los valores más bajos fluctuaron entre 6 y 7 peces. Índice de diversidad de Shannon (H): Los sitios con mayor diversidad de organismos tuvieron entre 2.10 y el 2.76 de uniformidad de peces por transecto, mientras los valores mas bajos fluctuaron entre los 0.24 y 0.40 de peces. Índice de equidad de Pielou (J): Los sitios con mayor equidad de organismos tuvieron 1 como mayor porcentaje de equidad, mientras que los más bajos fluctuaron en 0.14 de equidad por transecto. Resultados de la relación biodiversidad y servicios ambientales: Los indicadores de riqueza y abundancia tienen relación con 11 de los 12 servicios ambientales, con la excepción de los fijadores de nitrógeno (categoría de sostén). Resultados de la relación biodiversidad y servicios ambientales: En el  índice de riqueza y abundancia los resultados fueron similares con  las relaciones más altas como las tienen: los organismos trasportadores de energía, productores  de sedimento carbonatado, carnívoros, herbívoros limpiadores, pesca comercial, pesca de ornato y pesca deportiva, especies protegidas en la NOM, especies endémicas y especies carismáticas mientras que el único servicio en no tener relación fue el de los fijadores de nitrógeno. CONCLUSIONES Los resultados obtenidos confirman que los indicadores ecológicos de la comunidad de especies de peces en el PNCP se relacionan significativamente con los servicios ambientales de tal manera que va ligado con el objetivo 14 de la vida submarina de la ODS de la agenda 2030 para Conservar y utilizar de forma sostenible los océanos, mares y recursos marinos para lograr el desarrollo.  Esto representa: Ventajas sociales: Debido a la creación del PNCP se han generado beneficios para a comunidad local como la generación de empleos y la participación de la comunidad para la conservación de los recursos naturales. Ventajas económicas: la protección del área Ha generado el aumento de turismo y generación de ingresos por la venta de servicios relacionados con la conservación de la naturaleza. Ventajas ambientales: el aumento de la diversidad marina, conservación de especies endémicas y protegidas en la NOM, riqueza y abundancia de peces en la cadena trófica que ayudan a la regulación las poblaciones de otras especies. La biodiversidad tiene efectos positivos en los servicios ambientales y eso puede ayudar a identificar áreas prioritarias dentro del parque, permitiendo una gestión más eficiente y que favorezca el desarrollo sostenible.        
Ambriz Hernandez Abdiel, Instituto Politécnico Nacional
Asesor: M.C. Bertha Nelly Cabrera Sanchez, Instituto Politécnico Nacional

ADAPTACIóN DE DISPOSITIVO DE DETECCIóN DE GASES EN DRON PARA MAPEOS DE DISTRIBUCIóN ESPACIAL DE GASES


ADAPTACIóN DE DISPOSITIVO DE DETECCIóN DE GASES EN DRON PARA MAPEOS DE DISTRIBUCIóN ESPACIAL DE GASES

Ambriz Hernandez Abdiel, Instituto Politécnico Nacional. Asesor: M.C. Bertha Nelly Cabrera Sanchez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El uso de dispositivos para la detección de gases es importante en ciudades o lugares con alta concentración de personas por varias razones. Estos dispositivos permiten monitorear la calidad del aire en tiempo real, lo que es crucial para identificar y mitigar la presencia de contaminantes nocivos que pueden afectar la salud pública. En áreas urbanas, la contaminación del aire puede provenir de diversas fuentes, como el tráfico vehicular, las industrias, y la construcción, y su control es esencial para prevenir enfermedades respiratorias y cardiovasculares. Además, estos dispositivos ayudan a las autoridades a implementar y evaluar políticas ambientales, a tomar decisiones informadas sobre la gestión del tráfico y las emisiones industriales, y a alertar a la población en caso de niveles peligrosos de contaminantes. El adaptar un dispositivo como el Sniffer 4D a un dron Mavic 3 de DJI ofrece varias ventajas y posibilidades. Permite realizar monitoreos de la calidad del aire en áreas de difícil acceso, como zonas industriales, áreas contaminadas, o terrenos de difícil acceso, de manera más eficiente y segura. Proporciona datos en tiempo real y a diferentes altitudes, lo que ayuda a obtener un perfil más completo de la distribución de gases en una zona específica. Además, el uso de un dron agiliza la cobertura de grandes áreas en menos tiempo comparado con métodos tradicionales de monitoreo. Facilita también la recolección de datos en situaciones de emergencia, como derrames químicos o incendios, sin poner en riesgo la seguridad del personal. Asimismo, permite la integración de los datos de detección de gases con otros sensores del dron, como cámaras térmicas y ópticas, para ofrecer una visión más completa y detallada del entorno analizado.  



METODOLOGÍA

Para la adaptación de un sensor Sniffer a un dron Mavic, primero se utilizó un escáner de digitalización 3D para obtener modelos tridimensionales precisos tanto del dron como del sensor. Este paso fue fundamental para capturar todos los detalles y dimensiones necesarios para el diseño del soporte. Con los modelos 3D obtenidos, se llevó a cabo un proceso de ingeniería inversa, analizando las estructuras y características de ambos componentes para diseñar un soporte que los integrara sin interferir con sus funciones principales. Utilizando el software Autodesk Fusion 360, se desarrolló el diseño del soporte. Durante esta fase, se consideraron cuidadosamente la posición y orientación de los sensores y cámaras del dron para asegurarse de que no fueran obstruidos por el nuevo soporte. Se realizaron varias iteraciones del diseño para optimizar la estabilidad y funcionalidad del montaje. En Autodesk Fusion 360, se creó el modelo 3D del soporte, y se realizaron simulaciones y ajustes necesarios para garantizar que pudiera sostener el sensor de manera segura y eficiente durante el vuelo del dron. Una vez finalizado el diseño, el modelo del soporte se imprimió en 3D utilizando materiales adecuados para asegurar durabilidad y ligereza. La impresión 3D permitió obtener un prototipo físico del soporte para realizar pruebas prácticas. El soporte impreso en 3D se instaló en el dron Mavic junto con el sensor Sniffer, y se realizaron pruebas de vuelo para evaluar la funcionalidad del soporte y su impacto en el rendimiento del dron. Durante estas pruebas, se observaron posibles mejoras y se realizaron los ajustes necesarios en el diseño. Con base en los resultados de las pruebas, se efectuaron las modificaciones finales al diseño del soporte. Se realizaron nuevas impresiones y pruebas hasta obtener un montaje óptimo que garantizara la integración eficaz del sensor Sniffer con el dron Mavic, sin comprometer el funcionamiento de sus sensores y cámaras. Esta metodología permitió una integración precisa y funcional del sensor Sniffer con el dron Mavic, asegurando que el sistema resultante fuera adecuado para realizar monitoreos de gases de manera eficiente en diversas condiciones y entornos. Además, el Sniffer se implementó a nivel del suelo, encerrándolo en una caja de acrílico con un volumen de un metro cúbico, construida específicamente para este propósito. Esta caja permitió medir la respiración del suelo en diferentes lugares, proporcionando datos valiosos sobre la calidad del aire y los procesos biológicos en el suelo. La construcción de la caja de acrílico se realizó considerando la durabilidad y la capacidad de aislamiento para asegurar mediciones precisas y confiables en diversas condiciones ambientales.  


CONCLUSIONES

La combinación de estas dos metodologías de implementación—tanto aérea como terrestre—demuestra la versatilidad y efectividad del sensor Sniffer para el monitoreo ambiental. La capacidad de obtener datos precisos y en tiempo real sobre la concentración de gases en distintos entornos contribuirá significativamente a estudios ambientales y a la implementación de políticas de control de la calidad del aire. Este proyecto no solo resalta la importancia de la innovación en la integración de tecnologías avanzadas, sino también su potencial impacto positivo en la protección del medio ambiente y la salud pública.  
Amezcua Hernández Daniela, Universidad Autónoma de Baja California
Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México

ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO Y SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS


ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO Y SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS

Amezcua Hernández Daniela, Universidad Autónoma de Baja California. Castro Gonzalez Yuliana Estefanía, Universidad de Sonora. Ku Nah Mariana, Universidad Autónoma de Baja California. Nova Guinchin Juan Felipe, Universidad de Caldas. Velasquez Salinas Mildreth Mariam, Universidad de Sonora. Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La migración magmática durante el Cretácico tardío-Eoceno, en relación con la subducción de la placa oceánica Farallón bajo la placa norteamericana, es un proceso geológico complejo que aún no se comprende completamente. Esta subducción ha generado magmas que, al ascender, se contaminan con los basamentos precámbricos antiguos presentes en el noroeste de México (Baja California, Sonora y Chihuahua) y el suroeste de Estados Unidos (California, Arizona y Nuevo México). Entender este fenómeno es crucial para reconstruir la evolución tectónica y magmática de estas regiones, ya que la interacción entre los magmas y los basamentos antiguos afecta significativamente la composición final de los magmas, influenciando la formación de minerales y la geología regional. Sin embargo, la caracterización detallada de estos procesos y sus implicaciones geológicas no ha sido completamente documentada. Durante la estancia de verano de investigación, se busca abordar este problema mediante una serie de actividades centradas en la recolección y análisis de muestras geológicas, así como en la capacitación en técnicas avanzadas de geoquímica y geocronología. Estos esfuerzos están dirigidos a proporcionar una comprensión más profunda de cómo la subducción y la contaminación magmática han moldeado la estructura geológica del noroeste de México y el suroeste de Estados Unidos, contribuyendo así a un mayor conocimiento de los procesos tectónicos y magmáticos globales.



METODOLOGÍA

Durante la estancia de verano, se han llevado a cabo diversas actividades enfocadas en la separación mineral para determinar la evaluación de la migración magmática y la contaminación de magmas con basamentos precámbricos. Las principales actividades incluyen: Organización y manejo de muestras: Se ha realizado el inventariado y almacenamiento de muestras geológicas, asegurando una correcta catalogación y preservación de cada muestra para su posterior análisis. Preparación de secciones delgadas: Se han preparado secciones delgadas de rocas plutónicas, permitiendo la observación detallada de las texturas y composiciones minerales mediante técnicas de microscopía. Capacitación en separación mineral: Los estudiantes han recibido entrenamiento en técnicas de separación mineral, esenciales para estudios geocronológicos específicos como U-Pb y Ar-Ar. Este conocimiento es crucial para determinar las edades de cristalización y eventos térmicos de las rocas estudiadas. Preparación de muestras: Las muestras previamente recolectadas se han pulverizado, tamizado, etiquetado y almacenado adecuadamente para su análisis geoquímico. Caracterización de circones: Utilizando métodos de microscopía óptica y electrónica (SEM), se han caracterizad circones, lo cual es fundamental para entender los procesos de cristalización y evolución magmática de las rocas. Seminarios semanales: Se han llevado a cabo seminarios semanales en los que se discuten diversas temáticas relacionadas con el proyecto. Estos seminarios incluyen presentaciones de doctores del instituto, estas ayudan a fomentar el intercambio de conocimientos y el desarrollo de habilidades de comunicación científica. Ablación de zircones: Se han llevado a cabo procesos de ablación láser de zircones para análisis de geoquímica isotópica. Esta técnica permite la medición precisa de las concentraciones de elementos traza y las relaciones isotópicas, proporcionando información crucial sobre la edad de las rocas.


CONCLUSIONES

Hasta el momento, las actividades han permitido una mejor comprensión de los procesos de migración magmática y la interacción de los magmas con los basamentos precámbricos. Se espera que los resultados finales contribuyan significativamente a la geocronología y geoquímica regional, proporcionando datos valiosos para futuros estudios tectónicos y magmáticos. Estos hallazgos podrían ofrecer nuevas perspectivas sobre la evolución geológica de la región y ayudar a resolver preguntas clave sobre la dinámica de subducción y la formación de magmas contaminados.
Anaya Orozco María Belén, Universidad de Guadalajara
Asesor: Dr. José Carlos Jiménez Escalona, Instituto Politécnico Nacional

DETECCIóN DE CENIZA DEL POPOCATéPETL USANDO PERCEPCIóN REMOTA (PERIODO ENERO-JUNIO DEL 2022)


DETECCIóN DE CENIZA DEL POPOCATéPETL USANDO PERCEPCIóN REMOTA (PERIODO ENERO-JUNIO DEL 2022)

Anaya Orozco María Belén, Universidad de Guadalajara. Asesor: Dr. José Carlos Jiménez Escalona, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El volcán Popocatépetl, ubicado en el centro de México, es uno de los volcanes más activos del país y representa un riesgo constante para la población y especialmente para la aviación tanto privada como comercial. Las erupciones del Popocatépetl pueden generar grandes cantidades de ceniza volcánica que se dispersa en la atmósfera, afectando la calidad del aire y con ello las aerovías por donde transitan cientos de aviones de forma diaria. Por ejemplo, en mayo de 2023, las operaciones en el Aeropuerto Internacional de la Ciudad de México (AICM) y el Aeropuerto Internacional Felipe Ángeles (AIFA) fueron interrumpidas debido a la caída de ceniza volcánica, lo que resultó en la cancelación y desvío de muchos vuelos. Durante un solo evento, alrededor de 75 vuelos fueron cancelados en el AICM y el AIFA, afectando tanto salidas como llegada. En un período reciente de alta actividad volcánica, más de 1,200 vuelos en el AICM fueron impactados por la caída de ceniza. Estas interrupciones no solo afectan a los pasajeros, sino también a las aerolíneas, que deben implementar políticas de reprogramación y atención al cliente para mitigar los inconvenientes causados. De esta manera, la detección y monitoreo de la ceniza volcánica es esencial para la gestión del riesgo y la implementación de medidas de prevención y mitigación. Sin embargo, la observación directa en tiempo real presenta desafíos significativos debido a la inaccesibilidad y peligrosidad de la dinámica de las erupciones volcánicas, es así donde cobra importancia el uso de sensores satelitales y en nuestro caso específico, los sensores AQUA y TERRA, los cuales, nos permiten obtener imágenes cada cierto intervalo de tiempo de nuestra región de interés y con ello detectar la ceniza a tiempo. Adicionalmente, se buscó generar simulaciones de la dispersión de ceniza posterior a la recopilación de datos e imágenes, con el fin de alertar a las aerolíneas y minimizar el riesgo para la aviación.



METODOLOGÍA

Para llevar a cabo este trabajo fue necesario inicialmente consultar los reportes de la VAAC de Washington, esto con la finalidad de conocer los días de erupciones volcánicas en el periodo de enero a junio del año 2022, así como información relevante que usaremos después, como lo fue la hora de emisión, la dirección de la nube de ceniza, su nivel de vuelo y su velocidad de desplazamiento. Posteriormente a esto se realizó una búsqueda de imágenes MODIS de los satélites TERRA y AQUA considerando hasta 8 horas después de haber ocurrido la emisión de ceniza según los reportes de la VAAC. Una vez teniendo nuestro banco de imágenes de ambos satélites, se inició el procesamiento de estas en ENVI, en primer lugar seleccionábamos las bandas 31, con una longitud de onda de 11 micrómetros, y 32 con 12 micrómetros, se hacía uso exclusivamente de estas dos bandas porque considerábamos la firma espectral de la ceniza volcánica, la cual, puede ser detectada mediante el análisis de las temperaturas de brillo en estas bandas. La diferencia de temperatura de brillo entre las bandas 31 y 32 nos dará como resultado un número negativo, el cual, puede asegurarnos que se trata de ceniza y no de nubes de hielo, por ejemplo. Enseguida georreferenciamos la imagen usando WSG-84, esto consiste en asignar coordenadas geográficas precisas a cada píxel de la imagen.  Al obtener  los píxeles negativos de interés podemos "colorearlos" y guardar nuestra imagen. Si bien ahora tenemos nuestras imágenes procesadas, una parte muy importante de esta metodología es generar modelos donde podamos simular la ceniza, para esto haremos uso de HYSPLIT donde simularemos la dispersión del contaminante en el espacio aéreo de cada día de erupción reportado por la VAAC en el periodo correspondiente.  Finalmente, tomaremos la última hora (tomando en cuenta todavía un margen de 8 horas) y realizaremos mapas de probabilidad con ayuda de QGIS, Surfer y nuevamente ENVI, estos mapas nos serán útiles para identificar zonas con mayor y menos probabilidad de ser afectadas por erupciones y con ello las aerovías que quedarían inhabilitadas. 


CONCLUSIONES

De lo anterior podemos afirmar que la detección y monitoreo de la ceniza volcánica mediante sensores satelitales, representa una herramienta vital para la gestión del riesgo aeronáutico asociado a las erupciones volcánicas. La capacidad de observar la atmósfera desde el espacio y detectar la presencia de ceniza a través de la diferencia en las temperaturas de brillo permite una respuesta más rápida y eficaz. A su vez, la simulación de la dispersión de ceniza mediante el modelo HYSPLIT ofrece una herramienta esencial para prever el impacto de las erupciones volcánicas y la potencial afectación a las rutas aéreas. La combinación de datos satelitales y modelos de dispersión permite la generación de mapas de probabilidad, que son útiles para la planificación y la toma de decisiones en la gestión de riesgos. Finalmente, si bien la metodología presentada es eficaz para la problemática presentada, enfrenta ciertos desafíos. La precisión en la detección y simulación de ceniza volcánica depende de la calidad y frecuencia de las imágenes satelitales y la exactitud de los modelos de dispersión. En conclusión, el uso de tecnología satelital y modelos de dispersión representa un avance significativo en la gestión de riesgos asociados a la ceniza volcánica. La continua mejora y adaptación de estas herramientas será clave para enfrentar los desafíos futuros relacionados con la actividad volcánica.
Antonio Hernández Dalia, Universidad Veracruzana
Asesor: Dra. Rocío García Martínez, Universidad Nacional Autónoma de México

DETERMINACIóN DE LAS CARACTERíSTICAS FISICOQUíMICAS Y METALES PESADOS DEL AGUA DE LLUVIA DE LA REGIóN DE ORIZABA


DETERMINACIóN DE LAS CARACTERíSTICAS FISICOQUíMICAS Y METALES PESADOS DEL AGUA DE LLUVIA DE LA REGIóN DE ORIZABA

Antonio Hernández Dalia, Universidad Veracruzana. Asesor: Dra. Rocío García Martínez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

A la fecha, en México son pocos los estudios que evalúan el impacto de la contaminación atmosférica en la calidad del agua de lluvia en regiones con ecosistemas montañosos, y cómo ésta afecta directa o indirectamente a la superficie terrestre y cuerpos de agua. Nuestra región de estudio se centra en Ciudad de Orizaba, Ver, la región de Orizaba, Veracruz a la que hemos nombrado Eco-región de Orizaba, la cual no se limita sólo a las actividades primarias, ya que se es fácil identificar un sinnúmero de industrias de tipo alimenticio, metalurgia, farmacéutica, química, papelera, alcoholera y cementera, entre otros. Por lo anterior, resulta efectivo considerar la utilización del agua pluvial con el fin de cubrir y completar la demanda de la población en crecimiento. Ya que, a pesar de que la región cuenta con diversos tipos de escurrimientos por parte del deshielo de los glaciares del Pico de Orizaba.  



METODOLOGÍA

La composición química del agua de lluvia esta influenciada por las emisiones naturales y antropogénicas provenientes de diferentes regiones que existen alrededor del área a estudiar esto quiere decir que las emisiones generadas por dichas áreas pueden contribuir y alterar la composición química del agua de lluvia. Por ello, en el siguiente trabajo se analizarán las características fisicoquímicas y metales pesados presentes en el agua de lluvia (Al, Cd, Cr, Cu,Fe, Mn, Ni, Pb). Las muestras se colectaron utilizando un colector de lluvia automático, modelo 78-100, fue utilizado para la colección de la precipitación pluvial. Para el muestreo se utilizaron cubetas de polietileno de alta densidad (HDPE).


CONCLUSIONES

Las 20 muestras colectadas, se analizarán utilizando la técnica de Espectrometría de Absorción Atómica acoplado a Horno de Grafito. El análisis de estos componetes permitiran conocer el riesgo e impacto para la salud humanada debido a la composición de los metales pesados, que resulta ser tóxica y generar diversas condiciones de salud en la población.
Anzures Gutiérrez María Elí, Universidad Autónoma de Sinaloa
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

GALAXY MAQUILA: ESTUDIO DE LAS GALAXIAS BRILLANTES DEL CUMULO DE VIRGO EN EL INFRAROJO.


GALAXY MAQUILA: ESTUDIO DE LAS GALAXIAS BRILLANTES DEL CUMULO DE VIRGO EN EL INFRAROJO.

Anzures Gutiérrez María Elí, Universidad Autónoma de Sinaloa. Salazar Hermosillo Aura Angelica, Universidad Autónoma de Sinaloa. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las galaxias son colecciones de miles de millones de estrellas, polvo, gas y materia oscura y estas componen nuestro universo. Las galaxias tienen muchas formas y tamaños, desde galaxias enanas del tamaño de cúmulos de estrellas, hasta elípticas gigantes que colapsarían nuestra propia galaxia. Se clasifican en espirales, espirales barradas, elípticas e irregulares, cada galaxia tiene diferentes tipos de poblaciones estelares, las espirales tienen estrellas mas azules y polvo mientras que las elípticas tienen estrellas mas rojas y menos polvo ademas las elípticas pueden ser muy pequeñas o muy gigantescas  



METODOLOGÍA

Usamos Galfit, es un algoritmo que ajusta parámetros en una o mas funciones para tratar de igualar la forma de una galaxia, con esta herramienta generamos modelos en las bandas H, J y K. También usamos EllipSect, este algoritmo nos genera perfiles del brillo superficial respecto al radio de la galaxia. SAOImageDs9 es un programa que nos ayuda a visualizar imágenes astronómicas. Primero comenzamos creando una psf para cada imagen, esta sirve para corregir el efecto de la atmósfera, ya que la atmósfera puede distorsionar la forma de las estrellas, las puede hacer mas alargadas cuando son circulares. Seleccionamos una estrella cerca de la galaxia que no estuviera saturada y creamos su modelo con Galfit por medio de un archivo de texto donde ponemos los parametros y las funciones que queremos ajustar para el modelo de la psf. Después creamos una mascara de la galaxia, esto es para crear su modelo aunque hay otras formas de hacerlo. Para crear la mascara primero seleccionamos una región del cielo para poder ver que tan brillante esta y esto restarlo a la galaxia. Después generamos otra región pero donde solo contuviera la galaxia. Ya con la mascara y nuestra psf pasamos a crear el modelo de la galaxia, para esto usamos un archivo de texto como el de la psf y aquí dependiendo de la galaxia y objetos que tengamos en la imagen, sera la cantidad y tipos de funciones que vamos a ajustar. Debemos tener un modelo muy parecido a la galaxia, dependiendo de la galaxia sera el residuo que obtengamos, también debemos hacer que el valor de Chi^2/nu sea 1 o lo mas cercano que se pueda obtener pero no 2 o menor. Despues con EllipSect obtuvimos el perfil de la galaxia, lo ideal es que la grafica de la galaxia sea la misma que la del modelo y esto se puede ajustar con las funciones.  


CONCLUSIONES

En este proyecto se obtuvieron los modelos de 5 galaxias en sus tres bandas, estos modelos nos serviran para poder ver las componentes de una galaxia, si tiene bulbo, que tipo de bulbo es, si tiene disco, etc. y así estudiar la evolución de las galaxias.
Anzurez Muñoz Carmina, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Jose Maria Ponce Ortega, Universidad Michoacana de San Nicolás de Hidalgo

ENERGíA SOLAR EN MéXICO: VIABILIDAD Y ESTRATEGIAS PARA SATISFACER LA DEMANDA NACIONAL


ENERGíA SOLAR EN MéXICO: VIABILIDAD Y ESTRATEGIAS PARA SATISFACER LA DEMANDA NACIONAL

Anzurez Muñoz Carmina, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Jose Maria Ponce Ortega, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda de energía y la necesidad de reducir las emisiones de  han impulsado la búsqueda de fuentes de energía renovable en México. La energía solar es una alternativa prometedora debido a la abundancia de radiación solar en diversas regiones del país. Sin embargo, su implementación efectiva requiere un análisis detallado para asegurar que puede satisfacer la demanda energética nacional de manera eficiente y sostenible. Esta investigación se centra en el análisis de la viabilidad de instalar paneles solares en diversas regiones del Sistema Interconectado Nacional (SIN) de México, considerando aspectos económicos y ambientales, así como la incorporación de sistemas de almacenamiento de energía para optimizar el uso de la energía solar y garantizar un suministro eléctrico estable.



METODOLOGÍA

1. Recopilación de datos Se recopiló información sobre la demanda energética anual de cada una de las nueve regiones del SIN, con datos proporcionados por el Centro Nacional de Control de Energía (CENACE). Esto permitió determinar la cantidad de energía necesaria para satisfacer la demanda de cada región, con una demanda total anual en México de 393,983,344 MWh. Además, se obtuvieron datos de radiación solar promedio anual, identificando que la zona del noroeste del país tiene una radiación solar promedio de 5.5 kWh/m²/día, lo que representa un alto potencial para la generación de energía solar. Se calculó que se necesitarían 431,999,281 paneles solares, requiriendo una superficie de 1,166.40 km² para su instalación, aproximadamente el 0.059% del territorio nacional. 2. Análisis de proveedores Se investigaron las características técnicas y económicas de los paneles solares ofrecidos por tres proveedores principales: JinkoSolar, Canadian Solar Inc., y SunPower Corporation. Los paneles de JinkoSolar tienen una eficiencia del 20%, un costo de $0.25 por watt y una vida útil de 25 años. Canadian Solar Inc. ofrece paneles con una eficiencia del 19.5% y un costo inicial de $0.27 por watt, mientras que los de SunPower Corporation, aunque más costosos a $0.30 por watt, presentan una eficiencia superior del 21%. 3. Modelo de Optimización Se planteó un modelo con el objetivo de maximizar la eficiencia del sistema para satisfacer la demanda energética de México utilizando energía solar. Se analizaron los tres proveedores para abastecer las nueve regiones del SIN. En caso de que no haya suficiente área disponible en alguna región, se considerará el uso de sistemas de almacenamiento de energía como alternativa. El modelo incluye variables clave como: Cantidad de paneles necesarios para cada región Energía generada Energía redistribuida Energía almacenada. También se establecieron parámetros como la superficie disponible para la instalación en cada región y la capacidad de almacenamiento de energía requerida para asegurar un suministro constante. Se incluyeron restricciones como la generación de energía por región para verificar que se cumpla la demanda por región, la limitación del área disponible en cada región y la necesidad de satisfacer la demanda energética de manera sostenible. La función objetivo del modelo de optimización fue maximizar la eficiencia del sistema, asegurando la estabilidad del suministro energético a través de la integración de sistemas de almacenamiento. Se utilizó el software GAMS para la formulación y resolución del modelo, permitiendo integrar múltiples variables y restricciones en un modelo coherente y resolverlo de manera eficiente. 4. Análisis económico y ambiental Se realizó un análisis de costo-beneficio que incluyó los costos de instalación, operación y mantenimiento de los paneles solares y sistemas de almacenamiento. La inversión total en la instalación se estima en $318.3 millones USD, con un retorno de inversión proyectado en 6 años debido a los ahorros en costos energéticos y la venta de excedentes de energía. Para instalaciones a gran escala, es crucial contar con el apoyo gubernamental para facilitar financiamiento, permisos y políticas que fomenten la adopción de energías renovables. La adopción de energía solar podría evitar aproximadamente 293 millones de toneladas de CO₂ anualmente, representando un avance significativo hacia la mitigación del cambio climático.


CONCLUSIONES

La investigación ha demostrado que la energía solar puede cubrir una parte significativa de la demanda energética de México, especialmente en regiones con alta radiación solar como el Noroeste. La integración de sistemas de almacenamiento de energía es esencial para manejar la intermitencia de la generación solar y garantizar un suministro constante. Se anticipa que la implementación de esta estrategia no solo satisfará la demanda energética, sino que también contribuirá de manera importante a la reducción de las emisiones de CO₂, promoviendo un futuro más sostenible para México. A pesar de los desafíos relacionados con la disponibilidad de área y los costos, la energía solar se presenta como una opción viable, con beneficios económicos significativos y un retorno proyectado en 6 años, avanzando hacia una transición energética sostenible en el país.
Araiza Mendivil Marlene Guadalupe, Universidad de Sonora
Asesor: Dr. Raúl García Llamas, Universidad de Sonora

ESTUDIO DE LAS PROPIEDADES óPTICAS Y ELECTRóNICAS DEL LITIO Y ORO MODELADO COMO UN CRISTAL 1-DIMENSIONAL


ESTUDIO DE LAS PROPIEDADES óPTICAS Y ELECTRóNICAS DEL LITIO Y ORO MODELADO COMO UN CRISTAL 1-DIMENSIONAL

Araiza Mendivil Marlene Guadalupe, Universidad de Sonora. Asesor: Dr. Raúl García Llamas, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El litio, con una configuración electrónica simple de tres electrones, se presenta como un caso ideal para validar la precisión de los métodos de primeros principios. En su estructura atómica, dos electrones están firmemente ligados al núcleo en órbitas internas y no se ven afectados por estímulos externos de baja energía. El tercer electrón, que reside en una órbita externa, es fundamental para determinar las propiedades eléctricas y ópticas del litio. En su estado sólido, los átomos de litio se organizan en una estructura cristalina cúbica centrada en el cuerpo (BCC). Desde el punto de vista de la física del estado sólido, cuando un material está en su forma cristalina, puede modelarse mediante un potencial periódico. La resolución de la estructura de bandas electrónicas en tales sistemas representa un problema de muchos cuerpos, lo cual es inherentemente complejo. Para abordar esta complejidad, se adoptan tres aproximaciones simplificadoras: Aproximación Adiabática: Se asume que las variaciones en el sistema son lo suficientemente lentas como para que los electrones puedan adaptarse instantáneamente a los cambios, permitiendo separar el movimiento electrónico del movimiento nuclear. Órbitas Fijas para Electrones Internos: Los electrones internos, que están fuertemente ligados al núcleo, se consideran inmóviles frente a estímulos externos de baja energía, permitiendo tratarlos como parte del núcleo efectivo. Despreciar la Interacción entre Electrones Externos: Se considera que la interacción entre los electrones externos es insignificante en comparación con las otras interacciones presentes en el sistema. Estas simplificaciones permiten transformar el problema complejo de muchos cuerpos en un problema más manejable que puede resolverse matemáticamente.



METODOLOGÍA

En el estudio de los electrones en materiales cristalinos, se utilizó el método de Bloch o expansión en ondas planas. Dado que el sistema cristalino presenta un potencial total periódico, se asumió una expansión de Fourier del potencial. La solución propuesta, conocida como expansión Bloch-Fourier, fue introducida en el Hamiltoniano, resultando en una ecuación matricial de eigenvalores en el espacio de momentos. Esta ecuación matricial, de dimensión infinita en teoría, fue truncada para obtener un sistema de dimensión finita, que pudo ser resuelto mediante métodos de diagonalización estándar. Los resultados incluyeron niveles de energía (estructura de bandas) y funciones de onda (eigenfunciones). Tras determinar las energías y funciones de onda, se aplicó la teoría de perturbación dependiente del tiempo para investigar las propiedades ópticas y electrónicas del sistema y comparar los resultados con datos experimentales. Se empleó un programa en FORTRAN para calcular numéricamente la energía y las funciones de onda de los electrones externos del litio en una red periódica modelada como cristal en dos dimensiones. El software desarrollado permitió definir parámetros constantes, calcular el potencial y los coeficientes de Fourier, realizar cálculos relacionados con la zona de Brillouin y, finalmente, calcular los eigenvalores y eigenvectores del sistema. Software Manejado (creado para la investigación): A continuación, se detallan las partes clave relacionadas con el software utilizado: 1. Definición de Parámetros: PARAMETER(n1, n2=2n1+1, n3=4n1+1, n4=2n2n2, nco=325, lpa=4096):  Definió parámetros constantes para el programa. El número total de energías se determinó por la fórmula (2n1+1)22, que corresponde al tamaño de la matriz utilizada. Los resultados se dividieron en dos conjuntos: valores positivos del orden de medio mega electronvolts y valores negativos de ese orden. 2. Cálculos de Potencial y Coeficientes de Fourier: Se calculó un potencial (vr) mediante sumas repetidas (svp) sobre una rejilla definida por rx y ry. Se determinaron los coeficientes de Fourier del potencial (vf(M,N)) utilizando funciones trigonométricas (dcos, dsin) y sumas sobre la rejilla. 3. Zona de Brillouin: Se realizaron cálculos relacionados con la zona de Brillouin, utilizando variables como nqq, dq y dqr, e iterando sobre configuraciones espaciales definidas por nu y nq. 4. Cálculo de Eigenvalores y Eigenvectores: Se implementaron técnicas de álgebra lineal para calcular los eigenvalores y eigenvectores de la matriz AM. Se aplicó el método de Gradiente Conjugado (CG) para resolver el sistema lineal y se almacenaron los resultados en las matrices AR (parte real) y AI (parte imaginaria). 5. Escritura de Resultados: Los resultados finales, incluidos los eigenvalores y eigenvectores, fueron ordenados y escritos en archivos específicos (1, 2, 3, 91, 92, 95, 96, 97, 98, 99), que posteriormente fueron cargados en el software Origin para el procesamiento de datos.


CONCLUSIONES

Se resaltan las limitaciones inherentes en la capacidad de memoria y el tiempo computacional necesarios para procesar grandes conjuntos de datos. En este estudio, se alcanzó solo a presentar la diferencia de energías ajustadas por la energía de masa en reposo del electrón para diferentes valores de n1​, mostrando una diferencia de 0.32 eV entre n1=11 y n1=12, demostrando que las energías de las bandas más negativas se mantienen consistentes. Estos resultados, aún poco concluyentes para la investigación, subrayan la importancia de abordar estos desafíos en futuras investigaciones para mejorar la eficiencia y precisión de los cálculos computacionales en sistemas cristalinos complejos, como el litio modelado en dos dimensiones.
Aramburo Rodriguez Paloma Aracely, Universidad Politécnica de Sinaloa
Asesor: Dra. Magdalena Elizabeth Bergés Tiznado, Universidad Politécnica de Sinaloa

PREPARACIóN DE MUESTRAS DE SUELO Y PLANTAS PARA DETERMINAR PARáMETROS FíSICOS Y ELEMENTOS POTENCIALMENTE TóXICOS EN SITIOS IMPACTADOS POR ZONAS MINERAS DEL SUR DE SINALOA


PREPARACIóN DE MUESTRAS DE SUELO Y PLANTAS PARA DETERMINAR PARáMETROS FíSICOS Y ELEMENTOS POTENCIALMENTE TóXICOS EN SITIOS IMPACTADOS POR ZONAS MINERAS DEL SUR DE SINALOA

Aramburo Rodriguez Paloma Aracely, Universidad Politécnica de Sinaloa. Lopez Jimenez Marla Sofia, Universidad Politécnica de Sinaloa. Zamora Espinoza Karolina, Universidad Politécnica de Sinaloa. Asesor: Dra. Magdalena Elizabeth Bergés Tiznado, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En México, el sector minero constituye uno de los pilares fundamentales de la economía, ofreciendo beneficios significativos a las comunidades, tales como la generación de empleo, la obtención de ingresos y el desarrollo de infraestructura. En el estado de Sinaloa, la minería está experimentando un crecimiento económico notable, con indicios de mineralización en prácticamente todo su territorio. Según datos de 2021, Sinaloa se situó en el doceavo lugar a nivel nacional en producción de oro, el onceavo en plata y el décimo en cobre. Por lo tanto, en zonas afectadas por actividades industriales y mineras, es crucial realizar estudios preliminares sobre las propiedades fisicoquímicas de los residuos, en particular su concentración de Elementos Potencialmente Tóxicos (EPTs) y su impacto ambiental. La presencia de EPTs en el ambiente es una preocupación crítica debido a la toxicidad, persistencia, abundancia y biomagnificación de estos en el medio ambiente y su posterior acumulación en el hábitat acuático, sedimentos, suelo y biota (plantas y animales). Estos estudios son fundamentales para evaluar y diseñar procedimientos de remediación o prevención destinados a mitigar los daños ecológicos asociados.



METODOLOGÍA

Para el análisis de la calidad de suelos y la evaluación de metales y metaloides en laboratorio comienza con la preparación del material de laboratorio. Inicialmente, los recipientes de polipropileno y los materiales de vidrio se lavan con agua corriente y jabón para eliminar cualquier residuo visible. Posteriormente, estos recipientes se enjuagan con agua destilada para asegurar que no queden restos de jabón. A continuación, se sumergen en una solución de ácido nítrico 2 M durante tres días para eliminar posibles contaminantes metálicos. Tras este tratamiento, se realiza un nuevo enjuague con agua destilada y agua milli-Q para asegurar la completa eliminación del ácido. Finalmente, los recipientes se secan a temperatura ambiente en un entorno limpio y libre de polvo. En cuanto a la preparación de las muestras de suelo y plantas, el proceso para las muestras de suelo comienza con el secado a temperatura ambiente en una superficie para eliminar la humedad. Una vez secas, las muestras se homogenizan y se tamizan a través de una malla de 2 mm para obtener una muestra uniforme. Para las muestras de plantas, se lleva a cabo una maceración que asegura una consistencia homogénea, seguido de una homogenización adicional para garantizar que el material esté bien distribuido. Tanto las muestras de suelo como las de plantas se pesan con precisión para su posterior tratamiento en las digestiones ácidas. Para determinar las propiedades del suelo, como el pH, la textura y el contenido de materia orgánica o carbono orgánico (NOM-121-RECNAT-2000), se inicia con el tamizado de las muestras a través de una malla de 2 mm. Este tamizado inicial facilita la evaluación del pH y la textura del suelo. Para la determinación de la textura, se elimina la materia orgánica del suelo mediante un tratamiento con peróxido de hidrógeno. Luego, se realiza un tamizado adicional con una malla de 0.5 mm para preparar la muestra para la medición del carbono orgánico. El pH del suelo se determina utilizando el método AS-02, mientras que el contenido de materia orgánica se mide empleando el método AS-07 de Walkley y Black. Finalmente, la textura del suelo se determina mediante el procedimiento de la pipeta (AS-28). En el proceso de digestión ácida de las muestras de plantas y suelos, se añade una mezcla de ácidos fuertes a las muestras para disolver los metales y metaloides presentes. La digestión se realiza bajo condiciones controladas de temperatura y presión para asegurar una disolución completa. Tras la digestión, las muestras se ajustan a un volumen final con agua destilada o milli-Q, lo que permite una concentración adecuada para el análisis posterior.


CONCLUSIONES

El sector minero en Sinaloa, con su creciente actividad y significativa producción de metales preciosos y base, juega un papel esencial en la economía regional. Sin embargo, la expansión de estas actividades presenta riesgos ambientales considerables, especialmente en términos de la posible liberación de elementos potencialmente tóxicos en el suelo y en la vegetación circundante. La metodología propuesta para la preparación y análisis de muestras de suelo y plantas tiene como fin evaluar el impacto ambiental de la minería en el sur de Sinaloa. Al determinar los parámetros físicos del suelo y la concentración de metales y metaloides, se podrá obtener una visión clara del grado de contaminación y de los riesgos asociados. Estos datos son cruciales para diseñar e implementar estrategias eficaces de remediación y prevención, que minimizarán los efectos negativos sobre el medio ambiente y la salud de las comunidades locales. En este estudio, se abordó la evaluación de las propiedades fisicoquímicas de los residuos en zonas afectadas por actividades industriales y mineras en el estado de Sinaloa, México. Se implementó una metodología detallada para el análisis de la calidad de suelos y la evaluación de metales y metaloides en laboratorio. Sin embargo, las investigaciones aún no han concluido y, por lo tanto, no se han obtenido resultados finales. Se continuará trabajando en este proyecto para obtener conclusiones precisas y contribuir al conocimiento sobre el impacto ambiental de la minería en la región.
Arana Reyes Juan Esteban, Universidad del Quindío
Asesor: Dr. Jorge Luis López López, Universidad Michoacana de San Nicolás de Hidalgo

GEOMETRíA HIPéRBOLICA


GEOMETRíA HIPéRBOLICA

Arana Reyes Juan Esteban, Universidad del Quindío. Asesor: Dr. Jorge Luis López López, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El proyecto abordó la resolución de un sistema de ecuaciones hiperbólicas de dimensión 4K×4K, siendo K un número entero, donde se buscaba determinar las soluciones para las variables involucradas, considerando tanto sus partes reales como complejas. La complejidad de este sistema radica en la dificultad de obtener soluciones para el caso general, aunque se logró encontrar soluciones en algunos casos particulares. El objetivo principal era identificar un método que permitiera resolver el sistema de ecuaciones para cualquier valor de K, proporcionando una herramienta generalizada para abordar este tipo de problemas matemáticos.



METODOLOGÍA

Todo el proceso de investigación se desarrolló de manera presencial, con la implementación de sesiones sincrónicas y asincrónicas. Durante las sesiones sincrónicas, se llevaron a cabo revisiones de los procedimientos por parte del investigador, quien corregía errores y proporcionaba retroalimentación en tiempo real. Las sesiones asincrónicas permitieron a los participantes avanzar de forma independiente, trabajando en la simplificación del sistema de ecuaciones y en la búsqueda de soluciones particulares. Se utilizaron métodos de análisis algebraico y numérico para explorar las características del sistema y formular posibles soluciones.


CONCLUSIONES

A lo largo del proyecto, se logró simplificar el sistema de ecuaciones inicialmente planteado, lo que permitió obtener dos soluciones particulares. Estos resultados representan un avance significativo, ya que proporcionan un punto de partida para futuras investigaciones orientadas a encontrar una solución general. La retroalimentación continua y el análisis detallado de los procedimientos permitieron identificar errores y mejorar los métodos de resolución utilizados. Aunque no se alcanzó una solución general para el sistema de ecuaciones, el progreso realizado destaca la importancia de la simplificación y el análisis particular como estrategias clave en la resolución de problemas complejos. Estos hallazgos sugieren la necesidad de continuar investigando en esta dirección para desarrollar métodos más eficientes y generalizados. Contribuciones a los ODS El Objetivo 17 de los ODS, Alianzas para lograr los objetivos, busca fortalecer la cooperación global y revitalizar las alianzas para el desarrollo sostenible. En el contexto del proyecto de investigación sobre la resolución de sistemas de ecuaciones hiperbólicas, esta relación se evidencia a través de varios aspectos clave. Primero, la colaboración entre investigadores permitió el intercambio de conocimientos y mejores prácticas, alineándose con el objetivo de compartir y aplicar experiencias valiosas. Segundo, la metodología que incluyó sesiones sincrónicas y asincrónicas fortaleció las capacidades y habilidades de los participantes, contribuyendo al desarrollo local. Además, aunque el proyecto no logró una solución general, los resultados obtenidos y las soluciones particulares pueden ser compartidos y utilizados por otros investigadores, fomentando la cooperación y el uso compartido de hallazgos para el beneficio común y para la comunidad científica. Finalmente, la innovación y el avance en técnicas matemáticas derivadas del proyecto pueden ser recursos valiosos para otros campos en un futuro, promoviendo la colaboración interdisciplinaria y el desarrollo sostenible.   
Arano Robledo Jorge Ángel, Universidad Veracruzana
Asesor: Prfnal. Cristhian Iván Bucheli Viteri, Instituto de Educación Técnica Profesional de Roldanillo Valle - INTEP

EVOLUCIóN DEL PAISAJE EN LA MICROCUENCA PLATANARES, VALLE DEL CAUCA, COLOMBIA PERIODO 1986 - 2023


EVOLUCIóN DEL PAISAJE EN LA MICROCUENCA PLATANARES, VALLE DEL CAUCA, COLOMBIA PERIODO 1986 - 2023

Arano Robledo Jorge Ángel, Universidad Veracruzana. Asesor: Prfnal. Cristhian Iván Bucheli Viteri, Instituto de Educación Técnica Profesional de Roldanillo Valle - INTEP



PLANTEAMIENTO DEL PROBLEMA

La microcuenca Platanares, en la vertiente oriental de la cordillera Occidental de Colombia, ha experimentado una significativa disminución en la cobertura del bosque medio húmedo y bosque frío húmedo de montaña. Esto se debe principalmente a la expansión de cultivos comerciales, especialmente aguacate Hass, y prácticas agrícolas no sostenibles que degradan el suelo. Además, la ganadería ha incrementado la deforestación debido a la necesidad de pastizales, lo que resulta en compactación del suelo y disminución de su capacidad de retención de agua. Estas actividades, junto con la urbanización y desarrollo de infraestructura carretera, han alterado drásticamente el paisaje, reduciendo la biodiversidad y afectando el ciclo hidrológico. El desarrollo de proyectos turísticos y la expansión urbana han contribuido a la contaminación de los ríos y a la fragmentación ecosistémica. Según datos del portal GeoCVC de la Comisión Regional de Valle del Cauca, la microcuenca abarca 5,576 hectáreas, de las cuales una parte significativa está gravemente fragmentada o presenta un nivel de intervención aceptable. El Programa de Ordenamiento y Manejo de la Cuenca Hidrográfica del río Pescador estima que el 59% de la superficie de la microcuenca está en áreas deficientes para la conservación debido a su alto nivel de degradación, mientras que solo un pequeño porcentaje se considera óptimo para la conservación.



METODOLOGÍA

La investigación sobre la microcuenca Platanares se llevará a cabo de manera descriptiva debido a la falta de información documental específica y extensa sobre la zona. Los estudios existentes se centran en una escala regional del Valle del Cauca o en la cuenca del río Pescador, y solo unos pocos trabajos consideran específicamente la microcuenca Platanares. La investigación descriptiva tiene como objetivo recopilar datos sobre las características del objeto de estudio, lo que es útil para diagnósticos y toma de decisiones correctivas, y permite mostrar con precisión las dimensiones de un fenómeno. El enfoque de la investigación será cuantitativo, lo que facilita la descripción de las condiciones ambientales de la microcuenca Platanares en relación con los fundamentos teóricos de la ecología del paisaje. Este enfoque permite medir y analizar las variables en términos cuantitativos, basándose en la objetividad y asumiendo que el objeto de estudio se manifiesta en cantidades. La metodología cuantitativa aporta información verídica y confiable, utilizando estadística descriptiva para procesar datos recopilados, lo cual es crucial para la toma de decisiones. El método de investigación será deductivo, partiendo de generalidades hacia particularidades, utilizando la ecología del paisaje como fundamento para obtener conclusiones sobre la evolución y estado del paisaje. Esta aproximación permite analizar cómo las características y procesos ecológicos se manifiestan en la microcuenca Platanares, proporcionando una base sólida para la evaluación de la conservación y fragmentación del ecosistema. Para la recolección de datos, se utilizarán documentos y registros existentes, lo cual es fundamental en investigaciones descriptivas. Las principales fuentes serán el portal GeoCVC de la Comisión Autónoma Regional del Valle del Cauca y el Programa de Ordenamiento y Manejo de la Cuenca Hidrográfica río Pescador (POMCH). Estas fuentes proporcionarán información sobre el medio físico, factores geomorfológicos, climáticos y biológicos, permitiendo caracterizar el área de estudio y entender los cambios en el uso del suelo. Durante el trabajo de campo, se tomarán coordenadas de diferentes coberturas y usos del suelo utilizando un GPS y un dron multiespectral para obtener fotografías y datos precisos. Para el análisis y procesamiento de datos, se utilizarán imágenes satelitales del portal Earth Explorer del USGS de los satélites Landsat 5, 7, 8 y 9 para los años 1986, 2002, 2014 y 2023. Las imágenes se procesarán en el Sistema de Información Geográfica Qgis y el software ArcMap, generando firmas espectrales para distintos usos del suelo. Con el software FRAGSTATS, se calcularán indicadores de ecología del paisaje, como superficie total, número de parches, densidad de parches, proximidad y distancia euclidiana del vecino más cercano. Estos análisis proporcionarán una visión detallada de la evolución y estado del paisaje en la microcuenca Platanares.


CONCLUSIONES

La microcuenca platanares presento una disminución del bosque húmedo de montaña entre 1986 y 2022 donde la superficie cambio de aproximadamente 20.62% a 15.75%, mientras que el resto corresponde a actividades agropecuarios. Entre 1986 y 2002 hubo una disminución de bosque debido a la tala por los pastizales necesarios para la actividad ganadera, mismos que favorecieron la fragmentación ya que desde 2014 comienza un crecimiento exponencial de superficie dedicada a agricultura, que pone otra vez en amenaza los relictos de bosque. Por otra parte, a nivel paisaje la agregación disminuyó de 77.66% a 65.95%  y el indicador de división de 0.79 en 1986 a 0.98 en 2023, lo cual demuestra el alto nivel de fragmentación de la microcuenca Platanares, que tiene coherencia con el número de parches de cada cobertura pues hoy en día hay mayor cantidad de más usos del suelo, demostrando su heterogeneidad negativamente porque predominan usos agrícolas. Se advierte la necesidad de una validación con trabajo de campo que comparen el nivel cuantitativo de fragmentación y evolución con la condición ecológica real de las especies que se distribuyen en este hábitat.
Arellano Valdenebro Janeth, Universidad de Guadalajara
Asesor: Dr. Ruben Ramos Garcia, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

PINZAS ÓPTICAS


PINZAS ÓPTICAS

Arellano Valdenebro Janeth, Universidad de Guadalajara. Rosas Benavides Natalia Jackeline, Universidad de Guadalajara. Villalobos Hernandez Diana Sofía, Universidad de Guadalajara. Asesor: Dr. Ruben Ramos Garcia, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las pinzas ópticas, son una herramienta poderosa en la manipulación y estudio de pequeñas partículas, como células, bacterias y moléculas. Lo cual usamos en este caso para suspender particulas de silicio de 1 micra



METODOLOGÍA

Se utilizó un láser de 509 nm que pasó por un filtrado espacial, compuesto por un objetivo de 20x y un pinhole de 15 micrómetros. Después del filtro, se usó una lente colimadora de 2.5 cm, que dirigía el haz hacia un espejo posicionado a 45 grados. Este espejo redirigía el haz hacia arriba en un ángulo de 90 grados. Al ser dirigido hacia arriba, el haz pasaba por un objetivo de 100x, enfocándose en la celda que contenía la solución con micropartículas de 1 micrómetro, suspendiendo así una de ellas con un láser fuertemente enfocado.


CONCLUSIONES

Las pinzas ópticas han transformado la manera en que los científicos manipulan y estudian las partículas a nivel microscópico. Es por eso que nuestro proyecto enfocado a las pinzas opticas se espera tener resultados basicos como, suspension de particulas de 1 micra y el monitoreo de la misma conun fotodetector de cuadrante.
Armendáriz Espinoza Alfredo, Universidad de Sonora
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

ESTUDIOS ESTRUCTURALES, ELECTRóNICOS Y VIBRACIONALES DE NANOTUBOS DE CARBONO CON DFT


ESTUDIOS ESTRUCTURALES, ELECTRóNICOS Y VIBRACIONALES DE NANOTUBOS DE CARBONO CON DFT

Armendáriz Espinoza Alfredo, Universidad de Sonora. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los nanotubos de carbono fueron descubiertos por primera vez en el año de 1991 por Iijima como estructuras de varias paredes y dos años después se lograron sintetizar nanotubos de una sola pared. Los estudios de los nanotubos de carbono reportados en la literatura han sido de forma infinita y considerándolos como estructuras periódicas usando métodos de aproximación. En el presente trabajo, se estudiaron estructuras finitas y pasivadas con átomos de hidrógeno. Las propiedades electrónicas y mecánicas de los nanotubos como un sistema cuasi uni dimensional son de interés para la aplicación a dispositivos de transmisión electrónica, puntas de dispositivos de emisión de campo, contenedores de almacenamiento de gas.



METODOLOGÍA

Por medio del software Gaussian se realiza el modelado molecular de los nanotubos de carbono con diferentes quiralidades, usando métodos de simulación molecular y mecánica cuántica por métodos semi empíricos y de primeros principios basados en la teoría de los funcionales de la densidad. Los estudios realizados son de las propiedades estructurales, vibracionales y electrónicas de los nanotubos de carbono con geometría zigzag pasivados y quiralidades de (5-7,0). La relajación estructural, energía total, momento dipolar y energía de los orbitales HOMO (Highest Occupied Molecular Orbital) y LUMO (Lowest Unoccupied Molecular Orbital) han sido determinados aplicando el funcional B3LYP junto con la base 6-31g. Los cálculos de frecuencia vibracional fueron realizados para corroborar la estabilidad estructural. La estabilidad y reactividad del sistema fueron determinadas a través de los descriptores cuánticos moleculares tales como el potencial químico, dureza global, índice de electroafinidad. Potencial de ionización, afinidad electrónica, potencial químico y dureza global. Todo esto, bajo la aproximación del Teorema de Koopmans y la teoría de la mecánica cuántica sobre el significado de las energías de los orbitales ocupados y virtuales considerando una geometría molecular.


CONCLUSIONES

Se muestra que la distancia entre enlaces para las tres estructuras se mantiene con aproximadamente la misma distancia en promedio, siendo menor la distancia entre enlace Carbono-Hidrógeno con una longitud de aproximadamente 1.08 , mientras que para los enlaces Carbono-Carbono es en promedio 1.43 . Se nota un aumento del diámetro conforme cambia el índice de quiralidad como es de esperarse para índices más altos, siendo de 4.11  para el nanotubo (5,0), 4.84  para el nanotubo (6,0) y 5.47  para el nanotubo (7,0) respectivamente. El ángulo medido entre enlaces de la estructura hexagonal mantiene dos valores en promedio para las tres estructuras, uno es de aproximadamente 119.7° para los enlaces que siguen el eje axial mientras que para los enlaces que siguen un eje transversal se tiene un ángulo de 112.37° para el nanotubo (5,0), 114.36° para el nanotubo (6,0) y 116.10° para el nanotubo (7,0). Se confirma la estabilidad del sistema con el cálculo de las propiedades vibracionales, éstas muestran que la estructura alcanza el mínimo global al tener frecuencias con valores positivos. Los principales modos vibracionales son: Flexión del cuerpo central (F-CC), Flexión en las tapas (F-T), Estiramiento en el cuerpo central (E-CC) y Estiramiento en las tapas (E-T). Las conclusiones para el estudio electrónico, están mostrando interesantes tendencias y comportamientos sobre el decremento del gap con respecto al índice quiral. Un nulo comportamiento dipolar independiente del índice quiral, y por otra parte, un aumento en el índice de electrofilicidad, que muestra la estabilización energética que ocurre cuando el sistema adquiere una carga adicional del medio ambiente con respecto al incremento del índice quiral. El presente trabajo, muestra grandes perspectivas a futuro, para poder predecir más comportamientos fisicoquímicos con respecto al radio y/o incremento del índice quiral. Estos nuevos resultados pueden dar nuevas y mejores perspectivas para su aplicación y conocimiento científico en general de los nanotubos de carbono en un tamaño específico.
Arratia Castillo Maria Guadalupe, Instituto Tecnológico de Matamoros
Asesor: Mg. María Jaqueline Espinosa Rodríguez, Universidad EIA

ANáLISIS DE LA ESTABILIDAD DE TALUDES Y MOVIMIENTOS EN MASA CON APOYO DE LA CARTOGRAFíA SOCIAL


ANáLISIS DE LA ESTABILIDAD DE TALUDES Y MOVIMIENTOS EN MASA CON APOYO DE LA CARTOGRAFíA SOCIAL

Arratia Castillo Maria Guadalupe, Instituto Tecnológico de Matamoros. Esquivel Ramírez Angel Manuel, Instituto Politécnico Nacional. Asesor: Mg. María Jaqueline Espinosa Rodríguez, Universidad EIA



PLANTEAMIENTO DEL PROBLEMA

Los movimientos en masa afectan las laderas, movilizando masas de suelo y causando pérdidas humanas y materiales. En México, estos eventos han sido significativos, con 2317 movimientos registrados entre 1991 y 2021 (CENAPRED, 2021), con las lluvias como principal detonador. Se estima que, en promedio, 29 vidas se pierden anualmente debido a estos movimientos. La detección temprana es difícil, por lo que la percepción de la población sobre su entorno es crucial para identificar síntomas y tomar medidas preventivas. Este estudio busca determinar el factor de seguridad de algunas laderas en dos zonas de estudio mediante cartografía social, identificando áreas de riesgo dentro de las comunidades visitadas. La falta de estudios detallados sobre la estabilidad de taludes en Altas Cumbres y Tapijulapa ha impedido la implementación de medidas preventivas adecuadas, aumentando la vulnerabilidad de las comunidades locales. La estabilidad de taludes es crítica en la ingeniería geotécnica, ya que puede tener consecuencias desastrosas. Altas Cumbres, en Tamaulipas, y Tapijulapa, en Tabasco, son áreas con alta incidencia de movimientos en masa debido a su topografía, geología y clima. Estas áreas tienen pendientes pronunciadas, suelos y rocas de baja resistencia y altas precipitaciones, lo que las hace susceptibles a deslizamientos. Este estudio utiliza métodos tradicionales de análisis de estabilidad de taludes y cartografía social para involucrar a las comunidades en la gestión de riesgos.



METODOLOGÍA

La identificación temprana y adecuada evaluación de la amenaza son esenciales para minimizar los daños. El conocimiento y las medidas de acción y prevención que tienen las poblaciones vulnerables son cruciales. La cartografía social permite delimitar las zonas de riesgo y proporcionar herramientas a los pobladores para identificar amenazas. Se realizó una cartografía social en dos zonas de estudio en México, analizando la ocurrencia de movimientos en masa mediante entrevistas. Se investigaron las herramientas disponibles para la identificación de movimientos en masa, enfocándose en la prevención y las medidas de acción tomadas. El análisis recoge datos cuantitativos y cualitativos, vinculando la información de campo con datos recopilados en gabinete. Se seleccionaron zonas con alta susceptibilidad a movimientos en masa para la cartografía social, recopilando información y mapas, y formulando preguntas para entrevistas a los pobladores. Las preguntas de las entrevistas incluyeron: ¿Ha ocurrido algún derrumbe recientemente? Indique dónde. ¿Conoces a alguien que haya experimentado un deslizamiento? ¿Cómo reconocieron el peligro y qué acciones tomaron? ¿Cómo era el clima en el momento del derrumbe? ¿Llovía o hubo sismo? ¿Consideras los deslizamientos una amenaza significativa? ¿Has notado grietas o deformaciones en el terreno? Indique dónde. ¿Existen árboles caídos o inclinados en las laderas cercanas? Indique dónde. ¿Con qué frecuencia e intensidad ocurren lluvias? ¿Existen inundaciones? Indique dónde. ¿Qué señales de advertencia conoces de un posible deslizamiento? ¿Cómo te informas del riesgo? ¿Estás familiarizado con los planes de evacuación? ¿Has participado en simulacros? ¿Existe un sistema de alerta para deslizamientos? ¿Qué medidas tomas tras la advertencia? Se visitaron dos comunidades con riesgo por su relieve y orografía. Se investigaron los tipos de fallas y factores que influyen en la estabilidad de taludes para entender los comportamientos de las laderas. Se realizó un reconocimiento en gabinete y campo de las zonas de estudio, recopilando datos sobre clima, hidrología, población y relieve. Se hizo un análisis de estabilidad de dos laderas (una en cada zona) mediante métodos de equilibrio límite con el software GeoStudio. Se utilizaron datos históricos y SIG para determinar las dimensiones de las laderas.


CONCLUSIONES

Esta estancia reforzó conocimientos en estabilización de taludes, demostrando que la cartografía social es útil para identificar zonas de riesgo. Los movimientos en masa representan un riesgo significativo y su identificación es crucial para la prevención de desastres. La cartografía social ha probado ser valiosa en el reconocimiento de laderas susceptibles. El análisis respaldado por la población local indicó que las lluvias son el principal factor de falla. Los modelos de GeoStudio revelaron que ambos taludes son propensos a fallas, aunque el talud de Altas Cumbres presenta mayor seguridad comparado con el de Tapijulapa. A pesar de las limitaciones, como la ausencia de pruebas in situ, se considera que las laderas evaluadas son zonas de riesgo. Es fundamental proporcionar herramientas a la población para identificar amenazas y realizar estudios más rigurosos para mitigar daños. La colaboración comunitaria y la cartografía social son esenciales para la prevención de desastres.
Arrieta Vázquez María Valeria, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Umapada Pal, Benemérita Universidad Autónoma de Puebla

SíNTESIS DE NANOPARTíCULAS DE TIO₂ Y TIO₂ DOPADAS CON FE PARA LA DEGRADACIóN DE AZUL DE METILENO


SíNTESIS DE NANOPARTíCULAS DE TIO₂ Y TIO₂ DOPADAS CON FE PARA LA DEGRADACIóN DE AZUL DE METILENO

Arrieta Vázquez María Valeria, Benemérita Universidad Autónoma de Puebla. Bravo Cassab Tania, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Umapada Pal, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua es un problema que ha causado consecuencias en la salud humana, envenenamiento de animales y daños a largo plazo en los ecosistemas [1]. Además, la demanda de agua ha superado el crecimiento poblacional y es altamente probable que la escasez de agua incremente con el aumento de las temperaturas globales, dadas por el calentamiento global. Por dichas razones, uno de los Objetivos de Desarrollo Sostenible (ODS), dedicados a hacer un llamado universal a la acción para mejorar las vidas de las personas y proteger el planeta, contempla en su objetivo 6 el Agua limpia y Saneamiento. Esta necesidad de agua ha dado por resultado un crecimiento en las inversiones en infraestructuras e instalaciones de saneamiento dedicadas a la descontaminación de aguas. [2] En el presente trabajo se buscó aportar al objetivo mencionado, por medio de la síntesis de nanopartículas (NPs) de dióxido de titanio (TiO2) y de dióxido de titanio dopado de hierro [3] (TiO2:Fe) al 1% para su uso como fotocatalizador en combinación con peróxido de hidrógeno en la degradación de azul de metileno (un tinte catiónico), el cual es uno de los colorantes mayormente utilizados en la industrias textiles y pesticidas y termina siendo un contaminante perjudicial para el medio ambiente. Cabe destacar que el dopaje resulta beneficioso debido a la reducción del ancho de banda óptica de la fase anatasa del TiO2 (3.2 eV), lo que implica que la energía del fotón absorbido por la nanopartícula será menor y se podrá absorber en el espectro visible [4].



METODOLOGÍA

La metodología realizada puede encontrarse en el vínculo a continuación: https://goo.su/pnIu


CONCLUSIONES

Los resultados obtenidos mencionados en las conclusiones se presentan en el siguiente vínculo: https://goo.su/z5OzB3x   Conclusiones generales  Las NPs de TiO2:Fe 1% mostraron un mejor comportamiento al degradar más rápido y en mayor cantidad la concentración de azul de metileno, en comparación con las nanopartículas no dopadas. La exposición a la luz visible presenta un efecto favorable para ambas nanopartículas debido a la actividad fotocatalítica del TiO2. El uso de Fe como dopante mejora la separación de electrones/huecos fotogenerados y aumenta la absorción en la región visible del TiO2, se conjetura que se debe a la disminución del ancho de banda óptica. La medición de la reflectancia para el posterior cálculo del ancho de banda óptica puede confirmar esta suposición, no obstante, por cuestiones de tiempo es una caracterización que se realizará en días posteriores. Las partículas cuasiesféricas obtenidas tienen un diámetro promedio del orden de los nanómetros, 204 nm para las NPs no dopadas y 203 nm para las NPs dopadas de Fe, característica deseada ya que con una pequeña cantidad de material se tiene un área superficial elevada. ​ Referencias:  [1] Collection, E. K. N. G. I. (2024, 21 mayo). Las fuentes de agua dulce del mundo reciben contaminantes procedentes de una amplia gama de sectores, que amenazan la salud humana y de la fauna. National Geographic. https://www.nationalgeographic.es/medio-ambiente/contaminacion-del-agua [2] Moran, M. (2024, 26 enero). Agua y saneamiento - Desarrollo Sostenible. Desarrollo Sostenible. https://www.un.org/sustainabledevelopment/es/water-and-sanitation/ [3] Freyria, F. S., Compagnoni, M., Ditaranto, N., Rossetti, I., Piumetti, M., Ramis, G., & Bonelli, B. (2017). Pure and Fe-Doped Mesoporous Titania Catalyse the Oxidation of Acid Orange 7 by H2O2 under Different Illumination Conditions: Fe Doping Improves Photocatalytic Activity under Simulated Solar Light. Catalysts, 7(7), 213. https://doi.org/10.3390/catal7070213 [4] Villicaña-Méndez, M., González, L. P., González-Ramírez, J. D., Garnica-Romo, M. G., & García-Salinas, L. (2013, 20 octubre). Modificación de la banda de absorción de los fotocatalizadores por impurificación con metales. En el VII Congreso Argentino de Ingeniería Química en Rosario - Patio de la Madera. [5] Bautista, P; Mohedano, A F; Casas, J A; Zazo, J A; Rodriguez, J. (de octubre de 2008). An overview of the application of Fenton oxidation to industrial wastewaters treatment. Journal of Chemical Technology & Biotechnology. 83 (10): 1323-1338. doi:10.1002/jctb.1988
Arteaga Dorantes Liliana, Universidad Veracruzana
Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional

MONITOREO AMBIENTAL DE LA DISTRIBUCIóN DE RADIACIóN DISPERSA DENTRO DE UN LINAC


MONITOREO AMBIENTAL DE LA DISTRIBUCIóN DE RADIACIóN DISPERSA DENTRO DE UN LINAC

Arteaga Dorantes Liliana, Universidad Veracruzana. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En México, el cáncer es la tercera causa de muerte, mientras que en el mundo es la primera. Para 2020, dicha enfermedad fue la responsable de cerca de 10 millones de muertes, de las cuales los principales causantes fueron el cáncer de mama, de próstata y el cervicouterino. De acuerdo a la OMS, entre el 30 y el 50% de los casos de cáncer se pueden evitar reduciendo los factores de riesgo a los que se expone cada persona. Entre los factores de riesgo a reducir se encuentra la minimización de la exposición ocupacional a las radiaciones ionizantes y uso seguro y adecuado de las radiaciones en la atención de salud tanto para fines diagnósticos como terapéuticos.   Una forma de tratar los casos de cáncer es a través de la radioterapia (RT); es decir la modalidad clínica que emplea radiación ionizante con fines clínicos (NOM 002-SSA3-2017). Una subcategoría de la RT es la teleterapia, donde se genera la radiación ionizante a una distancia del paciente. Un caso específico de teleterapia son los aceleradores lineales. Bajo normativas nacionales y mundiales, las instalaciones y manejo tanto del equipo como de los tratamientos deben de tener presente la protección radiológica tanto para los pacientes, el personal ocupacionalmente expuesto (POE) y el público en general. De tal forma, en términos de niveles de radiación, se requiere de monitoreos ambientales de radiación dispersa para garantizar la seguridad radiológica en un hospital, buscando evitar la exposición innecesaria a radiación. Además, se logra reducir los factores de riesgo para de casos de cáncer. Por lo tanto, durante el verano de investigación se realizó un monitoreo ambiental, con dosímetros pasivos termoluminiscentes, dentro y alrededor de un búnker de acelerador lineal de un hospital de tercer nivel.



METODOLOGÍA

Se utilizó un lote de 110 dosímetros LiF: Mg, Ti (TLD-100) ThermoFisher.   Tratamiento térmico de borrado Programando una mufla ThermoFisher a 400˚C, se colocaron por 1h los dosímetros en un arreglo matricial en una placa petri. Pasada la hora se programó la mufla a  0˚C y se dejaron enfriar los dosímetros por 24h.   Irradiación a única dosis Se irradió el lote en el acelerador lineal Elekta Synergy del Hospital Central Militar. Se usó una dosis única de 100 cGy a SSD de 100 cm y un campo de 10x10 cm.   Lectura termoluminiscente (TL) Con el equipo Harshaw 3500 a una rampa de calentamiento de 10˚C/s: Lectura 1 (L1): Curva de Brillo que alcanza un máximo de 350˚C. Lectura 2 (L2): Permitiendo que el equipo se enfríe a 40˚C, se realizó otra lectura. El equipo se dejó enfriar a 35˚C antes de cambiar la muestra de la bandeja y repetir el proceso. La respuesta termoluminiscente (TL) está dada por L1-L2.   Selección de sublote Se realizó un análisis estadístico a las respuestas TL del lote. Para el monitoreo ambiental se utilizaron 12 dosímetros, de respuesta TL similar, por lo que se seleccionó un sublote acorde. El sublote entró dentro del rango de ±5% del promedio local (de la muestra o sublote).   Curva de Calibración a dosis de superficie En este experimento en particular, nos interesó la calibración a dosis de superficie.   Tratamiento térmico de borrado Irradiación a dosis conocidas          Para un conjunto de 12 dosímetros se consideró mínimo dos dosímetros para cada categoría: Testigos: 3 TLD 100cGy: 3 TLD 200 cGy: 3 TLD 300 cGy: 3 TLD   Ecuación característica Se repitió el proceso de Lectura TL. Para cada dosis se obtuvo un promedio de la respuesta TL. Con un ajuste lineal, se generó la ecuación característica de los TLD-100.   Tratamiento térmico de borrado   Preparación de Muestras   Se usaron 3 portadosímetros, cada uno con una capacidad de 4 dosímetros. Se colocaron etiquetas a cada portadosímetros (AMB1, AMB2 y AMB3) y se sellaron con cinta.     Colocación de Muestras   Se seleccionaron 3 ubicaciones de interés para colocar los dosímetros. AMB1, se colocó en lado exterior de la puerta del búnker; AMB2, se colocó en el centro de la puerta del búnker del LINAC; AMB3, se colocó frente al acelerador lineal. Todos los portadosímetros se colocaron a 1.40m de altura y se fijaron con cinta. Se registró la distancia entre cada portadosímetros y el centro del haz.   Primera Irradiación de Muestras   Los tres portadosímetros se dejaron en la ubicación establecida durante tres procedimientos de radioterapia con fantoma antropomórfico: cervicouterino (79.6 UM para 10MeV), mama (187.5 UM para 6MeV) y próstata (80.1UM para 10MeV).   Primera Sesión de Lectura Proceso de Lectura TL.   Tratamiento térmico de borrado   Segunda Irradiación Procesos de colocación de muestras y primera irradiación de muestras.   Segunda Sesión de Lectura Proceso de Lectura TL.   Relación distancia-respuesta TL Es posible establecer una relación entre la distancia del centro del haz a cada grupo de dosímetros, y la respuesta TL registrada.


CONCLUSIONES

La respuesta TL de los dosímetros colocados en la puerta dentro del laberinto presentan mayor respuesta TL, esto se atribuye a las interacciones de la radiación con la materia. Dadas las respuestas TL, se mostró que es más seguro colocarse fuera del búnker (menor respuesta TL); posteriormente, frente al acelerador lineal, y finalmente, la ubicación con mayor respuesta TL sería en el laberinto. Se espera determinar la distribución de dosis absorbida por los dosímetros para el monitoreo ambiental. Se espera comparar los resultados obtenidos con las lecturas TL de los dosímetros para POE (se consideran testigos). A futuro se propone repetir el monitoreo ambiental con más puntos de interés dentro y alrededor del búnker, además de implementar protocolos más robustos de monitoreo (IAEA, NCRP).
Avalos Carrasco Gerardo, Instituto Tecnológico de Parral
Asesor: M.C. Cristina Hernández Herrera, Instituto Tecnológico de Chihuahua II

USO DE FUSIóN SALINA PARA EXTRACCIóN DE URANIO EN MUESTRA CON ALTO CONTENIDO DE SíLICE


USO DE FUSIóN SALINA PARA EXTRACCIóN DE URANIO EN MUESTRA CON ALTO CONTENIDO DE SíLICE

Avalos Carrasco Gerardo, Instituto Tecnológico de Parral. Asesor: M.C. Cristina Hernández Herrera, Instituto Tecnológico de Chihuahua II



PLANTEAMIENTO DEL PROBLEMA

El uranio es un elemento radioactivo natural, compuesto por los isotopos, 238U, 235U y 234U. Se encuentra en cantidades pequeñas en el suelo, agua, aire e incluso algunos alimentos. Debido a los daños a la salud causados por el uranio como metal pesado, su determinación en distintos materiales es importante. La presencia de este elemento en matrices naturales con alto contenido de sílice y hierro dificulta su extracción y medición debido a la complejidad de la digestión de estos materiales. Se empleó la metodología de fusión salina a altas temperaturas, para la digestión y extracción de uranio isotópico mediante técnicas analíticas como la espectrometría alfa con resinas de intercambio iónico. OBJETIVOS Determinar las fases presentes en el estándar UTK mediante difracción de rayos X (DRX). Comprobar la eficacia de la técnica de fusión salina para la digestión de sedimentos con alto contenido de sílice. Determinar Uranio Isotópico en estándar de la OIEA (UTK-RGU) mediante resinas de intercambio iónico.



METODOLOGÍA

Digestión: Mezcla inicial: Se comienza con 25g de KHSO₄ (Sulfato de potasio) que se funden en un crisol. Enfriamiento: Se enfría la mezcla resultante. Adición de muestra: Se añade 0.2g de trazador y la muestra que se va a analizar (0.24g). Fusión: La mezcla se funde nuevamente durante 40-60 minutos. Horno: La muestra se coloca en un horno a 800°C durante 20 minutos. Se evapora nuevamente a 20 ml y se añaden 100 ml de HNO₃ (Ácido nítrico) 8M Se evapora la muestra a 20 ml y se añaden 1L de agua. Extracción y Medición Extracción de uranio Ajuste del pH: Se añade 1ml de Fe³⁺ y se ajusta el pH a 9 para formar un precipitado. Centrifugado: La mezcla se centrifuga durante 30 minutos a 4000 rpm. Estufa: El precipitado se coloca en una estufa a 60°C durante 12 horas. UTEVA Evaporación y secado: Se realizan varios pasos de evaporación y ajuste de pH con diferentes ácidos y reactivos como HNO₃, HCl, y Na₂SO₄. Electrodeposicion a 1.2A por 19 minutos y con un pH a 2.2 Por último se procede a espectrometria alfa la identificación y cuantificación de isótopos radiactivos emisores alfa.


CONCLUSIONES

En el análisis de fases cristalinas mostró la presencia de cuarzo y sulfato de potasio en el estándar, siendo el primero la fase predominante. En las mediciones por medio de espectrometría alfa se muestra la electrodeposición de uranio, comprobando que se realizó la digestión parcial de la muestra. Los cálculos de actividad de los isotopos de 234U y 238U mediante análisis relativo se llevaron a cabo para el estándar UTK.
Avalos Molina Oscar Axel, Universidad Autónoma de Nayarit
Asesor: Dra. Magdalena Elizabeth Bergés Tiznado, Universidad Politécnica de Sinaloa

ANáLISIS FISICOQUíMICO DE MUESTRAS DE SUELO Y SEDIMENTO Y AISLAMIENTOS DE MICRORGANISMOS DE INTERéS DE AGUA Y PLANTAS CON FINES DE BIORREMEDIACIóN DE LA ZONA DE CONCORDIA, SINALOA


ANáLISIS FISICOQUíMICO DE MUESTRAS DE SUELO Y SEDIMENTO Y AISLAMIENTOS DE MICRORGANISMOS DE INTERéS DE AGUA Y PLANTAS CON FINES DE BIORREMEDIACIóN DE LA ZONA DE CONCORDIA, SINALOA

Avalos Molina Oscar Axel, Universidad Autónoma de Nayarit. Asesor: Dra. Magdalena Elizabeth Bergés Tiznado, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Se le considera metales pesados a aquellos elementos que poseen entre sus características una alta densidad, un peso atómico mayor a 20 y que a concentraciones bajas estos presentan ser tóxicos. Entre algunos ejemplos se pueden encontrar al cobre (Cu), oro (Au), plomo (Pb), hierro (Fe) etc. La contaminación del medio ambiente por metales pesados trae consigo grandes afectaciones como la modificación de las propiedades de los cuerpos de agua y los suelos, dependiendo de las concentraciones, estos pueden llegar a alterar la alcalinidad del suelo, degradarlos y llegar a producir desertificación. La acumulación de estos metales en cuerpos de agua como ríos y lagos desencadena alteraciones de su fauna e incluso biomagnificación de estos elementos en la cadena trófica, así como también puede llegar a alimentos a través del riego por medio de actividades agrícolas. La bioacumulación en el cuerpo humano de estos metales provoca afectaciones en la salud, como problemas en el sistema nervioso central por intoxicación de Pb, daño renal por Cd y afectaciones en la mitocondria por arsénico (As), esto debido a su nula o casi baja tasa de metabolización. El sitio de estudio, Concordia, Sinaloa es un municipio que cuenta con una amplia historia de actividad minera que data desde 1565 hasta la fecha. Mediante este proyecto, se pretende conocer el nivel de contaminación derivado de la actividad minera y proponer métodos de biorremediación con posibles microorganismos de interés.



METODOLOGÍA

PARTE FISICOQUÍMICA Una vez recolectadas las muestras de suelo y sedimento se colocó cada muestra sobre un recipiente debidamente rotulado donde se secaron a temperatura ambiente por un periodo aproximado de 3-4 días. Una vez secas se tamizaron a través de un tamiz de malla 2 mm, entre cada procesamiento de muestras se lavó y secó el tamiz. Para la determinación de pH en agua, se utilizó el método As-02 de la NOM-121- RECNAT-2000, se tomaron 10 g de la muestra tamizada por la malla 2 mm y se colocaron en un vaso de precipitado de 100 ml, posteriormente se adicionaron 20 ml de agua destilada, se agitó con una varilla de vidrio por 30 min con intervalos de 5 min, una vez agitado se dejó reposar la muestra por 15 min y se midió el pH de la suspensión con un potenciómetro previamente calibrado con las soluciones amortiguadoras. Para la determinación de textura se siguió el procedimiento de la pipeta As-28 de la NOM-121-RECNAT-2000. Se pesaron 100 g de suelo tamizado en malla 2 mm y se agregaron a un vaso de precipitado de 1 L, adicionando agua destilada hasta cubrir la muestra. Se añadieron 10 ml de peróxido de hidrógeno al 6% y se agitó durante 10 min, una vez transcurrido el tiempo se añadieron otros 10 ml de peróxido, si se observa reacción violenta se añaden 10 ml cada 15 min hasta no observar producción de espuma. Posterior a esto se colocó la muestra en una parrilla de calentamiento a 90°C dentro de una campana de extracción y se añadieron 10 ml de peróxido hasta no ver una reacción violenta. Una vez eliminado el peróxido, se colocó el suelo seco en recipientes de aluminio previamente pesados, y se llevaron a 105 °C hasta peso constante. Se tomó una alícuota de 5 g por duplicado del suelo secó, en envases de 250 ml y se añadieron 10 ml de hexametafosfato de sodio y se llevaron a 50 ml con agua destilada. Se agitaron por 5 min y se dejaron reposar por 12 h, una vez pasado el tiempo se agitó por 30 min y se hizo pasar la suspensión por un tamiz de 300 mallas, recogiendo la arena en envases de aluminio. La suspensión se coloca en frascos de 250 ml y se deja reposar por 1 h 25 min y se tomó una alícuota de 25 ml a una altura de 2 cm en un envase de aluminio. Los recipientes se pasan a un horno de secado a 105 °C hasta llevar a peso constante. PARTE BIOQUÍMICA Para la realización de las tomas de muestras microbiológicas se procedió a la preparación de medios de cultivo para bacterias y hongos como son caldo nutritivo, agua peptonada tamponada, caldo papa dextrosa, agar papa dextrosa y agar métodos estándar. Cada medio preparado se esterilizó en autoclave a 121°C 15 psi por 15 min. Las muestras de plantas y agua se inocularon en los caldos preparados. Se prepararon los medios de dilución en tubo y se inocularon de la muestra madre de los caldos de bacterias y hongos, posteriormente se pasaron a placas Petri de 5 cm. Una vez colocadas las diluciones de todas las muestras recolectadas se vertió el agar métodos estándar y el agar papa dextrosa en las muestras de bacterias y hongos, respectivamente. Se dejaron incubando las placas por 48 h para las bacterias y 96 h para los hongos. Se realizó el conteo de colonias al término de la incubación. Para la conservación de las cepas aisladas, se preparó vaselina líquida en tubos de vidrio estériles y se inocularon los tubos con las cepas y se almacenaron en refrigeración a 4 ºC. 


CONCLUSIONES

Durante la estadía se logró comprender la importancia que tienen los estudios de suelos y agua. Por la naturaleza de los procedimientos a seguir no hay resultados que sean contundentes aún, aunque los resultados que se obtengan de esta investigación serán determinantes para identificar la calidad y el daño que se ha generado en el medio de Concordia, ocasionado por la actividad minera a lo largo del tiempo, proponer estrategias de biorremediación, así como también se puede abrir un panorama en relación de las concentraciones de metales pesados que se presenten con problemáticas de salud que haya en la población.
Ayala Cano Iris Alexia, Universidad de Sonora
Asesor: Dra. Rosalva Josefina Rodriguez Córdova, Universidad de Sonora

NANOTECNOLOGíA


NANOTECNOLOGíA

Ayala Cano Iris Alexia, Universidad de Sonora. Asesor: Dra. Rosalva Josefina Rodriguez Córdova, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Los nanomateriales como los cerámicos, metales, semiconductores, polímeros o su combinación, son una nueva clase de materiales, los cuales al menos uno de ellos se encuentra entre 1 a 100 nanométros. Existen varios antecedentes del uso de nanopartículas, sin embargo, es hasta estos siglos en donde a tenido más estudio esta área, dando nuevas aplicaciones a la nanotecnología. La síntesis de nanopartículas permite la exploración de sus propiedades únicas, por lo que podemos encontrar nuevas formas de aplicación diversas áreas como catálisis, electrónica, fótonica, magnetismo, así como en lo biólogico y medicina. La manipulación de las condiciones en las que se lleva a cabo la síntesis de nanopartículas permite el control de la morfología de las partículas, además de brindar los medios para la adaptación de materiales durante el proceso de síntesis.



METODOLOGÍA

Durante la estadia de verano se presentaron las diferentes técnicas de sisntesís de nanopartículas, así como la clasificación, además de algunos ejemplos de aplicaciones que se han realizado por los docentes. En cuestión a la sisntesís de nanopartículas existen varios tipos según la necesidad, podemos agrupar estos métodos en dos categorías; top-down y bottom- up. La primera técnica consiste en la división de sólidos másicos en porciones más pequeñas, encontrandose aquellas técnicas como; evaporación térmica, depósito químico en fase vapor, preparación de clusters gaseosos y la implatación de iones. La segunda técnica consiste en la fabricación de nanopartículas a través de la condensación de átomos o entidades moleculares en una fase gaseosa o en solución, teniendo técnicas como; método coloidal, reducción fotoquímica y radioquímica, irradiación con microondas, utilización de dendrímeros, síntesis solvotermal, método sol-gel.  Aunado a esto, se presentaron los diferentes tipos de caracterización que se pueden utilizar en estas áreas. La caracterización consiste en la realización de mediciones de diversos paramétros, como el tamaño de las partículas, la superficie y la solubilidad en agua. Para la medición de dichos paramétros se pueden realizar diferentes técnicas como; la microscopía electrónica donde se encuentran dos tipos principales: la microscopía electrónica de transmisión (TEM) y la microscopía electrónica de barrido (SEM), además de técnicas de caracterización como la espectroscopía, difracción de rayos X, entre otras técnicas. Para el aprendizaje de este tipo de técnicas, se realizaron presentaciones en donde se dejo más claro el proceso de algunas de estas técnicas. Finalmente, se tuvo sesiones donde se realizaron prácticas de nanopartículas, en estás mismas se nos presentaron los equipos que se utilizan, así como el uso adecuado de ellos. Se tuvo la oportunidad de un recorrido por el laboratorio virtualmente, mostrándonos los reactivos, el uso, los equipos, etc para el área de nanotecnología. Sumado a esto, hubo sesiones donde participan ciertos estudiantes de posgrado, llegando a mostrar los proyectos que han realizado acerca de nanotecnología enfocado en alguna otra área, como lo ambiental, la electrónica, medicina, ayudando esto a que nuestro panorama de la nanotecnología sea más amplio.


CONCLUSIONES

Durante la estadia de verano se logró la adquirir conocimiento teóricos acerca de las técnicas de nanotecnología, así como técnicas de caracterización. Además, de ampliar nuestro panorama acerca de la nanotecnología, debido a que se hacían presentaciones de invitados los cuales tenían algun enfoque en áreas en las que informamos que tendríamos interes, acercándonos al área que queremos dedicarnos como profesionistas, sirviendo tanto como para descartar áreas o elegir una con lo que logramos conocer en este proyecto. Por otro lado, tuvimos la oportunidad de conocer nuevos proyecto realizados por estudiantes de posgrados, tanto como los realizados por los investigadores.
Ayala Ruano Arturo Sebastian, Universidad Autónoma de Yucatán
Asesor: Dr. Oscar Blanco Alonso, Universidad de Guadalajara

ESTUDIO DE LAS PROPIEDADES DIELéCTRICAS Y SíNTESIS DE CERáMICOS BAXSR1-XTIO₃


ESTUDIO DE LAS PROPIEDADES DIELéCTRICAS Y SíNTESIS DE CERáMICOS BAXSR1-XTIO₃

Ayala Ruano Arturo Sebastian, Universidad Autónoma de Yucatán. Asesor: Dr. Oscar Blanco Alonso, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de materiales dieléctricos ha ganado atención debido a sus aplicaciones en electrónica, optoelectrónica y detección de gases. Los dieléctricos cerámicos como BaTiO₃ y SrTiO₃, conocidos por sus propiedades excepcionales, presentan un desafío en cuanto a cómo las variaciones en la concentración de BaxSr1-xTiO₃ afectan sus propiedades dieléctricas, especialmente bajo diferentes condiciones de campo eléctrico, temperatura y polarización. La transición de fases en BaTiO₃, que altera su estructura cristalina a distintas temperaturas, añade complejidad al control de sus propiedades. Además, el control preciso de los procesos de síntesis es fundamental para ajustar las propiedades dieléctricas específicas. Sin embargo, existe una falta de consenso sobre los métodos más efectivos para sintetizar BaxSr1-xTiO₃, lo que limita el desarrollo de materiales optimizados, esenciales para aplicaciones avanzadas como detectores de gases. El problema central de esta investigación es la falta de comprensión detallada y control sobre cómo las variaciones en la composición de BaxSr1-xTiO₃ y los procesos de síntesis afectan sus propiedades dieléctricas. Resolver este problema es clave para mejorar la eficiencia de dispositivos que dependen de estos materiales y avanzar en la ciencia de materiales.



METODOLOGÍA

El objetivo de esta investigación fue estudiar las propiedades dieléctricas del cerámico BaxSr1-xTiO₃ bajo diferentes concentraciones de x, realizada en el Laboratorio de Ciencias de Materiales de la Universidad de Guadalajara. Primero, se calculó estequiométricamente la masa necesaria para sintetizar concentraciones de x = 0.25, 0.50, 0.75, y las fases puras de x = 0 y x = 1, a 5 g por concentración, utilizando BaCO₃, SrCO₃ y TiO₂. Luego, se ajustó la pureza industrial de cada compuesto para obtener la relación molar adecuada, crucial para garantizar precisión. Con las masas ajustadas, se sintetizaron los polvos de BaxSr1-xTiO₃, pesados con una báscula especializada para asegurar exactitud. Los compuestos en polvo fueron molidos en un mortero de ágata durante 4:30 h por cada composición. Posteriormente, se realizó una difracción de rayos X para observar la estructura cristalina y determinar la fase de cada concentración. Sin embargo, tras la primera molienda, no se alcanzó la fase esperada, por lo que se procedió a la calcinación de los polvos con las siguientes condiciones: rampa de calentamiento de 5 °C/min, meseta a 850 °C por 10 h, y enfriamiento a 5 °C/min hasta temperatura ambiente. Tras la calcinación, los polvos fueron molidos 1 hora y sometidos a una nueva difracción de rayos X, observando las fases esperadas en BaTiO₃ (x=1) y SrTiO₃ (x=0), confirmadas con muestras comerciales. Las fases intermedias, especialmente x=0.50, no alcanzaron la fase definida. Se realizó una segunda molienda de 3 horas y una segunda calcinación con rampa de calentamiento de 5 °C/min, meseta a 900 °C por 6 h, y enfriamiento a 5 °C/min hasta temperatura ambiente. Tras otra molienda de 1 hora y nueva difracción de rayos X, se observaron fases cristalinas más definidas, aunque con algunos planos por definir. Con las fases definidas, se empastillaron las concentraciones para mediciones dieléctricas. Los polvos se molieron 30 minutos, se mezclaron con un aglutinante y se encapsularon en un cilindro para prensar uniformemente, obteniendo dos pastillas por composición. Las pastillas fueron sometidas a una última calcinación bajo las siguientes condiciones: para fases puras (x=0 y x=1), rampa de calentamiento de 3 °C/min, meseta a 900 °C, y enfriamiento a 3 °C/min; para fases intermedias (x=0.25 y x=0.75), meseta a 950 °C; y para x=0.50, meseta a 1000 °C. Una vez obtenidas las pastillas, se ajustó el difractómetro para analizar la fase cristalina final de cada compuesto. Confirmada la fase cristalina, se prepararon pastillas para mediciones dieléctricas, colocando electrodos en ambos lados mediante lijado, aplicación de pasta de plata Ticon, secado a 200 °C por 3 min, y metalización a 600 °C durante 30 s. Se realizaron pruebas de polarización, esenciales para determinar la polarización máxima, curvas de histéresis, constante dieléctrica relativa y capacitancia, aplicando voltajes de 100V a 1300V y variando el periodo de 10 ms a 200 ms. Adicionalmente, se realizó fluorescencia de rayos X en la pastilla sobrante de cada compuesto para verificar las concentraciones, obteniendo valores de x=0.73, x=0.48 y x=0.26. Finalmente, se realizaron simulaciones computacionales de elemento finito con COMSOL 6.1, empleando el modelo de histéresis de Jiles-Atherton para materiales ferroeléctricos, obteniendo las curvas de histéresis adecuadas para cada composición.


CONCLUSIONES

Las fases obtenidas mediante difracción de rayos X confirman la efectividad del método de síntesis empleado para producir cerámicos dieléctricos, validado previamente en el laboratorio. Los resultados muestran que las fases puras de x=0 a x=1 presentan picos de difracción bien definidos, con desplazamientos correspondientes a las concentraciones intermedias, lo que indica una correcta integración en la red cristalina, consistente con las expectativas teóricas. Una observación importante es que la fase ordenada de x=0.50 fue la más difícil de lograr, posiblemente debido a los efectos de la entropía del sistema, que en esta concentración específica podría dificultar la formación de una estructura cristalina bien definida. La competencia entre la ordenación estructural y la entropía configuracional puede complicar la nucleación y crecimiento de cristales. Las simulaciones computacionales de elemento finito, utilizando el modelo de Jiles-Atherton para materiales ferroeléctricos, fueron precisas y validaron los resultados experimentales, especialmente en las curvas de histéresis. Se planea realizar mediciones adicionales de la capacitancia de cada compuesto en función de la temperatura para observar las transiciones de fase y cuantificar los cambios en la constante dieléctrica. Estos resultados también serán validados mediante simulaciones de elemento finito para asegurar la coherencia con los datos experimentales.
Badillo Ferrer Dafne Itzel, Universidad de Guadalajara
Asesor: Dr. Braulio Juarez Araiza, Universidad Autónoma de Baja California

HIDROGRAFíA Y CORRIENTES EN UN ESTUARIO TERMAL EN CONDICIONES DE VERANO


HIDROGRAFíA Y CORRIENTES EN UN ESTUARIO TERMAL EN CONDICIONES DE VERANO

Badillo Ferrer Dafne Itzel, Universidad de Guadalajara. Asesor: Dr. Braulio Juarez Araiza, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Un estuario se puede definir como un cuerpo de agua costero, semi-cerrado, que tiene una conexión libre con el mar abierto y dentro del cual el agua de mar entra en contacto con el agua dulce derivada de la descarga terrestre (Pritchard, 1967). Actualmente dicha definición ha sido actualizada con la finalidad de eliminar ambigüedades y proporcionar un término que pueda ser adaptado a nuevos contextos. Los estuarios son de vital importancia ya que son ecosistemas con una amplia biodiversidad, actúan como filtros naturales evitando problemas como la eutrofización. También, desempeñan un papel crucial en la economía local ya que permiten desarrollar estrategias para la gestión sostenible de los recursos hídricos y generar óptimas planificaciones considerando los efectos del cambio climático. El Estero de Punta Banda es un estuario ubicado en la ciudad de Ensenada, en el estado de Baja California, México. El estuario se encuentra sujeto a presiones antropogénicas como la urbanización, la agricultura y el turismo; las cuales contribuyen a la alteración de la calidad del agua, así como de la salud del ecosistema. A pesar de estas presiones existe poca información que ayude a generar estrategias de manejo adecuadas. Es debido a la falta de información que el monitoreo constante de sus propiedades físicas y químicas es crucial para la implementación de medidas que permitan su conservación.



METODOLOGÍA

La estancia de verano inició con una documentación referente a la definición de estuario, conceptos clave para su comprensión, sus características, las diferentes formas de clasificación y la importancia de su estudio. Aprendimos fundamentos teóricos alusivos a las ecuaciones de conservación de masa y momento, las mareas, los agentes de estratificación y el flujo inducido por gradientes de densidad. Se realizó una campaña de medición en el Estero de Punta Banda; un estuario localizado en la ciudad de Ensenada, Baja California. La campaña consistió en un monitoreo de 24 horas; el cual se distribuyó en 3 guardias con una respectiva duración de 8 horas y auxiliándonos del personal del Instituto de Investigaciones Oceanológicas y un pequeño sector del alumnado de la Facultad de Ciencias Marinas de la Universidad Autónoma de Baja California. Durante las 24 horas se colectaron datos de perfiles verticales de conductividad, temperatura y profundidad utilizando un CTD (conductivity-temperature-depth) CastAway YSI marca Sontek, así como magnitud de la corriente utilizando un ADCP modelo M9 de la marca Sontek . Los perfiles de salinidad, temperatura y profundidad se colectaron en 9 puntos del estuario previamente definidos. Se realizaron un total de 14 lances de CTD en cada punto (puntos 1 y 9 corresponden a la boca y a la cabeza respectivamente). Además, se obtuvieron 14 repeticiones de ADCP en 3 transectos transversales al canal principal del estuario. Posterior a la limpieza y descarga de datos de los equipos, recibimos instrucciones referentes a la ejecución de la exportación y filtración de los datos recolectados. Se generaron subdirectorios para los 9 puntos de lance de CTD y los 3 transectos de ADCP. El procesamiento de los datos se realizó utilizando los lenguajes de programación Python y Matlab. Finalmente, se realizaron interpolaciones espaciales y temporales de las componentes Norte-Sur y Este-Oeste de la velocidad de la corriente para aplicar un análisis armónico mediante un ajuste por mínimos cuadrados.


CONCLUSIONES

Los lances otorgaron información acerca de la evolución de la salinidad, densidad y temperatura a lo largo de la jornada y los arrastres propiciaron la creación de gráficos de amplitud, fase y residual. Posterior al análisis de los datos colectados durante la estancia, fue posible concluir que, durante el verano del año en curso, el Estero de Punta Banda puede ser clasificado como un estuario de balance hídrico positivo. Lo anterior debido a que al analizar los perfiles de densidad, se apreció una disminución en dicho parámetro conforme nos acercamos a la cabeza. Tras la revisión del gráfico alusivo a la temperatura podemos observar que los valores mayores se albergan en el interior del estuario con una diferencia de hasta 3.60 ºC lo que contrasta con las diferencias de salinidad entre la boca y la cabeza que apenas fueron de 0.162 g/kg. Lo anterior nos lleva a concluir que la temperatura fue el factor determinante del sistema, clasificándolo como un estuario termal. Mientras que los datos de velocidad mostraron una mayor amplitud del armónico semidiurno con una amplitud máxima de 40 m/s, 40 m/s y 30 m/s en los transectos 1, 2 y 3, respectivamente. El flujo residual en el transecto 2 muestra un patrón con agua saliendo en la parte superficial y entrando en el fondo; lo que evidencia la circulación gravitacional y explica el balance hídrico positivo. Estos patrones de circulación residual pueden estar asociados a efectos del gradiente positivo de densidad observado con los lances de CTD.
Ballesteros Pérez Aneth Rocío, Universidad de Guadalajara
Asesor: Dr. Zeuz Montiel González, Centro de Investigación en Materiales Avanzados (CONACYT)

DESARROLLO DE DISPOSITIVOS MULTICAPAS A TRAVéS DE LA COMBINACIóN DE METODOLOGíAS EN FASE LíQUIDA Y VAPOR PARA APLICACIONES EN SISTEMAS FOTOCATALíTICOS Y FOTOVOLTAICOS


DESARROLLO DE DISPOSITIVOS MULTICAPAS A TRAVéS DE LA COMBINACIóN DE METODOLOGíAS EN FASE LíQUIDA Y VAPOR PARA APLICACIONES EN SISTEMAS FOTOCATALíTICOS Y FOTOVOLTAICOS

Ballesteros Pérez Aneth Rocío, Universidad de Guadalajara. Asesor: Dr. Zeuz Montiel González, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La contaminación industrial por índigo carmín en el sector textil es un problema ambiental que afecta directamente a la calidad del agua, por eso con ayuda de películas delgadas semiconductoras en forma de arquitecturas se plantearon una serie de experimentos para degradar este contaminante cuando se les aplica radiación (fotocatálisis). Las películas delgadas son materiales bidimensionales colocadas sobre un sustrato. Tales materiales poseen propiedades especiales que muchas veces están relacionadas con sus metodología de fabricación.



METODOLOGÍA

Se fabricaron  arquitecturas de CuS/AZO/vidrio y CuS/CdS/vidrio por métodos de depósito de películas delgadas (ALD, DBQ y SILAR) y se evaluaron como posibles fotocatalizadores. ALD El método de "Depósito por Capa Atómica" es una síntesis avanzada en fase vapor para películas ultradelgadas, ya que se alcanzan espesores del orden de 5 nm y se tiene un alto control en el proceso. Se depositó óxido de zinc dopado con aluminio (AZO) sobre el sustrato de vidrio con 60 ciclos ZnO de los cuales 8% contienen Al. DBQ En Depósito por Baño Químico las películas delgadas se forman sobre una superficie (comúnmente vidrio) bajo el principio de precipitación controlada cuando se sumerge en una solución química. Se depositó CdS en sustratos de vidrio bajo parámetros establecidos por el grupo de trabajo (33 min, 43 °C, concentración y volúmenes de reactivos preestablecidos). SILAR Es un método de depósito de películas delgadas que implica la adsorción y reacción sucesiva de capas iónicas. Es una variante del método de baño químico, al tener los reactivos separados se minimiza/evita la precipitación en los vasos, solo se forma el material en el sustrato. Los sustratos pre-depositados con AZO o CdS pasaron por un proceso por SILAR de 60 ciclos donde la solución catiónica es de CuSO4, la aniónica de Na2S y sus respectivos enjuagues.


CONCLUSIONES

CuS/AZO/Vidrio Las muestras previamente depositadas con AZO no tuvieron los resultados esperados en cuanto a uniformidad de la película, al depositar CuS por el método SILAR. CuS/CdS/Vidrio Las muestras de CdS presentaron una buena uniformidad al depositar CuS por SILAR por lo que también se les hicieron pruebas de fotocatálisis con índigo carmín. Conclusión General La síntesis de los materiales propuestos se obtuvo con éxito; no obstante, el comportamiento del AZO como capa sustrato no fue el adecuado, aún se deben hacer ajustes en la experimentación para no perder la calidad y poder utilizarlo en fotocatálisis. Por otra parte, los sustratos de CdS sí permitieron el depósito de CuS. La prueba fotocatalítica revela que, si bien hay detalles que indican decoloración, la degradación no queda implícita, ya que hubo desprendimiento del material durante el proceso fotocatalítico. Estas son pruebas que deben repetirse. Mi aprendizaje al realizar este proyecto no solo abarcó los diversos métodos de síntesis que tuve la oportunidad de realizar junto con el proceso de fotocatálisis; también me formó en el ámbito científico y me demostró de lo que puedo ser capaz en el área de la investigación.
Baños Avilez Raúl Cristóbal, Instituto Tecnológico Superior de Los Ríos
Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla

REVISIóN BIBLIOGRáFICA DE LOS EFECTOS DEL MATERIAL PARTICULADO EN LA VEGETACIóN


REVISIóN BIBLIOGRáFICA DE LOS EFECTOS DEL MATERIAL PARTICULADO EN LA VEGETACIóN

Baños Avilez Raúl Cristóbal, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Las partículas emitidas por chimeneas, procesos industriales y vehículos se acumulan en grandes cantidades en las hojas de la vegetación, lo que interfiere con la fotosíntesis absorbiendo o difundiendo la luz solar esencial para esta (Taiz, L., & Zeiger, E., 2010), además de obstruir los estomas (Gajbhiye et al., 2016) y daño en la epidermis por el impacto del material particulado.  Se analizará el efecto del Material particulado (PM10 y PM2.5) en la fotosíntesis, la epidermis y los estomas de las plantas mediante una revisión bibliográfica con la finalidad de entender el impacto que tiene el material particulado en la vegetación en la morfología y la fotosíntesis.



METODOLOGÍA

La fotosíntesis es un proceso esencial para la vida en la Tierra, llevado a cabo por plantas, algas y algunas bacterias, en el cual el agua y el dióxido de carbono se combinan para formar carbohidratos (azúcares) y se libera oxígeno, siempre que exista luz solar (Carril, 2011). La reducción en la luz solar disponible debido a la absorción o dispersión del MP disminuye la energía para la fotosíntesis, lo que se traduce en una menor producción de azúcares, la principal fuente de energía para las plantas. Esto tiene consecuencias significativas, como un crecimiento reducido, hojas menos desarrolladas, y una menor producción de frutos y biomasa (Préndez, M. 2018). La epidermis de las plantas cumple funciones vitales como protección, respiración, y regulación del intercambio de gases y agua, además de permitir el paso de luz y reconocer patógenos(Raisman, 2015). Diversos estudios han mostrado cómo el material particulado (MP) afecta negativamente la epidermis y, por ende, la salud de las plantas. Egas et al. (2018) encontraron que, en Santiago de Chile, el MP impacta la epidermis de especies arbóreas como Quillaja saponaria y Schinus molle, alterando la densidad y el ancho de los estomas y afectando la cutícula. Estas alteraciones pueden comprometer el intercambio gaseoso, la fotosíntesis y la tolerancia al estrés ambiental. Los estomas son poros microscópicos en la epidermis de hojas y tallos que facilitan el intercambio de gases, fundamental para la fotosíntesis, la respiración y la transpiración de las plantas (Taiz, L., 2010). El estudio de Ulrichs y Benecke (2008) señala que el MP puede depositarse en los estomas, bloqueando parcial o completamente estos poros y provocando cambios en las células y tejidos, e incluso necrosis y clorosis en las hojas. Este bloqueo limita el intercambio gaseoso esencial para la fotosíntesis y la respiración de las plantas.  


CONCLUSIONES

El material particulado (MP), presente en el aire representa una amenaza significativa para la salud de las plantas. El MP afecta la fotosíntesis, la respiración y el intercambio gaseoso de las plantas, ocasionando una serie de consecuencias negativas como la reducción del crecimiento de las plantas y una menor producción de biomasa de igual manera la epidermis de la hoja puede verse afectada por la deposición de material particulado alterando la estructura celular y la cutícula provocando que la planta sea más susceptible a enfermedades y plagas.
Barrios Tornez Roberto Carlos, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Carlos Alberto Ochoa Ortíz, Universidad Autónoma de Ciudad Juárez

INSTRUMENTACIóN Y CONTROL DE UNA COLUMNA DE DESORCIóN A ESCALA LABORATORIO


INSTRUMENTACIóN Y CONTROL DE UNA COLUMNA DE DESORCIóN A ESCALA LABORATORIO

Barrios Tornez Roberto Carlos, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Carlos Alberto Ochoa Ortíz, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El cambio climático, impulsado por las emisiones de CO2 provenientes de la quema de combustibles fósiles, es un problema crítico. La captura de CO2 postcombustión es una tecnología clave para mitigar estas emisiones, pero su eficacia depende de un monitoreo y control precisos. El problema central es la necesidad de mejorar la instrumentación y monitoreo de este proceso para optimizar su eficiencia y asegurar un desempeño efectivo en la captura de CO2.



METODOLOGÍA

Para llevar a cabo la instrumentación de la columna de desorción a escala laboratorio, se utilizaron sensores y modulos electronicos de bajo costo y consumo, mediante técnologias digitales como lenguajes de programación de codigo abierto e internet de las cosas. De igual forma, la manufacturación se llevó a cabo en el Laboratorio de Operaciones Unitarias de la UAEM.


CONCLUSIONES

Los datos obtenidos de los sensores lograron tener una precisión correcta para el costo beneficio de los mismos, gracias a los datos recolectados, se pueden realizar diversos analisis y optimización para reducir el costo y uso de recursos para poder llevar a cabo el proceso de captura de CO2 postcombustión.
Bautista Garcia Jaime Karim, Instituto Politécnico Nacional
Asesor: Dr. José Ramón Martínez Angulo, Universidad Autónoma de Tamaulipas

DISEÑO DE UNA CÁMARA INTELIGENTE PARA EL ESTUDIO DE GERMINACIÓN DE SEMILLAS, CRECIMIENTO Y DESARROLLO DE PLANTAS


DISEÑO DE UNA CÁMARA INTELIGENTE PARA EL ESTUDIO DE GERMINACIÓN DE SEMILLAS, CRECIMIENTO Y DESARROLLO DE PLANTAS

Bautista Garcia Jaime Karim, Instituto Politécnico Nacional. Asesor: Dr. José Ramón Martínez Angulo, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La investigación y el desarrollo agrícola han experimentado una transformación significativa con el avance de la tecnología de cámaras inteligentes. Estas herramientas no solo han facilitado la observación detallada y en tiempo real de los procesos biológicos, sino que también han revolucionado la forma en que comprendemos y optimizamos el crecimiento de las plantas. En este contexto, el estudio de la germinación de semillas y el desarrollo de las plantas juega un papel crucial en la seguridad alimentaria global y la sostenibilidad ambiental. El diseño y la implementación de una cámara inteligente dedicada al monitoreo continuo y preciso de estos procesos representan un avance significativo en la capacidad de los investigadores y agricultores para comprender y gestionar eficazmente el crecimiento vegetal. En este reporte, exploraremos el diseño meticuloso de una cámara inteligente adaptada específicamente para estudiar la germinación de semillas y el crecimiento de las plantas. Analizaremos las tecnologías y componentes clave utilizados en su desarrollo, así como los beneficios potenciales que ofrece en términos de eficiencia de investigación, precisión en la recolección de datos y capacidad para mejorar las prácticas agrícolas. Además, consideraremos los desafíos técnicos y las oportunidades futuras en la aplicación de esta tecnología para avanzar en la comprensión y la optimización del cultivo de plantas en diversas condiciones ambientales y agronómicas.  



METODOLOGÍA

Definición de Requerimientos y Especificaciones: Se establecieron los objetivos del proyecto, incluyendo la captura de datos de humedad y temperatura del ambiente, calidad del aire y espectro de luz. Se determinaron los actuadores necesarios: calentadores con abanicos y lámparas LED de luz azul, roja y blanca para simular diferentes condiciones ambientales y de iluminación, así una pantalla LCD donde se podrán visualizar los datos obtenidos por los sensores y poder tomar decisiones en base a ellos. 2. Selección de Componentes y Diseño del Hardware: Se seleccionó la placa ESP32 como la base del sistema debido a su capacidad de procesamiento y conectividad Wifi-integrada. Se diseñó el circuito electrónico para integrar sensores de humedad, temperatura, calidad del aire y espectro de luz, así como actuadores (calentadores y lámparas LED). Se incluyó un display LCD para mostrar información relevante sobre el estado de la cámara y los datos capturados. 3. Desarrollo del Software: Se utilizó el entorno de desarrollo Arduino para programar la placa ESP32 y gestionar la adquisición de datos de los sensores. Se implementó la comunicación Wifi para transmitir los datos de los sensores a una hoja de cálculo en Excel en tiempo real, utilizando el protocolo HTTP para la transferencia de datos. Se desarrollaron algoritmos de control para los actuadores, permitiendo la regulación automática de temperatura y humedad en función de los datos capturados por los sensores. 4. Integración y Pruebas: Se ensambló la cámara inteligente y se verificó la correcta comunicación entre todos los componentes (sensores, actuadores, ESP32 y display LCD). Se llevaron a cabo pruebas exhaustivas para validar la precisión y la estabilidad de los datos capturados por los sensores y la funcionalidad de los actuadores. Se realizó una calibración de los sensores para asegurar mediciones precisas y confiables. 5. Implementación y Evaluación en Campo: Se implementó la cámara inteligente en un entorno controlado para simular condiciones reales de germinación y crecimiento de plantas. Se evaluó el rendimiento del sistema en la captura y análisis de datos obtenidos durante diferentes etapas de crecimiento de las plantas. Se recopilaron resultados y se compararon con métodos tradicionales de observación y medición para validar la efectividad y la precisión del sistema.  


CONCLUSIONES

En este proyecto de diseño y desarrollo de una cámara inteligente para el estudio de germinación de semillas, crecimiento y desarrollo de plantas, se logró implementar un sistema innovador basado en la placa ESP32 y programado en Arduino. Esta cámara no solo demostró ser efectiva en la captura y análisis de datos críticos como humedad, temperatura, calidad del aire y espectro de luz, sino que también integró actuadores como calentadores con abanicos y lámparas LED de luz azul, roja y blanca para simular diversas condiciones ambientales. La capacidad de transmitir datos en tiempo real mediante WiFi a una hoja de Excel facilitó el seguimiento continuo y la recopilación de datos precisos, permitiendo un análisis detallado del proceso de germinación y desarrollo de las plantas. El display LCD proporcionó una interfaz intuitiva para visualizar información clave sobre el estado del sistema y los parámetros ambientales monitoreados. Durante las pruebas y evaluaciones realizadas en condiciones controladas, la cámara inteligente demostró ser robusta y confiable, proporcionando mediciones precisas que fueron comparables con métodos tradicionales de observación y medición. La capacidad de ajustar automáticamente las condiciones ambientales mediante los actuadores permitió simular escenarios específicos de cultivo, mejorando así la comprensión y gestión de los factores que influyen en el crecimiento de las plantas. En conclusión, este proyecto no solo cumplió con los objetivos establecidos inicialmente, sino que también abrió nuevas posibilidades para la aplicación de tecnologías avanzadas en la agricultura de precisión y la investigación botánica. El diseño y desarrollo de esta cámara inteligente ofrece una herramienta poderosa y versátil para investigadores, agrónomos y agricultores, contribuyendo significativamente al avance en la eficiencia de los cultivos, la optimización de recursos y la sostenibilidad ambiental en el sector agrícola.
Bautista López Nancy Nahomi, Instituto Politécnico Nacional
Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla

COMPARACIóN DE MEDICIONES DE MATERIAL PARTICULADO (PM) ENTRE UN SENSOR DE BAJO COSTO Y NIVEL REGULATORIO


COMPARACIóN DE MEDICIONES DE MATERIAL PARTICULADO (PM) ENTRE UN SENSOR DE BAJO COSTO Y NIVEL REGULATORIO

Bautista López Nancy Nahomi, Instituto Politécnico Nacional. Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los sensores de bajo costo (SBC) brindan la oportunidad de realizar mediciones de material particulado (PM) a un menor costo respecto a los sensores regulatorios y gracias a su portabilidad permiten realizar mediciones móviles. Debido a estas características se han convertido en una alternativa para el monitoreo de PM en las grandes ciudades del mundo. Sin embargo, al ser una tecnología emergente, las mediciones de los SBC tienen incertidumbres que requieren ser valoradas antes de usarlos.



METODOLOGÍA

En este trabajo realizamos una comparación entre las mediciones de un SBC (SDS011) y un sensor de referencia (BAM OPSIS SM200). Los datos se recabaron a partir de dos SBC instalados en el Laboratorio de Análisis Ambiental (LAA) de la CDMX donde se cuentan con los datos correspondientes de un sensor de referencia. Se consideraron dos tamaños de partícula (PM10 y PM2.5) y datos de temperatura (T), humedad relativa (HR) en el periodo 5 de Abril al 9 del Mayo en 2024.


CONCLUSIONES

En el caso de las concentraciones de PM2.5 el SBC subestimo las mediciones en un 0.73% respecto a los datos del sensor de referencia. Sin embargo, para las mediciones de PM10 el SBC subestima aún mas las concertaciones, hasta en un 0.49%. Esto significa que a medida que el tamaño de la partícula disminuye los SBC miden mejor. También, se observó que la HR afecta las mediciones de PM del SBC. Ya que a mayor HR, menor cantidad de partículas suspendidas en el aire habrá. Con base en los resultados, se señala que sin una calibración adecuada los SBC no deben ser utilizados para proveer datos de concentraciones de PM.
Bautista Nava Metztli Citlaly, Universidad Autónoma del Estado de México
Asesor: Dr. Alberto Sánchez González, Instituto Politécnico Nacional

OCTOCORALES DEL CARIBE MEXICANO


OCTOCORALES DEL CARIBE MEXICANO

Bautista Nava Metztli Citlaly, Universidad Autónoma del Estado de México. Asesor: Dr. Alberto Sánchez González, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los corales son una clase de colonia de animales que se relacionan con los hidrozoos, las medusas y las anémonas de mar, en base a esto los arrecifes de coral son uno de los ecosistemas más diversos y biológicamente complejos del mundo, siendo ellos lo que alimentan y dan refugio a un cuarto de la vida marina. Tomando en cuenta el análisis de lo que es un coral y su importancia se trabajó con los octocorales del Caribe Mexicano, ya que son grupos focales de la determinación de perturbaciones en el ambiente marino (Alcolado, 1981). Este análisis se está llevando a cabo para determinar las condiciones medio ambientales del Caribe Mexicano, para valorizar sus riesgos ambientales y la calidad de agua que se está acumulando en el Mar Caribe. Considerando muestras de la misma colonia de octocorales, con 54 muestras de diferente tamaño, forma, ubicación y peso; esto para llevar un análisis metodológico aplicable para estas mismas condiciones, avalados por estudios previos.



METODOLOGÍA

El estudio se basó en 54 muestras obtenidas, las cuales fueron recolectadas en las siguientes zonas: Puerto Morelos y Akumal, en el Estado de Quintana Roo en el Mar Caribe, con diferentes metros de profundidad en el mar y coordenadas. En el cual también se pesaron las ramificaciones que se obtuvieron en el campo de estudio de cada una de las muestras, las cuales se tuvieron que pesar en la balanza de precisión sartoriuos secura, la cual dio valores en gramos y se insertaron en el documento del estudio, igual se medió el diámetro de los ejes con el Calibrador Vernier Analógico y se pesaron en kg los ejes de cada muestra. De una de la muestra se tomaron ramificaciones (muestra 52) en la cual se obtuvieron 6 muestras de diferentes tamaños, las cuales fueron cortadas con un Cortador de precisión de baja velocidad buehler isomet, los cuales se mandaron a laboratorio para examinar sus composiciones y las variaciones que se muestran por anillo de crecimiento, obteniendo sedimentos de algunos de los anillos para examinar y obtener las condiciones en las que se encontraba el octocoral en el mar Caribe. Los anillos de crecimiento son generalmente microscópicos y para su estudio se requiere obtener secciones delgadas de las estructuras rígidas en las que se observan cambios en la densidad de sus componentes. El procedimiento estándar para el procesamiento de estructuras rígidas incluye, entre otras, las siguientes etapas generales: Obtención de la estructura (diente, otolito, escama, estatolito, etc.) Tratamiento de la estructura (limpieza de la estructura y eliminación de tejidos blandos) Obtención de secciones delgadas y elaboración de laminillas Identificación de los anillos de crecimiento (observación macroscópica y microscópica) Caracterización y conteo de los anillos (oscuro y claro) Análisis e interpretación. Los límites entre bandas pueden ser graduados o abruptos. Un incremento abrupto puede representar periodos en los que no hubo depósito de anillos. Las bandas irregulares podrían representar sentar un disturbio ambiental similar al de un huracán o al ataque ocasional de un predador (Rosa y Ardisson, 2005).


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de los estudios acerca de los octocorales del caribe mexicano, el manejo y el cuidado que estas especies cuando se le aplica una metodología para comprobar las afectaciones medioambientales que se provocan dentro del mar y sus alteraciones climáticas. Y como conclusión se relacionó el estudio con los ODS que son el objetivo 6 Agua limpia y saneamiento, objetivo 13 Acción por el clima y el objetivo 14 Vida submarina, todo estos relacionándolos con los octocorales del caribe mexicano.
Bautista Reyes Daniela, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Gaspar Rodrigo de Jesús León Gil, Instituto Tecnológico Superior de Tacámbaro

ECUACIONES DIFERENCIALES: UN MODELO ECONóMICO


ECUACIONES DIFERENCIALES: UN MODELO ECONóMICO

Bautista Reyes Daniela, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Gaspar Rodrigo de Jesús León Gil, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Las ecuaciones diferenciales lineales ordinarias (EDO) son herramientas matemáticas fundamentales en diversas disciplinas científicas y de ingeniería. Estas ecuaciones permiten modelar y predecir el comportamiento de sistemas dinámicos en función del tiempo. En el ámbito de la economía, uno de los modelos más influyentes que utilizan EDO es el modelo de Solow. Este modelo describe cómo la acumulación de capital, el crecimiento de la población y los avances tecnológicos interactúan para determinar el crecimiento económico a largo plazo y cómo ésta converge a un estado estacionario donde el capital por trabajador se estabiliza. El modelo de Solow se basa en una ecuación diferencial que relaciona la tasa de cambio del capital per cápita con la producción, el ahorro y la depreciación del capital. La solución de esta ecuación diferencial proporciona información crucial sobre el equilibrio económico y las condiciones necesarias para el crecimiento sostenido. La aplicación de herramientas de programación para la solución de EDOs se ha vuelto cada vez más relevante, dado que permite no solo una resolución más eficiente y precisa de estas ecuaciones, sino también la posibilidad de explorar un amplio espectro de escenarios y parámetros con rapidez. En este contexto, el presente trabajo tiene como objetivo desarrollar un conjunto de herramientas computacionales que faciliten la solución de ecuaciones diferenciales lineales ordinarias dentro del marco del modelo de Solow.



METODOLOGÍA

Se comienza con una revisión detallada del modelo de Solow y las ecuaciones diferenciales lineales ordinarias que lo describen. En particular, se estudian las EDO en su forma de campo vectorial, se elige esta forma ya que las soluciones de este sistema dependen del tiempo, brindando más propiedades como conocer la evolución en el tiempo de un punto a través de la curva solución. Supongamos que se tiene el sistema de ecuaciones diferenciales lineales dx/dt=a11x+a12y dy/dt=a21x+a22y Dicho sistema se puede reescribir como X’=AX, donde X=(x,y), X’=(dx/dt,dy/dt)  y A=.([a11 a12],[a21 a22]). Utilizando el software Python se realizó un programa que resuelva este tipo de ecuaciones diferenciales. La matriz A es inicialmente conocida, por lo que se ingresan los elementos de esta matriz en el programa. Primero se analiza si A es invertible, si es no invertible, existen tres posibles casos: A=([0 0],[0 0]), el programa devolverá un retrato fase en el que todos los puntos del plano son singulares A=([a 0],[0 0]), la solución es de la forma x(t)=c1eat,y(t)=c2, el programa devolverá un retrato fase en el que todos los puntos en el eje y son singulares. A=([0 0],[0 b]), la solución es de la forma y(t)=c2ebt ,x(t)=c1  , el programa devolverá un retrato fase en el que todos los puntos en el eje x son singulares. Para una A invertible y no está expresada en la forma canónica de Jordan, la siguiente parte del programa calcula los valores propios de esta λ y μ. El programa analiza estos valores y determina la forma del retrato fase. Además, se obtienen los vectores propios v1 y v2 , después se realiza un cambio de coordenadas lineal P=(v1,v2), transformando a A en una de las siguientes formas AT=([λ 0],[0 μ]) Si λ =μ, entonces el flujo representa una familia de rectas con un punto singular en el origen. Si  λ y μ son distintos y ambos tienen el mismo signo, entonces el flujo representa una familia de funciones potencia. Si  λ y μ son distintos  y tienen diferente signo, entonces el flujo tiene como forma una silla.        2. AT=([λ 1],[0 λ ]), el retrato fase para este caso es un nodo.        3. AT=([a -b],[b a]) Para a=0 y b distinto de cero. El retrato fase obtenido es un conjunto de circunferencias con centro en el origen. Para a y b distinto de cero. El retrato fase obtenido es un conjunto de espirales alrededor del origen. Las soluciones bajo la transformación están dadas por yT(t)=exp((P-1AP)t) K xT(t)=Py Para conseguir las soluciones del sistema inicial, se aplica la transformación inversa, es decir y(t)=PyTP-1K x(t)=PxTP-1K El programa toma todas las consideraciones anteriores y determina las soluciones del sistema y la forma de su retrato fase. La ecuación fundamental del modelo de Solow está dada por: dk/dt=s(f(k))-(n+g+d)k(t) Donde k es el capital, s es la tasa de ahorro, f(k) es la función de producción, d es la tasa de depreciación del capital, n es la tasa de crecimiento del trabajo y g es la tasa de crecimiento del progreso tecnológico.  Mediante una sustitcuón para la función de producción y un cambio de variable, se obtiene una ecuación de Bernoulli que el programa puede analizar.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la aplicación de matemáticas en el sector administrativo y de negocios, y realizar un análisis de las ecuaciones diferenciales lineales de primer orden apoyándose de herramientas computacionales, aún se encuentra en fase algunos detalles del programa y se espera que no haya problemas en la resolución de este tipo de ecuaciones.
Becerril Zárate Diana María, Universidad Autónoma del Estado de México
Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara

ESTUDIO DE RIESGO SíSMICO EN EL ÁREA METROPOLITANA DE PUERTO VALLARTA.


ESTUDIO DE RIESGO SíSMICO EN EL ÁREA METROPOLITANA DE PUERTO VALLARTA.

Becerril Zárate Diana María, Universidad Autónoma del Estado de México. García Valdés Mayte, Universidad Autónoma del Estado de México. Herrera Soto Carolina, Universidad Autónoma de Sinaloa. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

México ha enfrentado notables desastres naturales en diversas regiones, subrayando la imperiosa necesidad de abordarlos mediante un enfoque científico. La clave para prevenir futuros desastres radica en la investigación rigurosa, cuyos resultados posibiliten la aplicación de medidas concretas para mitigar su impacto. En particular los terremotos han puesto de manifiesto la importancia de planificar adecuadamente, tomando en cuenta el comportamiento del suelo durante el terremoto y la vulnerabilidad de la sociedad, para disminuir pérdidas humanas y económicas. Este proyecto tiene como objetivo evaluar el riesgo sísmico en la región de la Zona Metropolitana de Puerto Vallarta.



METODOLOGÍA

Durante el verano de investigación se realizaron encuestas remotas y presenciales para el estudio del riesgo sísmico. Las cuales incluyeron evaluación visual rápida de estructuras para la generación de un inventario de edificios. 


CONCLUSIONES

Los resultados de las encuestas remotas permitieron mejorar el inventario de edificios en la ciudad de Puerto Vallarta el cual se utilizará para realizar un estudio de vulnerabilidad sísmica. Mientras que las encuestas para la medición de la percepción del riesgo sísmico por la población de Puerto Vallarta permiten evaluar la respuesta de la población a este fenómeno natural. Otras actividades realizadas durante el verano de investigación incluyeron asistencia a mini taller de escritura científica y a ponencias diversas, y la participación en ensayos geofísicos de sísmica activa y pasiva.
Bello Sánchez Pamela Dennys, Benemérita Universidad Autónoma de Puebla
Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla

INTELIGENCIA ARTIFICIAL EN CLASIFICACIóN DE IMáGENES PARA EL CONTROL DE CALIDAD UTILIZANDO TENSOR FLOW Y KERAS


INTELIGENCIA ARTIFICIAL EN CLASIFICACIóN DE IMáGENES PARA EL CONTROL DE CALIDAD UTILIZANDO TENSOR FLOW Y KERAS

Bello Sánchez Pamela Dennys, Benemérita Universidad Autónoma de Puebla. Martínez Martínez Karla Dayanne, Benemérita Universidad Autónoma de Puebla. Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la industria manufacturera y de producción, el control de calidad es un proceso crucial que asegura que los productos cumplen con los estándares y especificaciones establecidas. Existen empresas en que este proceso ha sido realizado manualmente por inspectores, lo que puede ser costoso, lento y propenso a errores. La implementación de Inteligencia Artificial (IA) para la clasificación de imágenes surge como una solución potencial para mejorar la eficiencia y precisión del control de calidad. Sin embargo, el uso de la inteligencia artificial en la clasificación de imágenes para el control de calidad necesita grandes cantidades de datos etiquetados para entrenarse de manera efectiva se debe contar con un equipo informático con alto rendimiento, capacidad de procesamiento y almacenamiento para poder procesar las grandes cantidades de datos, además la IA debe ser entrenada para reconocer una amplia variedad de defectos que pueden presentarse en los productos, esto incluye desde pequeñas imperfecciones hasta fallos críticos.



METODOLOGÍA

Durante esta estancia de verano de investigación, nos enfocamos en el uso de la Inteligencia Artificial (IA), específicamente a través de las librerías de TensorFlow y Keras, para desarrollar un sistema automatizado de clasificación de imágenes con el objetivo de mejorar el control de calidad en la industria manufacturera. El propósito principal fue crear un sistema eficiente y preciso capaz de identificar y clasificar defectos en productos manufacturados mediante el análisis automatizado de imágenes. Para llevar a cabo este proyecto, utilizamos un conjunto de herramientas y recursos como: Librerías de IA: TensorFlow y Keras  para el desarrollo de modelos de aprendizaje profundo. Datos: Fotografias de rondanas con cierto tipo de daño El desarrollo del código comenzó con la recopilación y preprocesamiento de los datos de imágenes. Esto incluyó la normalización y la segmentación de las imágenes para garantizar que estuvieran en un formato adecuado para el entrenamiento del modelo. Posteriormente, se implementaron modelos de redes neuronales convolucionales (CNN) utilizando TensorFlow y Keras. Para mejorar el rendimiento del modelo y abordar los desafíos específicos del proyecto, realizamos varias adaptaciones clave: Dropout: Implementamos la técnica de dropout en nuestras redes neuronales para prevenir el sobreajuste. Esta técnica consiste en desactivar aleatoriamente un porcentaje de neuronas durante el entrenamiento, lo que ayuda a mejorar la generalización del modelo. Regularización de Datos: Utilizamos técnicas de regularización de datos para asegurar que las clases estuvieran equilibradas. Esto incluyó la aplicación de transformaciones como rotaciones, traslaciones y cambios de escala a las imágenes existentes, lo que permitió al modelo aprender a reconocer defectos en diversas condiciones y equilibrar la distribución de datos entre las diferentes clases. ResNet18: Implementamos una versión personalizada de ResNet18. Esta arquitectura es conocida por su capacidad para manejar problemas de profundidad en redes neuronales al utilizar conexiones residuales. La implementamos con una capa adicional de dropout para mejorar la generalización. DenseNet121: Esta arquitectura conecta cada capa a todas las capas anteriores, lo que facilita el flujo de gradientes y mejora la eficiencia del modelo. ResNet50: Similar a ResNet18 pero más profunda, esta arquitectura utiliza bloques residuales para facilitar el entrenamiento de redes muy profundas. InceptionV3: Esta arquitectura utiliza múltiples tamaños de filtro en una misma capa, lo que le permite capturar información a diferentes escalas. VGG16: Conocida por su simplicidad y efectividad, VGG16 utiliza una serie de capas convolucionales y de pooling de tamaño fijo, seguida de capas densas. MobileNet: Diseñada para dispositivos móviles y aplicaciones de baja potencia, esta arquitectura es eficiente en términos de computación y memoria.


CONCLUSIONES

Durante esta estancia de verano de investigación, se ha trabajado intensamente en el uso de la Inteligencia Artificial, específicamente a través de las librerías de TensorFlow y Keras, en la clasificación de imágenes para el control de calidad. El objetivo principal de este proyecto fue desarrollar un sistema eficiente y preciso capaz de identificar y clasificar defectos en productos de manufactura mediante el análisis automatizado de imágenes. A pesar de los esfuerzos dedicados, los resultados obtenidos no han alcanzado los niveles de precisión y eficiencia esperados, sin embargo, demuestran el gran potencial de las redes neuronales convolucionales, del aprendizaje profundo, así como de las diferentes arquitecturas aplicadas al código para la tarea de clasificación de imágenes en el contexto del control de calidad. Se continuará trabajando en este proyecto para mejorar el código y corregir las deficiencias identificadas para que pueda ser implementada de manera efectiva en el control de calidad industrial. Sin duda, esta estancia de investigación ha proporcionado una comprensión más profunda de los desafíos y oportunidades en el uso de la inteligencia artificial en diferentes campos y nos ha abierto un nuevo panorama para seguir y desarrollar futuras investigaciones.
Belmont Zúñiga Rubén, Instituto Politécnico Nacional
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

PREDICCIóN DE SISTEMAS FINANCIEROS MEDIANTE REDES NEURONALES HíBRIDAS


PREDICCIóN DE SISTEMAS FINANCIEROS MEDIANTE REDES NEURONALES HíBRIDAS

Belmont Zúñiga Rubén, Instituto Politécnico Nacional. Gonzalez Linares Christopher, Instituto Tecnológico de La Piedad. Pedroza Sierra Angel, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el modelado de sistemas financieros, las redes neuronales son potentes herramientas para la predicción de datos. Sin embargo, un reto importante es reducir el número de parámetros entrenables. Los modelos con muchos parámetros pueden ofrecer una gran precisión, pero también tienen una mayor complejidad computacional y necesitan más recursos para su entrenamiento. El problema radica en la necesidad de innovar y diseñar arquitecturas de redes neuronales que mantengan un alto rendimiento en el modelado de sistemas financieros, pero que al mismo tiempo requieran un menor número de parámetros entrenables. El objetivo de esta investigación es proponer arquitecturas de redes neuronales hı́bridas que optimicen el equilibrio entre el número de parámetros entrenables y el desempeño predictivo del modelo.



METODOLOGÍA

La metodología de esta investigación se describe a continuación: Recopilar y preparar el conjunto de datos históricos: Obtención de la base de datos: Se utilizaron las páginas de Investing.com y finance.yahoo.com para recopilar datos históricos tanto de acciones individuales como del índice S&P/BMV IPC. La base de datos corresponde al precio de cierre de acciones de Banorte, BBVA, BMV, Inbursa y cierre del índice S&P/BMV IPC en el periodo comprendido de 2010-01-04 a 2024-03-15. Limpieza y preprocesamiento de datos: Los datos recopilados se sometieron a un proceso de limpieza para eliminar datos faltantes y cualquier inconsistencia. Este paso también se incluye un escalamiento de los datos para trabajar con valores entre 0 y 1. División del conjunto de datos: El conjunto de datos fue dividido en conjuntos de entrenamiento (70%) y de prueba (30%). Realizar la programación para obtener el tiempo de retardo: Para determinar un tiempo de retardo adecuado, se utiliza la función de información mutua. Esta función permite cuantificar la cantidad de información entre la serie temporal original y la serie temporal retrasada para diferentes valores del tiempo de retardo. Luego, la Información Mutua Promedio (AMI, por sus siglas en inglés) es utilizada para elegir el tiempo de retardo. Realizar la programación para obtener la dimensión embebida: Se utilizó el algoritmo de falsos vecinos cercanos (FNN, por sus siglas en inglés). Este método identifica aquellos puntos que permanecen cercanos al pasar de una dimensión m a una dimensión m+1. Si los puntos se alejan considerablemente en la nueva dimensión, se consideran falsos vecinos. La distancia entre los puntos se calcula mediante una fórmula específica. La dimensión embebida adecuada se elige como aquella en la que el porcentaje de falsos vecinos es menor al 10%. Realizar la programación de la operación convolucional en una red neuronal híbrida: Se programó la operación convolucional de una red neuronal híbrida. Se utilizó Google Colab como entorno de trabajo, los códigos fueron elaborados en Python utilizando las bibliotecas de TensorFlow y Keras. Realizar la programación de la parte paramétrica para la regularización de datos: Se implementó un codificador variacional para cubrir la parte paramétrica mediante la integración de una regularización del espacio latente bajo una distribución estandar, y la función pérdida KL divergence (divergencia de Kullback-Leibler). Comparar el modelado de las redes propuestas con las propuestas de la literatura actual: Evaluación de las redes neuronales propuestas: Se evaluaron las redes propuestas en términos de desempeño y cantidad de parámetros entrenables. Los modelos fueron entrenados con un número de épocas que varía de 100 a 200, el optimizador que se utilizó fue Estimador de momentos adaptativos (ADAM, por sus siglas del inglés: Adaptive Moment Estimation), se utilizó un factor de aprendizaje de 0.001. Para actualizar los pesos de las redes se utilizó la métrica de error cuadrático sobre dos y para evaluar el desempeño de las redes se utilizó la métrica de raíz del error cuadrático medio. Reportar los resultados obtenidos: Análisis de resultados: Se analizaron los resultados obtenidos, destacando las fortalezas y debilidades de las arquitecturas propuestas. Productos obtenidos: Se realizaron exposiciones para dar a conocer los avances y resultados de la investigación. Así mismo, se está trabajando en la elaboración de artículos para ser presentados en congresos.  


CONCLUSIONES

Durante la estancia se adquirieron conocimientos de ténicas tecnológicas avanzadas e innovadoras, particularmente sobre redes neuronales. Utilizando estos conociemientos, se construyeron seis redes neuronales híbridas con una arquitectura innovadora, los cuales se listan a continuación: Codificador Convolucional combinado con una red neuronal densa (MLP, por las siglas en inglés de Multilayer Perceptron). Codificador Convolucional combinado con una red neuronal recurrente (RNN, por las siglas en inglés de Recurrent Neural Network). Codificador Convolucional combinado con una red neuronal recurrente LSTM (por las siglas en inglés de Long Short-Term Memory). Codificador Variacional combinado con una red neuronal densa (MLP, por las siglas en inglés de Multilayer Perceptron). Codificador Variacional combinado con una red neuronal recurrente (RNN, por las siglas en inglés de Recurrent Neural Network). Codificador Variacional combinado con una red neuronal recurrente LSTM ( por las siglas en inglés de Long Short-Term Memory). Gracias al diseño innovador de las arquitecturas de las redes propuestas, todos nuestros modelos de redes neuronales cuentan con pocos parámetros entrenables (menos de 30 en todos los casos). Además se logró obtener un bajo error de validación y de entrenamiento (menos de 4% en todos los casos), ası́ como reducir ampliamente el costo computacional de entrenamiento los modelos. Se espera continuar con la investigación y la escritura del artı́culo, con el objetivo de publicarlo en revistas y congresos.
Blanco Sanchez Jorge Arturo, Instituto Tecnológico de Matamoros
Asesor: Dr. Ismael Santos Ramos, Benemérita Universidad Autónoma de Puebla

SíNTESIS DE NPS AU@AG PARA LA TRANSFORMACIóN DE 4-NP A 4-AP


SíNTESIS DE NPS AU@AG PARA LA TRANSFORMACIóN DE 4-NP A 4-AP

Blanco Sanchez Jorge Arturo, Instituto Tecnológico de Matamoros. Asesor: Dr. Ismael Santos Ramos, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad uno de los recursos más vitales y valiosos es el agua, asimismo su contaminación es una de las mayores problemáticas, muchas industrias sin conciencia ambiental contaminan éste vital recurso, depositando en los mantos acuíferos compuesto orgánicos, Uno de estos compuestos persistentes y de biodegradación es muy lenta es el 4-Nitrofenol (4-NP), altamente tóxico y no se degrada de forma natural en el ambiente. El 4-NP es utilizado en la fabricación de fármacos, fungicidas e insecticidas, así como en tintes. Hay diferentes métodos para limpiar las aguas contaminadas tales como la filtración, adsorción, intercambio iónico, entre otros, sin embargo, estos métodos no limpian totalmente las aguas; hay un método para la degradación o transformación de los compuestos orgánicos conocida como catálisis, que debido su gran variedad de usos ha sido implementada con alta eficiencia en reducción u oxigenación de contaminantes orgánicos como 4-NP. Además, la catálisis propiciada por las nanopartículas metálicas (NPs) es uno de los métodos de mayor aplicación para solucionar la problemática ambiental. Las NPs de metales nobles poseen ciertas propiedades, tales como, las propiedades catalíticas por su alta actividad química en reacciones de óxido-reducción, lo cual es importante para la transformación de contaminantes orgánicos. Por lo tanto, en el presente trabajo de investigación de se muestran los resultados obtenidos de la actividad catalítica de NPs metálicas.



METODOLOGÍA

Síntesis de Nps de Au, Ag y Au@Ag Para la síntesis de NPs se utilizó el mismo método, variando solo las sale precursoras metálicas. Se prepara una solución: 0.5ml de semillas Au + CTAC, variando condiciones de síntesis a las reportadas en el grupo de investigación. Se deja calentando durante 20 min bajo agitación magnética. Posteriormente, se inyecta a una velocidad de 0.2ml/min una solución de CTAC + AgNO3 + AA. Se deja reaccionar 4 h y enseguida, se deja enfriar en un baño de hielo durante 3-5min


CONCLUSIONES

• Las NPs-Au tienen una morfología esférica con diámetro promedio de 31 nm, un valor de potencial z de +32 indicando buena estabilidad y presentan una carga superficial positiva; además su banda plasmónsuperficial se ubica en 522 nm. • Las NPs-Ag presentan una morfología esférica con un diámetro promedio de 22 nm y presenta aglomerados (de 6-7 nanopartícula) de diámetro promedio de 150 nm, tienen una estabilidad menor (+22) a las de las NPs-Au y la banda plasmonica se ubica en 459 nm. • Las NPs-Au@Ag presentan una morfología de núcleo (Au) esférico y coraza (Ag) cúbica, con un tamaño de arista promedio de 56 nm; presentan la misma estabilidad que las NPs-Ag, y tienen una carga superficial positiva (+25). Finalmente, las bandas plasmónicas de la coraza (Ag) y del núcleo (Au) se ubican en 349 y 435 nm, respectivamente. • Los estudios de la actividad catalítica mostraron que la transformación de el compuesto del 4-NP a 4-AP Se llevo a cabo con Nps de Au en un tiempo de 7min, Nps de Ag en un tiempo de 16min y Nps BimetalicasAu@Ag en un tiempo de 4min, lo que indica la buena combinación de ambos metales nobles mejora las Actividades catalíticas que de forma individual.
Bravo Cassab Tania, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Umapada Pal, Benemérita Universidad Autónoma de Puebla

SíNTESIS DE NANOPARTíCULAS DE TIO₂ Y TIO₂ DOPADAS CON FE PARA LA DEGRADACIóN DE AZUL DE METILENO


SíNTESIS DE NANOPARTíCULAS DE TIO₂ Y TIO₂ DOPADAS CON FE PARA LA DEGRADACIóN DE AZUL DE METILENO

Arrieta Vázquez María Valeria, Benemérita Universidad Autónoma de Puebla. Bravo Cassab Tania, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Umapada Pal, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua es un problema que ha causado consecuencias en la salud humana, envenenamiento de animales y daños a largo plazo en los ecosistemas [1]. Además, la demanda de agua ha superado el crecimiento poblacional y es altamente probable que la escasez de agua incremente con el aumento de las temperaturas globales, dadas por el calentamiento global. Por dichas razones, uno de los Objetivos de Desarrollo Sostenible (ODS), dedicados a hacer un llamado universal a la acción para mejorar las vidas de las personas y proteger el planeta, contempla en su objetivo 6 el Agua limpia y Saneamiento. Esta necesidad de agua ha dado por resultado un crecimiento en las inversiones en infraestructuras e instalaciones de saneamiento dedicadas a la descontaminación de aguas. [2] En el presente trabajo se buscó aportar al objetivo mencionado, por medio de la síntesis de nanopartículas (NPs) de dióxido de titanio (TiO2) y de dióxido de titanio dopado de hierro [3] (TiO2:Fe) al 1% para su uso como fotocatalizador en combinación con peróxido de hidrógeno en la degradación de azul de metileno (un tinte catiónico), el cual es uno de los colorantes mayormente utilizados en la industrias textiles y pesticidas y termina siendo un contaminante perjudicial para el medio ambiente. Cabe destacar que el dopaje resulta beneficioso debido a la reducción del ancho de banda óptica de la fase anatasa del TiO2 (3.2 eV), lo que implica que la energía del fotón absorbido por la nanopartícula será menor y se podrá absorber en el espectro visible [4].



METODOLOGÍA

La metodología realizada puede encontrarse en el vínculo a continuación: https://goo.su/pnIu


CONCLUSIONES

Los resultados obtenidos mencionados en las conclusiones se presentan en el siguiente vínculo: https://goo.su/z5OzB3x   Conclusiones generales  Las NPs de TiO2:Fe 1% mostraron un mejor comportamiento al degradar más rápido y en mayor cantidad la concentración de azul de metileno, en comparación con las nanopartículas no dopadas. La exposición a la luz visible presenta un efecto favorable para ambas nanopartículas debido a la actividad fotocatalítica del TiO2. El uso de Fe como dopante mejora la separación de electrones/huecos fotogenerados y aumenta la absorción en la región visible del TiO2, se conjetura que se debe a la disminución del ancho de banda óptica. La medición de la reflectancia para el posterior cálculo del ancho de banda óptica puede confirmar esta suposición, no obstante, por cuestiones de tiempo es una caracterización que se realizará en días posteriores. Las partículas cuasiesféricas obtenidas tienen un diámetro promedio del orden de los nanómetros, 204 nm para las NPs no dopadas y 203 nm para las NPs dopadas de Fe, característica deseada ya que con una pequeña cantidad de material se tiene un área superficial elevada. ​ Referencias:  [1] Collection, E. K. N. G. I. (2024, 21 mayo). Las fuentes de agua dulce del mundo reciben contaminantes procedentes de una amplia gama de sectores, que amenazan la salud humana y de la fauna. National Geographic. https://www.nationalgeographic.es/medio-ambiente/contaminacion-del-agua [2] Moran, M. (2024, 26 enero). Agua y saneamiento - Desarrollo Sostenible. Desarrollo Sostenible. https://www.un.org/sustainabledevelopment/es/water-and-sanitation/ [3] Freyria, F. S., Compagnoni, M., Ditaranto, N., Rossetti, I., Piumetti, M., Ramis, G., & Bonelli, B. (2017). Pure and Fe-Doped Mesoporous Titania Catalyse the Oxidation of Acid Orange 7 by H2O2 under Different Illumination Conditions: Fe Doping Improves Photocatalytic Activity under Simulated Solar Light. Catalysts, 7(7), 213. https://doi.org/10.3390/catal7070213 [4] Villicaña-Méndez, M., González, L. P., González-Ramírez, J. D., Garnica-Romo, M. G., & García-Salinas, L. (2013, 20 octubre). Modificación de la banda de absorción de los fotocatalizadores por impurificación con metales. En el VII Congreso Argentino de Ingeniería Química en Rosario - Patio de la Madera. [5] Bautista, P; Mohedano, A F; Casas, J A; Zazo, J A; Rodriguez, J. (de octubre de 2008). An overview of the application of Fenton oxidation to industrial wastewaters treatment. Journal of Chemical Technology & Biotechnology. 83 (10): 1323-1338. doi:10.1002/jctb.1988
Caamaño García Carolina, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

GALAXY MáQUILA: ESTUDIO DE LAS GALAXIA BRILLANTES DEL CúMULO DE VIRGO EN EL INFRAROJO


GALAXY MáQUILA: ESTUDIO DE LAS GALAXIA BRILLANTES DEL CúMULO DE VIRGO EN EL INFRAROJO

Caamaño García Carolina, Benemérita Universidad Autónoma de Puebla. Correa Arballo Antonio, Universidad Autónoma de Baja California. de Ramon Tadeo Diego, Benemérita Universidad Autónoma de Puebla. Díaz Carriedo Edgar Josuee, Benemérita Universidad Autónoma de Puebla. Ornelas Castañeda César Mariano, Universidad de Guadalajara. Reyes Acosta Miguel Angel, Universidad Tecnológica de Tehuacán. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El Cúmulo de Virgo es una de las concentraciones más grandes de galaxias cercanas a la Vía Láctea, con una gran variedad de tipos morfológicos, incluyendo galaxias elípticas, espirales, barradas y lenticulares. Estudiar estas galaxias en el espectro infrarrojo es esencial para comprender mejor sus características estructurales, ya que este rango de longitud de onda es menos afectado por el polvo interestelar, lo que permite una visión más clara de la distribución de masa estelar. Sin embargo, el análisis detallado de estas estructuras enfrenta desafíos significativos, como la resolución limitada de las imágenes disponibles y la presencia de contaminantes como estrellas brillantes y otras galaxias cercanas en las imágenes. Estos factores pueden complicar la descomposición precisa de las componentes galácticas, como el bulbo, el disco y las barras, dificultando la caracterización de la dinámica interna y la historia de formación de las galaxias. Además, la diversidad de morfologías dentro del cúmulo sugiere procesos evolutivos distintos, lo que plantea la necesidad de un análisis comparativo riguroso para identificar patrones comunes y diferencias clave en la evolución galáctica.



METODOLOGÍA

Este estudio se basó en imágenes infrarrojas obtenidas de los catálogos astronómicos 2MASS y PanStarrs, centradas en galaxias brillantes del Cúmulo de Virgo. La selección de estas imágenes permitió el análisis de estructuras galácticas con una menor interferencia de polvo interestelar, lo que es crucial para una evaluación precisa de las componentes estelares. El software GALFIT fue el principal instrumento utilizado para descomponer las galaxias en sus componentes estructurales: bulbo, disco y barra. Se aplicaron funciones de Sérsic para modelar el bulbo, mientras que las componentes de disco fueron ajustadas utilizando modelos de disco exponencial. Para algunas galaxias, se consideraron funciones gaussianas para representar características adicionales como barras o anillos. Las imágenes se procesaron inicialmente con DS9, un software de visualización que permitió examinar y recortar las imágenes, asegurando un enfoque en la región de interés. A continuación, se crearon máscaras utilizando scripts en Python, específicamente diseñados para eliminar la interferencia de estrellas brillantes y otras galaxias cercanas. Esto ayudó a minimizar la influencia de estos contaminantes en los resultados fotométricos y morfológicos. Ellipsect fue utilizado para extraer perfiles de brillo superficial de las galaxias y de los modelos generados por GALFIT. Esta herramienta permitió comparar los modelos teóricos con las observaciones reales, facilitando la evaluación de la precisión del ajuste. Se prestó especial atención al ajuste de la función de dispersión puntual (PSF), fundamental para el modelado preciso de las características galácticas más finas. Finalmente, se evaluó la calidad del ajuste de los modelos utilizando el valor de Chi²/nu y análisis de residuos, asegurando que las discrepancias entre los modelos y las observaciones fueran mínimas.


CONCLUSIONES

Los análisis realizados sobre las galaxias brillantes del Cúmulo de Virgo han revelado una diversidad estructural significativa, reflejada en los diferentes parámetros obtenidos, como los índices de Sérsic y los radios efectivos. Estos resultados sugieren que las galaxias del cúmulo han experimentado historias evolutivas distintas, posiblemente influenciadas por interacciones galácticas y procesos internos variados. Uno de los hallazgos clave es la variabilidad en la prominencia de componentes como bulbos, discos y barras, lo que indica una diversidad en los procesos de formación y evolución estelar. Sin embargo, se identificaron varios desafíos en el proceso de análisis, como la dificultad para aislar las galaxias objetivo de las interferencias causadas por estrellas cercanas y otras galaxias brillantes, lo que complicó el ajuste de los modelos. El valor de Chi²/nu y el análisis de residuos mostraron que, aunque se lograron ajustes razonables, existen limitaciones en la precisión del modelado, particularmente debido a la calidad de las imágenes y la influencia de contaminantes. Para mejorar estos ajustes, se recomienda considerar el uso de software adicional para la generación de funciones de dispersión puntual (PSF) y explorar la presencia de núcleos activos galácticos (AGNs), que podrían influir en las características observadas de algunas galaxias. Estos resultados iniciales proporcionan una base para futuros estudios, sugiriendo la necesidad de una mayor resolución y una mejor eliminación de contaminantes para comprender completamente la estructura y evolución de las galaxias en entornos de cúmulos densos. 
Calderón Andalón Edgardo, Universidad de Guadalajara
Asesor: Dr. Ramon Carrillo Bastos, Universidad Autónoma de Baja California

ACERCAMIENTO ANALíTICO Y NUMéRICO DE AMARRE FUERTE (TIGHT-BINDING) AL GRAFENO CON DISTORSIONES DE KEKULé.


ACERCAMIENTO ANALíTICO Y NUMéRICO DE AMARRE FUERTE (TIGHT-BINDING) AL GRAFENO CON DISTORSIONES DE KEKULé.

Calderón Andalón Edgardo, Universidad de Guadalajara. Asesor: Dr. Ramon Carrillo Bastos, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Dentro la física de estado solido, existen materiales compuestos por un conjunto idéntico de átomos en una disposición tridimensional periódica. La escala nanométrica de los átomos conlleva un par de consideraciones sobre estos sólidos cristalinos. Primero, se considera que el grupo idéntico, también llamado celda unitaria, se repite infinitamente en el espacio. Por otro lado, las propiedades macroscópicas son una consecuencia de la superposición de propiedades microscópicas que constituyen el material. Entonces para obtener las propiedades eléctricas, consideramos la superposición de los estados cuánticos de los electrones dentro del material. Las bandas energéticas, correspondientes a cada estado cuántico, separan las regiones donde los electrones pueden moverse. De esta manera, a los espacios entre bandas se consideran regiones imposibles para el estado y son el resultado de la interacción de los electrones con el cristal.



METODOLOGÍA

Las relaciones de dispersión o bandas energéticas, se obtienen a partir de la ecuación de Schrödinger, donde el operador halmitoniano tiene como estados propios los estados cuánticos del electrón y como valores propios la energía propia a cada estado. Para resolver este problema de estados propios, primeramente se tiene que sacar un haltimoniano especifico para cada material cristalino. Dentro de este proyecto, utilizaremos la aproximación de amarre fuerte (tight-binding) donde se considera que el potencial producido por el material es invariante en el tiempo y periódico en el espacio por ser un sólido cristalino, además de que los electrones no interaccionan entre sí. Utilizando el teorema de Bloch, las funciones de onda propias (estados propios) cambiaran bajo traslaciones de esta periodicidad con un fase que depende del vector de onda de un electrón libre. Son estos vectores de onda específicos, los que caracterizaran las relaciones de dispersión. Numéricamente, al obtener el halmitoniano en forma matricial, planteamos múltiples valores del vectores de onda para aproximar el resultado analítico.


CONCLUSIONES

Para el grafeno, se considera una celda unitaria con dos sitios y seis enlaces cercanos (primeros vecinos) idénticos, donde se espera dos mínimos locales en la banda de conducción. Si presentan distorsiones de Kekulé los enlaces cercanos ya no son idénticos entre sí, por lo que se espera una "textura" en los vectores de onda dentro de las relaciones de dispersión. Dentro de trabajos futuros, esperamos determinar estos halmitonianos como ecuaciones de Dirac. Para obtener el operador de densidad de estados y sus respectivos observables.
Calderón Rivera Jonathan Jesús, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Francisco Jose Moo Mena, Universidad Autónoma de Yucatán

DETECCIóN DE OBJETOS USANDO APRENDIZAJE PROFUNDO


DETECCIóN DE OBJETOS USANDO APRENDIZAJE PROFUNDO

Calderón Rivera Jonathan Jesús, Benemérita Universidad Autónoma de Puebla. García Ruiz Mónica Sofía, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Francisco Jose Moo Mena, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Las lesiones por accidentes de tránsito representan una carga importante para la salud pública, especialmente en los países en desarrollo. Hallazgos revelan una tendencia descendente en la prevalencia del uso del casco durante las últimas cuatro décadas, con una prevalencia general del 48,71%. Los conductores demostraron una mayor probabilidad de usar cascos que los pasajeros tanto en los registros de observación (62,61 frente a 28,23%) como en los registros de pacientes con accidentes (47,76 frente a 26,61%). Los países con leyes de uso obligatorio del casco tuvieron una prevalencia de uso del mismo más alta en comparación con aquellos que no las tenían (52,26 frente a 37,21%). El continente africano tuvo las tasas de uso del casco más bajas, mientras que las regiones de América Latina y el Caribe tuvieron tasas más altas. Además, los motociclistas sin casco tienen dos veces más probabilidades de sufrir una lesión en la cabeza de cualquier tipo y al menos tres veces más probabilidades de sufrir una muerte por lesión en la cabeza. A partir de esto surge la preocupación por detectar personas en moto CON y SIN casco mediante Detección de Objetos a través del Aprendizaje Profundo, concretamente YOLO (You Only Look Once), el cual es un algoritmo basado en aprendizaje profundo diseñado para detectar objetos dentro de imágenes y señalar su ubicación. YOLO logra esta tarea examinando la imagen sólo una vez, lo que le permite realizar la tarea de manera rápida y eficiente. Esto lo hace muy adecuado para aplicaciones en tiempo real y procesamiento de vídeo.



METODOLOGÍA

Para comenzar con la detección de objetos, es necesario seguir cierta metodología: en primer lugar, se debe preparar un entorno de Google Colab, el cual fue preferible sobre Python debido a que no requiere configuración, da acceso gratuito a GPUs (lo cual fue clave durante este proyecto), permite compartir contenido fácilmente, tiene bibliotecas pre-instaladas, guardado en la nube y permite la colaboración. Posteriormente, se conecta con Google Drive para acceder a todos los archivos necesarios para proceder a instalar las dependencias necesarias. Acto seguido se debe configurar el proyecto y los archivos necesarios de la siguiente forma: En primer lugar, se debe asegurar que los datos en Google Drive estén organizados de la siguiente manera: MyDriveYOLOv8\_Project Data Images Labels yaml-beautifier.yaml Para el archivo .yaml (Yet Another Markup Language) se debe tomar en cuenta que debe describir el conjunto de datos. Posteriormente, se carga y entrena el modelo de YOLO v8 que se desee. Recuérdese que YOLOv8 viene en cinco variantes según la cantidad de parámetros: nano(n), small(s), medium(m), large(l), y extra large(x). Por último, se evalúa el modelo utilizando los datos de validación, que es la parte en la que entran las métricas anteriormente presentadas en la Sección de Introducción. Cabe mencionar que esta metodología se sigue en caso de tener un Dataset ya anotado. En caso de que se requiera un Dataset con anotaciones propias e incluso un Dataset más grande que conste de la unión de dos o más Dataset, se procura el uso de Roboflow, donde en primer lugar se deben cargar todas las imágenes que se tengan disponibles para posteriormente definir las clases, que representan lo que se quiere detectar. Posteriormente se anotan las imágenes manualmente según la clase. Por último, se agregan al Dataset para después ser descargadas y agregadas a la carpeta de Drive correspondiente.


CONCLUSIONES

En este trabajo, el objetivo fue detectar a personas con y sin casco utilizando YOLO v8 modelos nano, small, medium, y large, el cual es un modelo de aprendizaje profundo de última generación reconocido por su velocidad y precisión en la detección de objetos, se evaluó así, la eficacia de YOLO v8 donde las tasas de precisión, recall, mAP50 y mAP50-95 aumentaron progresivamente, la mayor diferencia se nota del modelo small al medium. Aún así, se puede decir que los resultados son bastante certeros y adecuados.
Camacho Ortiz Hannia Berenice, Universidad de Sonora
Asesor: Dr. Miguel Angel Uh Zapata, Centro de Investigación en Matemáticas (CONACYT)

DESARROLLO DE UNA INTERFAZ PARA LA SIMULACIóN DE FLUJOS EN AGUAS SOMERAS


DESARROLLO DE UNA INTERFAZ PARA LA SIMULACIóN DE FLUJOS EN AGUAS SOMERAS

Camacho Ortiz Hannia Berenice, Universidad de Sonora. Gortarez Blanco Manuel Eduardo, Universidad de Sonora. Medina Lugo Fausto Misael, Universidad de Sonora. Michel Pinto Bruno Santiago, Universidad Autónoma de Baja California. Asesor: Dr. Miguel Angel Uh Zapata, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Un fluido se define como un medio continuo y fácilmente deformable que puede ser líquido o gaseoso. El estudio de los gases comenzó con los trabajos de Bernhard Riemann sobre las ondas de choque en 1876, consolidándose en el siglo XX debido al interés en la aeronáutica generado por las guerras mundiales. En comparación, el estudio de los líquidos tiene una historia mucho más antigua, con los primeros sistemas de riego que datan de hace 30,000 años. El enfoque inicial sobre los líquidos fue la hidráulica, que era práctico y experimental, permitiendo la construcción de sistemas de riego, cisternas y acueductos. No fue hasta el siglo XVIII que matemáticos como Euler, Clairaut, d’Alambert y Bernoulli desarrollaron la hidrodinámica, el estudio analítico del agua. En 1904, la teoría de la capa límite de Ludwig Prandtl unificó los enfoques experimental y analítico en la Mecánica de Fluidos. Destacan las contribuciones de Navier y Stokes, quienes formularon las ecuaciones diferenciales parciales que gobiernan el movimiento de los fluidos, conocidas como ecuaciones de Navier-Stokes. Estas ecuaciones representan el comportamiento general de un fluido en tres dimensiones. Sin embargo, para flujos en aguas poco profundas, se simplifican en las ecuaciones de Saint-Venant. Encontrar soluciones analíticas a estas ecuaciones no siempre es posible o práctico, por lo que se han desarrollado métodos numéricos para aproximar soluciones precisas. El objetivo de este trabajo es desarrollar una interfaz que permita al usuario crear simulaciones de flujos de aguas poco profundas. En esta interfaz, el usuario podrá añadir obstáculos en un dominio rectangular de 4x2 metros y, al estar satisfecho con el diseño, iniciar la simulación con un solo clic. El sistema resolverá automáticamente las ecuaciones de Saint-Venant para varios pasos de tiempo, mostrando las soluciones en pantalla en tiempo real, permitiendo observaciones rápidas e intuitivas sobre cómo el flujo de agua se ve afectado por los obstáculos añadidos.



METODOLOGÍA

**Interfaz** Se desarrolló un Paint dónde el usuario pueda dibujar los obstáculos. El display del canvas para dibujar la figura a mallar es un programa elaborado en Python utilizando la librería Tkinter. Este programa ofrece una variedad de brochas para generar figuras y la opción de realizar trazos a mano alzada, asegurando que no haya cruces ni intersecciones entre figuras. Al finalizar el dibujo, el botón de simular genera los archivos necesarios y comienza la simulación en tiempo real. La malla se puede modificar durante la simulación y ésta se adaptará a los cambios. Si se borra el dibujo, la simulación se detiene. La malla se realiza con Gmsh en cuatro etapas: definición de geometría, establecimiento del dominio computacional, etiquetado y especificación del tipo de mallado. **Simulación** Para simular el fluido, se resuelven numéricamente las ecuaciones de Saint-Venant, derivadas de las ecuaciones de Navier-Stokes. Estas ecuaciones de advección-difusión describen el flujo del agua, considerando las componentes horizontales de la velocidad y otros parámetros físicos. También se incluye una ecuación tipo Poisson para determinar el nivel del agua. La solución numérica se obtiene utilizando el método de volúmenes finitos, que integra las ecuaciones en cada elemento triangular de la malla y aproxima las integrales resultantes. Este método fue implementado en el programa RTSUFVM escrito en Fortran 90 por el Dr. Miguel Angel Uh Zapata, que toma los archivos generados por el Paint y realiza la simulación del fluido. **Visualización** Los datos generados por el simulador en Fortran 90 se grafican utilizando ParaView, una aplicación de código abierto para la visualización y análisis de datos científicos. ParaView maneja grandes conjuntos de datos y se usa en diversas disciplinas científicas e ingenierías. **Ensamble** Para integrar simulaciones en tiempo real con ParaView y un Paint desarrollado en Python, se sigue un proceso estructurado. El Paint permite dibujar figuras que se convierten en un archivo .geo para que Gmsh genere la malla en un archivo .vtk. Este archivo es procesado por mesh-5.0 para generar un archivo .txt con los detalles del dominio. Este archivo es usado por el programa de simulación RTSUFVM, que genera múltiples archivos .vtk para visualización en ParaView. Un script automatiza todo el proceso, asegurando la correcta ejecución de Gmsh, mesh-5.0 y RTSUFVM, transfiriendo los archivos necesarios entre cada paso. Un archivo Python, ejecutado por pvpython, configura la visualización en ParaView, ajustando colores, zoom y velocidad de animación para mostrar los resultados en tiempo real. Para simplificar la ejecución y compilación del proyecto, un script principal (run.sh) automatiza todo el proceso, permitiendo a los usuarios modificar parámetros clave para personalizar la simulación y visualización sin realizar compilaciones manuales cada vez que se realiza un cambio.


CONCLUSIONES

En este trabajo, se ha desarrollado una interfaz interactiva para la simulación de flujos en aguas someras. Esta interfaz permite a los usuarios diseñar y modificar dominios con obstáculos, observando los efectos en tiempo real. La combinación de herramientas como Python, Tkinter, Gmsh, Fortran 90 y ParaView ha permitido crear una solución eficiente y práctica. Esta herramienta ofrece una forma interactiva y atractiva de aprender sobre la simulación de fluidos, siendo útil para la divulgación científica y educativa.
Camacho Partida Christofer Emmanuel, Universidad Politécnica de Sinaloa
Asesor: M.C. Carolina Bojórquez Sánchez, Universidad Politécnica de Sinaloa

PREPARACIóN DE MUESTRAS DE SUELO Y PLANTAS PARA DETERMINAR PARáMETROS FíSICOS Y ELEMENTOS POTENCIALMENTE TóXICOS EN SITIOS IMPACTADOS POR ZONAS MINERAS DEL SUR DE SINALOA


PREPARACIóN DE MUESTRAS DE SUELO Y PLANTAS PARA DETERMINAR PARáMETROS FíSICOS Y ELEMENTOS POTENCIALMENTE TóXICOS EN SITIOS IMPACTADOS POR ZONAS MINERAS DEL SUR DE SINALOA

Camacho Partida Christofer Emmanuel, Universidad Politécnica de Sinaloa. Fon Lizárraga José Ramón, Universidad Politécnica de Sinaloa. Asesor: M.C. Carolina Bojórquez Sánchez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El sector minero tiene una gran importancia para México, ya que este es uno de los mas grandes contribuyentes a su economía. Esto puede ejemplificarse con sus beneficios potenciales, tales como: los empleos generados, la infraestructura desarrollada a consecuencia de este, y la ganancia neta de ingresos que proporciona.   Específicamente, en el estado de Sinaloa, la minería esta creciendo a una velocidad vertiginosa debido a los altos indicios de mineralización que se encuentran a lo largo del territorio, como sugieren datos de 2021. Según estos, Sinaloa se situó en el doceavo lugar a nivel nacional en producción de oro, el onceavo en plata y el décimo en cobre.   Sin embargo, esta no es una actividad libre de riesgos ni impactos ambientales, como puede observarse cuando ocurren eventos que pueden resultar en la acumulación de Elementos Potencialmente Tóxicos (EPTs), como ha sucedido en el sur de Sinaloa. Estos presentan toxicidad, persistencia y las propiedades de bioacumulación y biomagnificación. Más notablemente, estos inhiben la capacidad de crecimiento de las plantas, además de dañar su estructura y disminuir sus actividades fisiológicas y bioquímicas.   Tomando en cuenta lo anterior, este proyecto busca preparar y tratar muestras de suelo y plantas para determinar sus parámetros fisicoquímicos y EPTs de sitios que fueron expuestos a actividades mineras por más de 500 años para presentar un diagnóstico de los efectos de tal explotación en los sitios.



METODOLOGÍA

Preparación de Equipos de Laboratorio  Limpieza de Contenedores:     - Lavar recipientes de polipropileno y vidrio con detergente y agua.     - Enjuagar con agua destilada.     - Sumergir en una solución de ácido nítrico 2M durante 72 horas.     - Enjuagar nuevamente con agua destilada y agua de calidad milli-Q.     - Secar a temperatura ambiente.    Preparación de Muestras    1. Muestras de Suelo:     - Secar las muestras de suelo a temperatura ambiente.     - Homogeneizar y tamizar las muestras.    2. Muestras de Vegetación:     - Macerar y homogenizar las muestras de plantas.     - Pesar el tejido vegetal para las digestiones ácidas.    Análisis de Parámetros en Suelos    1. Determinación de pH, Textura y Materia Orgánica (NOM-121-RECNAT-2000):     - Tamizar el suelo con una malla de 2 mm para medir pH y textura.     - Eliminar la materia orgánica utilizando peróxido de hidrógeno para el análisis de textura.     - Tamizar el suelo con una malla de 0.5 mm para determinar el contenido de carbono orgánico.     - Medir el pH utilizando el método AS-02.     - Medir la materia orgánica con el método AS-07 de Walkley y Black.     - Determinar la textura mediante el procedimiento de la pipeta (AS-28).    Digestión de Muestras    1. Digestión de Muestras de Suelo y Plantas:     - Añadir ácidos fuertes a las muestras de diferentes matrices.     - Realizar la digestión bajo condiciones controladas de temperatura y presión.     - Aforo y acondicionar las muestras.    Análisis y Elaboración del Informe    1. Análisis de Datos:     - Realizar un análisis estadístico descriptivo de los datos obtenidos.    2. Integración y Síntesis de Resultados:     - Integrar y analizar los resultados. 


CONCLUSIONES

Aunque la industria minera represente una gran oportunidad de desarrollo económico para el estado de Sinaloa, esta también representa una gran cantidad de riesgos ambientales, especialmente en la liberación de EPTs por sus interacciones con la biota y el suelo circundante.   Dado lo anterior, la metodología presentada busca proporcionar un diagnóstico comprensible de la extensión y afectación de los EPTs, para de este modo posibilitar el diseño de estrategias de remediación, así como de prevención, para minimizar los percances que afectarían a medio ambiente y comunidades locales.   Por lo pronto, hemos logrado adquirir bastantes conocimientos teóricos sobre los EPTs, como sus características o importancia, además de que los hemos suplementado con conocimientos prácticos de metodologías de análisis. Sin embargo, a pesar de que hemos obtenido datos, reportarlos ahora mismo daría una imagen imprecisa de la situación, por lo que se espera que podamos brindar una imagen mas clara al final de nuestra estancia.
Camarena López Ana Paula, Universidad de Guadalajara
Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional

CLASIFICACIÓN DEL GRADO TUMORAL DE GLIOMAS PRIMARIOS EN EL SISTEMA NERVIOSO CENTRAL


CLASIFICACIÓN DEL GRADO TUMORAL DE GLIOMAS PRIMARIOS EN EL SISTEMA NERVIOSO CENTRAL

Camarena López Ana Paula, Universidad de Guadalajara. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

A lo largo del tiempo, la física médica ha desempeñado un papel crucial en el diagnóstico y seguimiento de las enfermedades del ser humano. Este estudio de imagenología se centra en desarrollar y evaluar una red neuronal convolucional (CNN) con el objetivo de clasificar el grado tumoral en gliomas primarios del sistema nervioso central (SNC) a partir de imágenes de tomografía por emisión de positrones (PET). Esta investigación busca mejorar la precisión y eficiencia en el diagnóstico médico, reduciendo la necesidad de procedimientos invasivos como las biopsias.  



METODOLOGÍA

Adquisición de Datos Limpieza de datos Preprocesamiento de Imágenes Construcción de la Red Neuronal Entrenamiento y Validación Evaluación del Modelo Análisis de Resultados


CONCLUSIONES

Se obtuvo una alta precisión y buen equilibrio del modelo. Los resultados indican que el modelo es bueno y puede generalizar bien en datos con ruido.  La aplicación de la tecnología en el ámbito de imagenología clínica ha demostrando que la red neuronal para predicción de grados tumorales puede ser una herramienta confiable para el médico.
Campos Castillo Eduardo, Universidad Autónoma del Estado de México
Asesor: Dra. Rosa Maria Quispe Siccha, Hospital General de México

MéTODO FOTOACúSTICO PARA LA CARACTERIZACIóN DE PHANTOMS DE TEJIDO MAMARIO A BASE DE ALCOHOL POLIVINíLICO


MéTODO FOTOACúSTICO PARA LA CARACTERIZACIóN DE PHANTOMS DE TEJIDO MAMARIO A BASE DE ALCOHOL POLIVINíLICO

Campos Castillo Eduardo, Universidad Autónoma del Estado de México. Rodriguez Gomez Kristel Mariel, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Rosa Maria Quispe Siccha, Hospital General de México



PLANTEAMIENTO DEL PROBLEMA

El cáncer de mama es una de las principales causas de mortalidad entre las mujeres, con 2.3 millones de casos diagnosticados y 670,000 defunciones en 2022. Los métodos convencionales de detección, como la mamografía y la resonancia magnética, presentan limitaciones como la exposición a radiación ionizante y la limitada resolución en la diferenciación de tejidos malignos y benignos.La tomografía fotoacústica (TFA) es una técnica innovadora que combina la alta resolución de la imagen óptica con la profundidad de penetración de la imagen acústica, ofreciendo ventajas como la ausencia de radiación ionizante y mejor contraste. Sin embargo, para implementarla es necesario desarrollar y validar simuladores de tejido (phantoms) que imiten las propiedades ópticas y acústicas de los tejidos mamarios biológicos.El proyecto se centra en la caracterización de phantoms de tejido mamario utilizando alcohol polivinílico (PVA), un polímero hidrofílico, sintético y biodegradable. Estos phantoms deben replicar las propiedades ópticas de los componentes mamarios, permitiendo una evaluación precisa de la técnica fotoacústica. La validación de la técnica fotoacústica mediante phantoms de PVA puede proporcionar una herramienta no invasiva y efectiva para la detección temprana del cáncer de mama, mejorando las tasas de supervivencia y reduciendo la mortalidad. Además, el desarrollo de estos phantoms contribuirá al avance de la investigación en tecnologías de imagen biomédica.



METODOLOGÍA

Para caracterizar simuladores de tejido mamario a base de PVA mediante la técnica fotoacústica, se siguió la siguiente metodología:Preparación de PhantomsMateriales:Alcohol polivinílico (PVA)Tinte negro EcolineGlucosaManteca de cerdoAgua destiladaVaso de precipitadoTermoagitadorBalanzaTermómetroMoldesProceso de Preparación:Se mezclaron distintas concentraciones de PVA con tinte, glucosa y manteca, realizando ciclos de congelación y descongelación para ajustar las propiedades de las muestras, obteniendo un criogel que imita las propiedades de algunos componentes de la mama biológica.Medición del Espectro de AbsorciónEspectrofotómetro:Se midió el espectro de absorción del tinte negro Ecoline utilizando un espectrofotómetro para determinar la longitud de onda óptima para las mediciones fotoacústicas, seleccionando las longitudes de onda de 532 nm y 1064 nm.Arreglo Óptico y Toma de MedicionesConfiguración del Experimento:Se utilizó un láser como fuente de luz, espejos para dirigir el haz, sensores PVDF y PZT para la detección de señales fotoacústicas y un osciloscopio para capturar las señales.Preparación de Muestras:Se prepararon muestras de PVA con diferentes concentraciones (7%, 9% y 12%), tanto puras como combinadas con tinte, glucosa y manteca, exponiéndolas a las longitudes de onda seleccionadas y registrando las señales generadas.Procesamiento y Análisis de DatosAdquisición y Pre-procesamiento de Señales:Se promediaron las adquisiciones y se realizó una transformada de Fourier para analizar las señales en el dominio del tiempo y la frecuencia.Software de Análisis:Se utilizó OriginPro para graficar y analizar los datos, permitiendo una caracterización detallada de las propiedades ópticas y acústicas de los phantoms.


CONCLUSIONES

El proyecto de caracterización de simuladores de tejido mamario a base de PVA utilizando el método fotoacústico ha demostrado ser prometedor para el diagnóstico y la detección del cáncer de mama:Eficiencia de la Técnica Fotoacústica:La técnica fotoacústica permite obtener imágenes de alta resolución sin necesidad de radiación ionizante, mostrando su potencial como una alternativa segura y no invasiva en el diagnóstico del cáncer de mama.Desarrollo de Phantoms de PVA:Los phantoms desarrollados con PVA son adecuados para simular las propiedades ópticas y mecánicas de los tejidos mamarios biológicos, ajustando las propiedades de los phantoms para representar diferentes tipos de tejido.Resultados de Sensores:Los sensores (PZT y PVDF) y longitudes de onda (1064 nm y 532 nm) permitieron una caracterización detallada de los phantoms, proporcionando información valiosa sobre la composición y estructura de los tejidos simulados.Validación del Método:La validación de la técnica fotoacústica con los phantoms de PVA establece una base sólida para futuras investigaciones y aplicaciones clínicas, asegurando que la técnica puede ser aplicada de manera efectiva en escenarios clínicos reales.Impacto en el Diagnóstico del Cáncer de Mama:La implementación de esta técnica podría mejorar significativamente el diagnóstico y tratamiento del cáncer de mama, ofreciendo una herramienta adicional para la detección temprana y la evaluación de la progresión de la enfermedad.El método fotoacústico ha demostrado ser una técnica viable y efectiva para la caracterización de simuladores de tejido mamario, ofreciendo una alternativa segura, precisa y no invasiva para el diagnóstico del cáncer de mama. Estos resultados sientan las bases para futuras investigaciones y desarrollos tecnológicos en el campo de la imagenología médica.
Campuzano Milian Oscar, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

OBTENCIóN DE EVENTOS EXTREMOS DE PRECIPITACIóN ASOCIADOS A CICLONES TROPICALES EN EL MUNICIPIO DE MORELIA, MICHOACáN


OBTENCIóN DE EVENTOS EXTREMOS DE PRECIPITACIóN ASOCIADOS A CICLONES TROPICALES EN EL MUNICIPIO DE MORELIA, MICHOACáN

Campuzano Milian Oscar, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, diversos estudios han documentado cambios en los patrones de la precipitación y en sus extremos. El análisis de Eventos Extremos de Precipitación (EEP) es importante debido a los impactos sociales y económicos que se le asocien, tal es el caso de las inundaciones. El municipio de Morelia, localizado en el estado de Michoacán, por su localización geográfica no presenta un alto grado de exposición a la ocurrencia de amenazas ante Ciclones Tropicales (CT); sin embargo, se han presentado diversas afectaciones relacionadas a los EEP asociados a CT, que han provocado inundaciones, pérdidas materiales, inclusive humanas. El objetivo de esta investigación, es identificar los EEP asociados a CT, con el fin de determinar la amenaza para el municipio de Morelia, Michoacán, para el periodo histórico de 1980 - 2020.



METODOLOGÍA

Se realizó una validación de estaciones mediante una serie de filtros. El primer filtro se diseñó para obtener la información más eficiente, el segundo para comenzar la validación de datos y el tercero para aplicar pruebas de consistencia y garantizar la fiabilidad de la información. La información de las estaciones se obtuvo del Sistema Meteorológico Nacional (SMN) a escala diaria, y después del análisis, 11 estaciones cumplieron con los filtros establecidos. Definidas las estaciones que cumplen con los filtros, se estimaron los datos faltantes en las series de precipitación, utilizando el método de interpolación Inverse Distance Weighting (IDW), el cual establece que los elementos cercanos entre sí, son más similares que aquellos que están distantes, considerando el periodo comprendido entre 1980 y 2020. Con lo anterior, se procedió a determinar los picos sobre el umbral de la precipitación diaria, utilizando la técnica de percentiles. El umbral seleccionado fue el percentil 99 de los días húmedos, tomando en cuenta, cuando la precipitación diaria registrada por la estación resultara mayor o igual a 1 mm, permitiendo identificar así, los eventos extremos. Por consiguiente, se realiza un buffer de 250 km alrededor del municipio, esto para determinar que trayectorias tuvieron influencia en la zona, conociendo la fecha y hora en que se presentaron. También, es necesario consultar el compendio de información de lluvias asociadas a CT de la Comisión Nacional del Agua (CONAGUA), para conocer las lluvias asociadas CT y la zona donde se originaron, ya sea en el Océano Pacífico o Atlántico. Determinadas las trayectorias, las lluvias asociadas a CT y los EEP que sobrepasan el umbral definido, se comienza a relacionar la información, es decir, si los EEP que se presentan en una fecha en específico, coinciden con el periodo donde se encuentra una lluvia asociada a CT, tienen un vínculo, comprobándose con información consultada en noticieros donde mencionen los daños, confirmando que el municipio de Morelia presentó afectaciones relacionadas a EEP asociados a CT.


CONCLUSIONES

Durante la estancia en el verano de investigación, se logró el objetivo planeado, en donde se observó que los EEP en el municipio de Morelia, se asocian a CT, de acuerdo a los datos proporcionados por el SMN, así como a la recolección de noticias en medios de comunicación oficiales sobre los daños causados por lluvias. En conclusión, el municipio de Morelia, al no ser una zona cercana al océano, su amenaza asociada a EEP es poca; sin embargo, existe un porcentaje de afectaciones de lluvias asociadas a CT.
Can Irabien Javier Osiel, Universidad Autónoma de Yucatán
Asesor: Dr. Edgar Alejandro León Espinoza, Universidad Autónoma de Sinaloa

RELATIVIDAD GENERAL Y COSMOLOGíA: ESTUDIO DE LA GRAVEDAD COMO UNA TEORíA ESCALAR-TENSOR.


RELATIVIDAD GENERAL Y COSMOLOGíA: ESTUDIO DE LA GRAVEDAD COMO UNA TEORíA ESCALAR-TENSOR.

Can Irabien Javier Osiel, Universidad Autónoma de Yucatán. Asesor: Dr. Edgar Alejandro León Espinoza, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Desde 1915, las teorías de gravitación avanzaron significativamente. Se pasó de la mecánica newtoniana, que describía la gravedad como una fuerza de atracción entre masas, a la relatividad general, que la explica como una consecuencia de la curvatura del espacio-tiempo causada por la masa y la energía. Por ello, esta estancia de investigación trató acerca de revisar los fundamentos de Einstein y su gravitación como una teoría Escalar-Tensor, con el que se podría obtener nuevos resultados para la cosmología moderna, arrojar nuevos resultados a posibles experimentos y tener una mejor explicación de fenómenos tales como la energía oscura.



METODOLOGÍA

Primero que nada, se presentan las ecuaciones de campo de Einstein, la cual marca como se curva el espacio a través de la presencia de una densidad de masa (o energía). R_μv-1/2 Rg_μv+Λg_μv=8πG/c^4 T_μv En la teoría clásica de campos, las coordenadas se pueden reemplazar por campos dependientes del espacio-tiempo (Φ^i (x^μ)). El lagrangiano de un campo se puede escribir de la siguiente forma: L=∫▒〖L(Φ^i,∂_μ Φ^i ) d^3 x〗 La acción (S) se puede describir y traducir a la teoría clásica de campos de la siguiente forma: S=∫▒Ldt=∫▒〖L(Φ^i,∂_μ Φ^i ) d^4 x〗 Otra herramienta útil en la mecánica clásica son las ecuaciones de Euler-Lagrange, con las que, a través del lagrangiano, pueden obtener las ecuaciones diferenciales que rigen el sistema de estudio. ∂_μ (∂L/(∂(∂_μ Φ^i)))-∂L/(∂Φ^i )=0 Con todo lo presentado, se puede definir como una teoría Escalar-Tensor como una teoría en la que se acopla un campo escalar a R (escalar de Ricci), lo que provoca que se pueda dividir la acción total S de manera que S=S_λR+S_λ+S_M En el que S_λR es la parte de la acción que representa el acoplamiento del campo escalar con la curvatura, S_λ es la parte correspondiente sólo al campo escalar y S_M es la contribución de la materia a la acción. Antes de continuar con el análisis de cada parte de la acción total, debemos comenzar a analizar un elemento que interactúa con la métrica, siendo la acción de Einstein-Hilbert. S_H=∫▒〖√(-g) Rd^4 x〗 Por lo que: ∫▒〖-1/2 √(-g) g_μv δg^μv Rd^4 x〗 Sumándolo en la acción total, tenemos que: ∫▒〖√(-g) (R_μv-1/2 g_μv R)δg^μv d^4 x=0〗 Lo que implica obtener las ecuaciones de campo de Einstein en el vacío: 1/√(-g) (δS_H)/(δg^μv )=R_μv-1/2 g_μv R=0 Si se desea agrega la constante cosmológica para estudiar casos de universo en expansión, tan solo debe hacer que el tensor de Ricci tienda a R+2Λ. Para poder tomar en cuenta el caso de que exista materia, entonces se le debe agregar una acción a la acción total. S_M=∫▒〖L_M √(-g) d^4 x〗 Si el tensor de energía-momento se define con: T_μv=-2/√(-g) (δS_M)/(δg^μv ) Siendo la acción total: S=(c^4 S_H)/(16πG )+S_M Si se aplica lo siguiente a la acción total, entonces: R_μv-1/2 Rg_μv=8πG/c^4 T_μv Con lo que se obtienen las ecuaciones de campo de Einstein, encontrando una compatibilidad con la teoría clásica de campos y por ello, se puede acoplar un campo escalar a R. Para poder obtener las ecuaciones de movimiento del campo escalar, obtenemos el lagrangiano de la acción total, la cual solo es afectada por S_λR+S_λ. L=f(λ)R-1/2 h(λ) g^μv ∇_μ λ∇_v λ-U(λ) Al aplicar las ecuaciones de Euler-Langrange obtenemos que: h(λ) □(□λ)+1/2 h^' g^μv (∂_μ λ)(∂_v λ)-U^'+f^' R=0 Obteniendo finalmente, una ecuación general de movimiento descrita como una teoría escalar-tensor. Sin embargo, existen problemas para poder hallar soluciones que sean compatibles con la curvatura, pues si se supone el caso más simple (h(λ)=1,f^' (λ)=0), no se trata de una teoría escalar-tensor, pues se desacopla al término de curvatura. Una de las soluciones que sí se trata de una teoría escalar-tensor, es la teoría de Brans-Dicke, en el que: f(λ)=λ/16π h(λ)=ω/8πλ U(λ)=0 Con el que se obtiene la acción: S_BD=∫▒〖1/16π √(-g) [λR-w (∂^μ λ)(∂_μ λ)/λ] d^4 x〗 Esta teoría, propone que el espacio-tiempo no tiene porque tener una métrica, pues se pueden explicar las teorías de la gravedad como un resultado de carácter tensorial compuesto por 2 o más campos, haciendo que la dinámica de la gravedad sea descrita por el principio de mínimo acción. Con todo esto, la teoría escalar-tensor de Brans-Dicke termina siendo una teoría alternativa de la gravitación, con una naturaleza invariante ante el cambio de coordenadas.


CONCLUSIONES

Durante este periodo, se logró una mejor comprensión de la matemática detrás de la relatividad general, lo que permitió entender su naturaleza física de manera más clara y flexible, en lugar de ver las ecuaciones como postulados inquebrantables. Esto subraya la importancia de investigar teorías alternativas de la gravitación. A través de nuevas perspectivas y experimentos, es posible desarrollar teorías que se integren mejor con otras, como la teoría de Brans-Dicke, que tiene potencial para ser compatible con la teoría de cuerdas. Por ello, es esencial continuar con las investigaciones sobre gravitación. Desde 1915, las teorías de gravitación avanzaron significativamente. Se pasó de la mecánica newtoniana, que describía la gravedad como una fuerza de atracción entre masas, a la relatividad general, que la explica como una consecuencia de la curvatura del espacio-tiempo causada por la masa y la energía. Por ello, esta estancia de investigación trató acerca de revisar los fundamentos de Einstein y su gravitación como una teoría Escalar-Tensor, con el que se podría obtener nuevos resultados para la cosmología moderna, arrojar nuevos resultados a posibles experimentos y tener una mejor explicación de fenómenos tales como la energía oscura.
Canto Castillo Danna Beatriz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo

CARACTERIZACIÓN GEOMECANICA DE TALUDES A TRAVES DE FOTOGRAMETRÍA-CANTO CASTILLO-HERNANDEZ DORANTES-KUMUL HERNANDEZ- RODRIGUEZ NAJERA


CARACTERIZACIÓN GEOMECANICA DE TALUDES A TRAVES DE FOTOGRAMETRÍA-CANTO CASTILLO-HERNANDEZ DORANTES-KUMUL HERNANDEZ- RODRIGUEZ NAJERA

Canto Castillo Danna Beatriz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Hernández Dorantes Marvin Aarón, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Kumul Hernández Kevin Divandy, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Rodríguez Nájera Omar Neftalí, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El proyecto “Caracterización geomecánica de taludes a través de fotogrametría” fue seleccionado con el objetivo de aprender nuevas aplicaciones de la mecánica de suelos en diferentes partes del país, ya que esta era la materia de especialidad sobre la que llevamos a cabo nuestro servicio social. Inicialmente, no teníamos muchas expectativas, dado que en nuestra ciudad no se encuentran taludes de grandes dimensiones. Sin embargo, nos dimos cuenta de que la materia base de este proyecto es la mecánica de rocas, una disciplina que no está incluida en nuestra retícula de materias en el Tecnológico de Chetumal. La problemática principal es que la realización de un levantamiento geomecánico convencional de taludes es mucho más tardado y limitado en cuanto al alcance humano. Este método es una nueva forma de realizar estos levantamientos, donde las limitantes humanas han desaparecido, aunque no del todo, gracias a las nuevas tecnologías.



METODOLOGÍA

La primera semana del proyecto estuvo dedicada a comprender los objetivos y el impacto de la metodología propuesta por la M.I.T.N Marsella Gissel Rodríguez Servín (estudiante de doctorado). Se buscaba comparar el método convencional con la aplicación de software (CloudCompare, Discontinuity Set Extractor y Math Lap) para fotogrametría, junto con los métodos geomecánicos y su clasificación para macizos rocosos. El propósito final era proponer soluciones para reforzar taludes cuando fuese necesario, ya que este campo no tiene un estado del arte muy desarrollado y cada proceso publicado está orientado a un propósito específico. Recibimos clases introductorias de “Mecánica de rocas” por el Dr. José Eleazar Arreygue Rocha, quien nos explicó los procedimientos en campo, laboratorio y gabinete. En campo, nos enfocamos en la observación de la tonalidad, rugosidad, discontinuidades y pliegues de las rocas, lo que nos permitió tener una idea general de la litología y el grado de meteorización. La clasificación de la roca prioriza el estudio de las discontinuidades o diaclasas, identificando el tipo, orientación, espaciado, persistencia, rugosidad, tipo de relleno, apertura y presencia de agua. En el laboratorio, trabajamos con la matriz rocosa, realizando pruebas destructivas y no destructivas para obtener valores indispensables para los cálculos posteriores, como resistencia a la compresión uniaxial, densidad, permeabilidad y mineralogía. El trabajo de gabinete consistió en utilizar los datos obtenidos para aplicar cuatro métodos de clasificación: dos aplicables a proyectos genéricos y dos específicos para taludes. Estos métodos incluían el cálculo del RMR (Valoración del macizo rocoso), el índice de calidad de la roca, el sistema de Barton para túneles y la clasificación SMR para taludes. Conforme avanzaron las semanas, nos dedicamos a procesar la información para el análisis de los taludes. Esto implicó delimitar el espacio de trabajo, depurar la vegetación para una mejor visualización, crear nubes de puntos para generar una base del terreno y extraer datos en las diferentes aplicaciones. Estas actividades fueron novedosas para nosotros y requirieron aprender a manejar nuevos formatos de documentos y entender su aplicación en cada proceso. La salida a campo fue uno de los momentos más esperados del proyecto, ya que nos permitió observar un paisaje completamente diferente al de nuestra región. Tuvimos la oportunidad de ver cómo se realiza un levantamiento geomecánico con dron para la recolección de fotos, planificar el vuelo, evaluar la factibilidad del trabajo mediante Google Earth y decidir si el recorrido se hacía manual o predeterminado. Realizamos el análisis de tres taludes por persona, llevando a cabo todos los procesos para clasificarlos y proponiendo métodos de estabilización cuando fuera necesario.


CONCLUSIONES

En conclusión, la línea de investigación "Caracterización geomecánica de taludes a través de fotogrametría" fue una experiencia enriquecedora, ya que nos permitió aprender nuevas aplicaciones de la mecánica de suelos y rocas, áreas no incluidas en nuestro currículo en el Tecnológico de Chetumal. La primera semana proporcionó una base sólida en el método convencional y el uso de software para fotogrametría, esencial para proponer soluciones de estabilización de taludes. Las clases introductorias de mecánica de rocas, junto con el trabajo de campo y laboratorio, fueron fundamentales para comprender los procesos de clasificación y análisis de macizos rocosos. El trabajo práctico y el uso de drones para recolectar datos fotogramétricos ampliaron nuestras habilidades y conocimientos, cabe mencionar que los resultados esperados son que este nuevo método sea de gran ayuda a futuro en este campo de estudio y que sea lo más funcional posible. En resumen, esta experiencia nos ha permitido entender mejor la importancia de la mecánica de rocas y nos ha dotado de herramientas útiles para futuros proyectos de estabilización de taludes en otras partes del país.
Cantú Fernández Isaac Yael, Universidad de Monterrey
Asesor: Dr. Andres Manuel Garay Tapia, Centro de Investigación en Materiales Avanzados (CONACYT)

ESTUDIO DE LA FASE MAX DE NB₂ALC MEDIANTE SIMULACIONES EN VASP


ESTUDIO DE LA FASE MAX DE NB₂ALC MEDIANTE SIMULACIONES EN VASP

Cantú Fernández Isaac Yael, Universidad de Monterrey. Asesor: Dr. Andres Manuel Garay Tapia, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El estudio de los materiales depende tanto de enfoques experimentales como teóricos. Realizar simulaciones de materiales es fundamental para predecir sus propiedades y determinar si su desarrollo experimental es viable, así como para entender las razones detrás de los resultados obtenidos. Sin embargo, realizar predicciones y cálculos analíticos es bastante complejo. El uso de software como VASP facilita esta tarea, permitiendo realizar cálculos de manera eficiente, aunque puede haber variaciones con la realidad debido a las aproximaciones utilizadas. Para el uso de este software, es necesario definir la estructura cristalina del material y los elementos que la conforman. En este caso, se aprendieron los principios básicos del software VASP, el cual emplea la Teoría del Funcional de la Densidad (DFT) para encontrar la probabilidad de ubicar electrones en ciertas partes de los átomos y, de esta manera, resolver la ecuación de onda de Schrödinger. Esto permite estudiar el comportamiento de la estructura cristalina bajo condiciones definidas y encontrar ciertas propiedades específicas del material Nb₂AlC.



METODOLOGÍA

Se investigaron las propiedades y la estructura cristalina del Nb₂AlC (ID mp-996162) utilizando datos del Materials Project. Este material presenta una estructura hexagonal con parámetros a, b de 3.12 Å y c de 13.94 Å. Se descargó el archivo POSCAR y se creó una carpeta en un servidor con VASP instalado. En esta carpeta, se subieron los archivos POSCAR, INCAR (ISIF = 2), KPOINTS (12 12 4), POTCAR y el ejecutable va.q. Se generaron subcarpetas con variaciones del parámetro encut (de 400 a 700 en incrementos de 50) y se realizaron las simulaciones para determinar el valor óptimo de encut, que resultó ser 650. Se llevaron a cabo simulaciones variando los kpoints (de 4 4 2 a 14 14 4), encontrando que el conjunto 12 12 4 ofrecía la mayor estabilidad. Posteriormente, se estudió el efecto del volumen variando de 0.80 a 1.20 en incrementos de 0.04, identificando que la energía mínima correspondía al volumen original. Los resultados se compararon con la ecuación de Birch-Murnaghan, mostrando buena concordancia con los parámetros obtenidos: Bo=8.758580, Eo=−70.40509, Bo′=10.273500, y Vo=117.694904. Se creó una carpeta denominada ISIF3 con ISIF = 3 para ajustar y validar la estructura, confirmando la precisión de los datos obtenidos. En una carpeta llamada IVDW, se evaluaron las interacciones de Van der Waals (IVDW = 11), determinando que no había diferencias significativas en la estructura. Los archivos de ISIF3 (KPOINTS, POTCAR, va.q y CONTCAR renombrado a POSCAR) se copiaron a una carpeta llamada DOS para calcular la densidad de estados. Una vez ejecutada la simulación, se descargó la carpeta y, utilizando la librería pyprocar de Python, se graficó la densidad de estados del material y de los elementos. Finalmente, se copió toda la carpeta de ISIF3 a una nueva carpeta denominada BANDAS. Se utilizó el comando vaspkit para calcular la estructura de bandas, y se graficó la estructura de bandas con pyprocar en Python. Se repitió el procedimiento en dos dimensiones, eliminando el Al y dejando solo Nb y C. Se creó un nuevo archivo POTCAR con estos elementos y se ajustaron los valores correspondientes. Solo se modificaron los parámetros a y b en las operaciones. Como complemento, se añadieron dos subcarpetas al material 2D, denominadas "Oxígeno" y "Nitrógeno". En estas subcarpetas se repitieron los cálculos de ISIF3, estructura de bandas y densidad de estados para evaluar el comportamiento del material en presencia de estos elementos. Los átomos de oxígeno y nitrógeno se incorporaron simétricamente sobre y bajo el Nb utilizando el software VESTA.


CONCLUSIONES

Durante este verano de investigación, se realizó un exhaustivo estudio de la fase MAX de Nb₂AlC utilizando el software VASP. Se aprendieron y aplicaron los principios básicos de la Teoría del Funcional de la Densidad (DFT) para simular y analizar las propiedades del material. Se llevaron a cabo diversos cálculos para determinar la estructura cristalina óptima, los parámetros de energía mínima, y la densidad de estados. Además, se exploró el efecto de las interacciones de Van der Waals y se realizaron estudios adicionales con variaciones en el volumen y los kpoints, obteniendo resultados consistentes con la literatura. La inclusión de subcarpetas para investigar el comportamiento del Nb₂AlC en presencia de oxígeno y nitrógeno proporcionó una comprensión más amplia de cómo otros elementos pueden influir en sus propiedades. En resumen, esta experiencia permitió adquirir habilidades prácticas en el uso de VASP y herramientas complementarias como VESTA y pyprocar, fortaleciendo el entendimiento de la simulación de materiales y su análisis. Los resultados obtenidos son un paso importante hacia el desarrollo y aplicación de materiales avanzados en diversas áreas tecnológicas.
Canul González Francisco Javier, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. Luis Armando Diaz Torres, Centro de Investigaciones en Óptica (CONACYT)

SíNTESIS VERDE MEDIANTE COMBUSTIóN DEL BI2O3 CON ALMIDóN DE PAPA Y SU USO PARA LA FOTODEGRADACIóN DE DICLOFENACO EN AGUA.


SíNTESIS VERDE MEDIANTE COMBUSTIóN DEL BI2O3 CON ALMIDóN DE PAPA Y SU USO PARA LA FOTODEGRADACIóN DE DICLOFENACO EN AGUA.

Canul González Francisco Javier, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dr. Luis Armando Diaz Torres, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Gran parte de la contaminación ambiental proviene de los residuos de las industrias textiles, farmacéuticas, hospitalarios, etc, los cuales son considerados Contaminantes Emergentes (CE) los fármacos, pertenecen especialmente al grupo de Contaminantes Orgánicos Persistentes.   El cuerpo humano no es capaz de procesarlos completamente y gran parte de ellos termina en las aguas residuales, éstos, no pueden ser eliminados fácilmente en las plantas de tratamiento por métodos físicos y químicos convencionales, debido a su  alta estabilidad química; estos son liberados mediante los efluentes como desechos a los diferentes cuerpos de agua, que es una ruta directa de entrada al cuerpo humano, por su ingesta o por la bioacumulación en la red alimentaria humana. Dentro de los fármacos uno de los más utilizados es diclofenaco, este se encuentra presente en mayor cantidad en el medio ambiente, además se ha reportado que daña la reproductividad en algunos peces, sus funciones cardiacas y modifica su comportamiento al nadar; en el ser humano al ser una sustancia farmacológica y fisiológicamente activa, puede afectar los mecanismos homeostáticos del cuerpo humano en concentraciones muy bajas, por esta razón durante la estancia del verano de investigación se busca la síntesis verde de un material fotocatalizador que permita la fotodegradación de diclofenaco  en agua, mediante el uso de luz UV.



METODOLOGÍA

Para lograr la obtención de nuestro fotocatalizador de manera amigable con el ambiente se necesita obtener almidón que se usará como combustible, por esta razón se utilizaron 2 tubérculos Solanum tuberosumse, conocidos como papas, estas fueron peladas, cortadas y licuadas con agua a bajas velocidades en intervalos de 3 a 4 segundos, hasta obtener pequeños trozos de papa, lo que se licuó fue depositado en un vaso de precipitado y reposado 30 minutos. Al transcurrir el tiempo, se extrajeron las diferentes fases obtenidas, dejando solo el almidón (precipitado blanco); este precipitado se lavó y filtró con un filtro de 149 µm, por cuatro veces; el precipitado se llevó a baño maría a 65ºC durante 24 horas hasta obtener un polvo seco. Para la síntesis del fotocatalizador se utilizó Agua (H2O), Nitrato de Bismuto Pentahidratado (Bi(NO3)3·5H2O) e Hidróxido de Amonio (NH₄OH). Para ello se mezcló en agua y en agitación el Bi(NO3)3·5H2O durante 20 minutos; terminado el tiempo y continuando en agitación se le agregaron 40 gotas de 50µm de Hidróxido de amonio y posteriormente agregar 10 mililitros más, dejar reposar 20 min y calentar a 75ºC hasta obtener un polvo seco. Después se realiza una mezcla, por agitación, del precursor anteriormente obtenido de bismuto con el almidón y agua en la proporción de 1:1.1:0.15 respectivamente, esta mezcla se lleva a calentamiento y agitación hasta reducir el volumen sin que la mezcla quede como engrudo. Llevar a combustión en aire a 300ºC. Terminada la combustión raspar lo obtenido y colocarlo en un crisol para poder calcinar a 480ºC por 3 horas. El polvo amarillo (Óxido de Bismuto, Bi2NO3) obtenido se muele en un mortero de ágata, se pesa y guarda en un tubo Eppendorf.  Al Bi2NO3 se le realizó la caracterización morfológica, estructural y óptica mediante las técnicas de DRX, SEM, FTIR y UV-Vis.                                                                                                                                             El Bi2NO3 obtenido se usa para la degradación de diclofenaco disuelto en agua, usando una lampará de lápiz Uv, luz negra, bacteriológicas y una caja oscura; para ello, se preparó una solución de diclofenaco a 20 ppm en 250 ml, usando pastillas de 100 mg del principio activo, sin eliminar el excipiente. Además, se comparó con la degradación del diclofenaco con Dióxido de Titanio. Para las pruebas de degradación tomando una relación 1 mg :1 ml de catalizador y solución de diclofenaco, estos fueron vaciados en una probeta en agitación y llevados a la caja oscura, a la probeta se le introdujo un tubo de cuarzo que tenía lampara de lápiz Uv dentro. Se tomaron 11 muestras de 2 ml cada 20 minutos, las primeras dos muestras se tomaron con la lampara apagada. Para las pruebas de las lámparas de luz negra y bacteriológicas se usó un tubo de cuarzo donde se introdujeron se usó las mismas proporciones anteriores, el tubo se colocó en el centro de las lámparas. Se tomó la misma cantidad de muestras con el mismo intervalo de tiempo. Las muestras se etiquetaron, separaron y midieron en un espectrofotómetro de absorción Uv-Vis CARYC60 para determinar la absorbancia y poder determinar la cantidad de degradación para cada intervalo de tiempo, así como el porcentaje de degradación final.


CONCLUSIONES

La estancia de verano me permitió adquirir nuevos conocimientos sobre la síntesis, caracterización y aplicaciones de los materiales fotocatalíticos, usando técnicas y equipos de caracterización (FTIR, DRX, SEM,  UV-vis), así como en la realización de pruebas de degradación, y el análisis de los  datos obtenidos, permitiendo el entendimiento de lo que significa cada uno de los resultados obtenidos en cada una de las etapas de la investigación, este fue un trabajo extenso en el cual nos hace falta más tiempo para continuar con la experimentación. El material fotocatalítico obtenido se encontraba en su fase alpha-Bi2O3 el cual es ideal para la realización de la fotodegradación, así mismo cuenta con un bang gap, estimado experimentalmente por reflectancia difusa, de 2.75 eV. Con partículas secundarias policristalinas con tamaños desde nanómetros hasta micras. Se lograron grandes tazas de degradación del diclofenaco disuelto en agua, sin embargo, tras esta se generaron especies de productos diferentes, esto puede servir como antecedentes para futuros trabajos de investigación, sin embargo, a pesar de ello la estructura de nuestro fotocatalizador tras la fotodegradación no cambió, pero absorbió carbono.
Cárdenas Acosta César Martin, Universidad Autónoma de Sinaloa
Asesor: Dr. Emmanuel Ríos López, Universidad Autónoma de Sinaloa

MODELADO 2D DE BRILLO SUPERFICIAL DE GALAXIAS DE DISCO: RELACIóN ENTRE LA LUMINOSIDAD DE LAS GALAXIAS Y LA MASA DE SU AGUJERO NEGRO SUPERMASIVO.


MODELADO 2D DE BRILLO SUPERFICIAL DE GALAXIAS DE DISCO: RELACIóN ENTRE LA LUMINOSIDAD DE LAS GALAXIAS Y LA MASA DE SU AGUJERO NEGRO SUPERMASIVO.

Cárdenas Acosta César Martin, Universidad Autónoma de Sinaloa. Asesor: Dr. Emmanuel Ríos López, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El universo a diferentes escalas se agrupa en distintas estructuras como las galaxias que son un colosal sistema de aglomeración de estrellas, gas, polvo y materia oscura, son también, las fábricas de estrellas por defecto. Existen varios tipos de galaxia, entre ellas están las galaxias elípticas que suelen ser las más grandes, masivas y viejas, se dividen según su elipticidad y compacticidad. Otro tipo de galaxias son las de disco, se distingue por tener un disco, un halo, un bulbo y en ocasiones una barra, se clasifican de acuerdo  al disco, puede tener brazos espirales o no.  Una componente más de las galaxias de disco son los bulbos, conforma la parte central de la galaxia, es una región compacta, densa, brillante y esferoidal, menor en radio que el disco, aloja una mezcla de poblaciones de estrellas dependiendo su tipo. El bulbo puede clasificarse de acuerdo a sus características en: Bulbo clásico: Este tipo de bulbos son esferoidales o ligeramente elípticos, la dinámica en el interior está dominada por la dispersión de velocidad y la población más abundante es de estrellas viejas y no presentan formación estelar reciente  Pseudobulbos: Los pseudobulbos tienen una morfología más aplanada y parecida a un pequeño disco grueso interno, su dinámica se rige  por la velocidad de rotación. Estas formas surgen porque los pseudobulbos presentan estrellas viejas y jóvenes, así como algo de gas y polvo, formación estelar reciente y en curso.  Diversos grupos de científicos afirman que existe una relación lineal al comparar la masa de este agujero negro supermasivo y la luminosidad del bulbo de la galaxia. Aunque algunos de ellos concluyen que los pseudobulbos no siguen esta relación Ríos-López et al. (2024, submitted). En este trabajo se analizó una muestra de galaxias de disco y algunas presentaron AGN. Los AGN, llamados así por sus siglas en inglés son núcleos galácticos activos donde el agujero negro supermasivo está acretando material y emitiendo grandes cantidades de radiación electromagnética. Tomando en cuenta que algunas son AGN, se notó que la mayoría presentaron pseudobulbo y pocas de ellas estuvieron acompañadas de una barra en su interior. Lo que se busca es obtener la luminosidad de las componentes y establecer una gráfica para comprobar o refutar la relación mencionada anteriormente. 



METODOLOGÍA

La muestra fue de 20 galaxias de disco cuyas imágenes se tomaron del catálogo astronómico 2MASS del infrarrojo cercano usando solo la banda Ks através de https://irsa.ipac.caltech.edu/applications/2MASS/IM/interactive.html . En todo el trabajo se siguió la metodología de Ríos-López et al.(2021) usando la herramienta GALFIT, que es un software de modelado paramétrico de luminosidad para imágenes astronómicas desarrollado por Peng et al.(2010) y el visualizador Ds9. Esto lo hace usando ajustes por mínimos cuadrados, y determina el mejor modelo por la función estadística de Chi Cuadrado. PSF: Lo primero que se hace es modelar y corregir la difracción y aberración que se genera en la imagen cuando capta una fuente puntual de luz. Este modelo de corrección se llama PSF y se hace tomando una fuente puntual en cada imagen a analizar (como una estrella).  Máscara: La máscara se hace para cubrir objetos cercanos a la galaxia de interés que no queremos modelar, por ejemplo, estos objetos pueden ser estrellas que se crucen en la línea de visión con la galaxia, galaxias cercanas o detrás de la de interés. Se encierran los objetos a enmascarar en regiones, y con la función de python maskDs9 obtenida de https://github.com/canorve . Modelo: Para lograr el modelo, además de la PSF y la Máscara, se toman parámetros y propiedades del objeto desde la imagen original, entre los parámetros que se necesitan están:  - Coordenadas del objeto: Son las coordenadas en pixeles en la imagen del objeto a modelar - Magnitud aparente del objeto: Se suma el valor de los píxeles que conforman la galaxia o componente a analizar, se ajusta por magnitud zeropoint y tiempo de exposición, con la fórmula de la magnitud: m = −2.5log_10( Sumpix /Texp ) + mgzpt  - Radio efectivo: Es el radio de la galaxia donde se concentra la mitad de la luminosidad. Si se está modelando el bulbo, se usa la componente llamada sérsic y se pone el índice de (n), para bulbos clásicos es alrededor de n=2, para pseudobulbos alrededor de 1. En cambio, si se está modelando el disco se usa la componente de llamada expdisk y se ponen parámetros como el RS que es un símil del Re. Cuando se modela la barra, se usa la componente sérsic, pero con un índice de sérsic entre 0.1 y 0.5, Finalmente si se da el caso que la galaxia tenga un AGN, se modela una componente de llamada psf, la cual modela el AGN. Cuando ya se tiene el modelo, se usa la función ELLIPSECT obtenida de https://github.com/ canorve/EllipSect/tree/v2.2.4 para graficar el perfil de brillo superficial y comparar el modelo con los datos reales de la galaxia. Aquí también se puede observar el residual modelo-imagen y darse cuenta si el modelo es aceptable. Después de haber obtenido estos datos, se procede a organizar los datos en tablas con toda la información y a partir de aquí graficar la luminosidad de la componente del bulbo con la masa del agujero negro supermasivo en el centro de cada galaxia.


CONCLUSIONES

En el verano, fue muy enriquecedor aprender a usar la herramienta GALFIT en el modelado de imágenes astronómicas, interpretar resultados obtenidos, y a utilizar artículos científicos de otros grupos de trabajo como apoyo para el trabajo propio, además de una satisfactoria inmersión en la labor científica y los valores de la universidad anfitriona.  Como resultados preeliminares de este trabajo de verano, por el tamaño de la muestra no fue posible concluir si los pseudobulbos siguen una relación lineal con la masa de su agujero negro supermasivo.  Sin embargo,  tomando los resultados preeliminares de galaxias elípticas con los que trabajó mi compañera en el verano Aura Vargas, es posible apreciar una relación entre las luminosidad de las poblaciones de galaxias con pseudobulbo y galaxias elípticas con la masa de su agujero negro. 
Cardenas Lopez Lorena, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Sergio Ivvan Valdez Peña, Centro de Investigación en Ciencias de Información Geoespacial, A.C. (CONACYT)

ANáLISIS EXPLORATORIO DE CAMBIOS EN LAS NORMALES CLIMATOLóGICAS DEL ESTADO DE QUERéTARO EN EL PERIODO DE 1995-2020.


ANáLISIS EXPLORATORIO DE CAMBIOS EN LAS NORMALES CLIMATOLóGICAS DEL ESTADO DE QUERéTARO EN EL PERIODO DE 1995-2020.

Cardenas Lopez Lorena, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Sergio Ivvan Valdez Peña, Centro de Investigación en Ciencias de Información Geoespacial, A.C. (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Este proyecto tiene como objetivo comprender las tendencias climáticas a lo largo de periodos de 5 años, utilizando datos históricos conocidos, y evaluar la variabilidad natural del clima en el estado de Querétaro. Contamos con evidencia a largo plazo sobre las normas climatológicas a nivel mundial, y buscamos aplicar este análisis específicamente en Querétaro. Para ello, realizamos modelos gráficos exploratorios con el fin de determinar si los datos pueden ser analizados mediante pruebas de hipótesis no paramétricas. Según los resultados obtenidos, podremos responder con mayor precisión a las preguntas planteadas sobre la variabilidad climática en la región. Nuestro objetivo es determinar si existe evidencia acerca de cambios en las normales climatológicas en los últimos 30 años en el análisis visual, si está evidencia es estadísticamente significativa a través de pruebas de hipótesis no paramétricas, y en su caso determinar la magnitud del cambio con el que se mantiene estadísticamente significativa.



METODOLOGÍA

Modelos de gráficos exploratorios en R: Para obtener gráficos de las variables climatológicas en periodos de cinco años, utilizamos R para visualizar datos. Estos gráficos permiten identificar patrones, tendencias, anomalías, detectar eventos extremos, comparar variables, analizar datos espaciales y temporales, evaluar la variabilidad natural del clima, generar hipótesis y comunicar resultados de manera efectiva. Método de Bootstrap: El método de bootstrap es un procedimiento estadístico que implica la simulación mediante remuestreo repetido. Este método se utiliza para estimar la desviación estándar de un estadístico, construir intervalos de confianza y realizar contrastes de hipótesis. Es particularmente útil en situaciones donde la distribución teórica del estadístico es compleja o desconocida, proporcionando precisión en las estimaciones obtenidas a partir de los datos previos.


CONCLUSIONES

La combinación de modelos gráficos exploratorios en R y el método de bootstrap ha demostrado ser una metodología eficaz para el análisis de variables meteorológicas en Querétaro, proporcionando información valiosa para la comprensión y gestión del clima en la región. Identificación de Patrones y Tendencias: Los modelos gráficos exploratorios han revelado patrones y tendencias a lo largo de periodos de cinco años, mostrando cambios en las normales climatológicas del estado. Esto incluye tendencias en la temperatura, precipitación y otros factores meteorológicos clave. Detección de Anomalías y Eventos Extremos: Se han identificado anomalías y eventos extremos, como olas de calor y periodos de sequía. Estos hallazgos son cruciales para la planificación y gestión de recursos en la región. Comparación y Correlación de Variables: La comparación de diferentes variables meteorológicas ha permitido entender mejor las interrelaciones entre ellas. Por ejemplo, cómo los cambios en la precipitación pueden afectar la temperatura y viceversa. Variabilidad Natural del Clima: Se ha evaluado la variabilidad natural del clima en Querétaro, diferenciando entre variaciones normales y cambios significativos posiblemente debido a factores externos, como el cambio climático global. Generación de Hipótesis: A través de los gráficos exploratorios, se han generado hipótesis sobre las causas subyacentes de los patrones observados. Estas hipótesis pueden ser sometidas a pruebas más rigurosas en futuros estudios. Precisión en las Estimaciones: El método de bootstrap ha proporcionado estimaciones precisas de la desviación estándar, intervalos de confianza y contrastes de hipótesis, mejorando la robustez de las conclusiones obtenidas a partir de los datos disponibles.
Cardona Ortiz Viviana Itzel, Universidad de Guadalajara
Asesor: Dra. Silvana Guadalupe Navarro Jiménez, Universidad de Guadalajara

ESTRUCTURA MORFOCINEMáTICA DE LA NEBULOSA PLANETARIA NGC2392


ESTRUCTURA MORFOCINEMáTICA DE LA NEBULOSA PLANETARIA NGC2392

Cardona Ortiz Viviana Itzel, Universidad de Guadalajara. Asesor: Dra. Silvana Guadalupe Navarro Jiménez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Este trabajo desarrolla un modelo morfocinemático tridimensional de la nebulosa planetaria NGC 2392 utilizando datos espectroscópicos en la línea de [OIII]. Continuamos el trabajo de García-Díaz et al. (2012), que caracterizó la estructura tridimensional y cinemática de la nebulosa usando espectroscopía de alta resolución en Hα y [NII]. Empleamos observaciones adicionales para refinar la información existente, mejorando la comprensión de la dinámica y morfología de NGC 2392 y contribuyendo al conocimiento de la evolución de las nebulosas planetarias. Contexto General Las nebulosas planetarias (NPs) son estructuras de gas ionizado alrededor de una estrella en la fase final de su evolución. Estudiarlas es crucial para entender la evolución estelar y la dinámica del gas interestelar. La espectroscopía de alta resolución permite analizar las propiedades físicas y cinemáticas de las NPs en detalle. Estudios Previos García-Díaz et al. (2012) Usaron espectroscopía de alta resolución para mapear la nebulosa y crear un modelo tridimensional utilizando SHAPE. Encontraron que la Nebulosa del Esquimal es similar a las nebulosas Saturno y Ojo de Gato, pero rotada 90 grados. Identificaron componentes estructurales significativos, como una envoltura esferoidal prolata y un flujo bipolar rápido. También detectaron una fuente de rayos X y sugirieron la posible existencia de una estrella compañera caliente. Zhang et al. (2012) Detectaron varias líneas de [Fe III] en la región interior de la nebulosa, sugiriendo una estructura compleja. Construyeron un modelo tridimensional que sugiere que NGC 2392 tiene una estructura intrínseca más compleja de lo que se pensaba. Determinaron abundancias químicas que indican que la nebulosa se formó en un entorno pobre en metales. Guerrero et al. (2021) Estudiaron un jet en NGC 2392 utilizando espectroscopía de alta resolución, revelando un movimiento de precesión y una alta velocidad de 200 km/s. Sugirieron la presencia de una compañera caliente y masiva. Este estudio refuerza la idea de que los jets son cruciales en la formación de nebulosas planetarias asimétricas.



METODOLOGÍA

Nuestro estudio complementa la caracterización morfocinemática de NGC 2392 en la línea de [OIII]. Utilizando datos espectroscópicos de alta resolución del espectrógrafo MEZCAL, hemos generado arreglos posición-velocidad y calculado la velocidad sistémica de la nebulosa. Estos datos son cruciales para desarrollar un modelo tridimensional detallado de su cinemática y morfología. Estamos recreando el modelo original de García-Díaz et al. (2012) utilizando el software SHAPE, analizando detalladamente el artículo para entender los fundamentos físicos y replicar el modelo con precisión. Evaluamos críticamente el modelo original y aplicamos nuestros datos recientes, ajustándolo si es necesario. La línea de [OIII] nos permite analizar regiones más internas de la nebulosa, cercanas a la estrella central, debido a su mayor excitación y temperatura. Comparamos nuestros resultados con los estudios de Guerrero et al. (2021) y Zhang (2012), enriqueciendo nuestra comprensión y refinando nuestro modelo.


CONCLUSIONES

Este enfoque meticuloso y basado en el análisis crítico garantiza que cualquier modificación realizada esté fundamentada en una comprensión profunda tanto del software como de los procesos físicos que se llevan a cabo en este objeto astronómico. Al final del estudio, aspiramos a presentar un modelo morfocinemático refinado de NGC 2392, introduciendo las mejoras necesarias basadas en un análisis detallado de nuestros resultados.
Carmona Rubio Einar Gabriel, Universidad de Guadalajara
Asesor: Dr. Zeuz Montiel González, Centro de Investigación en Materiales Avanzados (CONACYT)

DESARROLLAR PELíCULAS DELGADAS DE ZNO DOPADO CON AL POR ALD Y APLICAR OPTIMIZACIóN MATEMáTICA AVANZADA PARA ESTABLECER UN PROCESO DE DEPóSITO CON ALTA HOMOGENEIDAD EN ESPESOR Y RESISTIVIDAD.


DESARROLLAR PELíCULAS DELGADAS DE ZNO DOPADO CON AL POR ALD Y APLICAR OPTIMIZACIóN MATEMáTICA AVANZADA PARA ESTABLECER UN PROCESO DE DEPóSITO CON ALTA HOMOGENEIDAD EN ESPESOR Y RESISTIVIDAD.

Carmona Rubio Einar Gabriel, Universidad de Guadalajara. Asesor: Dr. Zeuz Montiel González, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las películas delgadas semiconductoras son vitales en tecnologías energéticas como celdas solares y ventanas inteligentes, esenciales para combatir el cambio climático. La escalabilidad en su depósito sigue siendo un desafío. El óxido de zinc dopado con aluminio (AZO) es usado en este proyecto como recubrimiento en obleas de silicio donde se busca aumentar la homogeneidad de los depósitos de ALD.  Durante la estancia de verano delfín se buscaba lograr depositar películas ultradelgadas con alta homogeneidad tanto de espesor como de resistividad mediante la técnica de depósito por capas atómicas (ALD). Un equipo para síntesis bastante preciso para depositar áreas pequeñas, pero nosotros buscábamos buenos niveles de espesor y de resistividad, pero sobre áreas relativamente grandes (obleas de silicio (Si) de 20 cm de diámetro). Además, se buscaba depositar contactos de aluminio sobre el AZO depositado sobre las obleas para determinar la homogeneidad de la resistividad en toda la superficie de la oblea.



METODOLOGÍA

El primer paso fue seguir cuidadosamente el proceso de limpieza y preparación del sustrato; las obleas de Si. Se lavaron primero con una solución de ácido clorhídrico para eliminar depósitos previos. Una vez lavadas las obleas podíamos empezar a cortar las obleas siguiendo un patrón previamente establecido por el grupo de investigación. El propósito de estos cortes era para que se pudiesen colocar individualmente en el equipo e-beam, donde se depositaron los contactos eléctricos de aluminio.  Una vez cortadas las obleas de Si, se lavaban con solventes en la sonificadora siguiendo también parámetros previamente determinados por el grupo. Con la oblea de Si ya lista podíamos comenzar el depósito de AZO en el equipo de ALD. Este depósito tenía que ser programado para cada experimento, siguiendo recetas de experimentos en los que nosotros especificábamos los pulsos de los precursores metálicos y oxidantes, así como las dosis de purgas.  Al acabar este primer depósito pasábamos al equipo Filmetrics (perfilómetro óptico) con el fin de caracterizar el espesor de la película de AZO y como este variaba en distintos puntos de la oblea. Después de medir los espesores de la oblea podíamos entonces colocar individualmente los pedazos de ella dentro del equipo e-beam, el cual se encargaría por medio de evaporización de aluminio, de depositar contactos eléctricos sobre nuestra película de AZO. Al tener los contactos de aluminio listos podíamos medir la conductividad utilizando un equipo de caracterización eléctrica de la marca Keithley. Finalmente podíamos interpretar los datos de nuestras caracterizaciones, discutir resultados y llegar a nuestras conclusiones.


CONCLUSIONES

Se hicieron varios depósitos en el equipo ALD con distintas obleas del mismo tamaño. Al principio creíamos que para poder tener un alto nivel de homogeneidad de espesor era solamente necesario variar los pulsos de los precursores y purgas, sin embargo, después de algunos experimentos nos dimos cuenta que no son los únicos factores a considerar, sobre todo hablando de áreas de sustrato relativamente grandes. Cuando tenemos una oblea de un área grande, como nuestros sutratos que era obleas con un diametro de 20 cm, se deben considerar también las condiciones previas del equipo de síntesis pues este también influye en la calidad de los depósitos y en que tan homogéneo pueda ser el espesor en toda la superficie del sustrato. En la parte de contactos de aluminio, pudimos observar una mejor calidad de depósito de contactos cuando nuestro sustrato (oblea con AZO) era calentado previamente a 200° C.  Se llegaron a conclusiones con un buen impacto en la investigación desarrollada y la experiencia del verano me brindó conocimientos importantes para mi formación profesional.
Carrasco Terán Eduardo, Universidad de Sonora
Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara

SíNTESIS Y ESTUDIO DE PROPIEDADES óPTICAS Y FOTOCATALíTICAS DE NANOPARTíCULAS DE CARBONATO DE BISMUTO (BI2(CO3)3) EN PRESENCIA DE HIDRóXIDOS DOBLES LAMINARES (HDLS).


SíNTESIS Y ESTUDIO DE PROPIEDADES óPTICAS Y FOTOCATALíTICAS DE NANOPARTíCULAS DE CARBONATO DE BISMUTO (BI2(CO3)3) EN PRESENCIA DE HIDRóXIDOS DOBLES LAMINARES (HDLS).

Carrasco Terán Eduardo, Universidad de Sonora. Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Para el desarrollo de este trabajo se estudiaron dos complejos interesantes por sí mismos, nanopartículas de carbonato de bismuto (Bi2(CO3)3) y compuestos HDLs. Las nanopartículas, sintetizadas mediante el método de ablación láser de sólidos en líquidos, presentan propiedades ópticas interesantes, de las que resaltan su capacidad de absorber longitudes de onda en el espectro visible, presentando  tener una energía de banda prohibida correspondiente a un material semiconductor, esto junto a sus características estructurales cristalinas, hace que presente propiedades fotocatalíticas, que es lo que más resalta del material para este estudio. Los hidróxidos dobles laminares (HDLs) son materiales avanzados que poseen una estructura representativa en forma de capas, permitiendo la intercalación de diversos aniones entre estas, esta característica confiere a los HDLs propiedades que son de gran interés en múltiples campos de la ciencia y la tecnología, es interesante mencionar que el compuesto de HDL utilizado no presenta actividad fotocatalítica, de ser así estos materiales ampliarían sus aplicaciones pues ya se emplean como catalizadores en la industria. El propósito de este trabajo fue utilizar estos materiales para verificar que tipo de propiedades se mantienen cuando se encontraban en presencia del otro, esto se realizó mediante dos vías, obteniendo resultados variados.



METODOLOGÍA

Las nanopartículas se sintetizaron a partir de un disco de bismuto en 15 mL de agua bidestilada, el blanco fue pulsado 300 veces a 10 Hz, con un haz de 1064 nm a 700 mJ por pulso, esta síntesis se realizó dos veces con el propósito de probar dos vías en las que entraran en contacto las nanoparticulas del carbonato de bismuto con el HDL utilizado. La 1era via consistio en dejar que la carbonatación de las nanoparticulas ocurriera durante 7 dias sin presencia del HDL, donde se observo que macroscopicamente el color de la suspension cambio de un tono cafe/negro a un blanco/gris en las primeras 24 hrs, se realizaron pruebas de DRX y Uv-Vis para garantizar la presencia del carbonato y medir su bandgap mediante metodos graficos, posteriormente se añadio 10 mg de HDL a 5 mL de esta muestra. La 2da vía consistió en añadir la suspensión recientemente pulsada a una masa de 50 mg de HDL, esta se dejó carbonatar en presencia del HDL durante 48 horas, se recuperó en forma de polvo, este se analizó por DRX para comprobar la presencia del carbonato. Posteriormente se realizaron pruebas de degradación con ambas muestras, en específico se comprobó con la degradación de azul de metileno, del cual se utilizaron 1.5 mL de colorante y 1.5mL de muestra, esta prueba consistió en irradiar cinco muestras de 3 mL (muestra control de agua bidestilada, HDL en agua bidestilada, nps de Bi2(CO3)3 de la primera síntesis, Muestra Bi2(CO3)3-HDLs por vía 1 y por vía 2) con luz ultravioleta e ir midiendo la absorbancia en longitudes de onda correspondientes al azul, repitiendo a distintos tiempos de irradiación que se irían acumulando a un total de 90 minutos, observando que si el área de esta curva de absorbancia iba decreciendo, la presencia del colorante en la muestra también lo hacía.


CONCLUSIONES

Para las mediciones de la muestra de Bi2(CO3)3, se obtuvieron resultados de acuerdo a la literatura en cuanto a la presencia de los picos principales del carbonato de bismuto en el DRX y medición de energía de bandgap parecidas al promedio (3.2 eV) de 2.91 eV y 3.33 eV, por lo que la etapa de la síntesis se puede considerar satisfactoria. Para las pruebas de degradación se obtuvieron resultados esperados para la muestra de HDL en agua, no hubo ningún tipo de degradación a los 90 minutos acumulados, mientras que para las nanopartículas de Bi2(CO3)3 que ya se han reportado en la literatura sus propiedades fotocatalíticas, se obtuvo una degradación de aproximadamente 9.7% a los 90 minutos, para la muestra de Bi2(CO3)3-HDL obtenida por la vía 1, se obtuvo un 7.6% de degradación a los 90 minutos, pero lo interesante es que en tiempos de 15 a 45 minutos se presentan porcentajes de degradación menores al 1%, la muestra obtenida por la vía 2 no presenta este salto en cuanto al porcentaje de degradación, esta se mantiene más constante a los distintos tiempos pero es bastante menor a todas las anteriores, pues a los 90 minutos es alrededor de 2.6%. En conclusión, es posible añadir propiedades fotocatalíticas a complejos HDL al adicionar nanopartículas de Bi2(CO3)3 sintetizadas mediante técnicas de ablación láser, obteniendo resultados diferentes acorde a la manera en la que estos dos compuestos se ponen en presencia.   
Carrillo Cano Ricardo Antonio, Instituto Tecnológico de Morelia
Asesor: Dr. Irving Josué González Chan, Universidad Autónoma de Yucatán

SíNTESIS VERDE Y CARACTERIZACIóN DE NANOPARTíCULAS DE ZNO DOPADAS CON DISTINTAS CONCENTRACIONES DE MAGNESIO


SíNTESIS VERDE Y CARACTERIZACIóN DE NANOPARTíCULAS DE ZNO DOPADAS CON DISTINTAS CONCENTRACIONES DE MAGNESIO

Carrillo Cano Ricardo Antonio, Instituto Tecnológico de Morelia. Asesor: Dr. Irving Josué González Chan, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Las nanopartículas son un campo de estudio que se lleva investigando en años recientes; sin embargo, hay múltiples facetas de éstas que se están mejorando como por ejemplo la modificación de las propiedades fisicoquímicas por medio de dopados. En el siguiente estudio se llevará a cabo la síntesis y caracterización de nanopartículas de ZnO usando química verde por el método sol-gel utilizando extractos de la naranja agria, para posteriormente añadir un dopado de magnesio, esto con el objetivo de medir y comparar el nivel de absorbancia y su amplitud en la banda prohibida con respecto a muestras sin dopaje.



METODOLOGÍA

Síntesis Se lavaron las naranjas con agua destilada para eliminar la contaminación derivada del ambiente como insectos y sus desechos, tierra o agua. Posteriormente se cortó la cáscara, exocarpio (capa externa del fruto) y se recolectaron en parrillas de papel aluminio de forma que los fragmentos de cáscara queden escorados de acuerdo con el espacio de la parrilla. Las parrillas con la cáscara se colocaron en un horno de convección mecánica por 2 horas a 120 °C, al estar secas y quebradizas se trituraron con ayuda de un mortero hasta obtener un polvo para almacenarlo en frascos de vidrio estériles para evitar contaminación. Se pesó 3 gr en una balanza analítica del polvo de la cáscara de naranja en un vaso de 100 mL. Se preparó una solución de metanol-agua al 50% y se agregaron 50 mL. de esta solución al vaso con la cáscara de naranja, se colocó el vaso con la solución en un baño de ultrasonido a 20 kHz por 13 minutos. Se filtró el resultado con una bomba de vacío y un embudo Buchner al que se le colocó un filtro Whatman #2 para eliminar los restos de cáscara que quedan en la solución y se colocó el extracto filtrado en un vaso de precipitado de 250 mL. Se colocó el extracto en una placa de calentamiento y agitación magnética, se agregó 20 mL. de jugo de naranja y se calientó a una temperatura de 60 °C, se añaden 3 gr de acetato de zinc. Se añadió la sal de dopado en un equivalente al 2.5, 5 y 10% de la masa de zinc utilizada en la reducción de la sal. Se dejó calentar la solución a 60 °C por una hora con agitación magnética. Pasado el tiempo se dejó enfriar el vaso hasta tener una temperatura ambiente, se filtra la solución de la síntesis con una bomba de vacío y un embudo Buchner. El filtro resultante, se retiró con cuidado de embudo y se coloca en un crisol. Los crisoles resultantes se llevaron a un horno de convección a 105 °C por una hora aproximadamente para eliminar el exceso de humedad de los filtros, posteriormente, se les dio un tratamiento térmico a cada crisol por separado a una temperatura de 800 °C por tres horas en una mufla. Difracción de rayos x (DRX) Para la caracterización estructural de la red cristalina de las nanopartículas, las mediciones de difracción de rayos X se realizó mediante un difractómetro Bruker D8-ADVANCE con modalidad de Bragg (polvos), el tiempo de paso es de 0.1 segundos y el tamaño de paso es de 0.02°, se irradia con 40 kV utilizando un tubo de cobre Kα1. Espectroscopia UV-Vis Se analizó la presencia de las nanopartículas de ZnO por espectroscopía UV-Visible con un equipo Jasco 750 con esfera de integración, en un rango de 190 a 900 nm. Espectroscopia fotoelectrónica de rayos X Para esta caracterización se utilizó un equipo K-alpha Thermo Scientific, aquellos electrones que salgan con ángulos muy rasantes respecto a la superficie de la muestra aportan información superficial, mientras que cuando la muestra se encuentra en posición normal respecto al analizador, los electrones que llegan a este son aquellos que han sido arrancados desde posiciones más profundas del material. Con este método se obtiene información sobre la variación de la composición de entre 5 y 10 nm de profundidad. Las muestras se prepararon realizando una erosión de 15 segundos para eliminar cualquier tipo de contaminación superficial. Se realizó un barrido de alta resolución utilizando una fuente de aluminio Kα entre 0 y 1350 eV.


CONCLUSIONES

De acuerdo con los análisis y las pruebas realizadas con los equipos de DRX, UV-Vis y XPS se puede determinar que la síntesis de química verde por el método sol-gel se realizó de manera satisfactoria, generando nanopartículas de óxido de zinc, las cuales gracias a la adición de la sal de nitrato de magnesio sufrieron un efecto de dopado. En el análisis de DRX se muestran picos de difracción en aproximadamente 31, 34 y 36° aproximadamente para los planos de difracción (100), (002) y (101) respectivamente correspondientes a la de la zincita (óxido de zinc hexagonal). En aproximadamente 47° se presenta el pico para (102) seguido del (110) en aproximadamente 57°. Sin embargo, de manera adicional existen picos más pequeños de un compuesto de Mg, el cual no corresponde a su forma elemental  como Mg o en un óxido metálico. Este se encuentra en forma de carbonato (CO3), el cual provino del papel filtro que se calcinó junto con la muestra. En el análisis realizado por UV-Vis del ZnO sin dopar se puede observar una curva de absorbancia máxima de 370 nm, por otro lado, se puede ver la muestra dopada cuenta con dos picos en 327 y 375, si bien uno es más pronunciado ninguno es despreciable por lo que para la interpretación de resultados se concluyó que este segundo pico se debe a la presencia del magnesio del dopado, si bien se confirma la presencia del ZnO el magnesio también contribuye a esta disminución de máximo de absorbancia. Por último, por medio de un análisis por XPS se puede observar un claro cambio tanto en la cantidad de oxígeno como en la de zinc en las muestras sin dopar y con dopaje en la cual apareció también magnesio, obteniendo un 4.19% de este, lo cual va de acuerdo a lo esperado.
Carrillo Onchi Jesse Moisés, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE LA DETERMINACIóN DEL BOSóN Z A PARTIR DE EVENTOS DE DOS ELECTRONES EN COLISIONES PROTóN-PROTóN A √S = 7 TEV


ANáLISIS DE LA DETERMINACIóN DEL BOSóN Z A PARTIR DE EVENTOS DE DOS ELECTRONES EN COLISIONES PROTóN-PROTóN A √S = 7 TEV

Carrillo Onchi Jesse Moisés, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El objetivo principal de este estudio es determinar con precisión la masa invariante de pares de electrones utilizando datos del experimento CMS del CERN. Los datos provienen de colisiones proton-proton a una energía de √s = 7 TeV.



METODOLOGÍA

Se emplea un archivo CSV como fuente de datos, llevando a cabo una cuidadosa selección y el cálculo de observables relevantes mediante el uso del lenguaje de programación.


CONCLUSIONES

Los resultados obtenidos muestran dos picos destacados en el histograma de la masa invariante, con una media de 90,12±4,37 GeV/c², y una media ajustada con la distribución Breit-Wigner de 90,98±0,07 GeV/c². Estas medias presentan una mínima diferencia con la masa invariante teórica del bosón Z, 91,18 GeV/c², lo cual demuestra la precisión del método utilizado. La conclusión principal es que la determinación de la masa invariante de los electrones es precisa y consistente con los valores teóricos esperados.
Carvajal Escolástico Abel Salvador, Universidad de Guadalajara
Asesor: Dr. José Luis León Medina, Centro de Investigación en Matemáticas (CONACYT)

DETECCIóN DE TUMORES CEREBRALES EN RESONANCIAS MAGNéTICAS MEDIANTE TéCNICAS DE ANáLISIS TOPOLóGICO DE DATOS


DETECCIóN DE TUMORES CEREBRALES EN RESONANCIAS MAGNéTICAS MEDIANTE TéCNICAS DE ANáLISIS TOPOLóGICO DE DATOS

Carvajal Escolástico Abel Salvador, Universidad de Guadalajara. Asesor: Dr. José Luis León Medina, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La detección de tumores cerebrales en imágenes de resonancia magnética es un desafío complejo que requiere el desarrollo de técnicas de análisis de datos capaces de extraer información geométrica compleja. El TDA, al permitir extraer características topológicas que son complementarias a las características tradicionales, ofrece una nueva perspectiva para caracterizar la complejidad estructural de los tumores. Este proyecto explora la posibilidad de integrar estas características con diversas técnicas de extit{machine learning}. Se espera obtener un modelo de clasificación más discriminativo y capaz de generalizar a nuevos datos.



METODOLOGÍA

Comenzaremos el análisis tomando las dos primeras resonancias de cada clase, es decir, una resonancia con tumor presente y una sin tumor. Posteriormente desarrollaremos un pipeline en el que podamos aplicar un análisis similar a todos las imágenes del conjunto de datos y entrenar un modelo de machine learning que aproveche dicho análisis. El método central utilizado en este análisis fue el cálculo de homología persistente mediante complejos cúbicos, obtenidos a partir de los conjuntos de subnivel de cada resonancia (imagen en escala de grises). Para los cálculos de homología persistente y preprocesamiento de imágenes se utilizó la API de Giotto-tda y el desarrollo del pipeline se basó mayormente en los artículos referenciados en el proyecto final.


CONCLUSIONES

El análisis topológico aplicado al conjunto de datos trabajado logró un 100% de acierto en los datos de entrenamiento y un 89% de acierto en los datos de prueba en el mejor de los casos analizados, cometiendo solo 7 errores de los cuales hubo 1 falso positivo y 7 falsos negativos. El resultado anterior se logró mediante el pipeline descrito a lo largo del documento final, y mediante el uso un análisis de componentes principales y un clasificador por vectores de soporte. Dado el tamaño reducido del conjunto de datos y los problemas encontrados en las imágenes, los resultados son notoriamente favorables.
Castellón Meneses Axel Josué, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Dra. Kareen Krizzan Encinas Soto, Universidad de Sonora

ANáLISIS DE METALES POTENCIALMENTE TóXICOS POR TéCNICA DE ESPECTROSCOPíA DE ABSORCIóN ATóMICA EN TARJETAS ELECTRóNICAS DE COMPUTADORAS


ANáLISIS DE METALES POTENCIALMENTE TóXICOS POR TéCNICA DE ESPECTROSCOPíA DE ABSORCIóN ATóMICA EN TARJETAS ELECTRóNICAS DE COMPUTADORAS

Castellón Meneses Axel Josué, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Dra. Kareen Krizzan Encinas Soto, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, muchos de los residuos electrónicos tienen como destino final los rellenos sanitarios ocasionando la reducción del ciclo de vida de estos considerablemente. Adicionalmente, se debe considerar la contaminación que implican las interacciones de dichos residuos con los compuestos del medio y las condiciones en el ambiente (temperatura, humedad, presión, etc.), debido a que se pueden liberar algunos de los compuestos tóxicos constituyentes de los productos originales con los consecuentes daños a la salud y ecosistemas. La chatarra electrónica, desechos electrónicos o basura tecnológica es conocida por el concepto RAEE (Residuos de aparatos eléctricos y electrónicos). El tratamiento inadecuado de los RAEE puede ocasionar graves impactos al medio ambiente y poner en riesgo la salud humana. El aumento del consumo de los aparatos electrónicos ha sido vertiginoso a nivel mundial, así también se ha observado un aumento de la producción de desechos de este tipo de productos ocasionado por la sustitución, renovación o eliminación paradójicamente por el desarrollo de estos dispositivos. La importancia de obtener y manejar tanto los residuos de manejo especial, hasta la disgregación de estos para su aprovechamiento, en condiciones ambientalmente seguras direccionándolos a los canales de reciclaje, provocará la disminución de los problemas de carácter ambiental y de salud y por otro lado se estará incrementando el mercado de los residuos en México y favoreciendo la disminución del uso de recursos naturales.



METODOLOGÍA

El Departamento de Bienes y Servicios de la Universidad de Sonora, proporcionó las tarjetas electrónicas de computadoras de la marca DELL, que se encontraban en desuso. Los materiales proporcionados eran resguardados en el Almacén de Bienes y Servicios. Las tarjetas electrónicas utilizadas en el presente estudio fueron los componentes electrónicos principales de computadoras. Las tarjetas fueron separadas en 4 grupos: Madre, RAM, Hija y Procesador; aplicando un muestreo a juicio, el cual consta de tomar el 10% de cada lote una vez que ya fue unificado el total de cada tarjeta por tipo, se realizó la reducción de volumen de cada muestra a partir de la mezcla de las 4 tarjetas de cada componente. Las tarjetas se cortaron a un tamaño aproximado de 1cm x 1cm, y se procedió a disminuir su tamaño de partícula (mallas 80, 40, 20, 10) en un pulverizador de anillos donde se dieron lapsos de tiempo para tratar de obtener una composición aproximada 50% en láminas y 50% en finos. Debido a que la naturaleza de la muestra es metálica, durante la molienda se formaron láminas y finos, por lo tanto, se decidió pasarlas por los diferentes tamices (80, 40, 20 y 10) para separarlas y realizar la digestión por separado. Las muestras previamente pulverizadas fueron sometidas a un proceso de digestión ácida utilizando agua regia para liberar los metales de interés. El procedimiento fue llevado a cabo con el material correctamente, lavado para evitar contaminación. La determinación analítica de los elementos de interés fue realizada a través de la técnica de espectroscopia de absorción atómica, utilizando un equipo de Absorción Atómica Marca Perkin-Elmer, Modelo AAnalyst 400. Previamente, fueron preparadas las curvas de calibración para cada metal igualando matrices con estándares de alta pureza analítica, para su determinación. Las pruebas de lixiviación de las tarjetas electrónicas (tarjeta Madre, tarjeta Hija, tarjeta RAM, Procesador) se realizaron a un tamaño de malla de 80, 40, 20 y 10 en un reactor de vidrio, con una agitación de 300 revoluciones por minuto y a una temperatura ambiente, utilizando agua meteórica (pH = 5.5) y ácido acético 0.11M (pH = 2.88), y un tiempo de 6 horas. Para realizar las pruebas de lixiviación se utilizó un reactor Marca Caframo. Las condiciones de estudio mencionadas, fueron establecidas con la finalidad de simular, lo que podría pasar en los suelos donde las tarjetas pueden ser enterradas y experimentar la disolución (lixiviación). Las condiciones utilizadas en el presente trabajo, se han realizado con anterioridad en la redisolución de plomo. Los resultados de la investigación serán comparados con las normas mexicanas para estimar la calidad del agua: NOM -001-ECOL-1996 y la NOM-127-SSA1-1994. La NOM-001-ECOL-1996 indica que, para uso de riego agrícola, uso público y para la protección de vida acuática.  La NOM-127-SSA1-1994 se aplica para el agua potable.


CONCLUSIONES

Conforme a los resultados, se detectaron altos niveles de metales en las tarjetas de computadoras (Tarjeta Madre, Tarjeta Hija, Tarjeta RAM, Procesador). En la caracterización Química de las tarjetas electrónicas Tarjeta RAM y Procesador, se identificaron los metales que presentaron los niveles más altos de concentración, cuyo orden es el siguiente: Cobre>Níquel>Hierro>Plomo>Zinc>Manganeso>Cadmio. La Tarjeta Madre mostró el siguiente orden descendente: Cobre>Plomo>Zinc>Hierro>Níquel>Manganeso>Cadmio. Los resultados de la Tarjeta Hija fueron: Cobre>Plomo>Níquel>Hierro>Zinc> Manganeso>Cadmio. En las pruebas de lixiviación utilizando ácido acético, las concentraciones de Cobre presentaron el siguiente comportamiento: Procesador>RAM>Hija>Madre. Para el caso de Hierro: Procesador>Madre>Hija>RAM. Para Zinc: Procesador> Hija>RAM>Madre. Cuando se utiliza como agente lixiviante ácido acético, en todos los casos no se cumple lo estipulado en las NOM-001-ECOL-1996 y NOM-127-SSA1-1994, lo cual podrá representar un peligro potencial a la salud humana, debido a que no se cumple con los valores máximos permisibles establecidos en las Normas Oficiales Mexicanas. Se recomienda promover el reciclaje de computadoras desde el hogar; evitando así su aglomeración, así como recuperar los metales de las tarjetas electrónicas para que puedan ser reutilizados. Se sugiere estudiar un proceso de remoción de metales potencialmente tóxicos con zeolita y evaluar otros Metales Potencialmente Tóxicos de interés (Cromo, Cadmio, Estaño) en tarjetas electrónicas de computadoras.  
Castillo Ruiz Santiago, Instituto Politécnico Nacional
Asesor: M.C. Rosalío Alejandro Reyes Reyes, Instituto Politécnico Nacional

MODELOS DE DINáMICA DE POBLACIóN


MODELOS DE DINáMICA DE POBLACIóN

Castillo Ruiz Santiago, Instituto Politécnico Nacional. Asesor: M.C. Rosalío Alejandro Reyes Reyes, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Llegar a conocer la dinámica poblacional de las especies que conforman un ecosistema nos permite entender la interacción entre sus individuos y predecir el comportamiento de la población ante perturbaciones o cambios a futuro, pero realmente cómo llegamos a ellos; que significan, como los interpretamos. Mi investigacion en el Verano del conocimiento se hablara respecto a los modelos de Dinamica Poblacional, aplicado por modelos exponenciales y logisticos; y su aplicacion para la poblacion mexicana para prediccion y entendimiento de cambios exponenciales.



METODOLOGÍA

1. ¿Qué son las ecuaciones diferenciales Son ecuaciones que relacionan una función con sus derivadas. Explicado de otra manera, explica como la función cambia a medida que una variable independiente lo hace(tiempo, espacio, etc.), básicamente describiendo a través de números la relación de variables dependientes con la independiente. Son fundamentales para modelar todo tipo de fen ́omenos físicos, biológicos, económicos, entre otros. 1.1. Modelos Matemáticos Son representaciones abstractas respecto al comportamiento de un sistema real a través de conceptos y lenguaje matemático. Sirven esencialmente para analizar, predecir y entender todo tipo de fenómenos, su relación y comportamiento entre si, adaptándolo en un concepto teórico unificado y en su momento practico. 2. ¿Cómo las Ecuaciones Diferenciales nos ayudan a modelar el crecimiento de poblaciones? En el caso de población humana, las ecuaciones diferenciales permiten describir el cambio de población con respecto al tiempo. Incorporando factores simples como natalidad y mortalidad hasta la inmigración y emigración; proporcionando una representación matemática mas precisa y de alguna manera prediciendo el comportamiento futuro de la población bajo mas condiciones y supuestos escenarios. 2.1. El modelo de crecimiento exponencial También conocido como modelo de Malthus, es el modelo matemático formulado por una ecuación diferencial simple que modela el crecimiento de población o variable económica en forma continua y exponencial. Esta basado en que el crecimiento de población es proporcional a su tamaño actual, siendo una manera sencilla de ver el crecimiento de población. 2.2. El modelo logístico Buscando otro enfoque buscamos apoyo en el modelo logístico que, a diferencia del modelo exponencial, la población no puede superar un tamaño específico, llamada la capacidad de carga del ecosistema. Modela la función sigmoidea de crecimiento de un conjunto P. 3. Resolución Analítica de Modelos Matemáticos Al querer analizar y predecir fenómenos comunes del mundo se usa lenguaje matemático para poder interpretar estos hechos de una manera mas sencilla; dando lugar a los modelos matemáticos. Si bien se pueden sacar modelos básicos para interpretar estos hechos se requieren simplificaciones de los mismos para volver los análisis y predicciones mas simples, de ahí las resoluciones numéricas y analíticas de estos, siendo la analítica la que nos interesa. Los modelos matemáticos de ecuaciones diferenciales se resuelven aplicando el proceso matemático llamado la integración. El método más elemental de integración de una ecuación diferencial es el método de separación de variables, que consiste en reescribir de tal forma que del lado derecho de la igualdad solo aparezca la variable dependiente, y del lado izquierdo la variable independiente. Finalmente se aplican técnicas de integración usuales. 4. Programación en Python 4.1. matplotlib.pyplot Es una librería mas del repertorio de python para la creaci ́on de creación de gráficos en dos dimensiones permitiendo algunos gráficos como diagramas de barras, histograma, diagramas de sectores, diagramas de caja y bigotes, diagramas de violín, diagramas de dispersión o puntos, diagramas de lineas, diagramas de áreas, diagramas de contorno, mapas de color y combinaciones entre los mismos. Su uso se empieza con la importación de modulo pyplot para definirla después con modulo subplots, luego personalizando el gráfico y salvando con modulo savefig 4.2. numpy Nacido de la abreviación Numérica Python que se utiliza principalmente para realizar cálculos matemáticos y científicos. Ofrece muchas funciones y herramientas que pueden ser útiles para proyectos de Data Science Como extra regularmente viene acompañado de la función array 4.3. pandas Es una librería de Python especializada en el manejo y análisis de estructuras de datos.Las principales características de esta librería se basan en definir nuevas estructuras de datos basadas en los arrays de la librería NumPy pero con nuevas funcionalidades permitir leer y escribir fácilmente ficheros en formato CSV, Excel y bases de datos SQL permitir acceder a los datos mediante índices o nombres para filas y columnas ofrecer métodos para reordenar, dividir y combinar conjuntos de datos permitir trabajar con series temporales y realizar todas estas operaciones de manera muy eficiente.  


CONCLUSIONES

Ya para terminar, los modelos aplicados resultaron bastante exactos siendo que cada uno de ellos mostro datos iguales o parecidos a datos oficiales respecto a las predicciones del INEGI, por lo que se concluye que los modelos son confiables para la prediccion de la poblacion y facil de usar para la prediccion no solo de la poblacion Mexicana si no tambien cualquier otra poblacion. Los resultados reflejaron un aumento en la poblacion mexicana y como ya mencionamos los modelos fueron fieles a las predicciones de INEGI, prediciendo al igual que este instituto una poblacion de 130 millones de personas para 2030, por lo que los resultados fueron positivos.
Castro Castañeda Jorge, Universidad Autónoma de Baja California
Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara

CARACTERIZACIóN DEL OLEAJE EN PLAYAS TURíSTICAS DURANTE VERANO DEL 2024 EN PUERTO VALLARTA, JALISCO


CARACTERIZACIóN DEL OLEAJE EN PLAYAS TURíSTICAS DURANTE VERANO DEL 2024 EN PUERTO VALLARTA, JALISCO

Castro Castañeda Jorge, Universidad Autónoma de Baja California. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El oleaje es la transferencia de energía del viento a la capa más superficial del océano, produciendo movimiento ondulatorio hasta llegar a las costas, donde se disipa al chocar con barreras o en la playa arenosa. Este juega un rol de suma importancia en los cambios en las formas y líneas de costa. Según sus características, puede variar inmensamente la morfodinámica de una playa. Es imprescindible entender los cambios y dinámicas que presenta el oleaje en diferentes ubicaciones y momentos del día y a lo largo del tiempo. Durante una tormenta, el oleaje es impredecible e inestable, y es en este evento donde se pueden detectar los diferentes trenes de oleaje que se generan. Por ello es necesario el estudio y su caracterización para preservar los recursos costeros como las playas y todos los procesos que ocurren en ellas. En lugares turísticos es necesario para seguridad de los bañistas, cuando el oleaje sea peligroso, los guardavidas deberán dar indicaciones a la gente para evitar posibles riesgos y salvaguardar vidas.  Puerto Vallarta es uno de los principales lugares turísticos de playa en México. Su principal oferta es la zona de playa para los bañistas. Por lo que conocer con las características del oleaje será de gran utilidad.  



METODOLOGÍA

Para conocer las características del oleaje en Puerto Vallarta, Jalisco, se eligieron puntos de muestreo en tres playas turísticas de la zona hotelera de la costa: Playa de Oro, Playa Flamingos y Playa Los Tules. La recolección de datos se realizó con un sensor registrador de nivel de agua HOBO U20-001-0x de la marca HOBO, el cual se fijó en su extremo inferior con un peso muerto para mantenerlo sumergido, mientras que el extremo superior se sujetó a una boya para asegurar su posición vertical en el agua. Los muestreos se realizaron durante tres días consecutivos. El primer día, se muestrearon las tres playas por la mañana y por la tarde; el segundo día, por la mañana y por la noche; y el tercer día, por la tarde y por la noche. El muestreo comenzó con la activación del sensor mediante el software HOBOware Pro, instalado en una laptop portátil. Se utilizó un nivel de agua de referencia, correspondiente a la profundidad desde el sensor hasta la superficie del mar. El sensor se colocó detrás de la zona de rompiente durante veinte minutos en cada playa. Para descargar los datos del sensor, se empleó la Lanzadera Waterproof HOBO (U-DTW-1) con un acoplador (COUPLER2-B). Estos datos fueron procesados con el mismo software que se activó, que convierte automáticamente las lecturas de presión en lecturas de nivel de agua. Se analizaron los niveles de agua, para caracterizar el oleaje presente en cada una de las playas muestreadas y se relacionó con la morfodinámica de las mismas. 


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos acerca del oleaje, además de conocimientos teóricos acerca de la climatología de la ciudad de Puerto Vallarta, Jalisco. Sin embargo, al tratarse de un tema con una gran complejidad, se siguen tratando los datos obtenidos de nivel de agua para obtener las características más generales del oleaje y su relación con el campo de viento. Además de comparar los distintos métodos para conocer el oleaje de una zona, siendo la boya oceanográfica el instrumento más completo para la caracterización del oleaje a comparación del medidor de presión utilizado en esta investigación.
Castro Gonzalez Yuliana Estefanía, Universidad de Sonora
Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México

ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO Y SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS


ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO Y SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS

Amezcua Hernández Daniela, Universidad Autónoma de Baja California. Castro Gonzalez Yuliana Estefanía, Universidad de Sonora. Ku Nah Mariana, Universidad Autónoma de Baja California. Nova Guinchin Juan Felipe, Universidad de Caldas. Velasquez Salinas Mildreth Mariam, Universidad de Sonora. Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La migración magmática durante el Cretácico tardío-Eoceno, en relación con la subducción de la placa oceánica Farallón bajo la placa norteamericana, es un proceso geológico complejo que aún no se comprende completamente. Esta subducción ha generado magmas que, al ascender, se contaminan con los basamentos precámbricos antiguos presentes en el noroeste de México (Baja California, Sonora y Chihuahua) y el suroeste de Estados Unidos (California, Arizona y Nuevo México). Entender este fenómeno es crucial para reconstruir la evolución tectónica y magmática de estas regiones, ya que la interacción entre los magmas y los basamentos antiguos afecta significativamente la composición final de los magmas, influenciando la formación de minerales y la geología regional. Sin embargo, la caracterización detallada de estos procesos y sus implicaciones geológicas no ha sido completamente documentada. Durante la estancia de verano de investigación, se busca abordar este problema mediante una serie de actividades centradas en la recolección y análisis de muestras geológicas, así como en la capacitación en técnicas avanzadas de geoquímica y geocronología. Estos esfuerzos están dirigidos a proporcionar una comprensión más profunda de cómo la subducción y la contaminación magmática han moldeado la estructura geológica del noroeste de México y el suroeste de Estados Unidos, contribuyendo así a un mayor conocimiento de los procesos tectónicos y magmáticos globales.



METODOLOGÍA

Durante la estancia de verano, se han llevado a cabo diversas actividades enfocadas en la separación mineral para determinar la evaluación de la migración magmática y la contaminación de magmas con basamentos precámbricos. Las principales actividades incluyen: Organización y manejo de muestras: Se ha realizado el inventariado y almacenamiento de muestras geológicas, asegurando una correcta catalogación y preservación de cada muestra para su posterior análisis. Preparación de secciones delgadas: Se han preparado secciones delgadas de rocas plutónicas, permitiendo la observación detallada de las texturas y composiciones minerales mediante técnicas de microscopía. Capacitación en separación mineral: Los estudiantes han recibido entrenamiento en técnicas de separación mineral, esenciales para estudios geocronológicos específicos como U-Pb y Ar-Ar. Este conocimiento es crucial para determinar las edades de cristalización y eventos térmicos de las rocas estudiadas. Preparación de muestras: Las muestras previamente recolectadas se han pulverizado, tamizado, etiquetado y almacenado adecuadamente para su análisis geoquímico. Caracterización de circones: Utilizando métodos de microscopía óptica y electrónica (SEM), se han caracterizad circones, lo cual es fundamental para entender los procesos de cristalización y evolución magmática de las rocas. Seminarios semanales: Se han llevado a cabo seminarios semanales en los que se discuten diversas temáticas relacionadas con el proyecto. Estos seminarios incluyen presentaciones de doctores del instituto, estas ayudan a fomentar el intercambio de conocimientos y el desarrollo de habilidades de comunicación científica. Ablación de zircones: Se han llevado a cabo procesos de ablación láser de zircones para análisis de geoquímica isotópica. Esta técnica permite la medición precisa de las concentraciones de elementos traza y las relaciones isotópicas, proporcionando información crucial sobre la edad de las rocas.


CONCLUSIONES

Hasta el momento, las actividades han permitido una mejor comprensión de los procesos de migración magmática y la interacción de los magmas con los basamentos precámbricos. Se espera que los resultados finales contribuyan significativamente a la geocronología y geoquímica regional, proporcionando datos valiosos para futuros estudios tectónicos y magmáticos. Estos hallazgos podrían ofrecer nuevas perspectivas sobre la evolución geológica de la región y ayudar a resolver preguntas clave sobre la dinámica de subducción y la formación de magmas contaminados.
Castro Solis Carolina Elizabeth, Universidad Politécnica de Victoria
Asesor: Mg. Hector Garcia Arana, Universidad del Valle

APLICACIONES DE LAS MATEMáTICAS EN CONTEXTO CASO: “ESTUDIO DEL CONCEPTO DE ANáLISIS MARGINAL UTILIZANDO LA HERRAMIENTA GEOGEBRA”


APLICACIONES DE LAS MATEMáTICAS EN CONTEXTO CASO: “ESTUDIO DEL CONCEPTO DE ANáLISIS MARGINAL UTILIZANDO LA HERRAMIENTA GEOGEBRA”

Castro Solis Carolina Elizabeth, Universidad Politécnica de Victoria. Manzanares Balmaceda Ariel Ignacio, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Mg. Hector Garcia Arana, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

La enseñanza y el aprendizaje de conceptos matemáticos, han sido un desafío constante en el campo de la educación. Uno de las alternativas que ha ganado la atención de lo educadores, ha sido la implementación de softwares que permitan una mejor demostración y aplicabilidad de los procesos plasmados por los docentes. En educación superior los estudiantes en general presentan dificultades al enfrentar aplicaciones de la matemática. Un caso a estudiar en esta estancia de investigación es el de los estudiantes de programas del área de economía que enfrentan dificultades para comprender y aplicar el concepto de análisis marginal. El Análisis Marginal, como temática que involucra ampliamente las nociones matemáticas como lo es el cálculo, específicamente la aplicación de la derivada, conlleva a ser poco comprendido por estudiantes con poca competencia matemática tanto conceptual, operativa y de aplicaciones, no obstante, se encuentra alternativas para mejorar estos aspectos. Por lo tanto, se plantea la siguiente pregunta ¿Cómo podemos utilizar GeoGebra como herramienta para construir conocimiento y mejorar la comprensión del análisis marginal?



METODOLOGÍA

La presente investigación, plantea un método constructivista debido a las capacidades que se presentaron al momento de comenzar con la investigación, donde los miembros del equipo de trabajo contaban con los conocimientos básicos presentados por el asesor en las distintas reuniones, para posteriormente crear los materiales y herramientas necesarias para la implementación del trabajo de investigación planteado. Además, la implementación de las TIC a esta metodología, logró una mejor compresión, motivación y experiencia al momento de realizar el trabajo. Con la implementación de esta metodología se logra interesar y captar más la atención de los estudiantes creando una propuesta de trabajo con  material innovador y a la vez de acorde a la temática, donde no se redunde de información y tenga relación a la temática. Para el desarrollo de esta metodología se llevaron a cabo ciertos procesos que permitieron realizarlo con éxito: 1. Exploración: se plantea la exploración de las funciones de costo, ingresos y utilidad, además, del beneficio al utilizar la herramienta GeoGebra, identificando patrones y relaciones. Por lo tanto, de esta forma, se logra conocer una nueva alternativa para la compresión de la temática, a través de las herramientas que brinda el software, y se logran aprender de forma fácil. 2. Construcción: con la construcción de su propio conocimiento (apropiación de conocimiento) se logra un mejor aprendizaje, ya que, con la realización de gráficas propias facilita mejor un análisis marginal. Utilizando GeoGebra como herramienta para visualizar y comprender las relaciones, se puede conseguir un aprendizaje que este al alcance de entender la temática de una forma práctica. 3. Reflexión: se reflexiona sobre los hallazgos, identificando conexiones con conceptos económicos y tomando decisiones informadas. 4. Comunicación: se presentan los resultados y conclusiones, compartiendo la comprensión del análisis marginal. Esto se realiza con una propuesta de guía de aprendizaje la cual fue aprobada por el investigador. Guía de Trabajo para Enseñanza y Aprendizaje: Sesión 1: Introducción al Análisis Marginal - Presentación del concepto de análisis marginal - Exploración de funciones de costo y beneficio en GeoGebra Sesión 2: Construcción de Gráficas y Análisis Marginal - Construcción de gráficas de costo y beneficio en GeoGebra - Análisis marginal utilizando GeoGebra Sesión 3: Reflexión y Comunicación - Reflexión sobre hallazgos y conexiones con conceptos económicos - Presentación de resultados y conclusiones Sesión 4: Aplicación del Análisis Marginal - Aplicación del análisis marginal a casos prácticos - Discusión y reflexión sobre resultados Una vez realizada la guía, se procedió a realizar una propuesta de artículo de revisión bibliográfica, donde se trata de recaudar información de la aplicación de GeoGebra para el estudio del análisis marginal. Cabe mencionar que, este artículo, lleva implícito lo creado en la guía, esto con el fin de reforzar de forma bibliográfica los conocimientos que adquirimos durante la estancia y poder brindar un aporte al área de investigación y brindar el material necesario para futuras investigaciones.


CONCLUSIONES

- GeoGebra es una herramienta efectiva para construir conocimiento en análisis marginal, permitiendo a los estudiantes explorar, construir y reflexionar sobre conceptos económicos. Debido a su fácil manejo y amplias herramientas, el programa permite resolver dudas y dar demostraciones sobre la temática. Esta herramienta tecnológica toma el aprendizaje teórico y lo transforma en una experiencia práctica, manipulable y dinámica, proporcionando una base concreta para la adquisición del análisis marginal y de conocimientos necesarios para enfrentar desafíos académicos y profesionales. - El enfoque constructivista con GeoGebra mejora la comprensión y aplicación del análisis marginal, permitiendo a los estudiantes tomar decisiones informadas. Además, su aplicabilidad en la educación facilita a los docentes transmitir sus conocimientos de una forma innovadora y estar al alcance de las características que presenten los estudiantes. - La implementación de GeoGebra permite el desarrollo de habilidades primordiales en los estudiantes fomentando el aprendizaje activo en el cual los estudiantes son los protagonistas en la creación de su propio conocimiento en el cual alcanzan un aprendizaje significativo lo cual fortalece su motivación e interés. -Para la realización de este trabajo de investigación se debe contar con una buena disposición de parte de los estudiantes y el asesor. Este trabajo en grupo permite trabajar con equidad e igual de género.
Celaya Alvidrez Luis Roberto, Universidad de Sonora
Asesor: Dr. Carlos Rafael Michel Uribe, Universidad de Guadalajara

PROPIEDADES DE FOTODETECCION EN EL RANGO DEL ULTRAVIOLETA Y VISIBLE DE LOS COMPUESTOS LIMN2O4 Y AG/LIMN2O4


PROPIEDADES DE FOTODETECCION EN EL RANGO DEL ULTRAVIOLETA Y VISIBLE DE LOS COMPUESTOS LIMN2O4 Y AG/LIMN2O4

Celaya Alvidrez Luis Roberto, Universidad de Sonora. Franco Arvizu Pablo Santiago, Universidad de Sonora. Asesor: Dr. Carlos Rafael Michel Uribe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La fotodetección en compuestos semiconductores es un proceso fundamental en la tecnología de detección de luz y tiene una amplia variedad de aplicaciones tecnológicas, incluyendo cámaras, sistemas de comunicación óptica y sensores. Este proceso se basa en la generación de pares electrón-hueco cuando los fotones inciden en un material semiconductor.  El dopaje de estructuras semiconductoras es una técnica crucial que permite optimizar la fotodetección de los dispositivos para una amplia gama de aplicaciones industriales y tecnológicas. Mediante el dopaje, es posible mejorar la eficiencia, la sensibilidad, la velocidad de respuesta y la precisión de los fotodetectores.  La exposición a diferentes longitudes de onda afecta la fotodetección de las estructuras semiconductoras de diversas maneras, influyendo en la eficiencia de absorción, la generación de pares electrón-hueco, la eficiencia cuántica y la durabilidad del dispositivo. El dopaje desempeña un papel vital en ajustar estas propiedades para mejorar la sensibilidad y precisión de los dispositivos fotodetectores en rangos específicos del espectro electromagnético.



METODOLOGÍA

Se usaron dos pastillas de aprox. 1 cm de diámetro, una hecha de LiMn2O4 a partir de 0.1926 g de nitrato de litio al 99% y 1 g de nitrato de manganeso al 98% y otra añadiendo 1 g de nitrato de plata al 99.9% a la mezcla. Esta mezcla de nitratos fue disuelta en 10 ml de ácido fórmico al 95%. Tras una reacción donde se liberaron humos de NO2, se crean formiatos de los materiales. Seguido a ello, se evaporó el solvente usando un microondas al 20% de potencia y agitando repetidamente. Para finalizar la evaporación, se introdujo el material mayormente seco a un horno a 100°C durante 8 horas.  Después del tiempo de espera, se separaron los polvos obtenidos en distintas muestras para futuro análisis. Cada una de estas muestras seria calcinada a distinta temperatura, 1 para cada compuesto. Las temperaturas variaron entre los 100°C y los 600°C. Para este calcinamiento, se introdujeron con una rampa de 100°C por hora y calentarse durante 6 horas adicionales tras llegar a la temperatura deseada. Una parte de los polvos resultantes fue luego preparada para análisis mediante DRX. Con los materiales disponibles, se hizo una película delgada de LiMn2O4 y Ag/LiMn2O4 calcinado a 600°C para hacer pruebas de conductividad respecto a la temperatura. Adicionalmente, se hicieron las pastillas previamente mencionadas formadas tras comprimirla a 1300 lb/m^2 durante 5 min y calentarlas a 500°C durante 6 horas. Tras ello, se realizaron las pruebas interactuando con luz.  Las pruebas con luz que se hicieron fueron las siguientes: de fotocorriente, responsividad y de sensibilidad. Las luces usadas fueron las siguientes: Azul, Blanca, Roja y UV-A. Para cada luz se utilizó un rango diferente de irradiancia en la prueba de fotocorriente, siendo para la luz Azul un rango de 46.5-136.25 mW/cm2, los cuales eran de 1 min con la luz apagada y 1 min con la luz encendida, esto durante 900 s, con ayuda de un temporizador programable; para la luz Blanca se usó un rango de 32-89.75 mW/cm2 ; para la luz Roja se utilizó un rango de 36.5-106 mW/cm2; por último, para la luz UV-A se usó un rango de 29.75-345 mW/cm2 . Estas configuraciones fueron tanto para la pastilla que no contenía plata, como también para la que si contenía.  En las pruebas de responsividad, se hicieron 2 pruebas para cada luz. Para la luz Azul se hizo prueba tanto para 117.75 y 136.25 mW/cm2, las 2 pruebas con la misma configuración, donde se tenía 100 s apagada la luz, 900 s encendida y 320 s apagada; para la luz Blanca se hizo pruebas para 36 y 76.5 mW/cm2, el primero con la misma configuración, mientras que en el segundo caso se dejó encendida la luz durante 1060 s; para la luz Roja se hicieron pruebas para 44 y 77 mW/cm2, las 2 pruebas con la misma configuración, la cual es de 100 s apagada la luz, 1020 s encendida y 1200 s apagada. Por último, la luz UV-A; la irradiancia de las pruebas fueron de 29.75 y 228.5 mW/cm2, con configuración de 240 s la luz apagada, 2000 s encendida y 1500 s apagada. Estas configuraciones fueron tanto para la pastilla que no contenía plata, como también para la que si contenía.  En las pruebas de sensibilidad, fue solo una prueba para cada luz, siendo que para la luz Azul se usó un rango desde 65 hasta 118 mW/cm2, con un incremento gradual por cada intervalo, el cual era de 2 min luz apagada y 2 min luz encendida; para la luz Blanca se usó un rango desde 32 hasta 76.5 mW/cm2, con un incremento gradual por cada intervalo; para la luz Roja se usó un rango desde 36.5 hasta 106 mW/cm2, con un incremento gradual por cada intervalo; por último, para la luz Blanca se usó un rango desde 29.75 hasta 345 mW/cm2, con un incremento gradual por cada intervalo. Estas configuraciones fueron tanto para la pastilla que no contenía plata, como también para la que si contenía.  Además de las pruebas con luz, también se prepararon muestras para DRX, esto para las 2 síntesis, la que no contiene plata y la que si tiene. Se hicieron en total 5 muestras por cada síntesis, una para cada temperatura de calcinación (100° C, 300° C, 400° C, 500° C, y 600° C). Su forma de preparación fue la molienda de cada síntesis para obtener un polvo muy fino, y de esta forma depositarlo en una lámina de cristal, por medio de la adhesión por una capa de vaselina que se aplicó con anterioridad.


CONCLUSIONES

Tras la investigación, se comprobó el efecto fotoeléctrico y los conocimientos prácticos de síntesis y preparación de muestras para difracción de rayos x. Esto para conocer el procedimiento de prueba de estos materiales. No se pudo hacer un análisis mediante SEM por su falta de disponibilidad. Sin embargo, el objetivo se cumplió, estudiando las diferencias de interacción con las luces probadas entre LiMn2O4 sin añadir plata a Ag/LiMn2O4.
Celaya Pérez Jesus Manuel, Universidad Autónoma de Zacatecas
Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara

SíNTESIS DE PELíCULAS DELGADAS DE ZNO POR SOL-GEL, ABLACIóN LáSER EN LíQUIDOS DE NPS DE AU/ZNO Y DEGRADACIóN DE AZUL DE METILENO


SíNTESIS DE PELíCULAS DELGADAS DE ZNO POR SOL-GEL, ABLACIóN LáSER EN LíQUIDOS DE NPS DE AU/ZNO Y DEGRADACIóN DE AZUL DE METILENO

Celaya Pérez Jesus Manuel, Universidad Autónoma de Zacatecas. Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la contaminación de fuentes de agua por la actividad industrial representa un gran problema en la salud humana y organismos vivos. Las industrias utilizan materiales y sustancias muy variados en sus características físicas y químicas, que aumentan el grado de riesgo al entorno ecológico; como lo son los diversos tipos de colorantes utilizados a gran escala que generan residuos líquidos con altas concentraciones de contaminantes orgánicos e inorgánicos, los cuales resulta difícil su remoción con los métodos convencionales de tratamiento debido a su solubilidad, estabilidad química y las estructuras complejas que estos presentan; por lo que el desarrollo de diversos métodos y tecnologías que permitan eliminar dichos contaminantes en los efluentes de la industria representa todo un reto tecnológico en los proceso de tratamiento de estas aguas antes de ser descargadas al ambiente receptor o reutilizadas. Una de las soluciones para dicha problemática son los denominados Procesos de Oxidación Avanzada (POA) que comprende proceso fotoquímicos y no fotoquímicos, en función al empleo o no de radiaciones luminosas. La fotocatálisis heterogénea con ZnO como catalizador es una de las aplicaciones fotoquímicas de mayor interés en la comunidad científica en las últimas décadas; en estos procesos se utilizan semiconductores para descontaminar aguas con contenido de colorantes, el semiconductor, es un elemento que se comporta como un conductor o como un aislante dependiendo de diversos factores y la eficiencia de este depende de su band gap, el cual se define como la cantidad de energía expresada en electronvoltios que se requiere para que un electrón salte de la banda de valencia a la banda de conducción. El óxido de zinc es un semiconductor de banda prohibida directa ( 3,3 eV) con una serie de propiedades físicas interesantes. El ZnO y la luz UV ha sido utilizado como una nueva alternativa prometedora para la degradación de contaminantes orgánicos.



METODOLOGÍA

Las películas delgadas de ZnO se cultivaron mediante la técnica sol-gel. Se utilizaron dos soluciones precursoras diferentes. En la solución precursora A, se disolvieron 5 mg de acetato de polivinilo (PVA) en 40 mL de metanol y la solución se agitó magnéticamente a temperatura ambiente. Para la solución precursora B, se disolvieron 5 mg de polivinilpirrolidona (PVP) en 40 mL de metanol y se agitó magnéticamente a temperatura ambiente. Ambas soluciones se separaron en otras dos soluciones de 20 mL, ahora con cuatro soluciones precursoras etiquetadas como A1, A2, B1 y B2. A las soluciones se les agrego a cada una 1 g de acetato de zinc y se agitaron magnéticamente a temperatura ambiente. Para las soluciones A2 y B2, se depositaron en cada solución nanopartículas de oro coloidal mediante ablación láser de sólidos en líquidos. Para ello se empleó un láser Q-smart 850 de Nd YAG con una energía de salida de 700 mJ por pulso en su emisión fundamental (1064 nm), el rayo láser fue dirigido a un vaso de precipitado que contenía un blanco de Au de alta pureza, sumergido en 20 mL de cada solución, el tiempo de ablación fue de 20s  para cada solución. Antes de depositar las películas, los sustratos de vidrio se limpiaron por medio de enjuague ultrasónico de 10 min, primero en una solución acuosa de detergente industrial, seguido de un enjuague en acetona, etanol y por último de isopropanol. El depósito de las películas delgadas se llevó a cabo en un sistema de recubrimiento sol-gel por inmersión a temperatura ambiente. Se depositaron cuatro películas sobre los sustratos anteriormente preparados, una película por cada solución. Cada sustrato se sumergió cinco veces, después de cada inmersión se aplicó un tratamiento durante 1 min en el aire, con el fin de evaporar tanto el solvente como los posibles compuestos orgánicos del precursor en las películas. Después de la última inmersión, las muestras se recocieron térmicamente a 400 ˚C (Ta) durante 3 h. Para obtener los polvos, las cuatro soluciones se colocaron en una estufa aproximadamente a 70 ˚C durante dos días para que se evaporara el líquido de la solución. Los patrones de difracción de rayos X (DRX) de las muestras se obtuvieron en un difractómetro  para la caracterización estructural. Se utilizó un espectrofotómetro Thermo Scientific GENESYS 10 UV para obtener los espectros de transmitancia y absorbancia óptica para la caracterización óptica. Para la degradación de colorantes mediante fotocatálisis se utilizó el colorante azul de metileno. Como catalizador el ZnO por lo que se emplearon los polvos recuperados de las cuatro soluciones. Para hacer las pruebas experimentales, se colocaron 10 mg de los polvos en 4 mL de azul de metileno en tubos de ensayos, teniendo así cuatro muestras y una quinta únicamente con los 4 mL de colorante, la cual sería de control; posteriormente las cinco muestras fueron expuestas a radiación ultravioleta en tiempos de 0, 15, 45 y 90 min, entre cada exposición fue medida la absorbancia de cada muestra con el espectrofotómetro antes mencionado.


CONCLUSIONES

Para determinar el band gap de las muestras se utilizó él método de graficas de Tauc, el cual permite calcular la energía de band gap de una muestra por medio de datos obtenidos en la espectroscopia óptica.  Los resultados de obtenidos para las películas son los siguientes: para las muestras A1=3.26 eV; A2=3.20 eV; B1=3.26 eV; B2=3.12 eV. Para las muestras que contienen nanopartículas de oro las cuales son A2 y B2, se puede observar que hay una disminución del band gap con respecto a las que no contienen oro. Para la evaluación de degradación del colorante azul de metilo utilizando los polvos de ZnO como catalizador, fue por espectroscopia de absorción; y los resultados fueron los siguientes considerando los tiempos de exposición a la luz UV. Control: 15 min=3.70% y 90min=12.33%. A1: 15 min=54.63% y 90min=91.82%. Muestra A2: 15min=41.07% y 90min=95.84%. B1: 15 min=49.65% y 90min=91.86%. B2: 15min=45.47% y 90 min=94.10%. Como se puede analizar en los resultados el ZnO degrada casi por completo a este colorante.
Cervantes Gutiérrez Diego, Universidad de Guadalajara
Asesor: Dr. Roberto Alejandro Kú Carrillo, Universidad Autónoma de Aguascalientes

ANáLISIS PROBABILíSTICO DE UNA ECUACIóN DIFERENCIAL LINEAL CUYO TéRMINO NO HOMOGéNEO ES LA FUNCIóN PARTE FRACCIONARIA.


ANáLISIS PROBABILíSTICO DE UNA ECUACIóN DIFERENCIAL LINEAL CUYO TéRMINO NO HOMOGéNEO ES LA FUNCIóN PARTE FRACCIONARIA.

Cervantes Gutiérrez Diego, Universidad de Guadalajara. Asesor: Dr. Roberto Alejandro Kú Carrillo, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Las ecuaciones diferenciales ordinarias son una herramienta matemática que se utiliza en muchas áreas de estudio para modelar el comportamiento de elementos variables es diversas áreas de estudios tales como la física, la biología, la ingeniería, etc.  Para plantear una ecuación, se definen las variables que se van a estudiar, y se proponen los mecanismos  mediante los cuales se relacionan entre sí.  Lo siguiente consiste en medir los parámetros o coeficientes de la ecuación con base a los datos disponibles o mediante experimentos. Una vez teniendo la relación matemática, se resuelve la ecuación y se obtiene una función que describe el comportamiento de la variable de estudio, es importante aclarar, que no siempre se pueden obtener soluciones analíticas de las ecuaciones diferenciales, pero se pueden resolver usando métodos computacionales, y de ahí su interés y utilidad en las ciencias aplicadas. Para asignar valores a los parámetros involucrados se hace uso de la medición, y el proceso de medición implica siempre una incertidumbre en los valores, no se puede decir con exactitud qué valor tiene cada parámetro, pero se trabaja con distribuciones de probabilidad de los valores que pueda tomar. Dada esta característica de la medición, ha resultado útil el uso de la representación probabilística de cada variable. En este trabajo se plantea estudiar la versión probabilística de una ecuación diferencial no homogénea cuya función de impulso es discontinua desde el punto de vista de las ecuaciones diferenciales aleatorias. En el plantemiento se supone que sus coeficientes son variables aleatorias, con densidad de probabilidad determinada,  y se obtendrá la primera función de densidad de probabilidad (1-PDF) del proceso estocástico solución. Esto da una descripción completa de la función y permite obtener la media proceso estocático solución y otros momentos útiles.



METODOLOGÍA

Se propuso la siguiente ecuación diferencial con problema de valor inicial: dx/dt = a x(t) + b - f(t), x(0) = c La función f(t) en nuestro caso es la conocida como función parte fraccionaria. Esta función asigna a cualquier número real positivo, su valor fraccionario, por ejemplo, f(3.25) = 0.25,  es periódica y presenta "saltos" para valores de t enteros exactos. Para llegar a nuestro objetivo final, que es calcular la primer función de densidad de probabilidad del proceso estocástico solución, primero se resolvió la ecuación asumiendo que las variables son deterministas y obtener su solución analítica. Se utilizó el método de la Transformade de Laplace, para esto fue importante establecer el valor inicial de la función en el planteamiento de la ecuación. Una vez obteniendo la transformada de Laplace de la ecuación ésta se convierte en una expresión algebraica, en donde sólo se despeja a X(s), la complejidad de esta parte radica en encontrar la transformada inversa, para el último miembro de la ecuación se utilizó la definición de esta transformada integral, mientras que para otros miembros surgieron transformadas ya conocidas. La solución analítica de la ecuación fue la siguiente:     x(t) = {c + G (a, b, t)} exp(a*t) - f(t)/a - (a*b + 1)/(a2), t > 0. Donde la función G tiene dos términos, el primero es igual al último miembro de la solución con signo positivo, y el segundo miembro es la suma de la función {e-n*a }, donde n toma valores enteros desde cero hasta el valor de la parte entera de t. Teniendo la solución analítica de la ecuación, se asumió ahora que los coeficientes c, a y b son variables aleatorias absolutamente continuas en un espacio de probabilidad definido y con cierta densidad de probabilidad conjunta. Se utilizó el teorema de transformación de variables aleatorias, este teorema nos garantiza que, dada una relación biyectiva entre dos vectores aleatorios y conociendo la densidad de probabilidad de uno de ellos, se puede conocer la densidad de probabilidad del otro. Para esto, se definieron dos vectores aleatorios U y V  que están relacionados mediante una función específica,V= r(U), de tal manera que, al calcular la trasformación inversa, uno de los componentes de V sea equivalente al proceso estocástico solución, para así calcular su 1-PDF marginalizando las otras variables. Para analizar a profundidad esta función, se hicieron algunos ejemplos numéricos, asignando diferentes densidades probabilidad a las variables c, a y b y se hicieron gráficas 2D y 3D. Las gráficas 3D  nos muestran la evolución de la distribución de probabilidad de x(t) a través del tiempo, mientras que las gráficas 2D, nos muestran "cortes" de la gráfica 3D; cómo es la distribución de probabilidad para cierto valor de t. En todos nuestros ejemplos se asumió que las variables aleatorias son indepenientes, es decir, que su densidad de probabilidad conjunta es igual al producto de sus densidades de probabilidad individual, en uno de los ejemplos se asignó una distribución de probabilidad uniforme en diferentes intervalos para cada variable.


CONCLUSIONES

Gracias al hecho de que la ecuación propuesta tiene solución analítica, se pudo obtener de manera exitosa la primer función de densidad de probabilidad de la solución a través del método de transformación de variables aleatorias. En el ejemplo antes mencionado, se observó que para los primeros valores de t la gráfica de distribución de probabilidad se concentra en un intervalo muy pequeño, y conforme el valor de t aumenta la gráfica se hace más ancha y menos alta, lo que nos indica que los posibles valores de x(t) se dispersan cada vez más conforme avanza el tiempo.  
Chacon Cardenas Carlos Omar, Universidad de Guadalajara
Asesor: Dra. Araceli Sánchez Martínez, Universidad de Guadalajara

DEPóSITO DE PELíCULAS DE ZNO DOPADAS CON LA (3%, 5% Y 10%)


DEPóSITO DE PELíCULAS DE ZNO DOPADAS CON LA (3%, 5% Y 10%)

Chacon Cardenas Carlos Omar, Universidad de Guadalajara. Villegas Miramontes Brenda Noemi, Universidad de Guadalajara. Asesor: Dra. Araceli Sánchez Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El aprovechamiento y mejoramiento de las energías renovables es uno de los retos actuales más importantes en cuestión de energía. Una de las tecnologías de energías renovables más conocidas son las celdas solares, las cuales permiten la obtención de energía mediante la absorción de la luz solar, y constantemente se busca la optimización de las celdas solares mediante diferentes métodos, siendo uno de ellos, la mejora de los materiales utilizados en ellos. La implementación del óxido de zinc (ZnO) en celdas solares puede traer grandes ventajas, como son la capacidad de absorción de la radiación uv-vis y la conductividad eléctrica. Además, métodos como el dopaje del material permiten que estas propiedades tengan una mejora en el material. Es por ello que durante el verano de investigación se estudian las propiedades de películas de ZnO dopadas con La mediante distintos métodos de caracterización.



METODOLOGÍA

Se llevó a cabo el depósito de películas de ZnO dopadas con La a 3%, 5% y 10%. Se realizaron los cálculos para la obtención de 0.5 g de producto en cada uno de los dopajes, teniendo como reactivos principales el acetato de zinc (ZnAc) y el nitrato de lantano (LaN3O9). Los resultados de los cálculos obtenidos fueron:  Para ZnO puro: 1.3663 g de ZnO. Para el dopaje a 3%: 1.2818 g de ZnO y 0.0575 g de LaN3O9. Para el dopaje a 5%: 1.2341 g de ZnO y 0.0943 g de LaN3O9.  Para el dopaje a 10%: 1.1289 g de ZnO y 0.1821 g de LaN3O9. Para la síntesis por método sol-gel se dispersó el ZnAc (y el LaN3O9 si es dopaje) en 2 ml de etilenglicol manteniendo una agitación constante por 5 minutos a 35° C. Después se añadió 1 ml de HNO3 gota a gota hasta disolver el ZnAc para posteriormente mantener en agitación por 15 minutos. Una vez disuelto el ZnAc se añadieron 0.2 ml de glicerol manteniendo una agitación constante por 15 minutos. Finalmente se dejó reposar la solución durante 1 hora antes de su depósito por spin coating. Y se realizaron películas de 1 hasta 4 capas de cada uno de los dopajes, incluyendo una de 4 capas con FTO para cada dopaje. Para el depósito de películas, se programaron 2 ciclos en el spin coating para cada una de las capas. Para la primera capa, el primer ciclo se programó a 2000 rpm durante 30 segundos, tras esto, se depositó una capa fina de la solución y se dejó en reposo durante 1 minuto antes de pasar al segundo ciclo. El segundo ciclo se programó a 3000 rpm durante 1 minuto. Mientras que para la segunda capa en adelante se depositó la solución primero y se programó el primer ciclo a 1000 rpm durante 30 segundos y el segundo ciclo a 2000 rpm durante 30 segundos. Tras cada una de las capas se llevaron las películas a secado, pasando por una primera plancha a 150° C durante 3 minutos a una segunda plancha a 300° C por 6 min. Una vez realizado el depósito de las películas, se llevó a cabo su caracterización por difracción de rayos X (XRD) y espectroscopia ultravioleta-visible (UV-Vis).


CONCLUSIONES

El objetivo de estos depósitos es conseguir un dopaje de lantano en el ZnO. Al revisar los resultados de la caracterización por el método UV-VIS pudimos comparar cómo se vería nuestros depósitos si solo contienen ZnO contra los que están dopados, a revisar teníamos que asegurarnos de conseguir un dopaje en la red cristalina de ZnO y no otro compuesto que interfiera con los resultados. Al analizar las gráficas de transmitancia y absorbancia pudimos deducir que efectivamente teníamos ZnO y al comparar los dopajes vimos que su transmisión y absorción es muy similar per la pendiente de la curva de absorción cambió a diferente dopaje, al ajustar una recta que empata con la mayor cantidad de puntos en la región pudimos llegar al valor del band gap que para cada dopaje fue diferente; observamos una disminución en el band gap según él el dopaje iba incrementando con excepción del dopaje de ZnO-La(10%).
Chávez Aquino Guillermo, Universidad de Guadalajara
Asesor: Post-doc Jorge Andrés Ramírez Rincón, Fundación Universidad de América

PROTOTIPO EXPERIMENTAL DE UN SIMULADOR SOLAR HíBRIDO LED-HALóGENO DE BAJO COSTO PARA EL USO DE CáMARAS HIPERESPECTRALES Y MEDICIóN DE EFICIENCIA EN CELDAS SOLARES.


PROTOTIPO EXPERIMENTAL DE UN SIMULADOR SOLAR HíBRIDO LED-HALóGENO DE BAJO COSTO PARA EL USO DE CáMARAS HIPERESPECTRALES Y MEDICIóN DE EFICIENCIA EN CELDAS SOLARES.

Chávez Aquino Guillermo, Universidad de Guadalajara. Asesor: Post-doc Jorge Andrés Ramírez Rincón, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Las celdas solares son cada vez más sostenibles y la energía solar es cada vez más popular. La irradiancia solar es una variable que varía según el clima, la geografía y la temperatura, y la prueba y ampliación de estas tecnologías es complicada. Se han creado simuladores solares para adaptar la iluminación artificial a la necesidad de capturar las características esenciales de la luz solar, incluida la irradiancia total, la distribución de energía en todo el espectro, la consistencia, uniformidad de la irradiancia y diversos aspectos de la geometría. Los dispositivos de simulación solar están disponibles actualmente; las lámparas de arco de xenón son las más comunes. Estas lámparas tienen un espectro similar a la radiación solar, pero su funcionamiento cuesta mucho dinero y energía y duran más. Además, no existe una sola lámpara que pueda simular completamente la radiación solar, pero combinarlas permite corregir sus deficiencias en diferentes regiones del espectro, lo que da como resultado una fuerte relación espectral. con la luz del sol. La iluminación LED es ahora una forma tecnológica y económica de simular la energía solar y puede utilizarse para combinar diferentes longitudes de onda de luz. Es por ello que este proyecto busca crear un prototipo de simulador solar que utiliza fuentes de iluminación de bajo costo y de fácil acceso a pequeña escala. Las deficiencias espectrales de NIR se solucionan mediante una combinación de fuentes de diodos emisores de luz LED y una lámpara halógena.



METODOLOGÍA

Un simulador solar se compone, en general, de tres componentes principales: la fuente de la luz con la fuente de la alimentación, ópticas y filtros, que pueden cambiar la irradiancia en el plano de prueba, y los controles, por cuales se opera el simulador, y ajusta la irradiancia, a su vez que se utilizan sistemas de enfriamiento. Por medio de un espectrómetro UV-Vis The Red Tide, se determinaron los diferentes perfiles espectrales de cada fuente de luz. Con la ayuda de un circuito de control PWM multicanal se modula de manera análoga las intensidades de cada fuente de luz; así, la superposición de estas forma un perfil espectral «similar» al espectro de referencia usado en el contexto del trabajo, el AM 1.5. Con la cámara hiperespectral Specim IQ, quitables para producir pruebas de uniformidad espacial de la irradiancia e inestabilidad temporal. Aunque el principal objetivo al diseñar un simulador solar es maximizar al número de fuentes de luz individuales para reproducir el espectro solar de referencia con la máxima precisión, este enfoque tiene limitaciones debido a que los LEDs emiten en bandas estrechas, así, son necesarias la combinación de fuentes de luz discretas y continuas. Para este estudio se utilizaron 5 tipos de tipos de LED de alta potencia (3W), LED Full Spectrum (20 W) y una lámpara halógena (150 W). La distribución de las fuentes de luz y la forma de seleccionar las fuentes forman parte, en algunos estudios, de un proceso de modelado y optimización. En este trabajo, como primer enfoque, el proceso de optimización del espectro se implementará de una manera análoga, es decir, por medio de moduladores de ancho de pulso, moduladores PWM.


CONCLUSIONES

El prototipo propuesto persigue una alta correspondencia espectral con el AM1.5G, un estándar internacional de referencia, combinando fuentes de luz complementarias, como múltiples tipos de LEDs con diferentes longitudes de onda y una lámpara halógena de infrarrojo cercano. Si los resultados experimentales indican un coeficiente de alrededor de 0.85 de correlación entre el simulador y el estándar sobre el rango de longitudes de onda desde los 400 a los 900 nm, esto seguramente le garantizará una clasificación alta. Este trabajo ofrece una continuación lógica para el desarrollo del proyecto, se prevén realizar mediciones experimentales y generar datos analíticos, en base en los cuales será posible mejorar la efectividad del sistema. En resumen, se ha propuesto una manera viable y económica de sintetizar un simulador de bajo costo para la caracterización de sistemas fotovoltaicos y de superficies fotosensibles.
Chavez Torres Alan Samuel, Instituto Tecnológico de Parral
Asesor: Mtra. Nidia Miriam García Alvarado, Tecnológico de Estudios Superiores de Jocotitlán

CAPTACION Y TRATAMIENTO DE AGUAS PLUVIALES EN ZONAS URBANAS: JUAREZ


CAPTACION Y TRATAMIENTO DE AGUAS PLUVIALES EN ZONAS URBANAS: JUAREZ

Chavez Torres Alan Samuel, Instituto Tecnológico de Parral. Asesor: Mtra. Nidia Miriam García Alvarado, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

El cambio climático, el crecimiento poblacional y la contaminación han reducido significativamente el suministro de agua en muchas ciudades del mundo, convirtiendo el agua en un recurso cada vez más escaso y valioso. Este problema de desabastecimiento y mala calidad del agua varía de ciudad en ciudad, lo que dificulta la implementación de soluciones eficaces. Por tanto, es esencial actualizar los conocimientos sobre el desarrollo de proyectos arquitectónicos que respondan a estas necesidades y plantear cómo integrar sistemas de captación y tratamiento de aguas pluviales y residuales en proyectos arquitectónicos actuales. La pregunta central es: ¿cómo podemos implementar estos sistemas en proyectos arquitectónicos y qué beneficios/costos asociados existen?



METODOLOGÍA

1. Revisión Bibliográfica Objetivo: Identificar tecnologías y sistemas existentes para el aprovechamiento de aguas pluviales y residuales. Fuentes: Libros, artículos académicos, estudios de caso y publicaciones técnicas sobre sostenibilidad hídrica en arquitectura. 2. Análisis de Casos de Estudio Selección de Proyectos: Elegir proyectos arquitectónicos exitosos que integren sistemas de captación y reutilización de agua en diversas regiones. Criterios de Evaluación: Evaluar la efectividad, viabilidad económica y sostenibilidad ambiental de estos proyectos. 3. Evaluación Técnica y Económica Viabilidad Técnica: Analizar las tecnologías de captación y tratamiento más adecuadas para diferentes tipos de edificaciones (residenciales, comerciales, industriales). Análisis de Costos: Comparar costos de implementación y operación de los sistemas seleccionados versus beneficios potenciales en ahorro de agua y reducción de impacto ambiental. 4. Desarrollo de Prototipo Diseño Conceptual: Crear un diseño conceptual de un sistema de captación y reutilización de agua adaptable a distintos entornos urbanos. 5. Implementación Piloto Ubicación: Elegir un sitio en Ciudad Juárez, Chihuahua, para la implementación del prototipo. Monitoreo y Ajustes: Realizar pruebas y monitoreo del sistema para evaluar su eficiencia y hacer ajustes según sea necesario. 6. Análisis de Impacto Impacto Ambiental: Medir la reducción en el consumo de agua potable y la disminución de vertidos de aguas residuales. Impacto Social: Evaluar la aceptación del sistema por parte de la comunidad y su contribución a la educación sobre la conservación del agua. 7. Recomendaciones y Conclusiones Sostenibilidad a Largo Plazo: Proponer mejoras y adaptaciones del sistema para su implementación en futuras construcciones. Políticas Públicas: Sugerir políticas y normativas que promuevan la integración de estos sistemas en el desarrollo urbano.


CONCLUSIONES

Tras un análisis exhaustivo de los sistemas y tecnologías de aprovechamiento de aguas pluviales y residuales, se ha determinado que la captación de agua de lluvia puede ser una solución viable para enfrentar los desafíos hídricos en Ciudad Juárez. Este enfoque no solo ayuda a aliviar la presión sobre la infraestructura de drenaje urbano, sino que también ofrece un método relativamente simple y costo-efectivo de implementación. Al dimensionar adecuadamente los depósitos de captación, es posible maximizar el aprovechamiento del agua sin incurrir en desperdicios significativos de recursos. Con lo que pudimos calcular el agua a resguardar en un promedio de una vivienda en ciudad Juarez y el impacto benefico que podria tener por la situacion actual 
Claudes Gonzalez Jesús Eduardo, Universidad Autónoma del Estado de México
Asesor: Dr. Luis Manuel Mejia Ortiz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías

CUEVAS Y SISTEMAS ANQUIHALINOS DE LA PENíNSULA DE YUCATáN


CUEVAS Y SISTEMAS ANQUIHALINOS DE LA PENíNSULA DE YUCATáN

Claudes Gonzalez Jesús Eduardo, Universidad Autónoma del Estado de México. Asesor: Dr. Luis Manuel Mejia Ortiz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías



PLANTEAMIENTO DEL PROBLEMA

Se define como cueva a las formaciones huecas y subterráneas que forman parte de los sistemas anquihalinos  derivadas de diferentes causas siendo la más común la formación de estructuras por medio del agua ácida subterránea que desgasta las piedras más blandas como la piedra caliza quedando solo la roca dura (Departamento de física fundamental facultad de ciencias universidad de Santander,1983). En los sistemas anquihalinos el agua dulce es producto de la acumulación de lluvias que se almacenan en los suelos y que posteriormente fluye por los techos o paredes de las cuevas, por otro lado el agua marina ingresa por los suelos costeros y se deposita debajo del agua dulce, el agua dulce siempre se encontrará muy por encima del agua marina debido a la diferencia de densidades provocada por la salinidad (Monroy-Rios, 2016). Se estima que tan solo en la península de Yucatán y el caribe mexicano se han cartografiado 188 sistemas de cuevas y otros 800 sistemas de túneles entre ellos cuevas secas, semi-seca e inundadas. Algunos estudios han determinado que la formación de la península de yucatán fue el resultado del desplazamiento de una plataforma marina formada principalmente de piedra caliza que consecuentemente se adhirió al continente formando una península, es en consecuencia una de las porciones de más reciente formación en el mar de México geológicamente hablando (Torres-Talamante, 2019), (Monroy-Rios, 2016). En los sistemas de cuevas es de esperar ciertas caracteristicas y parametros, la ausencia de luz ,la temperatura, en ocasiones difícil acceso son quizá las características más evidentes de las cuevas y teóricamente una de las principales limitantes para el desarrollo de vida en estos ecosistemas , en el siguiente resumen de trabajo se presentará una revisión en los aspectos generales sobre la formación, composición y organismos de los sistemas anquihalinos y cuevas en la península de Yucatán 



METODOLOGÍA

Se utilizó una metodología de corte cualitativo a través del método de revisión documental. La consulta documental se realizó a través de los criterios establecidos en este caso con relación a los sistemas anquihalinos y cuevas de la península de Yucatán, posteriormente se analizaron los artículos encontrados conforme a la calidad y fiabilidad del contenido en base a las revistas o plataformas en las que se encontraban, el título, los autores, el resumen y los resultados de cada uno. El área de estudio se centra principalmente en los sistemas de cuevas ya conocidos y registrados. La península de Yucatán se caracteriza por ser una gran plataforma de rocas calcáreas marinas que emergieron de las aguas marinas desde hace muchos millones de años, siendo su parte norte la más reciente(Instituto Nacional de Estadística y Geografía, 2016).


CONCLUSIONES

La espeleogénesis es el término utilizado en áreas de estudio como geología y especialmente en espeleología, en dicho proceso como primer mecanismo que  el agua de lluvia acidificada tanto por CO2 como con otros componentes orgánicos propios del suelo se desliza a través de este, al interactuar con el agua salada se produce un fenómeno de mezcla que forma una zona de mayor erosión de la piedra caliza denominado haloclina, otra forma de generar esta erosión pero con un proceso biológico es mediante la descomposición de materia orgánica generada por algunas bacterias esto produce ácido sulfhídrico capaz de degradar la piedra. (Monrroy-Rios, 2016).Como se mencionó con anterioridad, las cuevas de la península de yucatán se clasifican en secas, semi-secas e inundadas cada una de ellas con características similares sin embargo todas comparten algo en común y es el constante intercambio de energía producto tanto de factores biológicos como organismos así como de factores quimiolitotrofos, las cuevas ofrecen entradas a organismos que en algún punto pudieron ingresar y adaptarse a dicho ambiente o bien morir y transformarse en energía para los otros organismos, es decir que el flujo de energía es importante ya que la materia orgánica es un componente esencial tanto para formar los propios sistemas como para sostener la vida dentro de ella. En cuanto a la biodiversidad en estos ambientes, se han encontrado que existen diversos organismos que las habitan tales como integrantes de los siguientes grupos: Ramipedia , Decapoda , Copepoda, Ostracoda, Isopoda, Amphipoda, Mysida, Alpheidae, Hyppolytidae, Cambaridae, Paleamonidae,Atyidae, Agostocarididae, Synbranchidae , Bythitidae , Heptapteridae, Bithynidae,  y especies como Barbouria cubensis, Agostocaris bozanici, Agostocaris zabaletai, Anchialocaris paulini, Procaris mexicana, Parhippolyte stereri, Yagerocaris cozumel, Xibalbanus tulumensis, Xibalbanus cozumelensisyXibalbanus fuchscockborni, Metacirolana mayana, Mayaweckelia cernua (Mejía-Ortíz et sl., 2021). Muchos de estos organismos han desarrollado adaptaciones únicas y que las pueden llevar ser exclusivas de este tipo de entornos. Algunas de las adaptaciones de los organismos se clasifican de acuerdo a la zona en la que se encuentran, la zona de entrada por ejemplo permite el crecimiento de ciertas plantas, la zona crepuscular es el espacio intermedio  y en ella habitan algunos organismos como reptiles, murciélagos y artrópodos terrestres, finalmente la zona que comúnmente tiene mayor extensión en las cuevas es la denominada zona oscura en ella se encuentra el mayor número de organismos con adaptaciones especiales tales como antenas, quimiorreceptores y electrorreceptores. En conclusión las cuevas y sistemas anquihalinos son el producto y una peculiaridad del tipo de suelo de la península, recordando que la península emergió del mar y que está compuesta mayormente de roca con gran capacidad de disolución siendo la espeleogénesis el proceso por el cual se formaron dichos sistemas en el cual el agua salada y dulce consumen la roca frágil sin embargo otros procesos biológicos de igual manera dan origen a estos sistemas. Por otro lado la diversidad biológica dentro de las cuevas es en parte explicada por los procesos adaptativos de dichos organismos , el proceso de intercambio de energía es vital para mantener las relaciones e interacciones de estos organismos y de las propias cuevas.
Colmenares Padilla Anahí, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. María Azucena Arellano Avelar, Universidad de Guadalajara

IDENTIFICACIóN Y APLICACIóN DE MéTODOS UTILIZADOS PARA EL MONITOREO AMBIENTAL: UN ABORDAJE HOLíSTICO EN AMBIENTES IN VITRO E IN SITU.


IDENTIFICACIóN Y APLICACIóN DE MéTODOS UTILIZADOS PARA EL MONITOREO AMBIENTAL: UN ABORDAJE HOLíSTICO EN AMBIENTES IN VITRO E IN SITU.

Colmenares Padilla Anahí, Benemérita Universidad Autónoma de Puebla. Nava Gutiérrez Samuel Yael, Benemérita Universidad Autónoma de Puebla. Serrano García Melissa, Instituto Tecnológico Metropolitano. Asesor: Dra. María Azucena Arellano Avelar, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Tras la necesidad de comprender y evaluar el cumplimiento de la normativa ambiental ha propiciado el desarrollo del monitoreo ambiental como una herramienta esencial. Esta permite el seguimiento continuo de las actividades, obras y proyectos implementados, facilitando la identificación de sus impactos. El objetivo es adoptar acciones correctivas o de mitigación que promuevan el uso racional de los recursos naturales, así como la conservación y protección del medio ambiente. De este modo, se asegura que las actividades humanas puedan continuar de manera sostenible, garantizando a las futuras generaciones una calidad de vida adecuada para su desarrollo (Hernández et al., 2018) Los gobiernos de todo el mundo comienzan a implementar estrictas normativas ambientales para asegurar el desarrollo sostenible. En el estado de Jalisco, México, las instituciones gubernamentales han establecido un marco normativo riguroso que exige a las organizaciones cumplir con diversas regulaciones ambientales. Estas normativas buscan minimizar el impacto ambiental negativo y garantizar una óptima calidad del agua, suelo y aire. Se propone describir el monitoreo ambiental como una herramienta clave para el seguimiento previsto en la evaluación de impacto ambiental dentro del contexto del Centro Universitario de Tonalá (UDG) y el Río Santiago (Guadalajara, Jalisco). La importancia de este trabajo radica en la necesidad de contar con métodos de monitoreo ambiental precisos y confiables que permitan no solo cumplir con las normativas vigentes, sino también contribuir de manera efectiva al desarrollo sostenible y a la protección del entorno natural.  



METODOLOGÍA

Se desarrollaron técnicas de muestreo en agua, aire y ruido con un enfoque científico en base a las Normas Oficiales Mexicanas (NOM) y las metodologías encontradas en las Normas Mexicanas (NMX). Para el caso de las muestras de aire y ruido, fueron realizadas en puntos de mayor demanda y ubicación de las Zonas Críticas (ZC, de acuerdo con la NOM-011-STPS-2001) ubicados en el Centro Universitario de Tonalá (CUT) perteneciente a la Universidad de Guadalajara (UDG). Para el uso del método de muestreo de referencia de aire se utilizó un Sonómetro modelo CESVA CS260, del cual partimos en la localización de las ZC del CUT, y del instrumento utilizado para el control del aire fue un Monitor de Calidad de Aire modelo Temtop M2000, haciendo un monitoreo de 5 zonas en total. Para obtener muestras en cuerpos de agua, se utilizó el método de muestreo telescópico, una técnica eficaz para recolectar muestras en lugares de difícil acceso o a diversas profundidades. Este método emplea un muestreador telescópico, que es un polo extensible con un recipiente en su extremo. El operador, desde un lugar seguro como la orilla o un puente, extiende el muestreador hasta la profundidad deseada y activa el mecanismo de recolección mediante un gatillo o un sistema de bombeo. Luego, se retira cuidadosamente el muestreador para evitar la contaminación y se transfiere la muestra a un recipiente etiquetado (Scharlab, 2021).


CONCLUSIONES

Este estudio ha logrado abordar de manera integral los objetivos planteados, proporcionando una visión holística del monitoreo ambiental tanto en ambientes controlados (in vitro) como naturales (in situ). En cuanto a la contaminación acústica, se identificaron variaciones significativas en los niveles de ruido entre los puntos de medición, con el punto P1 presentando los niveles más altos (Leq de 73.1 dB y máximo de 84.1 dB). Estos hallazgos sugieren la necesidad de implementar medidas de mitigación del ruido, especialmente en las áreas más afectadas. El análisis del Río Santiago reveló condiciones preocupantes para la vida acuática. El bajo nivel de oxígeno disuelto (tanto en porcentaje de saturación como en mg/L) y el alto valor de conductividad (1331 µS/cm) indican posible contaminación orgánica y presencia elevada de sales disueltas. Además, el potencial de oxidación-reducción negativo (-310.6 mV) sugiere condiciones reductoras que podrían estar asociadas con la descomposición de materia orgánica. La presencia confirmada de coliformes mediante la técnica de NMP refuerza la preocupación sobre la calidad microbiológica del agua. Por otro lado, la evaluación del biorreactor de digestión anaerobia demostró un proceso eficiente, alcanzando una producción máxima de biogás de 1277 unidades en aproximadamente 41 horas. Este resultado es prometedor para la optimización de procesos de tratamiento de aguas residuales y producción de energía renovable. En conjunto, estos hallazgos subrayan la importancia de un enfoque multidisciplinario en el monitoreo ambiental. La combinación de métodos in vitro e in situ ha permitido una evaluación comprensiva de diversos parámetros ambientales, desde la calidad del aire y el agua hasta la producción de biogás en condiciones controladas.  
Colosio Olagues María José, Universidad de Sonora
Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara

ESTUDIOS SISMOTECTóNICOS EN EL OCCIDENTE DE MéXICO A PARTIR DEL ANáLISIS DE DATOS DE LIBRE ACCESO


ESTUDIOS SISMOTECTóNICOS EN EL OCCIDENTE DE MéXICO A PARTIR DEL ANáLISIS DE DATOS DE LIBRE ACCESO

Colosio Olagues María José, Universidad de Sonora. Cota Cristobal Alethse Paulie, Universidad Autónoma de Sinaloa. Garcia Villavicencio Maria Fernanda, Benemérita Universidad Autónoma de Puebla. Medina Peralta Maria Jimena, Universidad Autónoma de Sinaloa. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Planteamiento: El occidente de México tiene una configuración tectónica donde la microplaca Rivera y la placa de Cocos subducen bajo la Placa de Norte América. Este proceso produce la deformación y fragmentación de la placa continental. Esta actividad tectónica produce una gran cantidad de sismos. De tal manera que experimentos sísmicos se han llevado a cabo cuyos datos son de libre acceso. En particular el experimento MARS fue implementado para estudiar la litosfera continental. El objetivo general de este proyecto es implementar técnicas de análisis para obtener resultados que nos permitan entender los procesos sísmicos y tectónicos presentes en el Occidente de México.



METODOLOGÍA

Metodología: Durante el verano de investigación se analizaron datos sísmicos para la identificación de fases sísmicas de las ondas P y S, así como la asignación de incertidumbres. Este procedimiento se realizó analizando archivos SAC con un código de PYTHON que implementa librerías de OBSPY.  


CONCLUSIONES

Conclusiones: El análisis realizado permitió mejorar el catálogo sísmico del occidente de México el cual se utilizará para estudios sísmicos como tomografía. Otras actividades realizadas durante el verano de investigación incluyeron asistencia a mini taller de escritura científico y a ponencias diversas, encuestas remotas y presenciales para el estudio del riesgo sísmico y la participación en ensayos geofísicos de sísmica activa y pasiva.
Cordoba Sanchez Yurany Andrea, Instituto Tecnológico Metropolitano
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

MORTERO CON FIBRAS DE NOPAL Y MUCILAGO DE NOPAL PARA MEJORAR RESISTENCIA DE COMPRESIóN Y DISMINUCIóN EN LA ABSORCIóN


MORTERO CON FIBRAS DE NOPAL Y MUCILAGO DE NOPAL PARA MEJORAR RESISTENCIA DE COMPRESIóN Y DISMINUCIóN EN LA ABSORCIóN

Cordoba Sanchez Yurany Andrea, Instituto Tecnológico Metropolitano. Obando Rios Madison, Instituto Tecnológico Metropolitano. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

Actualmente, se están utilizando cada vez más materiales sostenibles en la construcción para reducir la contaminación y aprovechar los recursos naturales disponibles. Esta tendencia busca minimizar el impacto ambiental y promover prácticas de construcción más ecológicas. Además, se sabe que materiales como los impermeabilizantes tradicionales son altamente contaminantes y perjudiciales para la salud humana, lo que impulsa la búsqueda de alternativas más seguras y sostenibles. La adopción de materiales sostenibles no solo contribuye a la protección del medio ambiente, sino que también mejora la calidad de vida de las personas al reducir la exposición a sustancias tóxicas.



METODOLOGÍA

Metodología Materiales, Equipos y Herramientas Se utilizaron los siguientes materiales para la preparación de las muestras de mortero: Cemento Arena Cal Agua Mucílago de nopal Nopal Madera Palustres Cortadora Prensa Hidráulica Tara Recipientes   Procedimiento: Preparación de Formaletas: -  Marcado de madera 10x10cm - corte de la madera - Se fabricaron manualmente formaletas de 10x10 cm utilizando madera reciclada. -   Extracción del Mucílago de Nopal Corte de nopal y pesado del nopal    Los cladodios de nopal se dejaron en remojo durante 15 días para permitir la extracción adecuada del mucílago.   Preparación de Fibras de Nopal:  El residuo del mucílago se deshidrató en un horno a 180°C durante 8 horas.  Las fibras deshidratadas se trituraron para incorporarlas en la mezcla.   Elaboración de Muestras de Mortero: Se prepararon dos muestras de mortero tipo H tradicional, compuesto de agua, cemento, arena y cal. Tres muestras adicionales se elaboraron con la inclusión de mucílago de nopal en la proporción de agua de la mezcla. Tres muestras se prepararon incorporando tanto mucílago de nopal como fibras de nopal.   Ensayos: Ensayo de Compresión: Se utilizó una prensa hidráulica para medir la resistencia a la compresión de cada muestra. Ensayo de Absorción de Agua:Las muestras se sumergieron en agua durante 21 días  y se midió el aumento de peso para evaluar la capacidad de absorción


CONCLUSIONES

Los resultados de esta investigación pueden llegar a demostrar que el mucílago y las fibras de nopal tienen un gran potencial para ser utilizados como aditivos en la producción de morteros. Estos materiales naturales no solo mejoran las propiedades mecánicas y de impermeabilidad del mortero, sino que también contribuyen a la sostenibilidad ambiental y al desarrollo local.
Coronado Chairez Dania Carolina, Universidad de Sonora
Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa

ANáLISIS DE LOS MOVIMIENTOS SíSMICOS EN ESTRUCTURAS MEDIANTE LA OBTENCIóN DE ESPECTROS DE RESPUESTA Y MEDIDAS DE INTENSIDAD SíSMICA.


ANáLISIS DE LOS MOVIMIENTOS SíSMICOS EN ESTRUCTURAS MEDIANTE LA OBTENCIóN DE ESPECTROS DE RESPUESTA Y MEDIDAS DE INTENSIDAD SíSMICA.

Coronado Chairez Dania Carolina, Universidad de Sonora. Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La ingeniería sísmica es el conjunto de la ingeniería estructural y civil al estudiar el comportamiento de los edificios y de las estructuras sujetas a cargas sísmicas. La ingeniería sísmica enfrenta el desafío critico de diseñar estructuras capaces de soportar los efectos devastadores de los sismos. Los terremotos pueden causar daños significativos y perdidas de vida si las construcciones no están adecuadamente preparadas para enfrentar las fuerzas sísmicas. En este contexto uno de los aspectos importantes es la capacidad de evaluar y diseñar estructuras en función de intensidad y sobre todo resistencia para dichos fenómenos naturales, para lo cual se utilizan espectros de respuesta. Estos espectros permiten predecir como una estructura responderá a diferentes niveles de aceleración sísmica, proporcionando una herramienta vital para los ingenieros. Por lo tanto, el problema a abordar es como mejorar la precisión de los espectros de respuesta para reflejar de manera mas efectiva la intensidad sísmica real, y como traducir estos datos en medidas de diseño estructural que garanticen una protección optima contra los sismos.



METODOLOGÍA

La metodología fue una metodología cuantitativa, para ello se estableció el propósito del análisis sísmico, que pueda incluir la evaluación del rendimiento estructural, después se realizó una investigación para obtener datos históricos y registros de sismos relevantes, lo cual incluyen magnitudes y duraciones que se graficaron para obtener resultados más precisos y conocer mas sobre el tema. También por medio de fórmulas matemáticas y programando pudimos obtener respuestas que ayudaron a la simulación y análisis para obtener un resultado más preciso y poder dominar un poco más el tema.


CONCLUSIONES

Los espectros de respuesta juegan un papel fundamental en la ingeniería sísmica al ofrecer una herramienta crucial para evaluar como una estructura responde a diferentes niveles de aceleración sísmica. Siguiendo una metodología de estudio cuantitativa, en donde se utilizaron herramientas como fórmulas matemáticas y graficas, así como investigaciones para poder entender el impacto de los sismos en las estructuras y así saber a futuro como emplear y diseñar estructuras de grandes resistencias. Sin embargo, la aplicación efectiva de los espectros de respuesta requiere una comprensión profunda de las propiedades del suelo, dinámica estructural y las características del sismo. Cabe mencionar que gracias al Verano de la Investigación Científica he reforzado mi información académica al poder conocer un poco más a profundidad el gran desempeño que tiene la ingeniería en los fenómenos naturales que generan grandes desastres en el mundo, cada avance en la ingeniería sísmica no solo refuerza estructuras, sino que también fortalece comunidades, salvando vidas y construyendo un futuro más seguro para todos, es muy importante seguir nutriéndome sobre el tema, nunca se deja de prender sobre algo tan importante para ayudar a la humanidad.
Correa Arballo Antonio, Universidad Autónoma de Baja California
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

GALAXY MáQUILA: ESTUDIO DE LAS GALAXIA BRILLANTES DEL CúMULO DE VIRGO EN EL INFRAROJO


GALAXY MáQUILA: ESTUDIO DE LAS GALAXIA BRILLANTES DEL CúMULO DE VIRGO EN EL INFRAROJO

Caamaño García Carolina, Benemérita Universidad Autónoma de Puebla. Correa Arballo Antonio, Universidad Autónoma de Baja California. de Ramon Tadeo Diego, Benemérita Universidad Autónoma de Puebla. Díaz Carriedo Edgar Josuee, Benemérita Universidad Autónoma de Puebla. Ornelas Castañeda César Mariano, Universidad de Guadalajara. Reyes Acosta Miguel Angel, Universidad Tecnológica de Tehuacán. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El Cúmulo de Virgo es una de las concentraciones más grandes de galaxias cercanas a la Vía Láctea, con una gran variedad de tipos morfológicos, incluyendo galaxias elípticas, espirales, barradas y lenticulares. Estudiar estas galaxias en el espectro infrarrojo es esencial para comprender mejor sus características estructurales, ya que este rango de longitud de onda es menos afectado por el polvo interestelar, lo que permite una visión más clara de la distribución de masa estelar. Sin embargo, el análisis detallado de estas estructuras enfrenta desafíos significativos, como la resolución limitada de las imágenes disponibles y la presencia de contaminantes como estrellas brillantes y otras galaxias cercanas en las imágenes. Estos factores pueden complicar la descomposición precisa de las componentes galácticas, como el bulbo, el disco y las barras, dificultando la caracterización de la dinámica interna y la historia de formación de las galaxias. Además, la diversidad de morfologías dentro del cúmulo sugiere procesos evolutivos distintos, lo que plantea la necesidad de un análisis comparativo riguroso para identificar patrones comunes y diferencias clave en la evolución galáctica.



METODOLOGÍA

Este estudio se basó en imágenes infrarrojas obtenidas de los catálogos astronómicos 2MASS y PanStarrs, centradas en galaxias brillantes del Cúmulo de Virgo. La selección de estas imágenes permitió el análisis de estructuras galácticas con una menor interferencia de polvo interestelar, lo que es crucial para una evaluación precisa de las componentes estelares. El software GALFIT fue el principal instrumento utilizado para descomponer las galaxias en sus componentes estructurales: bulbo, disco y barra. Se aplicaron funciones de Sérsic para modelar el bulbo, mientras que las componentes de disco fueron ajustadas utilizando modelos de disco exponencial. Para algunas galaxias, se consideraron funciones gaussianas para representar características adicionales como barras o anillos. Las imágenes se procesaron inicialmente con DS9, un software de visualización que permitió examinar y recortar las imágenes, asegurando un enfoque en la región de interés. A continuación, se crearon máscaras utilizando scripts en Python, específicamente diseñados para eliminar la interferencia de estrellas brillantes y otras galaxias cercanas. Esto ayudó a minimizar la influencia de estos contaminantes en los resultados fotométricos y morfológicos. Ellipsect fue utilizado para extraer perfiles de brillo superficial de las galaxias y de los modelos generados por GALFIT. Esta herramienta permitió comparar los modelos teóricos con las observaciones reales, facilitando la evaluación de la precisión del ajuste. Se prestó especial atención al ajuste de la función de dispersión puntual (PSF), fundamental para el modelado preciso de las características galácticas más finas. Finalmente, se evaluó la calidad del ajuste de los modelos utilizando el valor de Chi²/nu y análisis de residuos, asegurando que las discrepancias entre los modelos y las observaciones fueran mínimas.


CONCLUSIONES

Los análisis realizados sobre las galaxias brillantes del Cúmulo de Virgo han revelado una diversidad estructural significativa, reflejada en los diferentes parámetros obtenidos, como los índices de Sérsic y los radios efectivos. Estos resultados sugieren que las galaxias del cúmulo han experimentado historias evolutivas distintas, posiblemente influenciadas por interacciones galácticas y procesos internos variados. Uno de los hallazgos clave es la variabilidad en la prominencia de componentes como bulbos, discos y barras, lo que indica una diversidad en los procesos de formación y evolución estelar. Sin embargo, se identificaron varios desafíos en el proceso de análisis, como la dificultad para aislar las galaxias objetivo de las interferencias causadas por estrellas cercanas y otras galaxias brillantes, lo que complicó el ajuste de los modelos. El valor de Chi²/nu y el análisis de residuos mostraron que, aunque se lograron ajustes razonables, existen limitaciones en la precisión del modelado, particularmente debido a la calidad de las imágenes y la influencia de contaminantes. Para mejorar estos ajustes, se recomienda considerar el uso de software adicional para la generación de funciones de dispersión puntual (PSF) y explorar la presencia de núcleos activos galácticos (AGNs), que podrían influir en las características observadas de algunas galaxias. Estos resultados iniciales proporcionan una base para futuros estudios, sugiriendo la necesidad de una mayor resolución y una mejor eliminación de contaminantes para comprender completamente la estructura y evolución de las galaxias en entornos de cúmulos densos. 
Cortés Fitz Carlos David, Universidad Autónoma de Guerrero
Asesor: Dr. Simon Eduardo Carranco Lozada, Instituto Politécnico Nacional

EVALUACIóN Y MONITOREO DE DEFORMACIONES DEL TERRENO EN VILLA JUáREZ, SAN LUIS POTOSí


EVALUACIóN Y MONITOREO DE DEFORMACIONES DEL TERRENO EN VILLA JUáREZ, SAN LUIS POTOSí

Cortés Fitz Carlos David, Universidad Autónoma de Guerrero. Asesor: Dr. Simon Eduardo Carranco Lozada, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En la comunidad Villa Juárez, San Luis Potosí. Se presenta una problemática de deformación del terreno, la cual genera afectaciones a calles, banquetas, casas, la infraestructura de agua potable y drenaje, esta problemática está relacionada con la disolución del suelo sobre la que esta edificada la ciudad. Hasta el momento no se cuentan con reportes ni estudios relacionados a la velocidad de desplazamiento del terreno ni los tipos de movimientos que existen. La deformación del terreno de Villa Juárez se aborde en esta primera etapa en entender y determinar las orientaciones del movimiento, así como la velocidad de desplazamiento, esto con el objetivo de caracterizar el tipo de deformación y las implicaciones que trae consigo.



METODOLOGÍA

METODOLOGIA La metodología empleada se dividió en 4 etapas fundamentales para el trabajo de campo; colocación de la monumentación, instalación de puntos de control aéreo y medición de los puntos de control. Monumentación de Puntos de control: Se colocaron puntos de control en las intersecciones de calle, utilizando como herramienta un taladro con una broca para concreto de ¾, en cada perforación se colocó un tornillo de cabeza redonda, con el fin de que al estacionar la baliza sobre el tornillo esta quede en el centro del mismo, de no ser así no se estaciona y la baliza resbala por los bordes del tornillo. La colocación de puntos de control es una actividad de la que no se puede prescindir si se tiene estimado un monitoreo a futuro. Instalación de puntos de control aéreo: Una vez colocados los puntos de control (tornillos), sobre la cabeza del tornillo se colocó una estampa de 20 x 20 cm., con forma de mosaico de color negro y amarillo, esta coloración permite su avistamiento desde una altura de 80 metros que es la altura a la que se vuela el dron. Medición de los puntos de control: Para la medición de los puntos de control se utilizó un GPS modelo GRX3 el cual se configuro para que se realizara la medición por el método RTK, en el cual se utilizaron dos estaciones, una estación fija y una estación móvil. La estación fija se coloco en el techo de la comandancia de Villa Juárez y la estación móvil fue con la que se realizó la medición de todos los puntos del municipio de Villa Juárez. La estación fija por medio de señal de radio emitía la corrección en tiempo real de la ubicación a la antena móvil. La estación móvil se coloco exactamente sobre cada tornillo de los puntos de control, además de que la baliza se tuvo que nivelar para que el dato fuese mas preciso. Vuelo de dron: Se realizaron varios vuelos de dron sobre el área urbana de Villa Juárez, cada vuelo consta una   trayectoria de vuelo definida para abarcar de 20 a 22 hectáreas por vuelo, la configuración de vuelo fue a 80 metros sobre el suelo para las 5 trayectorias que se realizaron. En cada trayectoria se tomo en cuenta que las líneas de vuelo tuvieran una orientación este-oeste, para reducir los error por sombra que proyecta la infraestructura del lugar. Estación Total: Se utilizo la estación total para realizar un levantamiento catastral para obtener los datos de los limite de propiedad en los frentes de calle, además para conocer las características de los predios. Esta actividad se hace con el propósito de detallar más la presión de los predios y conocer cuales son los limites de cada construcción, lo que complementa al trabajo de fotogrametría. Para el manejo de la estación se requiere de dos personas, un operador y un balicero; uno se encargaría del manejo de la estación total y el otro se ubicaría en los paramentos, divisiones de paramento, guarniciones y calles con un prisma.  El prisma sirve como objetivo. Ya que la estación dispara un laser de baja frecuencia el cual rebota en el prisma y con él se obtienen las coordenadas entre el prisma y la estación. Primero se configuro la estación sobre un clavo o tornillo el cual serviría como punto de liga, después se requiere de otro punto de referencia conocido para que en base a esos dos puntos la estación se ubique en el espacio y pueda empezar a medir los demás. Debido al rango de visión que tiene la estación que es de 180º se realizaron varios cambios de estación para determinar todos los predios y sus frentes de calles que quedaban alrededor del jardín principal de Villa Juárez Una vez terminado el trabajo de campo se pasa a realizar el trabajo de gabinete Todas las imágenes tomadas por el dron e información almacenada en el GPS se utilizarán en programas como Agisoft y QGIS. Las imágenes tomadas por dron se configuran en Agisoft para después generar una nube de puntos, un DEM (representación ráster de un modelo de elevación) y generar un ortomosaico, siendo este último el material de interés, el cual posteriormente se trabajará en QGIS. Con este ortomosaico es con el que se realizara la digitalización de cada predio, el primer paso al obtener el ortomosaico es realizar la georreferenciación de los puntos de control que quedaron registrados en la imagen y que se midieron de forma independiente con el GPS, una vez georreferenciada la imagen se inicia el proceso de digitalización a detalle de cada predio.


CONCLUSIONES

Estas actividades de trabajo de campo en conjunto con la metodología permiten levantar datos de manera más rápida y minimizar el tiempo en campo, también permite tener un estatus de la situación de la infraestructura en el municipio que esta siendo afectado por deformaciones del terreno. Otra de las aplicaciones es que este estudio servirá para dimensionar los daños en un área, esto colocando puntos los cuales permanecerán en la comunidad para futuras mediciones y determinar velocidad de desplazamiento y rumbo de movimiento. Siendo otro plus la generación de conocimiento y conciencia en la comunidad de Villa Juárez ilustrando el impacto que generan estas deformaciones en la comunidad y generar apoyo a la comunidad. De manera que estos trabajos de investigación realizados por estudiantes generan soluciones a problemáticas reales y a su vez nos permiten obtener más conocimiento.
Cortés Serrano María de Lourdes, Universidad Veracruzana
Asesor: Dr. Jose Luis Gonzalez Solis, Universidad de Guadalajara

DETECCIóN DEL CáNCER CERVICAL BASADO LA ESPECTROSCOPIA RAMAN DE MUESTRAS DE PLASMA SANGUíNEO Y ANáLISIS DE COMPONENTES PRINCIPALES


DETECCIóN DEL CáNCER CERVICAL BASADO LA ESPECTROSCOPIA RAMAN DE MUESTRAS DE PLASMA SANGUíNEO Y ANáLISIS DE COMPONENTES PRINCIPALES

Cortés Serrano María de Lourdes, Universidad Veracruzana. Asesor: Dr. Jose Luis Gonzalez Solis, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El cáncer cérvico uterino, una de las principales causas de muerte entre mujeres en todo el mundo, es altamente prevenible, aunque miles de casos son diagnosticados anualmente. Esta patología se desarrolla por la infección del virus del papiloma humano (VPH), que provoca lesiones malignas en el cérvix, culminando en cáncer si no se trata a tiempo. Este estudio utiliza la técnica de espectroscopía Raman para diagnosticar el cáncer cervical mediante el análisis de 20 muestras de plasma sanguíneo de pacientes sanos y de pacientes con cáncer. Las muestras fueron analizadas usando un microscopio con un láser de 830 nm, incorporado en el sistema Raman LabRAM HR800, HORIBA JOBIN YVON. La técnica Raman permite identificar diferencias químicas entre las muestras de pacientes sanos y con cáncer cervical. Los espectros fueron preprocesados y analizados mediante el Análisis de Componentes Principales (PCA).  



METODOLOGÍA

Para la realización de este proyecto se utilizó un microscopio, el cual enfoca una radiación láser de excitación de 830nm. Tanto el microscopio como el láser se encuentran incorporados al sistema Raman, LabRAM HR800, HORIBA JOBIN YVON del Laboratorio de Biofísica y Ciencias Biomédicas del Centro Universitario de los Lagos, Universidad de Guadalajara. Para no afectar las muestras, la potencia del láser utilizada es de 17mW. Primeramente, se debe de calibrar el equipo y esto se hace con una muestra de silicio que tiene su pico Raman en el por lo que, mediante un indicador del software nos podremos asegurar que el pico se encuentre exactamente en esa frecuencia y así el equipo ya está calibrado listo para comenzar con las mediciones de espectros Raman. Las muestras de plasma sanguíneo a analizar se encuentran congeladas a 80°c, estas mismas están enumeradas y clasificadas de acuerdo con el diagnostico previamente hecho, ya sean pacientes control o con cáncer. Se recolectaron diez espectros Raman por cada una de las veinte muestras mediante el equipo Raman. Para esto, primeramente, se descongela una muestra de plasma, mientras tanto, en una placa pequeña de vidrio que será nuestro portaobjetos, se cubre con aluminio para que esto no afecte nuestras mediciones y se desinfecta con alcohol. Una vez descongelada la muestra a analizar, con una pipeta y una puntilla se extrae una gota de plasma y se coloca en el portaobjetos; se desecha la puntilla y se vuelve a guardar la muestra en el congelador. Una vez que la gota ya se encuentra seca, se coloca el portaobjetos en la platina del microscopio y se enfoca el láser sobre la muestra y se configura el software LabSpec 6 - HORIBA Scientific se ajusta el rango de 400 a 1800 puesto que la experiencia nos dice que en esa sección es donde observaremos información importante para caracterizar una muestra; también modificamos el tiempo de incidencia del láser sobre la muestra que en este caso s1erá de 60s puesto que puede dañar a la muestra.  Una vez que pasan tres minutos en el que se tarda en completarse el espectro, aparecen unas líneas arriba del espectro que representan los rayos cósmicos ya que el equipo Raman es sensible a este tipo de ruido cósmico pero simple y sencillamente tenemos que eliminar esas líneas.  Ya teniendo este espectro se guarda en un archivo de texto para que posteriormente podamos hacer el análisis de datos. Y este proceso se realiza diez veces por cada muestra, tanto para las muestras con cáncer como para las muestras control; en total se obtendrán cien espectros controles y cien espectros de muestras de cáncer. Estos espectros medidos fueron procesados mediante la realización de corrección de línea base, suavizado y normalización para eliminar el ruido, la señal de fluorescencia. Para analizar los espectros y realizar el análisis de componentes principales se utilizó el software Matlab, mientras que para los gráficos se empleó el software Origin. Se generaron matrices de datos en Excel para después graficarlos y obtener el promedio de la intensidad por cada corrimiento tanto para los pacientes control como para los pacientes con cáncer y obtener dos gráficas que al hacer una superposición de ellas se pudiera observar una diferencia rápida entre ambos grupos de pacientes para así después realizar un minucioso análisis acerca de las moléculas que se encuentran en la muestra de acuerdo al corrimiento Raman, es decir, de acuerdo al eje x se identifican las moléculas existentes y en el eje y su intensidad y observar que tanto varía el promedio de la intensidad. Para comprimir los datos se hace el Análisis de Componentes Principales (PCA), con un script en Matlab se obtendrán las primeras diez componentes principales de los doscientos espectros para que al graficar tres de ellas podamos observar una separación de los dos grupos que se están analizando, los pacientes control y los de cáncer. Las componentes que se usaron fueron la tres, cuatro y cinco. Con esta gráfica que se ha obtenido se calculó la sensibilidad y especificidad del método que nos indica el porcentaje de efectividad del método que se está implementando en la detección del cáncer cervical que nos arrojó del 85% y 81% respectivamente. Además, con las componentes principales mencionadas se graficó una a una contra el corrimiento Raman para observar los picos que más destacan y así poder identificar nuevamente las moléculas que se encuentran en la muestra donde destacan la fenilalanina, tirosina, el triptófano, amida I hélice y la amida III.


CONCLUSIONES

Durante la estancia de verano se adquirieron los conocimientos teóricos acerca de la espectroscopia Raman y sus aplicaciones así como entender y poner en práctica el análisis de muestras de plasma sanguíneo para la detección del cáncer cervical logrando obtener buenos resultados y esto es de gran impacto para el área de medicina porque así ayuda a que los pacientes ya no tengan que pasar por métodos de detección de cáncer invasivos, sino que solo con una gota de plasma sanguíneo se puede hacer un método de detección rápido y tiene aún mayor importancia debido a que es cáncer cervicouterino en etapa temprana. Sin duda, es un método eficaz que conforme avance la investigación sobre éste, tendrá mayor relevancia en un futuro.
Cortina Barrales Naraai, Universidad de Guadalajara
Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional

DISPOSITIVOS SEMICONDUCTORES Y CIRCUITOS INTEGRADOS


DISPOSITIVOS SEMICONDUCTORES Y CIRCUITOS INTEGRADOS

Cortina Barrales Naraai, Universidad de Guadalajara. Garcia Gutierrez Alejandro Ivan, Benemérita Universidad Autónoma de Puebla. Gómez Méndez Alison Zoe, Instituto Politécnico Nacional. Hernandez Ortiz Lizette Ariadna, Universidad Veracruzana. Perez Cortes Eliseo, Benemérita Universidad Autónoma de Puebla. Quintero López Jimena, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Ramirez Beltrán Andrés Alberto, Universidad de Guadalajara. Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los dispositivos semiconductores son componentes electrónicos que se encuentran en el corazón de la tecnología moderna. Estos dispositivos utilizan materiales semiconductores, como el silicio o el germanio, que tienen propiedades eléctricas intermedias, entre los conductores se pueden identificar los metales y en los aislantes el vidrio. Los TFT (Thin-Film Transistor) son transistores de película delgada que se utilizan en pantallas de cristal líquido (LCD) y pantallas de matriz activa como las de los teléfonos inteligentes y televisores. Los TFT permiten un control preciso de cada píxel en la pantalla. Las ventajas de los circuitos integrados flexibles incluyen menor costo de procesamiento, menor huella de carbono, y procesos de fabricación más rápidos comparados con el silicio. Se busca contribuir a una mejor comprensión de la tecnología de TFT flexible para avanzar hacia circuitos integrados fiables y flexibles, además de impulsar la investigación en los campos de la microelectrónica, la nanotecnología, los MEMS, las celdas solares, los dispositivos de película delgada, los sensores y otras áreas que requieren un ambiente libre de partículas.  



METODOLOGÍA

Los pasos para crear un circuito integrado son: simulación, diseño, fabricación y pruebas. Para la simulación de compuertas lógicas a nivel de transistores NMOS se utilizó el software LTspice, teniendo diferente ancho de canal (W) y de largo (L) para observar el comportamiento de los circuitos a este nivel. Además en un software más intuitivo (wokwi) se realizó la simulación a nivel de compuertas para obtener las tablas de verdad esperadas de cada circuito realizado con diferentes combinaciones de compuertas básicas. Posteriormente se hizo uso del software Tanner para realizar el diseño de los siguientes circuitos: MEDIO RESTADOR, RESTADOR COMPLETO, MEDIO SUMADOR, SUMADOR COMPLETO, MULTIPLEXOR, COMPARADOR, FLIP FLOP TIPO D, LATCH TIPO D. tomando como base una serie de compuertas lógicas diseñadas en proyectos previos, como son la compuerta NOT, NAND y NOR. El proceso de fabricación se realizó en el Laboratorio Nacional de Micro y Nanotecnología (LNunT), el cual cuenta con un cuarto limpio tipo 100. Como primera parte de la fabricación se hizo un depósito de cromo y oro con el Evaporador D18. Después, se procedió a fabricar el circuito realizando el proceso de fotolitografía mediante escritura directa utilizando el equipo Heidelberg DWL-66FS, fotoresina S1813 y revelador MF-319. Se prosiguió a realizar otro depósito de HFO₂, con ayuda del equipo ALD 150LE. Posterior a ello con el equipo Sputtering V3 se agregó la capa del Mo. Por último se le colocó el polímero PMMA utilizando el Spinner Laurell 650. Se obtuvieron las señales de transistores, compuertas lógicas y los circuitos diseñados. Para los circuitos integrados y compuertas lógicas se utilizó un osciloscopio, un generador de funciones y una fuente voltaje, utilizando señales de voltaje de corriente continua (DC) y corriente alterna (AC), en el caso de los transistores se utilizó un analizador Keithley 4200A-SCS. Todas las mediciones se llevaron a cabo en condiciones ambientales normales.  


CONCLUSIONES

El trabajo realizado durante la estancia de verano logró reforzar y adquirir nuevos conocimientos sobre el diseño de circuitos integrados digitales en muestras de material flexible partiendo desde transistores. También se comprendió cómo el tamaño y orientación de los transistores afectaba directamente a los circuitos y su funcionalidad en general. Se adquirieron conocimientos de los procesos a seguir para poder trabajar en un cuarto limpio clase 100. Adicionalmente, se aprendió sobre el proceso de fabricación de circuitos integrados. Por último, se reforzaron conocimientos en instrumentación y medición de circuitos integrados.  
Cosio Tello Andrés Abel, Universidad de Guadalajara
Asesor: Dra. Angélica Hernández Quintero, Universidad Autónoma de Aguascalientes

ANáLISIS HISTóRICO DE MUERTES EN MéXICO POR TRASTORNOS MENTALES Y DEL COMPORTAMIENTO DEBIDO AL USO DE SUSTANCIAS PSICOACTIVAS DURANTE EL PERIODO DE 1998 A 2022


ANáLISIS HISTóRICO DE MUERTES EN MéXICO POR TRASTORNOS MENTALES Y DEL COMPORTAMIENTO DEBIDO AL USO DE SUSTANCIAS PSICOACTIVAS DURANTE EL PERIODO DE 1998 A 2022

Cosio Tello Andrés Abel, Universidad de Guadalajara. Asesor: Dra. Angélica Hernández Quintero, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Inicialmente, se decidió investigar la mortalidad en trastornos mentales y del comportamiento, pero debido a la ambigüedad del tema y el enfoque en la morbilidad, se optó por investigar este tipo de mortalidad como consecuencia del uso de sustancias psicoactivas (SPA). En una investigación previa, se encontró una escasez de documentos o artículos sobre este tema en un aspecto general. Algunos artículos trataban sobre la mortalidad por trastornos mentales, pero pocos vinculaban estos con el uso de SPA, excepto uno sobre la psicosis alcohólica, que fue detalladamente analizado en un estudio longitudinal descriptivo desde 1980 hasta 2011. Se encontró que el alcohol es la sustancia que más muertes causa en relación con trastornos mentales y del comportamiento. Por lo tanto, se decidió realizar un análisis histórico de muertes en la República Mexicana por trastornos mentales y del comportamiento como consecuencia del consumo de SPA, como alcohol, opiáceos, cannabinoides y cocaína, entre otros.



METODOLOGÍA

Para la investigación se utilizó la base de datos de la Secretaría de Salud del Gobierno de México cuyo periodo va desde 1998 al año 2022, ésta cuenta con trece variables las cuales corresponden con las variables básicas para el registro de un certificado de defunción, algunas de estas son: entidad de residencia, municipio de residencia, causa de defunción lista detallada, sexo, edad, año de defunción, entre otras. Para esta investigación se realizaron tres análisis de forma anual a nivel nacional; el primer análisis se enfocó en el número de defunciones por año de hombres y mujeres, así también se incluyó el total de estos para una mejor apreciación. Bajo una breve observación, se identificó una significativa diferencia de muertes entre los dos grupos, siendo el de hombres el que presentaba una mayor cantidad de defunciones. Parece ser que la cantidad de defunciones en los hombres va reduciéndose cada año mientras que el de las mujeres la cantidad de muertes es mucho menor, pero parece ser constante. El segundo análisis fue en base a la sustancia que haya sido la principal causa de muerte, se tuvieron que agrupar distintos trastornos mentales o del comportamiento de acuerdo con el tipo de sustancia que lo ocasionó, esto siguiendo lo descrito por la Clasificación Internacional de Enfermedades (CIE-10). Algunos tipos de sustancias son: alcohol, opiáceos, cannabinoides, alucinógenos, tabaco, disolventes volátiles, múltiples drogas y otras PSA. La gráfica obtenida mostraba una gran cantidad de decesos debido al alcohol, mientras que las demás mencionadas no lograban distinguirse entre ellas  en el gráfico a excepción del indicador de múltiples sustancias. El último análisis es con respecto a la edad de defunción, esto se hizo por grupos quinquenales empezando de 0 a 4 años, 5 a 9 años, 10 a 14 años, 15 a 19 años y así sucesivamente hasta los 99 años. Se obtuvieron valores similares entre los grupos de 40 a 44 años, 45 a 49 años, 50 a 54 años, 55 a 59 años y 60 a 64 años, los cuales fueron los cinco grupos con mayor número de defunciones entre todas las categorías. Sin embargo, no se debe dar conclusiones a partir de solo una revisión general, es por ello por lo que se utilizó una metodología diseñada para la identificación de puntos de cambios en series de tiempo, la cual fue desarrollada por Muggeo y Muggeo et. al, ésta tiene sus principios en técnicas de regresión lineal simple, pero que son aplicadas de manera iterativa. Primero se aplicó esta metodología a la cantidad de fallecimientos totales, esta presentó 4 puntos de cambio o mejor dicho que a lo largo del tiempo hubo 5 pendientes distintas: 1998-2003: No hubo cambios significativos. 2003-2009: Hubo 282 muertes menos por año en promedio. 2009-2015: No hubo cambios significativos. 2015-2016: No hubo cambios significativos. 2016-2022: No hubo cambios significativos. Para el grupo de hombres se identificaron 5 periodos de tiempo con diferentes pendientes, los cuales fueron: 1998-2004: Hubo 134 muertes menos por año en promedio: 2004-2007: No hubo cambios significativos. 2007-2008: No hubo cambios significativos. 2008-2014: No hubo cambios significativos. 2014-2022: No hubo cambios significativos. Para el grupo de mujeres se identificaron 6 periodos de tiempo con pendientes distintas, los cuales fueron los siguientes con su respectivo resultado: 1998-2003: No hubo cambios significativos. 2003-2008: Hubo 24 muertes menos por año en promedio. 2008-2012: No hubo cambios significativos. 2012-2014: Hubo 54 muerte más por año en promedio. 2014-2017: No hubo cambios significativos. 2017-2022: No hubo cambios significativos. Esto mismo se realizó con algunos de los otros grupos mencionados anteriormente, sin embargo, incluirlos aquí extendería demasiado el documento. Por último, he de mencionar que el análisis fue realizado con el software R.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos en estadística y en el manejo del software R. Los resultados coincidieron en gran parte con la literatura revisada: los hombres presentan más decesos y el número de muertes está en decrecimiento, mientras que en mujeres, aunque el número de muertes es menor y decrece más lentamente, también sigue esta tendencia. La mayoría de las muertes relacionadas con el alcohol también coincide con la literatura, aunque no se pueden determinar las razones principales, podrían estar ligadas a su legalización y a la cultura de consumo en México. La aparición de fallecimientos por sustancias múltiples fue inesperada y parece estar en aumento, pero aún no se pueden hacer conclusiones precisas. En cuanto a los grupos de edad, se observó una tendencia de muertes entre los 40 y 64 años, posiblemente debido al daño acumulado por el uso de sustancias a temprana edad o a un consumo extremo cercano a estas edades. Esto requerirá más investigación en el futuro.
Cota Cristobal Alethse Paulie, Universidad Autónoma de Sinaloa
Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara

ESTUDIOS SISMOTECTóNICOS EN EL OCCIDENTE DE MéXICO A PARTIR DEL ANáLISIS DE DATOS DE LIBRE ACCESO


ESTUDIOS SISMOTECTóNICOS EN EL OCCIDENTE DE MéXICO A PARTIR DEL ANáLISIS DE DATOS DE LIBRE ACCESO

Colosio Olagues María José, Universidad de Sonora. Cota Cristobal Alethse Paulie, Universidad Autónoma de Sinaloa. Garcia Villavicencio Maria Fernanda, Benemérita Universidad Autónoma de Puebla. Medina Peralta Maria Jimena, Universidad Autónoma de Sinaloa. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Planteamiento: El occidente de México tiene una configuración tectónica donde la microplaca Rivera y la placa de Cocos subducen bajo la Placa de Norte América. Este proceso produce la deformación y fragmentación de la placa continental. Esta actividad tectónica produce una gran cantidad de sismos. De tal manera que experimentos sísmicos se han llevado a cabo cuyos datos son de libre acceso. En particular el experimento MARS fue implementado para estudiar la litosfera continental. El objetivo general de este proyecto es implementar técnicas de análisis para obtener resultados que nos permitan entender los procesos sísmicos y tectónicos presentes en el Occidente de México.



METODOLOGÍA

Metodología: Durante el verano de investigación se analizaron datos sísmicos para la identificación de fases sísmicas de las ondas P y S, así como la asignación de incertidumbres. Este procedimiento se realizó analizando archivos SAC con un código de PYTHON que implementa librerías de OBSPY.  


CONCLUSIONES

Conclusiones: El análisis realizado permitió mejorar el catálogo sísmico del occidente de México el cual se utilizará para estudios sísmicos como tomografía. Otras actividades realizadas durante el verano de investigación incluyeron asistencia a mini taller de escritura científico y a ponencias diversas, encuestas remotas y presenciales para el estudio del riesgo sísmico y la participación en ensayos geofísicos de sísmica activa y pasiva.
Covarrubias Gonzalez Erika Yazmin, Universidad Autónoma de Baja California
Asesor: Dr. Isaac Zarazua Macias, Universidad de Guadalajara

CELDAS SOLARES DE PEROVSKITA EN CONDICIONES AMBIENTALES


CELDAS SOLARES DE PEROVSKITA EN CONDICIONES AMBIENTALES

Covarrubias Gonzalez Erika Yazmin, Universidad Autónoma de Baja California. Asesor: Dr. Isaac Zarazua Macias, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El problema energético es uno de los grandes retos de este siglo. Existen varios tipos de energía pero muchas de ellas no son fuentes de energía sostenibles. Sin embargo, la energía solar lo es. En el año 2009 se fabricó la primera celda de perovskita híbrida. La perovskita es una estructura cristalina que tiene una forma característica ABX3 donde A y B son cationes metálicos y X es un anión no metálico. En un poco más de una década el aumento en la eficiencia de las celdas solares de perovskita ha crecido muy rápidamente comparado con todas las décadas que le ha costado a las celdas de Si, este es uno de los grandes motivos por los que se estudia la perovskita. Uno de los problemas es que se degrada muy rápidamente al ser expuesta a la humedad y a la luz. Por ello, se suele fabricar en condiciones controladas en los laboratorios. Sin embargo, al ser así incrementa su costo de fabricación, por ello se busca poder fabricarlas en condiciones ambientales y que, por el momento, no se degraden tan fácilmente. En este proyecto se tenía el objetivo de desarrollar celdas solares de perovskita en condiciones ambientales. La motivación resultó del artículo Formation criteria of high efficiency perovskite solar cells under ambient conditions en el que mencionan que el disminuir la cantidad de DMSO en la elaboración de perovskitas puede influir en la disminución de degradación y por ende, en la mejora de la eficiencia de la celda.   



METODOLOGÍA

El primer paso para la fabricación de las celdas inicia cortando cuadros de 2.5 cm x 2.5cm. Posteriormente, se procede a hacer el devastado que consiste en retirar un rectángulo del lado conductor, para ello se emplea la siguiente fórmula HCl + Zn → ZnCl2 + H2↑ y se deja reaccionar aprox. 20 s. Enseguida, se hace un lavado superficial con agua y jabón para quitar residuos de la reacción y se procede a grabar la muestra del lado no conductor justo detrás del devastado. Es momento de hacer un lavado más riguroso con agua y jabón, para luego ponerlas en el sonicador por 15 min. La primera capa que será depositada es la de TiO2 con la técnica de rocío pirolítico. La solución que se utiliza está conformada por 4.5 ml de alcohol absoluto y 0.5 ml de Bis (Acetilacetonato) de Diisopropóxido de titanio, ambos se mezclan y se colocan en el dispositivo de rocío pirolítico. La técnica del depósito se basa en colocar 4 muestras en una plancha a 500 C junto con una máscara la cual cubre del lado del FTO pero opuesto al devastado. Iniciando el procedimiento se sprayea 2 s al lado derecho y 2 s al lado izq., se dejan pasar 30 s sin depositar nada y se repite hasta que la solución se termine. Al retirar las muestras de la plancha caliente se colocan en un horno con una rampa de temperatura que inicia a temperatura ambiente con un aumento de 5 C / min y al llegar a los 370 C se detiene por 10 min, se continúa con el incremento de temperatura hasta alcanzar los 500 C y se detiene en esa temperatura por 30 min. El siguiente paso importante es el depósito de la perovskita por medio de la técnica de recubrimiento por centrifugación. La solución para hacer 1 ml de perovskita es 0.2166 g de FAI, 0.03636g de CsI, 0.645g de PbI2, 800 ml DMF y 200 ml de DMSO. Es importante mencionar que,  como parte del objetivo se hicieron variaciones de la cantidad de DMSO de esta solución con el propósito de evitar la rápida degradación de la perovskita en condiciones ambientales. La relación original entre Pb y DMSO es 1 : 1.96 y las variantes fueron 1:1.5, 1: 1.75, 1:2.125. Antes de aplicar la perovskita las muestras se colocan por 15 minutos en luz UV. Se toman 100 microlitros de la solución de perovskita y se vacía distribuyendo por toda la superficie. Se pone a girar la muestra a una velocidad de 6000 rev/min y se coloca clorobenceno (CB). La cantidad de CB y el tiempo en el que se colocaba fueron unos de los parámetros que se variaron en el diseño del experimento. La muestra se saca rápidamente y se coloca en el plato caliente a 150 C por 30 minutos. El siguiente paso es el depósito del Spiro O METAD para esto se utiliza la técnica de Spin Casting. La solución está conformada por 0.1446g de spiro en 2 ml de CB, 57 microlitros de Tributilfosfina (TBP), 35 microlitros de solución de 0.520 g de sal de litio en 1 ml de acetonitrilo. La muestra se hace girar a 4000 rev/min, se dejan pasar 5 s y se deposita la solución y a los 30 s se retira. Por último, se deposita plata en una evaporadora de metales.


CONCLUSIONES

Los primeros resultados en el depósito de perovskita variando parámetros como la cantidad de CB, tiempo de colocación del CB, tiempo total, temperatura del sustrato y temperatura de la solución arrojaron que la mejor configuración es la siguiente: 0.5 ml de CB, 25 s de tiempo de aplicación del CB, 30 s de tiempo total, a 60 C la solución y el sustrato a temperatura ambiente. Sin embargo, se decidió variar el tiempo total. La solución 1 corresponde a relación habitual 1:1.96, solución 2 a 1:1.5, solución 3 a 1:1.75 y solución 4 a 1:2.125. Los resultados al utilizar la solución 3 a simple vista fueron desagradables, las muestras presentaban tonalidades grisáceas. Con la solución 3 la perovskita no se cristalizó por tal razón se decidió no continuar con el terminado de la celda para tal solución. Con las soluciones restantes se terminaron de hacer todas las celdas como se describió anteriormente y el mejor resultado obtenido al hacer las mediciones con el simulador solar fue con la solución 2. La densidad de corriente promedio de las celdas que se hicieron con la solución 2 fue de 0.6197 A/cm2 mientras que, la eficiencia fue de 0.1652 % aunque el factor de llenado promedio fue el menor de las 3 soluciones utilizadas. La solución 2 es la correspondiente a una relación 1:1.75 entre Pb y DMSO. Tal como lo indicó el artículo, al disminuir la cantidad de DMSO la eficiencia aumentó. Sin embargo, es evidente que es una eficiencia muy pequeña comparada con los resultados esperados.    
Cruz Aguilera Arlys Karina, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Mtro. Alvaro Antonio Mejía Quiroz, Universidad Nacional Autónoma de Nicaragua, Managua

USO DE APPS PARA EL APRENDIZAJE DEL LENGUAJE DE SEñAS APLICADO A ESTUDIANTES DE LA CARRERA DE COMUNICACIóN PARA EL DESARROLLO Y FíSICA MATEMáTICA EN EL SEGUNDO SEMESTRE ACADéMICO 2024


USO DE APPS PARA EL APRENDIZAJE DEL LENGUAJE DE SEñAS APLICADO A ESTUDIANTES DE LA CARRERA DE COMUNICACIóN PARA EL DESARROLLO Y FíSICA MATEMáTICA EN EL SEGUNDO SEMESTRE ACADéMICO 2024

Cruz Aguilera Arlys Karina, Universidad Nacional Autónoma de Nicaragua, Managua. Palma Moran Luis Fernando, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Mtro. Alvaro Antonio Mejía Quiroz, Universidad Nacional Autónoma de Nicaragua, Managua



PLANTEAMIENTO DEL PROBLEMA

El principal objetivo de la investigación consiste en. Evaluar el impacto del uso de aplicaciones móviles en el aprendizaje del lenguaje de señas para estudiantes de Comunicación para el Desarrollo y Física Matemática durante el segundo semestre académico de 2024. con la finalidad de mejorar el proceso de enseñanza aprendizaje del lenguaje de señas. El aprendizaje del lenguaje de señas es uno de las actividades más importantes que se pueden aprender, las discapacidades auditivas y comunicativas son una de las más comunes en Nicaragua. Aprender este lenguaje ayuda no solo a comunicarse con esas personas, sino que también evita que se sientan excluidas en conversaciones. Se pueden observar en las cadenas de televisión pública y privadas traductores especializados en lenguaje de señas, esto para incluir a las personas en los eventos. De ahí que se debe practicar la inclusión con estas personas. Tanto en primaria, secundaria y en educación superior se presentan estudiantes con capacidades diferentes entre ellas las más comunes son las auditivas y de expresión de palabras, por lo que trabajar con estos jóvenes requiere de conocimientos técnicos en comunicación que muy pocos conocen como el lenguaje de señas, existen manuales que explican como hablar empleando las manos pero no existen aplicaciones que brinden una oportunidad para dar significado con más rapidez a las señas que se hacen. Los jóvenes que pueden comprender el lenguaje son pocos al igual que los maestros. En la actualidad se busca que los maestros aprendan desde sus estudios el lenguaje para poder establecer comunicación con personas con deficiencias en la comunicación o discapacidades de comunicación de nacimiento. Se pretende superar esa barrera comunicativa. El uso de la tecnología aplicada a la educación se ha convertido en un factor decisivo para el aprendizaje de la temática de lenguaje de señas e interpretación de las mismas.



METODOLOGÍA

Se hizo un análisis de las principales problemáticas que sufren las personas sordo mudas y las personas que tienen una discapacidad auditiva, y la principal problemática que se presentó fue el proceso de comunicación, en donde las personas no se pueden comunicar con individuos que poseen este tipo de discapacidad, principalmente porque desconocen el lenguaje de señas el cual es un lenguaje no verbal. Luego de la observación se hizo una búsqueda de aplicaciones virtuales que podrían ayudar a mejorar este problema y se procedió a su análisis cualitativo, destacando su funcionamiento y accesibilidad. Se hicieron entrevistas en línea dirigidas a 40 estudiantes procedentes del Centro Universitario Regional de Estelí, los cuales pertenecen a las carreras de I año de Comunicación para el Desarrollo y III año de Física Matemática, carreras donde la comunicación es una parte fundamental del proceso de enseñanza-aprendizaje. Donde se obtuvo los resultados siguientes: el 100 % de los estudiantes entrevistados conoce que es una enfermedad auditiva y de igual manera saben que es el lenguaje de señas. El 70 % de los entrevistados dijo que descargarían aplicaciones que les permita aprender con facilidad el lenguaje de señas. Además de agregar que Nicaragua presenta las condiciones adecuadas para la implementación y el desarrollo de tecnologías que aporten ayuda a la educación, así como programas de atención a personas con capacidades diferentes. El porcentaje de participación fue el siguiente, el 75 % de participación corresponde a la carrera de Física y el restante 25 % a Comunicación para el Desarrollo. Además de analizar el pensamiento de los estudiantes acerca de las discapacidades auditivas y que piensan de estas. Agregando, la muestra presenta características positivas las cuales son, el deseo de aprender lenguaje de señas para romper la barrera de comunicación con personas con discapacidad auditiva, para entablar conversaciones con ellos y así ayudarlos en situaciones donde se requiera, comunicarse con las personas es un impulso natural y primitivo por lo que se han buscado manera de establecer relaciones y mantenerlas como un símbolo de confianza y apoyo. Se muestra la simpatía de los estudiantes y personas en general al establecer relaciones de amistad con personas sordo mudas. El uso de aplicaciones educativas, ha sido implementado en el transcurso de los años como una forma de acelerar el proceso de adquisición de conocimientos en el aula de clase y como material de apoyo, de acuerdo a esta implementación se han visto grandes resultados en las áreas donde se ha presentado. Es por esto que aplicar tecnologías que porten ayuda al aprendizaje del lenguaje de señas es una buena señal y expresa el acompañamiento que se le debe dar a este proceso donde participan las personas y sus familias que desean aprender este lenguaje como su segunda lengua por así decirlo ya que el lenguaje de señas es un idioma de manera formal ya que posee características que lo hacen serlo. Por eso aprender lenguaje de señas es una manera de apoyar la inclusión de estas personas a la sociedad actual, donde la tecnología se vuelve cada vez más común y la comunicación se vuelve fundamental para expresar ya sea descontento o admiración hacia algo. La investigación tuvo un carácter exploratorio y de corte transversal, además de presentar un paradigma socio crítico y muestra no probabilística. Donde se utilizaron métodos de recolección de datos como la entrevista y la observación y se utilizaron fuentes primarias de datos, como lo son estudiantes y docentes, libros y sitios web gubernamentales que brindan información objetiva.


CONCLUSIONES

Las principales conclusiones a las que se llegaron fueron las siguientes: 1. El uso de tecnología aplicada a la educación es una herramienta de alto valor que debemos aprender a usar y aplicar a los entornos necesarios donde se puedan utilizar, en el lenguaje de señas se puede utilizar como una alternativa para la enseñanza tradicional de ésta. 2. Analizar aplicaciones antes de aplicarlas para confirmar su viabilidad y utilidad dentro del aula de clase y si la información que se presenta es correcta para retomarla, en el desarrollo de la clase.  
Cruz Peralta Luis Carlos, Universidad de Sonora
Asesor: Dra. Maria Elena Tejeda Yeomans, Universidad de Colima

EL MUóN: PROPIEDADES, MéTODOS DE PRODUCCIóN Y DISTINCIóN DE ESTOS A PARTIR DE INFORMACIóN OBTENIDA DURANTE EL PROCESO DE DETECCIóN.


EL MUóN: PROPIEDADES, MéTODOS DE PRODUCCIóN Y DISTINCIóN DE ESTOS A PARTIR DE INFORMACIóN OBTENIDA DURANTE EL PROCESO DE DETECCIóN.

Cruz Peralta Luis Carlos, Universidad de Sonora. Asesor: Dra. Maria Elena Tejeda Yeomans, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

El muón es una partícula elemental que pertenece al modelo estándar de la física de partículas. Esta es parte del grupo de los leptones y de la segunda generación de estos. Este tiene propiedades similares a las del electrón, pero difiere principalmente en la masa. El muón es aproximadamente 206 veces más pesado que el electrón. Aún si ambos tienen varias similitudes, el muón requiere de otro tipo de tecnología para poder ser estudiado efectivamente. Un ejemplo de esto reside en la construcción de aceleradores y colisionadores de partículas. Si bien existen de ellos para partículas como el electrón o el protón, no existen hoy en día para el muón. La dificultad para desarrollar un acelerador y colisionador de muones surge justamente de varias de las propiedades que caracterizan a esta partícula.   Existen varias interrogantes que nos podemos preguntar qué nos podrían ayudar a comprender más al muón y a sus propiedades. Algunas de estas son: ¿Qué es el muón?, ¿Cómo se produce el muón? y ¿Cómo se puede distinguir al muón entre aquellos que se producen en aceleradores y aquellos por fenómenos en la naturaleza (como algún evento astrofísico)?   Además de esto, es interesante para la investigación de las propiedades del muón el considerar la posible construcción de un acelerador de muones. Para ver si es factible este proyecto, se investigaron las siguientes preguntas: ¿Es posible su construcción?, ¿Qué nueva física se puede encontrar? y ¿Qué ventajas supone un acelerador de muones sobre aquellos aceleradores de otras partículas elementales?. 



METODOLOGÍA

Para responder a la primera pregunta relacionada a las propiedades del muón, se investigó la publicación del Particle Data Group (2024) en la que se listan las diferentes propiedades del muón. Esta contiene los datos más precisos que han sido medidos hasta la fecha por varias colaboraciones científicas. A continuación, para distinguir los orígenes del muón, se investigó en varias fuentes. La más importante de estas para comprender el origen astrofísico fue la publicación del Observatorio Pierre Auger (2023), y para el origen en aceleradores fueron las páginas web divulgativas del CERN (2024). Después, para entender cómo se logra la diferenciación en el orígen entre los muones cósmicos y los creados en aceleradores, se consultaron como fuentes a colaboraciones científicas que se dedican a la detección de estas partículas. En específico, se analizó el caso del detector de CMS en el CERN (2009) y de nuevo datos del Observatorio Pierre Auger (2024). Con esto se encontró que las diferencias vienen principalmente en la forma de:   Rango de energías en el que se encuentran los muones detectados. Distribución angular que los muones detectados siguen.   Lo siguiente que se hizo fue investigar sobre la posibilidad de la construcción de un colisionador de muones. En cuanto a la pregunta sobre si la construcción de  este es posible, la respuesta es que sí lo es pero aún hace falta el desarrollo de varios sistemas clave del acelerador que será usado para el colisionador. La posible física que se podría encontrar con su construcción es principalmente aquella relacionada a las extensiones del modelo estándar y la realización de mediciones con mayor precisión que las actuales. Esto fue lo que se reportó por parte de la IMCC (2024). En cuanto a las ventajas que supone un acelerador de muones sobre los aceleradores de otros tipo de aceleradores, también reportado por la IMCC (2024), es:    Generación de haces de neutrinos creados a partir del decaimiento de los muones. Acceso a nueva fısica relacionada a los muones Menos energía necesaria en sistema de referencia del centro de masa a comparación de colisionadores de protones Mejora de la proporción entre luminosidad y la potencia del haz a altas energías.


CONCLUSIONES

Durante el verano de investigación aprendí sobre las bases de la física de partículas, más específicamente, sobre las bases de la Teoría Cuántica de Campos y sobre el Modelo Estándar Cosmológico. Esto fue de ayuda para comprender la ciencia relacionada al estudio del muón. En este trabajo se encontró que efectivamente era posible el distinguir entre los muones generados de distintos medios gracias a las distribuciones angulares y energías que se les han detectado en instituciones científicas como en el CERN (2009). En los años que están por venir también se podrán estudiar las propiedades del muón a mayor profundidad de ser que se lleve a cabo el colisionador de muones que la IMCC (2024) está proponiendo. Esto significa que la investigación sobre las propiedades del muón aún no han terminado y que es un área de investigación que verá próximamente avances.    Referencias - S. Navas et al. (Particle Data Group), Phys. Rev. D 110, 030001 (2024) -Observatorio Pierre Auger. (2023, 18 julio). ¿QUÉ SON LOS RAYOS CÓSMICOS? - Observatorio Pierre Auger. Observatorio Pierre Auger - Observatorio de Rayos Cósmicos Pierre Auger Argentina, The Pierre Auger Cosmic Ray Observatory Argentina. https://visitantes.auger.org.ar/index.php/que-son-los-rayos-cosmicos/ - Liu, C. (2009). Cosmic Muon Analysis with the CMS Detector. Bulletin Of The American Physical Society. https://indico.cern.ch/event/41044/contributions/1866792/attachments/831212/1149515/Cosmic\_CLiu\_APSDPF.pdf - Góra, D. (2024). Muon measurements at the Pierre Auger Observatory. SciPost Physics Proceedings, 15. https://doi.org/10.21468/scipostphysproc.15.020 - C.Accettura et al. (2024). (International Muon Collider), Interim report for the International Muon Collider Collaboration (IMCC) [arXiv:2407.12450 [physics.acc-ph]].
Cruz Sánchez Alejandra Guadalupe, Universidad de Guadalajara
Asesor: Post-doc Jorge Andrés Ramírez Rincón, Fundación Universidad de América

ANáLISIS DE ESCALAMIENTO Y UNIFORMIDAD DE PELíCULAS DELGADAS DE TIO2 PARA CELDAS SOLARES


ANáLISIS DE ESCALAMIENTO Y UNIFORMIDAD DE PELíCULAS DELGADAS DE TIO2 PARA CELDAS SOLARES

Cruz Sánchez Alejandra Guadalupe, Universidad de Guadalajara. Asesor: Post-doc Jorge Andrés Ramírez Rincón, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

La contaminación atmosférica y el uso excesivo de combustibles fósiles ha obligado a científicos a buscar alternativas más económicas y amigables con el planeta como fuente de energía. El Sol al ser la fuente de energía renovable más abundante convierte a las celdas solares en las favoritas para remplazar otro tipo de fuentes más contaminantes. Sin embargo, las celdas solares a base de silicio suelen contaminar durante su fabricación y después de su vida útil ya que generan muchos residuos, además son costosas y poco accesibles. En 1991  Gratel & O’Regan crearon un tipo de celdas caracterizadas por usar tintes para absorber la luz adheridos a una película delgada semitransparente de dióxido de titanio (TiO2). Suele usarse este material ya que presenta baja toxicidad, alta estabilidad térmica y química, además de bajo costo de producción. Un problema que se presenta al usarlo en celdas solares es el escalamiento, la reducción de material y la uniformidad, es decir, que la capa de depósito sea igual en toda la superficie depositada. Es por ello por lo que en este trabajo se quiere estudiar la uniformidad para distintas concentraciones de TiO2 y  diferentes tamañosde depósito, para que sea optimo implementarlas en celdas más grandes.



METODOLOGÍA

Hicimos soluciones de TiO2 con alcohol bencílico a diferentes concentraciones: 1:0.5, 1:1.25 y 1:1.5 en viales de 2 ml. Posteriormente, depositamos las soluciones en vidrios cuadrados de aproximadamente 0.4 mm^2 de área por medio de una máquina de serigrafía. Los depósitos los hicimos con una, dos y tres capas, midiendo el espesor entre cada una de ellas. Sin embargo, después de la primera capa no detectamos variación en el espesor, lo que significa que la máquina retiró los depósitos ya hechos al hacer el segundo y tercero. Esto se debe a que las soluciones son lo suficientemente liquidas para que el material se adhiera a la superficie del vidrio, por lo que descartamos usar soluciones con ese tipo de alcohol. Enseguida, hicimos las mismas muestras con TiO2 puro, obteniendo un espesor mínimo de 400 nm y 3 μm. Observamos que en este caso se presenta una variación en el espesor entre cada capa, lo que significa que hay adherencia. Probamos variar la presión de la máquina a la hora de hacer el depósito, obteniendo el menor espesor usando la presión media. Después, hicimos el mismo procedimiento con vidrios cuadrados FTO (óxido de estaño dopado con flúor) con un área aproximada de 0.39 mm^2, que son más conductores que los convencionales, por lo que este tipo de vidrios se utilizan como sustratos en las DSSC. Antes de hacer uso de estos vidrios se someten a un lavado ultrasónico con una solución de agua y jabón, etanol (C2H6O) 50% e isopropanol (C3H8O) durante 15 minutos cada uno a temperatura ambiente. Una vez realizado el lavado hicimos el depósito, midiendo el espesor entre cada capa, haciendo tres capas en total. Obtuvimos un espesor total de aproximadamente 7 μm, lo que es óptimo ya que queremos probar espesores menores a los reportados en (Spadaro et al. 2024). Una vez aplicadas las capas, activamos los vidrios en una Mufla, alcanzando una temperatura máxima de 530°C durante 3 horas y manteniéndose en esa temperatura 1 horas. Realizamos el estudio de la uniformidad de las capas de TiO2 utilizando espectroscopia hiperespectral por medio de una cámara en la que cada píxel de la foto hiperespectral obtenida contiene el espectro de 400-1000 nm en 204 bandas. Se obtuvo una uniformidad arriba del 98% para las capas de TiO2. Para comprobar la permanencia de la uniformidad se aplicaron los tintes a los sustratos y se dejaron sumergidos en un periodo de 24 horas, posterior a este las capas de TiO2 absorbieron el tinte en el que estuvieron sumergidas. Estudiamos la uniformidad de las capas con el tinte, sin embargo, notamos que está disminuía hasta el 95%, siendo la zona UV la que presentó una uniformidad menor del 85% aproximadamente.


CONCLUSIONES

El uso de alcohol bencílico para crear soluciones con TiO2 no funcionó debido a que no hay adherencia con los vidrios, es por ello por lo que optamos por usar TiO2 solo, variando la presión para obtener menor espesor, que se obtuvo en la presión media. También encontramos uniformidad en las capas del 98%, sin embargo, esta se reduce al aplicarle el tinte, creemos que es debido a la manipulación de la película delgada, ya que es muy sensible al tacto y se puede dañar. Por último, proponemos hacer más pruebas controlando el manejo y depósito de tinte para que la uniformidad se mantenga.  
Cruz Toledo Fernanda Asyadeh, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Gladys Linares Fleites, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE LA CONTAMINACIóN ACúSTICA EN PARQUES URBANOS: UN ENFOQUE CON PONDERACIóN A EN LA CIUDAD DE PUEBLA.


ANáLISIS DE LA CONTAMINACIóN ACúSTICA EN PARQUES URBANOS: UN ENFOQUE CON PONDERACIóN A EN LA CIUDAD DE PUEBLA.

Cruz Toledo Fernanda Asyadeh, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Gladys Linares Fleites, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, con las repercusiones del cambio climático, es crucial entender cómo contaminamos nuestro planeta. Una forma de contaminación es la acústica, que impacta tanto el entorno como nuestra salud. El estudio de las ondas se remonta a la antigua Grecia. Pitágoras analizó la relación entre la longitud de las cuerdas en instrumentos musicales y el tono. Aristóteles afirmó que el aire entre un objeto sonoro y un perceptor se "mueve" cuando ese objeto suena. Galileo Galilei luego describió las ondas sonoras como vibraciones que se difunden por el aire y estimulan el oído. En 1933, H. Fletcher y W. A. Munson publicaron "Loudness, Its Definition, Measurement and Calculation", donde mencionaron la ponderación A. Reclutaron sujetos que ajustaron tonos en una cámara anecoica para percibirlos con la misma intensidad. Así, descubrieron que el oído humano es menos sensible a las frecuencias graves y agudas. Hoy, la ponderación A se aplica en sonómetros para medir la presión sonora de forma similar a como la percibe el oído humano. El ruido y el sonido no deben confundirse. El sonido son vibraciones audibles, mientras que el ruido es caótico y nocivo, contribuyendo a la contaminación acústica. La exposición al ruido provoca molestias, alteraciones del sueño y aumento del estrés, relacionado con problemas de salud mental y enfermedades cardiovasculares. También puede deteriorar la audición, lo que afecta la calidad de vida y la comunicación verbal. El ruido impacta la biodiversidad. Los animales usan sonidos para comunicarse y detectar peligro. El ruido reduce la detectabilidad de estos sonidos, afectando la integridad del ecosistema. La preocupación por la contaminación acústica ha crecido debido a su capacidad para afectar tanto el entorno natural como la salud humana. Los sonómetros, que utilizan la ponderación A, permiten medir y estudiar esta contaminación. Es fundamental realizar estudios continuos que monitoreen y actualicen la información sobre la contaminación acústica. Uno de los métodos más efectivos para medir el ruido es con el uso de la ponderación A, la cual es crucial para obtener datos precisos y relevantes sobre los niveles de ruido y su impacto. Entre los estudios actuales destaca el trabajo realizado por Juárez-Ruanova, L.I., quien durante seis meses capturó los niveles de ruido en tres distintos parques de la ciudad de Puebla. Para este estudio, utilizaremos los datos obtenidos por Juárez-Ruanova durante una mañana, en uno de estos tres parques.



METODOLOGÍA

Para realizar la medición del ruido en el Parque Jardín del Arte, de la ciudad de Puebla, se hizo uso principal de un sonómetro digital Reed R8080. Incluido en el empaque del sonómetro, hay un calibrador R8090, con un rango de medición de 30 hasta 130 dB, resolución de 0.1 dB, para asegurar que las mediciones de nivel de sonido sean precisas y confiables; también el empaque incluye una espuma cortavientos para reducir el ruido del viento. Una vez que el sonómetro fue calibrado con ponderación A, y se le introdujo la espuma cortavientos, se hizo uso del método de medición establecido en la NOM-081-ECOL-1994. Se colocó a 1.2m sobre la superficie del suelo en un trípode y se le alejó 2 metros de cualquier objeto o superficie que fuera capaz de intervenir en la medición del ruido. Se establecieron 6 puntos diferentes en el Parque, cuyas coordenadas pudieron ser localizadas mediante el uso de un GPS, en coordenada UTM del sistema WGS 84. Los puntos referenciados se numeraron del 1 al 6. Posteriormente, el ruido fue medido a las 6:30 am, durante 10 minutos. Debido a que el sonómetro tomaba muestras cada 2 segundos, se obtuvieron 300 datos en cada uno de los puntos. Finalmente, los datos fueron procesados obteniéndose el siguiente análisis: Los puntos 1, 2, y 3 tienen medias y medianas cercanas, lo que indica una distribución simétrica. Además, cada uno de los tres puntos mencionados anteriormente, sus promedios, se encuentran por debajo del límite máximo permisible, establecido en 55 dB(A) por NOM-081-ECOL-1994. Se notó que el 3 tiene la menor desviación estándar de 1.861 y varianza de 3.462, indicando que los datos están más concentrados alrededor de la media. Los puntos 4 y 5 tienen medias y medianas más altas, señalando el registro de ruidos más fuertes. Mientras que la media del punto 4, 55.744 dB(A), sobrepasa ligeramente el límite máximo permisible, la media del punto 5, 59.573 dB(A), se sobrepasa con una gran diferencia. Por otra parte, el punto 6 presenta una mayor variabilidad con 21.864 dB(A). Esto indica una mayor diversidad en los decibeles de los sonidos capturados. Esta variabilidad es evidente al comparar el primer cuartil, que se encuentra en 50.500 dB(A) y está por debajo del límite máximo permisible, con el tercer cuartil, que se sitúa en 56.450 dB(A) y supera dicho límite.


CONCLUSIONES

Al analizar seis diferentes puntos del Parque Jardín del Arte en la ciudad de Puebla, se muestran variaciones en los niveles de ruido, tanto en términos de tendencia central como de dispersión. Estas variaciones se vuelven fundamentales para entender que en los parques urbanos no sólo se encuentran sonidos de fuentes naturales, sino que también están presentes ruidos de la contaminación auditiva, causada por actividades antrópicas. Los resultados de este estudio revelan la compleja interacción entre los sonidos naturales y la contaminación acústica en los parques urbanos. La presencia de ruido proveniente de actividades humanas altera el equilibrio acústico de estos espacios, afectando tanto a la biodiversidad, como a la salud y bienestar de las personas. Es importante considerar estas dinámicas al elaborar y gestionar las normas que priorizan la creación de entornos acústicamente saludables para mejorar la calidad de vida de los ciudadanos.
Cuellar Castillo Emmanuel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Hugo Adán Cruz Suárez, Benemérita Universidad Autónoma de Puebla

SIMULACIóN ESTOCáSTICA DE PRECIOS DE ACTIVOS FINANCIEROS


SIMULACIóN ESTOCáSTICA DE PRECIOS DE ACTIVOS FINANCIEROS

Cuellar Castillo Emmanuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Hugo Adán Cruz Suárez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El análisis y la predicción del comportamiento de los activos financieros juegan un papel central en la toma de decisiones en el ámbito de las finanzas. Empresas del sector bancario, asegurador e inversor, entre otros, destinan gran parte de sus esfuerzos a la proyección de precios futuros de activos utilizados en sus operaciones diarias, con el objetivo de obtener ganancias o mitigar pérdidas derivadas de las fluctuaciones de los precios. Las técnicas de modelado de simulación estocástica son herramientas clave en la gestión de riesgos dentro del ámbito financiero. Permiten estimar el valor futuro de los activos y analizar las trayectorias posibles en función de diferentes escenarios. Dado que factores como la volatilidad de los mercados financieros y las condiciones económicas afectan significativamente los activos de las empresas, es esencial utilizar métodos robustos para pronosticar precios y evaluar riesgos.



METODOLOGÍA

Se emplearon diversos enfoques de simulación para estimar el valor futuro de los activos financieros. Los activos seleccionados fueron de tres tipos: Acciones: Utilizamos a Apple Inc. como ejemplo, una empresa multinacional estadounidense que cotiza bajo el símbolo AAPL. Apple fue elegida debido a su alta capitalización de mercado, superior a 2 billones de dólares, y su sólida posición financiera. Índice Bursátil: Seleccionamos el S&P 500, que agrupa las 500 mayores empresas públicas de EE.UU. Este índice proporciona una visión integral del mercado estadounidense y es ampliamente usado como comparativo del rendimiento de otros activos financieros. Para facilitar la modelación en términos monetarios, utilizamos el ETF SPY, que replica el S&P 500. Divisa: Consideramos el tipo de cambio USD/MXN, crucial para evaluar inversiones y activos denominados en dólares en el mercado financiero mexicano. Analizar este tipo de cambio nos permite entender el impacto de las fluctuaciones monetarias en el valor de las inversiones y transacciones futuras. Esta selección nos permitirá modelar y simular el comportamiento de precios y riesgos en diferentes contextos financieros. Para la recopilación de los datos, así como el manejo de estos y el desarrollo de las simulaciones, se utilizó el software estadístico R. Se emplearon datos financieros que abarcan desde el 1 de enero de 2022 hasta el 1 de junio de 2024 para cada uno de los activos financieros previamente mencionados. Se recopilaron datos sobre el precio de cierre ajustado para estimar el rendimiento esperado, así como la volatilidad de los activos. Estos datos fueron utilizados como parámetros para los modelos de simulación. Con estos parámetros se desarrolló, en un inicio, un modelo introductorio mediante el enfoque de un proceso estocástico de cadenas de nacimiento y muerte, para posteriormente realizar un análisis de probabilidades de crecimiento en el valor del activo, probabilidades de ruina y tiempos esperados de alcance para diferentes valores clave de los activos financieros. Para la parte robusta de la simulación, se desarrolló la aplicación del proceso de Wiener para el pronóstico del valor futuro de los activos. A su vez, esto llevó a la parte crucial de la determinación del precio de opciones financieras call y put. Se definió una función de simulación para generar trayectorias aleatorias del precio futuro de los activos utilizando el proceso de Wiener. Se ejecutaron múltiples simulaciones de estas trayectorias aleatorias adicionales para el mismo período, utilizando enfoques alternativos de modelado estocástico, así como su comparación. Determinamos el precio de las opciones mediante el promedio del valor presente del retorno de la operación financiera derivada, usando el enfoque Montecarlo de simulación asociado con el proceso de Wiener.


CONCLUSIONES

Durante la estancia de verano, se logró adquirir y aplicar conocimientos avanzados sobre la estimación del valor futuro de activos y la gestión de riesgos utilizando técnicas de simulación estocástica. Se desarrollo la teoría matemática necesaria durante las sesiones del verano para la correcta aplicación de los procesos.  Se implementaron modelos que permitieron la generación y análisis de trayectorias aleatorias de precios, estos enfoques de simulación proporcionaron una comprensión más profunda de la dinámica de precios y riesgos, permitiendo un mejor entendimiento de las estrategias de inversión y la toma de decisiones financieras en el futuro.  
Cuevas Gómez Eduardo, Universidad Autónoma de Zacatecas
Asesor: Dra. Leticia Treviño Yarce, Benemérita Universidad Autónoma de Puebla

ESTUDIO Y DESARROLLO DE CELDAS SOLARES MEDIANTE SIMULACIóN NUMéRICA UTILIZANDO SCAPS 1D


ESTUDIO Y DESARROLLO DE CELDAS SOLARES MEDIANTE SIMULACIóN NUMéRICA UTILIZANDO SCAPS 1D

Cuevas Gómez Eduardo, Universidad Autónoma de Zacatecas. Asesor: Dra. Leticia Treviño Yarce, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La necesidad urgente de adoptar fuentes de energía sostenibles ha impulsado la investigación en tecnologías avanzadas de celdas solares. Las celdas solares basadas en heterouniones de ZnO/Si_p presentan un gran potencial debido a sus beneficios ambientales y su bajo costo. Sin embargo, para maximizar su eficiencia y viabilidad comercial, es crucial optimizar parámetros como el espesor de las capas semiconductoras y el ancho de banda prohibida. El software SCAPS-1D ofrece una herramienta poderosa para la simulación numérica, permitiendo ajustar estos parámetros antes de realizar experimentos físicos, lo que ahorra tiempo y recursos. Este estudio se enfoca en evaluar cómo el espesor del semiconductor y el ancho de banda afectan la eficiencia, el voltaje de circuito abierto (Voc), la corriente de cortocircuito (Jsc) y el factor de forma (FF) de las celdas solares ZnO/Si_p. A través de simulaciones detalladas, se busca identificar las configuraciones óptimas que maximicen la absorción de luz y minimicen las pérdidas por recombinación, proporcionando una guía para el desarrollo de celdas solares altamente eficientes. El planteamiento del problema se centra en determinar los parámetros óptimos de espesor y ancho de banda que maximicen la eficiencia de las celdas solares basadas en heterouniones ZnO/Si_p, utilizando simulaciones numéricas para guiar el diseño y la fabricación de estos dispositivos.  



METODOLOGÍA

Para la simulación de las celdas solares se usaron los siguientes parámetros: - **ZnO:**   - Espesor: 0.01-5 µm   - Banda prohibida: 3.2-3.3 eV   - Afinidad electrónica: 4.650 eV   - Permitividad dieléctrica: 8.5   - Movilidad del electrón: 100 cm²/Vs   - Movilidad del hueco: 2500 cm²/Vs   - Densidad de donadores (Nd): 1x10¹⁹ cm⁻³ - **Si_p:**   - Espesor: 50-600 µm   - Banda prohibida: 1.1-1.5 eV   - Afinidad electrónica: 4.05 eV   - Permitividad dieléctrica: 11.9   - Movilidad del electrón: 1500 cm²/Vs   - Movilidad del hueco: 480 cm²/Vs   - Densidad de aceptores (Na): 1x10¹⁶ cm⁻³ Se realizaron simulaciones con SCAPS 1D variando estos parámetros y se analizaron los efectos en Voc, Jsc, FF y la eficiencia de la celda solar.


CONCLUSIONES

Los resultados de este estudio muestran que el espesor y el ancho de banda de las capas semiconductoras tienen un impacto significativo en el rendimiento de las celdas solares basadas en la heterounión ZnO/Si_p. En particular, se observó que un aumento en el espesor de la capa p conduce a un incremento en el voltaje de circuito abierto (Voc), la densidad de corriente de cortocircuito (Jsc) y el factor de forma (FF). Esto se debe a una mejor absorción de fotones, una reducción en la recombinación de portadores y una mejora en la recolección de portadores generados. En consecuencia, la eficiencia global de la celda solar mejora con un mayor espesor de la capa p. Por otro lado, el ancho de banda del semiconductor tipo p también afecta el rendimiento de la celda. Un mayor ancho de banda reduce la recombinación de portadores, lo que incrementa el Voc. Sin embargo, esto puede disminuir la Jsc debido a una menor absorción de fotones de baja energía. A pesar de estos efectos adversos en la Jsc y el FF, la eficiencia global de la celda puede aumentar si el incremento en Voc es lo suficientemente significativo como para compensar las pérdidas en corriente y factor de forma. En contraste, aumentar el espesor de la capa n no afecta significativamente el Voc pero reduce la Jsc debido a la mayor distancia que deben recorrer los portadores de carga, lo que incrementa la probabilidad de recombinación antes de ser recolectados. A pesar de que el FF puede mejorar debido a una reducción en las pérdidas resistivas, la eficiencia global de la celda disminuye debido a la reducción en la generación de corriente total. Finalmente, un aumento en el ancho de banda de la capa n tiende a disminuir el Voc pero incrementa la Jsc y el FF. Esto se debe a una mejor recolección de portadores y una reducción en las pérdidas resistivas, lo que mejora la eficiencia de conversión de energía a pesar de la reducción en Voc. En conclusión, el espesor de las capas semiconductoras tiene un impacto más significativo en la eficiencia de las celdas solares ZnO/Si_p en comparación con el ancho de banda. Específicamente, un mayor espesor de la capa p mejora la eficiencia, mientras que un mayor espesor de la capa n tiende a reducirla. Además, el ancho de banda influye más en la capa p que en la capa n, afectando principalmente el Voc y la recombinación de portadores. Estos hallazgos proporcionan una guía valiosa para optimizar el diseño y la fabricación de celdas solares de alta eficiencia utilizando simulaciones numéricas con SCAPS-1D.
Dávila Calderón Luis Diego, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional

SELECCIóN DE DETECTORES PASIVOS PARA DOSIMETRíA DE RADIACIóN EN MAMAS, PRóSTATA, CERVICOUTERINO Y DOSIMETRíA AMBIENTAL


SELECCIóN DE DETECTORES PASIVOS PARA DOSIMETRíA DE RADIACIóN EN MAMAS, PRóSTATA, CERVICOUTERINO Y DOSIMETRíA AMBIENTAL

Dávila Calderón Luis Diego, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El uso de la radiación ionizante es una práctica intrínseca en el ámbito de la medicina tanto para diagnóstico como para terapia, su uso está bien cimentado y se encuentra en constante crecimiento y evolución, es por ello por lo que es esencial conocer y cuantificar de manera efectiva las dosis impartidas a los pacientes y al personal ocupacionalmente expuesto.  Tan solo en México en el año 2017  catorce de cada cien mexicanos murieron  por cáncer, convirtiendo a este en la tercera causa de muerte y considerado que los tumores más frecuentes fueron de mama, próstata y cervicouterino con 20 mil y 14 mil casos respectivamente es vital estudiar  las dosis de radiación que estos órganos absorben y la radiación ambiental que estos procedimientos provocan, no solo con el fin de hacer una pequeña contribución a la basta información existente si no como una aportación a la construcción de una cultura de protección radiológica.



METODOLOGÍA

Homogenización de dosímetros termoluminiscentes (TLD-100). Tratamiento térmico Se introdujo nuestro lote  de 110  TLD.100 a la mufla durante  una hora a una temperatura de 400 °C. Esto con el fin de eliminar cualquier residuo de nuestros TLDs y liberar cualquier trampa existente. Irradiación a una sola dosis. Nuestros dosímetros fueron expuestos a una dosis de 50 cGy  en un acelerador lineal Elekta Synergy, los TLD-100 fueron posicionados en un campo de 10x10 cm, existiendo una distancia de 100 cm entre la fuente y la superficie   Lectura de los TLD-1OO Una vez irradiados los dosímetros se obtuvieron la curva de brillo, para esto se utilizó una rampa de calentamiento de 10°C por segundo partiendo de 0 hasta llegar a las 350 °C usando el instrumento lexsygsmart - Automated TL/OSL Reader. Nota: El procedimieto de lectura de los TLDs no se detallan en esta seccion ya que fue un trabajo ageno al nuestro, sin embargo en el paso 5 se explica los pasos que se sigueiron usando el intrumento Harshaw 3500   Análisis de los datos El análisis consistió en exportar los datos a 0riginPro 2018, graficar la intensidad con respecto a la temperatura en sublotes de 10 dosímetros, posteriormente se calculó el área bajo la curva de cada dosímetro. Nota. Cada TLD múltiplo de 11 presenta un comportamiento diferente al reto ya que son dosímetros testigo.   Selección de dosímetros Una vez que se obtuvo el área bajo la curva de nuestros dosímetros se realizó una gráfica de dispersión, se obtuvo el porcentaje y se delimitó con el más menos 5%, despues seleccionamos los dosímetros que estaban dentro de ese parámetro. Del lote inicial de 110 dosímetros solo seleccionamos 26 dosímetros para calcular nuestra ecuación ya que estos presentaban una respuesta termoluminiscente homogénea. Para la selección de dosímetros para los tratamientos se realizó un histograma y se seleccionaron secciones con respuestas similares. OBTENCION DE LA ECUACION DE RESPUESTA TERMOLUMINISENTE DEL DOSIMETRO Todos los dosímetros fueron colocados sobre 12 placas de agua solidad a una distancia de 100 cm de la salida de radiacion del LINAC en un campo de 10 x 10 cm, para cada sublote se irradio unos dosímetros a 100 cGy, otros a 200 cGy y por ultimo a 300 cGy, esto para poder obtener cuatro ecuaciones de respuesta termoluminiscente correspondiente a cada irradiación. APLICACIÓN DEL TRATAMIENTO TÉRMICO DE BORRADO Este paso se menciono en el apartado 1.a, sin embargo no se profundizó ya el equipo de trabajo no fue quien lo realizó. Primero se colocaron todos nuestros TLDs  en un aplaca, procurando no perder de vista el primer dosímetro y contemplando que conservaran la misma numeración ya previamente asignada, posteriormente se colocó la mufla a una temperatura de 400°C, se colocaron nuestros dosímetros con sumo cuidado y sin afectar su posición para no perder la numeración y se dejó ahí una hora, una vez terminado el tiempo se esperaba la suficiente para que la temperatura de la mufla bajara y de esta forma nuetrosTLDs no tuvieran un shock térmico. Exposición a tratamiento de radioterapia y medición de radiacion ambiental. Se seleccionó 4 conjuntos de TLDs que tuvieran una respuesta termoluminiscente similar esto con la ayuda del histograma. Se ocuparon 8 dosímetros (dos por cada ubicación) tanto para cáncer de próstata como cervicouterino, 14 dosímetros para cáncer de mama y 12 para medir dosis ambiental. Los dosímetros fueron irradiados en el Hospital Central Militar con un acelerador lineal Elekta Synergy  y colocados sobre un fantoma antropomórfica  en una distribución, para el caso de ambiental se utilizó 3 porta dosímetros con 4 dosímetros cada uno, los cuales se colocaron en distintas distancias del acelerador lineal. Todo este proceso se realizó dos veces, en ambos casos se mantuvieron las mismas condiciones y medidas anteriormente mencionadas. Análisis de resultados Una vez obtenido los datos de los dosímetros de cada tratamiento de radioterapia, los de simulación de POE y los ambientales se realizó un análisis de las dosis tanto de los dosímetros instalados en el Isocentro como de los colocados en las diferentes partes del fantoma, se cuantifico la dosis de los dosímetros ambientales     


CONCLUSIONES

Gracias al análisis previo nos damos cuenta de que los dosímetros realmente no son homogéneos y no cumplen con lo mencionado por el proveedor, se recomienda hacer el mismo análisis cuando se trabaje un lote o tú mismo realizar el material. La relación de respuesta TL y dosis absorbida que obtuvimos gracias a nuestra ecuación característica es de comportamiento línea; sin embargo, arroja datos incompatibles con los conocidos, se recomienda volver a realizar el proceso con más cuidado y mejores sublotes de dosímetros. Vemos como la dosis disminuye, confirme se aleja del isocentro e incluso se calculó la ecuación de este fenómeno El dosímetro ambiental número dos representa mayor respuesta TL, lo cual indica que no necesariamente el dosímetro ambiental más cercano a la fuente es el que presentara más radiación    Se invita a reproducir estos pasos y se deja abierta el tema para posibles debates.  
de Alberti Brechlin Demian Leonardo, Instituto Tecnológico de Tepic
Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla

ANáLISIS PARA DETECCIóN DIRECTA DE MATERIA OSCURA EN LA EXTENSIóN DEL MODELO ESTáNDAR CON UN SINGLETE ESCALAR REAL (SM+SR)


ANáLISIS PARA DETECCIóN DIRECTA DE MATERIA OSCURA EN LA EXTENSIóN DEL MODELO ESTáNDAR CON UN SINGLETE ESCALAR REAL (SM+SR)

de Alberti Brechlin Demian Leonardo, Instituto Tecnológico de Tepic. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Observaciones astrofísicas como cosmológicas postulan la existencia de lo que llamamos Materia Oscura (DM) que, por medidas de Planck, debe sumar alrededor de una cuarta parte del total del Universo. Si bien, una gran variedad de candidatos a DM han sido propuestos, uno de los candidatos más prometedores son las partículas débilmente interactuantes (WIMPs).



METODOLOGÍA

Para su búsqueda se utilizan tanto métodos de detección directos como indirectos. En este trabajo nos enfocamos en el estudio de la detección directa de un candidato a DM, para ello, revisamos las generalidades de los experimentos de detección directa e identificamos las condiciones físicas y teóricas que propician la interacción entre DM y nucleón.


CONCLUSIONES

Se analiza la viabilidad de un candidato a DM en el marco de la extensión del Modelo Estándar con un single escalar real (SM+SR) usando los softwares especializados Feynrules y MicrOmegas.
de Anda Fierros Maria Eugenia, Universidad de Guadalajara
Asesor: Dr. Diego Armando Pantoja González, Universidad de Guadalajara

PROCESOS FíSICOS EN MARES Y LAGOS MEXICANOS


PROCESOS FíSICOS EN MARES Y LAGOS MEXICANOS

de Anda Fierros Maria Eugenia, Universidad de Guadalajara. Asesor: Dr. Diego Armando Pantoja González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La Bahía de Guaymas es una laguna costera localizada al norte de México en las costas del Océano Pacífico, en el Golfo de California. Dentro de la Bahía se encuentra la terminal marítima de Guaymas que, dada su ubicación, representa una vía principal de movimiento del comercio en México. El Puerto de Guaymas ha sido un pilar fundamental para el desarrollo industrial de la zona, sin embargo, ha carecido de planificación ambiental, y sus aguas residuales son vertidas sin tratamiento a la Bahía de Guaymas. Esto genera un desbalance en el ecosistema marino de la zona, que se puede manifestar como un sobre-enriquecimiento de nutrientes en la zona costera, el cual tiene como consecuencia principal el incremento de algas mayoritariamente tóxicas que provocan la disminución de oxígeno disuelto en el agua.  Para comprender las condiciones propicias para la floración algal, se utilizaron imágenes satelitales y mediciones in situ para medir parámetros como la concentración de clorofila-a y la temperatura del agua. Complementando con simulaciones numéricas del modelo Delft3D-FLOW, el cual será configurado, calibrado y validado con datos históricos.  



METODOLOGÍA

Configuración del modelo Delft3D-FLOW En primer lugar, se creó la línea de costa de la Bahía de Guaymas con la herramienta Google Maps, con la cual se generó un archivo en formato *.kml. Posteriormente, este archivo fue convertido a formato *.ldb mediante el uso de MATLAB. Con la línea de costa definida, se empleó la interfaz gráfica del modelo RGFGRID para generar una malla que siguiera de manera precisa dicha línea. Se creó una malla rectangular, no muy fina para no exceder el tiempo de simulación. Seguidamente, se cargaron los datos batimétricos proporcionados por el investigador en la herramienta QUIKIN, donde se realizó una interpolación de los mismos. El paso temporal del modelo se configuró en 60 segundos para garantizar un número de Courant adecuado. Con la batimetría y la malla ya establecidas, se procedió a la configuración del modelo Delft3D-FLOW. Para la batimetría, se utilizó un modelo de capa Z, dividido en 10 capas. Los flujos de viento y de calor fueron obtenidos de la base de datos NARR, perteneciente a la NOAA. Las simulaciones hidrodinámicas requieren de condiciones iniciales y de frontera; para las condiciones iniciales, se utilizaron datos históricos de salinidad y temperatura. En cuanto a las condiciones de frontera, al tratarse de una bahía, se consideraron dos fronteras abiertas. A estas se les asignó un forzamiento astronómico y se cargaron datos típicos de oscilación de marea, proporcionados por el investigador.  Se realizó una simulación de un mes, del 1 de mayo de 2024 al 31 de mayo de 2024, con la incorporación de 3 puntos de monitoreo: uno dentro de la Bahía, otro entre las islas, y el tercero en la conexión con el Golfo de California. Percepción remota La percepción remota es una técnica de observación a distancia que permite la medición de objetos lejanos sin necesidad de interactuar directamente con ellos. Para el estudio de la Bahía de Guaymas, se utilizaron datos satelitales de los satélites Sentinel-2 y Sentinel-3 de la Agencia Espacial Europea (ESA). El procesamiento de las imágenes se realizó con el programa SNAP, desarrollado por la ESA. Con los datos del Sentinel-2, se analizó principalmente la presencia de plantas acuáticas, como algas, en la Bahía de Guaymas. Estos datos fueron complementados con información del Sentinel-3, el cual cuenta con productos que permiten detectar la presencia de clorofila-a y generar imágenes de la temperatura superficial del agua.


CONCLUSIONES

Se adquirieron conocimientos sobre modelación hidrodinámica con el modelo Delft3D-FLOW y el procesamiento de imágenes satelitales. Estos conocimientos permitirán analizar los procesos hidrodinámicos y termodinámicos que contribuyen a la acumulación de algas nocivas en las costas mexicanas.
de Jesús Piedra Martín Emmanuel, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Dulce María González Utrera, Centro de Investigaciones en Óptica (CONACYT)

SIMULACIóN DE IMáGENES PARA EL ESTUDIO DE DIFERENTES AMETROPíAS UTILIZANDO LA FUNCIóN DE DISPERSIóN DE PUNTO.


SIMULACIóN DE IMáGENES PARA EL ESTUDIO DE DIFERENTES AMETROPíAS UTILIZANDO LA FUNCIóN DE DISPERSIóN DE PUNTO.

de Jesús Piedra Martín Emmanuel, Benemérita Universidad Autónoma de Puebla. Jimenez Aguilar Estrella, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Dulce María González Utrera, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las ametropías son defectos refractivos del ojo que impiden que las imágenes se enfoquen correctamente en la retina. Las principales ametropías son la hipermetropía, la miopía y el astigmatismo. Al estudiar y comprender cómo ven las personas que presentan este tipo de errores refractivos, se pueden proponer elementos oftálmicos que compensen estos defectos visuales, teniendo así un impacto significativo en su calidad de vida.



METODOLOGÍA

Para la elaboración de este proyecto se estudia al ojo visto como un sistema óptico. En el dispositivo experimental, se utiliza un láser rojo de 635 nanómetros que se alinea para pasar por un filtro espacial. Este proceso implica el uso de un objetivo de microscopio de 10X y un pinhole de 50 micrómetros, lo que permite limpiar el haz y formar un cono de luz que se expande. Luego, este haz pasa a través de una lente con una distancia focal de 200 mm, situada frente al pinhole, lo cual permite obtener un haz de luz colimado, es decir, un frente de onda plano. Posteriormente, se coloca una lente esférica que simula la córnea y una cámara CMOS eo-1312C en una platina de traslación a una distancia  de 4.5cm, simulando así un ojo sano. Para la obtención de las PSFs, se utilizan lentes oftálmicas de diferentes potencias dióptricas que, al colocarse frente al modelo simple de ojo, cambian el punto de enfoque. Si se ajusta la posición de la cámara con la platina de traslación para encontrar el mejor foco y se retira la lente oftálmica bajo prueba, se puede simular un modelo de ojo con miopía o hipermetropía correspondiente a la prescripción en dioptrías de la lente oftálmica utilizada. Las dioptrías negativas se emplean para simular la miopía y las positivas para la hipermetropía. Estos elementos se colocan detrás de la lente esférica a una distancia de aproximadamente 2 cm. El proceso descrito, se utiliza para obtener PSFs de un modelo de ojo simulando miopía e hipermetropía en un rango de -0.75 a 0.75 dioptrías. Para obtener la PSF correspondiente al astigmatismo, se coloca una lente cilíndrica con el eje vertical frente al modelo de ojo sano. Con la obtención de las distintas PSFs de 1280x1024 pixeles se procede a elaborar el simulador en MATLAB, que consta del uso de la transformada de Fourier para el procesamiento digital de imágenes.  Como objeto se utiliza la imagen digital de una USAF 1951 de un tamaño de 1937x2048 pixeles. La PSF es convertida a escala de grises y se reajusta al tamaño de la USAF.  Posteriormente se hace uso de la fft2 en la PSF al igual que en la USAF. Estas matrices se multiplican y a la matriz resultante se le aplica la transformada inversa para obtener la imagen simulada. El anterior procedimiento es usado para cada PSF obtenida para los casos de miopía, hipermetropía, astigmatismo y ojo sano. Simulando así, cómo vería un paciente con cada una de estas ametropías. Con el programa de Matlab se encuentra la función de transferencia de modulación (MTF) analizando el contraste asociado a cada frecuencia espacial de cada elemento de la USAF target de la imagen simulada. La imagen simulada y la MTF obtenida del ojo sano sirve como referencia de una visión ideal, por lo que para las PSFs de miopía, hipermetropía y astigmatismo se tiene imágenes distintas con diferentes calidades de imagen, esto se puede observar en las MTFs correspondientes. Ejemplo, en la frecuencia espacial en 0.5 lp/mm para las rectas horizontales, en el ojo sano se tiene un contraste de 0.998, para miopía un valor de 0.537, en hipermetropía un valor de 0.117 y astigmatismo con un valor de 0.795 de contraste. Con el mismo valor de la frecuencia espacial para rectas verticales se tiene un contraste de 0.999 en el ojo sano, 0.616 para miopía, 0.092 para hipermetropía y 0.795 para astigmatismo. Mostrando que para un valor de frecuencia fijo, el contraste depende de la ametropía y la orientación del eje en el que este se mide, en el caso de la miopía e hipermetropía se tiene que el valor del contraste varía mínimamente entre la recta vertical y horizontal. En cambio, el astigmatismo depende del eje de orientación sobre el cual se mida. Simultáneamente se observó que la curva de la MTF de nuestra imagen de referencia decae más lentamente que las MTFs de las ametropías analizadas.


CONCLUSIONES

 Durante el verano de investigación se implementó un modelo experimental simple de ojo que simula diferentes ametropías. Para cada una se obtuvo su Función de Dispersión de Punto que se utilizó en un simulador de imágenes elaborado en Matlab para visualizar cómo vería una persona con esta condición y estudiar su sensibilidad al contraste.
de la Cruz Martínez Nereyda Wiwiema, Universidad Autónoma de Nayarit
Asesor: Dr. Josué Ramírez Ortega, Universidad Veracruzana

TEORíA DE OPERADORES EN ESPACIO DE FUNCIONES


TEORíA DE OPERADORES EN ESPACIO DE FUNCIONES

de la Cruz Martínez Nereyda Wiwiema, Universidad Autónoma de Nayarit. Landeros Quiroz Jazmin Cristal, Universidad de Sonora. Rodriguez Villarreal Victoria, Universidad de Sonora. Asesor: Dr. Josué Ramírez Ortega, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

El propósito de esta investigación es comprender de manera más clara y precisa el análisis funcional partiendo como base del álgebra lineal, haciendo uso de conceptos y resultados simples de espacios con dimensión finita o numerable para poder observar su comportamiento en espacios de dimensión infinita para establecer de qué manera se desarrolla el análisis funcional en las matemáticas. El análisis funcional, también conocido como cálculo funcional, tiene como principal objetivo el estudio de funciones cuyas variables independientes también son funciones, que son más conocidos como funcionales. Es importante tener en cuenta que se requieren ciertos conocimientos previos como la teoría de funciones de una o varias variables, incluyendo series y sucesiones, diferenciación total y parcial, integración de Riemann, así como tener desarrollado el Álgebra Lineal y cierta parte del Análisis de Fourier.  Se espera que al terminar el proceso de investigación se tengan las bases de esta área de las matemáticas establecidas de manera clara.



METODOLOGÍA

La metodología empleada durante el proceso de investigación fueron sesiones de dos horas con el investigador donde se nos brindó un apoyo para ir comenzando a sentar bases en lo que respecta a el Análisis Funcional, es decir, nos introducía conceptos con ejemplos básicos para después llevarlo a un nivel más elevado con ejemplos no tan intuitivos.  El asesor dio inicio proporcionando los temas de álgebra lineal relacionados con bases, transformaciones lineales y su representación matricial, esto con el fin de recordar los temas ya vistos en cursos anteriores y de esta manera facilitar su relación con el análisis funcional. Una vez dada esa introducción se comenzó a trabajar con las propiedades del producto interno, así como la forma de la construcción de bases ortonormales. En este punto se estudió el proceso de ortogonalización de Gram-Schmidt y la alternativa en espacios de Hilbert de dimensión infinita para construir bases. Más adelante nos adentramos al teorema de representación de Riesz, la involución y sus propiedades, de la misma forma conocimos la estructura algebraica y topológica de los operadores acotados en un espacio de Hilbert, se analizó el concepto de un operador acotado y se realizaron algunos ejemplos. Se estudiaron detalladamente los operadores unitarios, evidenciando su importancia respecto a la modificación de sistemas de referencia o de bases ortonormales en los espacios de Hilbert. Teniendo ya estos conocimientos previos realizamos algunos ejemplos de espacios de Hilbert y operadores acotados, también pudimos conocer la línea de investigación sobre el estudio de los espacios de funciones holomorfas y de los operadores de Toeplitz. Estudiamos los fundamentos del análisis funcional los cuales están relacionados con los teoremas espectrales, investigamos sobre dicho teorema espectral para operadores compactos auto-adjuntos. Hicimos énfasis en los operadores integrales de tipo Volterra y de Fredholm. Para finalizar, realizamos un estudio sobre los problemas de Sturm-Liouville, analizamos la equivalencia con el problema de la solución de una ecuación integral y aplicamos el teorema espectral para resolver el problema de Sturm-Liouville


CONCLUSIONES

Durante la estancia, se exploraron diversos conceptos avanzados en matemáticas y teoría de matrices, entre los que destacan: Espectro de una Transformación: Este concepto se refiere al conjunto de raíces del polinomio característico de la matriz que representa dicha transformación.  Teoremas Espectrales: Estos teoremas son fundamentales para descomponer matrices en formas más simples y estudiar sus propiedades algebraicas y geométricas. Grupo O(n): Este grupo representa el conjunto de todas las matrices ortogonales B en el espacio Rn que satisfacen la relación B-1=Bt. Las matrices en este grupo preservan la norma y los ángulos. Definición de Grupos de Lie: Los Grupos de Lie son estructuras algebraicas que combinan las propiedades de los grupos y las variedades diferenciables.  Resolución de Sistemas de Ecuaciones Lineales: Se abordó el proceso para encontrar soluciones de sistemas de ecuaciones lineales de la forma AX=Y, donde A es una matriz dada, X es el vector de incógnitas, y Y es el vector de términos constantes.  Proceso de Ortogonalización de Gram-Schmidt: Se estudió este método para construir bases ortonormales en espacios vectoriales, particularmente en aquellos con bases numerables. Este proceso transforma una base arbitraria en una base ortonormal. Complemento Ortogonal: Se exploró el concepto de complemento ortogonal de un subespacio en un espacio vectorial, que incluye todos los vectores ortogonales al subespacio dado.  Conjuntos Parcialmente Ordenados: Se revisaron los conjuntos parcialmente ordenados, en los que no todos los elementos están necesariamente comparados entre sí, pero existe una relación de orden que permite comparar algunos pares de elementos.  Lema de Zorn: Este lema es un principio fundamental en teoría de conjuntos que se utiliza para demostrar la existencia de ciertos tipos de elementos en estructuras algebraicas y ordenadas.  Espacios de Bergman: Se estudiaron los espacios de Bergman, que son subespacios de funciones analíticas en un dominio ( U ) que además son cuadrado integrables.  Teorema de Representación de Riesz: Este teorema establece una correspondencia entre los funcionales lineales continuos sobre un espacio de Hilbert y los vectores de ese espacio.  Operadores Acotados: Se analizó la teoría de operadores acotados y las operaciones entre ellos, incluyendo la adición y la composición. Los operadores acotados son fundamentales en el análisis funcional y en la teoría de espacios de Banach. Involución: Se estudió el concepto de involución, que en el contexto de álgebra lineal y teoría de operadores se refiere a una operación que, al aplicarse dos veces, devuelve el elemento original.
de la Cruz Ramirez Luis Miguel, Instituto Tecnológico de Chilpancingo
Asesor: Dra. María Guzmán Martínez, Universidad Autónoma de Guerrero

ANÁLISIS ESPACIAL DE CONTAMINANTES AMBIENTALES


ANÁLISIS ESPACIAL DE CONTAMINANTES AMBIENTALES

de la Cruz Ramirez Luis Miguel, Instituto Tecnológico de Chilpancingo. Asesor: Dra. María Guzmán Martínez, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

Las contaminantes ambientales son sustancias o formas de energía que, al ser introducidos en el medio ambiente, alteran su calidad y afectan negativamente a los seres vivos, los ecosistemas y el medio ambiente en general. Estos contaminantes pueden ser de origen natural o debido a actividades humanas. Los datos ambientales suelen ser recopilados, analizados y gestionados por diversas entidades y organizaciones tanto a nivel gubernamental como no gubernamental. En México, la gestión de los datos ambientales involucra a varias entidades y organismos tanto a nivel federal como estatal. Algunas de las principales son:   ● Secretaria de Medio Ambiente y Recursos Naturales (SEMARNAT)  ● Instituto Nacional de Ecología y Cambio Climático (INECC)  ● Comisión Nacional del Agua (CONAGUA)  ● Comisión Nacional Forestal (CONAFOR)  ● Instituto Mexicano de Tecnología del Agua (IMTA) Además de estas instituciones federales, cada estado en México cuenta con sus propias autoridades y programas de monitoreo ambiental que colaboran con las entidades federales para asegurar la protección y conservación del medio ambiente a nivel local y regional. Los contaminantes ambientales representan una serie de problemáticas significativas y tienen diversas implicaciones cuando sus niveles son altos. Aquí algunos puntos relevantes:  ● Impacto en la salud humana: Ocasionan enfermedades en los seres humanos.  ● Efectos en los ecosistemas: Pueden alterar los ecosistemas acuáticos y terrestres.  ● Degradación del medio ambiente: La contaminación puede causar la acidificación del agua y el suelo.  ● Impacto económico: Pueden generar costos significativos en lo que respecta a gastos médicos. ● Cambio climático: Los contaminantes ambientales contribuyen al calentamiento global y al cambio climático. La ciudad de México enfrenta varios problemas relacionados con la contaminación ambiental, que incluyen la mala calidad del aire y la contaminación del agua. La calidad del aire ha sido una preocupación constante debido a altos niveles de partículas suspendidas (PM10 y PM2.5), ozono, y otros contaminantes emitidos por vehículos, industrias y actividades domésticas. 



METODOLOGÍA

La herramienta de autocorrelación espacial (I de Moran) es una estadística inferencial, lo que significa que los resultados del análisis siempre se interpretan en el contexto de la hipótesis nula. Para el estadístico I de Moran global, la hipótesis nula indica que la función de análisis se distribuye aleatoriamente entre las unidades del área de estudio. En otras palabras, las funciones espaciales que promueven el patrón de valores observados son patrones aleatorios. Imagine poder seleccionar los valores de los atributos que está analizando, colocarlos en entidades y dejar que cada valor caiga donde pueda. Este proceso (seleccionar y devolver valores) es un ejemplo de un proceso de selección aleatoria espacial. Cuando el valor P que devuelve esta herramienta es estadísticamente significativo, puede rechazar la hipótesis nula.  El valor P no es estadísticamente significativo. No puede rechazar la hipótesis nula. Es posible que la distribución espacial de los valores de entidades sea el resultado de procesos espaciales aleatorios. El patrón espacial observado de los valores de entidades podría ser cualquiera de las tantas versiones posibles de aleatoriedad espacial completa (CSR). El valor P es estadísticamente significativo y la puntuación z es positiva. Puede rechazar la hipótesis nula. La distribución espacial de los valores altos y los valores bajos en el dataset está más agrupada espacialmente de lo que se esperaría si los procesos espaciales subyacentes fueran aleatorios. El valor P es estadísticamente significativo y la puntuación z es negativa.  Puede rechazar la hipótesis nula. La distribución espacial de los valores altos y los valores bajos en el dataset está más dispersa espacialmente de lo que se esperaría si los procesos espaciales subyacentes fueran aleatorios. Un patrón espacial disperso suele reflejar algún tipo de proceso competitivo: una entidad con un valor alto rechaza a otras entidades con valores altos; del mismo modo, una entidad con un valor bajo rechaza a otras entidades con valores bajos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de la estadística espacial en el análisis espacial de contaminantes ambientales en la Ciudad de México (CDMX), esto al aprender a usar programas como RStudio, QGIS, GeoDa, que al aplicarlos se logró obtener resultados apreciables que permiten observar el comportamiento de los nueve contaminantes ambientales presentes en la CDMX en el año 2023. Se concluye en que si hay correlación espacial en varios contaminantes ambientales y que esta se observa a lo largo del tiempo en varias delegaciones de la Ciudad de México.
de Ramon Tadeo Diego, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

GALAXY MáQUILA: ESTUDIO DE LAS GALAXIA BRILLANTES DEL CúMULO DE VIRGO EN EL INFRAROJO


GALAXY MáQUILA: ESTUDIO DE LAS GALAXIA BRILLANTES DEL CúMULO DE VIRGO EN EL INFRAROJO

Caamaño García Carolina, Benemérita Universidad Autónoma de Puebla. Correa Arballo Antonio, Universidad Autónoma de Baja California. de Ramon Tadeo Diego, Benemérita Universidad Autónoma de Puebla. Díaz Carriedo Edgar Josuee, Benemérita Universidad Autónoma de Puebla. Ornelas Castañeda César Mariano, Universidad de Guadalajara. Reyes Acosta Miguel Angel, Universidad Tecnológica de Tehuacán. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El Cúmulo de Virgo es una de las concentraciones más grandes de galaxias cercanas a la Vía Láctea, con una gran variedad de tipos morfológicos, incluyendo galaxias elípticas, espirales, barradas y lenticulares. Estudiar estas galaxias en el espectro infrarrojo es esencial para comprender mejor sus características estructurales, ya que este rango de longitud de onda es menos afectado por el polvo interestelar, lo que permite una visión más clara de la distribución de masa estelar. Sin embargo, el análisis detallado de estas estructuras enfrenta desafíos significativos, como la resolución limitada de las imágenes disponibles y la presencia de contaminantes como estrellas brillantes y otras galaxias cercanas en las imágenes. Estos factores pueden complicar la descomposición precisa de las componentes galácticas, como el bulbo, el disco y las barras, dificultando la caracterización de la dinámica interna y la historia de formación de las galaxias. Además, la diversidad de morfologías dentro del cúmulo sugiere procesos evolutivos distintos, lo que plantea la necesidad de un análisis comparativo riguroso para identificar patrones comunes y diferencias clave en la evolución galáctica.



METODOLOGÍA

Este estudio se basó en imágenes infrarrojas obtenidas de los catálogos astronómicos 2MASS y PanStarrs, centradas en galaxias brillantes del Cúmulo de Virgo. La selección de estas imágenes permitió el análisis de estructuras galácticas con una menor interferencia de polvo interestelar, lo que es crucial para una evaluación precisa de las componentes estelares. El software GALFIT fue el principal instrumento utilizado para descomponer las galaxias en sus componentes estructurales: bulbo, disco y barra. Se aplicaron funciones de Sérsic para modelar el bulbo, mientras que las componentes de disco fueron ajustadas utilizando modelos de disco exponencial. Para algunas galaxias, se consideraron funciones gaussianas para representar características adicionales como barras o anillos. Las imágenes se procesaron inicialmente con DS9, un software de visualización que permitió examinar y recortar las imágenes, asegurando un enfoque en la región de interés. A continuación, se crearon máscaras utilizando scripts en Python, específicamente diseñados para eliminar la interferencia de estrellas brillantes y otras galaxias cercanas. Esto ayudó a minimizar la influencia de estos contaminantes en los resultados fotométricos y morfológicos. Ellipsect fue utilizado para extraer perfiles de brillo superficial de las galaxias y de los modelos generados por GALFIT. Esta herramienta permitió comparar los modelos teóricos con las observaciones reales, facilitando la evaluación de la precisión del ajuste. Se prestó especial atención al ajuste de la función de dispersión puntual (PSF), fundamental para el modelado preciso de las características galácticas más finas. Finalmente, se evaluó la calidad del ajuste de los modelos utilizando el valor de Chi²/nu y análisis de residuos, asegurando que las discrepancias entre los modelos y las observaciones fueran mínimas.


CONCLUSIONES

Los análisis realizados sobre las galaxias brillantes del Cúmulo de Virgo han revelado una diversidad estructural significativa, reflejada en los diferentes parámetros obtenidos, como los índices de Sérsic y los radios efectivos. Estos resultados sugieren que las galaxias del cúmulo han experimentado historias evolutivas distintas, posiblemente influenciadas por interacciones galácticas y procesos internos variados. Uno de los hallazgos clave es la variabilidad en la prominencia de componentes como bulbos, discos y barras, lo que indica una diversidad en los procesos de formación y evolución estelar. Sin embargo, se identificaron varios desafíos en el proceso de análisis, como la dificultad para aislar las galaxias objetivo de las interferencias causadas por estrellas cercanas y otras galaxias brillantes, lo que complicó el ajuste de los modelos. El valor de Chi²/nu y el análisis de residuos mostraron que, aunque se lograron ajustes razonables, existen limitaciones en la precisión del modelado, particularmente debido a la calidad de las imágenes y la influencia de contaminantes. Para mejorar estos ajustes, se recomienda considerar el uso de software adicional para la generación de funciones de dispersión puntual (PSF) y explorar la presencia de núcleos activos galácticos (AGNs), que podrían influir en las características observadas de algunas galaxias. Estos resultados iniciales proporcionan una base para futuros estudios, sugiriendo la necesidad de una mayor resolución y una mejor eliminación de contaminantes para comprender completamente la estructura y evolución de las galaxias en entornos de cúmulos densos. 
de Rosas Alvarez Areli, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Mayra Mabel Valerdi Negreros, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

EXPLORANDO LAS REGIONES HII: CONDICIONES FíSICAS, ABUNDANCIAS QUíMICAS Y SU PAPEL EN LA EVOLUCIóN GALáCTICA


EXPLORANDO LAS REGIONES HII: CONDICIONES FíSICAS, ABUNDANCIAS QUíMICAS Y SU PAPEL EN LA EVOLUCIóN GALáCTICA

de Rosas Alvarez Areli, Benemérita Universidad Autónoma de Puebla. Quiñones Sánchez Carol Edith, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Mayra Mabel Valerdi Negreros, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Introducción Las nebulosas gaseosas son brillantes del universo, hay mayor brillo superficial, como la de Orión o la Nube de Magallanes, para clasificarlas se distinguen dos tipos: las regiones H II y las nebulosas planetarias, las diferencias se relacionan con su origen, edad de las estrellas y evolución. En nebulosas foto ionizadas, las abundancias de elementos más pesados que el He clásicamente se han determinado a partir de las brillantes líneas excitadas colisionalmente (LECs). Sin embargo, hace ya más de 20 años que se midió la primera línea de recombinación (LR) pura de elementos pesados y, desde entonces, persiste un gran problema en la comprensión de la física que tiene lugar en el seno de las nebulosas foto ionizadas: las abundancias químicas de un mismo ion obtenidas a partir de LRs suelen ser significativamente mayores a las determinadas a partir de LECs. La determinación de la composición química de regiones HII ha sido primordial para estudiar la evolución de las galaxias y la determinación de la abundancia de Helio; la radiación ultravioleta de cúmulos de estrellas masivas de tipos espectrales O y B temprano se ioniza y calentado el gas. Los fotones (o partículas de luz) de energías sobre los 13.6 eV con capaces de ionizar el hidrógeno atómico (H) circundante generando un volumen que contiene principalmente hidrogeno ionizado (H+ o H II), la mayoría de los elementos existen en forma de iones (C+, N+, O+, y estados de ionización superiores), y en donde todas las moléculas fueron disociadas por la radiación.  



METODOLOGÍA

  Metodología Se proporcionaron tres archivos FITS con datos en diferentes bandas (B y R). Usando el programa IRAF, se midieron las longitudes de onda de las líneas espectrales, incluso las menos pronunciadas. Las líneas se registraron en un archivo splot.log, que contiene longitudes de onda, flujo de línea, ancho equivalente, etc. Se realizó una corrección por desplazamiento al rojo (Z) usando las líneas conocidas Hβ y Hα. Posteriormente, se unieron los datos de los filtros B y R en un solo archivo. Usando PyNeb, se calculó la corrección por extinción y las condiciones físicas, como la temperatura y densidad, a partir de relaciones de líneas sensibles. La corrección por extinción se realizó con una instancia de redCorr() en PyNeb, ajustando las observaciones para considerar la atenuación y dispersión de la luz por el polvo interestelar. Resultados Se determinaron las temperaturas y densidades de las regiones HII usando relaciones de líneas, como el cociente [NII] λ5755/λ6548 y [OIII] λ4363/λ5007 para la temperatura, y el cociente [SII] 6731/6716 para la densidad. Para calcular las abundancias químicas, se utilizaron líneas espectrales prominentes de iones como N2, O2, O3, Ne3, S2, S3, Ar3, Ar4, Cl3 y los elementos de recombinación He1 y He2. Las abundancias se calcularon con PyNeb, utilizando el método getIonAbundance y aplicando factores de corrección de ionización (ICF) cuando fuera necesario.


CONCLUSIONES

Conclusiones Las abundancias químicas y las condiciones físicas de las regiones HII son fundamentales para entender la composición química del medio interestelar y la evolución galáctica. Las discrepancias entre las abundancias obtenidas de LECs y LRs siguen siendo un área de estudio importante, y herramientas como PyNeb permiten un análisis más detallado y preciso de estas regiones ionizadas. Referencias Articulo 1 Valerdi, M., Peimbert, A., Peimbert, M., & Sixtos, A. (2019). Determination of the Primordial Helium Abundance Based on NGC 346, an H II Region of the Small Magellanic Cloud. The Astrophysical Journal, 2(876). https://doi.org/10.3847/1538-4357/ab14e4 Articulo 2 Peimbert, A. (s. f.). The Chemical Composition of the 30 Doradus Nebula Derived from Very Large Telescope Echelle Spectrophotometry. The Astrophysical Journal, 584(2), 735-750. https://doi.org/10.1086/345793 Github de Pyneb: https://github.com/Morisset/PyNeb_devel/blob/master/docs/Notebooks/PyNeb_manual_7b.ipynb
Delgado Ortiz Rosaura Patricia, Universidad de Guadalajara
Asesor: Dr. Rafael Hernández Jiménez, Universidad de Guadalajara

FORMACIÓN DE AGUJEROS NEGROS PRIMORDIALES A TRAVÉS DEL MECANISMO DE WARM INFLATION


FORMACIÓN DE AGUJEROS NEGROS PRIMORDIALES A TRAVÉS DEL MECANISMO DE WARM INFLATION

Delgado Ortiz Rosaura Patricia, Universidad de Guadalajara. Espinosa López Luis Humberto, Universidad de Guadalajara. Asesor: Dr. Rafael Hernández Jiménez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los agujeros negros son una de las predicciones más fascinantes de la teoría de la relatividad general de Einstein, donde la concentración gravitacional es tan intensa que ni siquiera la luz puede escapar de estas regiones.  El propósito de este proyecto es entender la formación agujeros negros primordiales (primordial black holes(PBH)). Estos agujeros negros se originaron poco después del Big Bang bajo condiciones extremas de densidad y temperatura. Son de gran interés porque podrían constituir una fracción significativa de la materia oscura del universo y proporcionar información crucial sobre las condiciones del universo temprano. La formación de agujeros negros primordiales está ligada a las fluctuaciones de densidad en el universo temprano y a procesos como la inflación cósmica. La inflación es una expansión extremadamente rápida del universo que ocurrió en una fracción de segundo después del Big Bang,causada por un campo escalar llamado inflatón. Para llevar a cabo este estudio, se utilizaron modelos de warm inflation (inflación tibia), escenario donde la temperatura juega un rol importante, con un potencial cuártico. Estos modelos permiten simular las condiciones del universo temprano y evaluar cómo las fluctuaciones cuánticas y las características del campo inflacionario influyen en la creación de agujeros negros primordiales. Analizando las ecuaciones de la inflación cálida y utilizando simulaciones numéricas, se podrá modelar las condiciones del universo temprano y determinar qué tipo de agujeros negros se podrían formar bajo diferentes parámetros inflacionarios.  



METODOLOGÍA

El principal enfoque de este estudio es investigar la formación de estructuras en el universo primigenio a través del mecanismo de warm Inflation. De acuerdo a la literatura, la formación de agujeros negros primordiales requiere valores del Power Spectrum del orden cercano a 10^-2, inclusive uno o dos ordenes menores. Para alcanzar estos valores, es fundamental resolver las ecuaciones de fondo y de perturbaciones de warm Inflation y desarrollar los parámetros de slow-roll. Para ello se requiere definir el tipo de potencial utilizado como el coeficiente de disipación en el contexto de warm Inflation. En este estudio, se consideraron dos modelos de interacciones fundamentales dentro de un esquema de wam inflation: el modelo estándar y un modelo basado en supersimetría. Para ambos ejemplos, se empleó un potencial cuártico en combinación con dos tipos de coeficientes disipativos: uno dependiente de la temperatura y otro dependiente del campo inflatón. Se trabajó con un código numérico en C++ para resolver las ecuaciones de la dinámica inflacionaria, lo que permitió obtener los datos necesarios para realizar un ajuste con series de potencias del Power Spectrum reescalado en función del Power Spectrum observacional. Este ajuste consideró tanto el número de onda k como un número de onda pivote k_0. Además, se llevó a cabo un ajuste exponencial basado en el número de e-folds, medida que determina los pliegues en el que el universo se expande. Dado que el valor del Power Spectrum observacional es del orden de 10^-9 y las condiciones necesarias para la formación de agujeros negros primordiales requieren que el Power Spectrum crezca en al rededor de 7 órdenes de magnitud, se realizó un ajuste lineal con los valores numéricos obtenidos, igualándolos a 10^7. Este procedimiento permitió encontrar la relación entre los valores de k y k_0 utilizados en las observaciones del satélite Planck, y así determinar los valores de k. Estos cálculos se realizaron para ambos modelos, mostrando que en el modelo estándar, la inflación termina en 50 e-folds, mientras que en el modelo de supersimetría, el proceso inflacionario concluye en 60 e-folds. Una vez determinados estos valores de k, se utilizaron en las ecuaciones pertinentes para la formación de agujeros negros primordiales, calculando la masa de estos en función del factor disipativo, el k_PBH, siendo ésto el número de onda asociado a la formación del agujero negro primordial, y un k normalizado.  


CONCLUSIONES

Para el modelo estándar se trabajó con una cota, dado que para este modelo inflación termina en 50 e-folds, se trabajó con una cota mínima antes de la finalización de inflación a 45 e-folds y una máxima a 50 e-folds, dando lugar a agujeros negros primordiales con masas estimadas entre 1.0114*10^6 masas solares y 7714.43 masas solares al finalizar inflación. En contraste, el modelo de supersimetría que finaliza a 60 e-folds, indica que se pueden producir agujeros negros primordiales de aproximadamente 224.513 masas solares. Estos resultados sugiere la posibilidad de formar agujeros negros primordiales de diferentes tamaños, desde algunos masivos hasta unos de tamaño estelar, dependiendo del modelo inflacionario utilizado. Estos resultados coinciden con la literatura existente, que establece una relación inversa entre la masa del agujero negro y el número de onda. Según los modelos utilizados, se espera que la formación de agujeros negros primordiales de tamaño estelar sea la más común, con la posibilidad de algunos de tamaño masivo, similares a los que se encuentran en el centro de galaxias. Aunque la literatura sugiere la existencia de agujeros negros primordiales más pequeños que la masa solar, nuestros resultados no lograron identificar estos objetos. Esto podría deberse a que, de acuerdo con la teoría de la radiación de Hawking, dichos agujeros negros pequeños se habrían evaporado antes de alcanzar la época actual.  Bibliografía: Carr, B. J. (1975). The primordial black hole mass spectrum. The Astrophysical Journal, 201, 1-19. https://doi.org/10.1086/153853 Green, A. M. (2022). Primordial black holes: Formation, cosmic abundances and impact on structures. Universe, 9(2), 203. https://doi.org/10.3390/universe9020203
Diaz Arellano Ulises, Universidad Autónoma del Estado de México
Asesor: Dr. Mario Alberto Yepez Rivera, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

ANáLISIS FOTOMéTRICO DE ESTRELLAS RR LYRAE PARA LA OBTENCIóN DE SUS PARáMETROS FíSICOS


ANáLISIS FOTOMéTRICO DE ESTRELLAS RR LYRAE PARA LA OBTENCIóN DE SUS PARáMETROS FíSICOS

Diaz Arellano Ulises, Universidad Autónoma del Estado de México. Moreno Amaro Balam Kaled, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Mario Alberto Yepez Rivera, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El estudio del universo temprano es una tarea compleja debido a la ausencia de objetos estelares lo suficientemente antiguos en las proximidades del planeta, lo que ha llevado a los astrónomos a buscar sectores donde tales objetos abunden. Esta búsqueda resulto en el hallazgo de regiones vinculadas a la evolución temprana del universo, siendo particularmente significativo el descubrimiento de los Cúmulos Globulares (CGs) los cuales han tenido un papel detonante en el análisis prematuro del cosmos. Los CGs son agrupaciones de estrellas con una simetría esférica ligados al halo galáctico y formados durante el proceso de construcción del sistema galáctico al que orbitan. No obstante, cualquier cúmulo se encuentra lo demasiado lejano para obtener parámetros físicos de forma convencional, es así que se ha recurrido a diversos análisis, siendo uno de ellos el estudio de las curvas de las estrellas RR Lyrae y mediante su fotometría obtener sus parámetros físicos



METODOLOGÍA

Hay dos tipos de estrellas RR Lyrae: Las RRab que tienen periodos de pulsación entre 0.4 y 0.8 días con curvas de luz asimétricas y las RRc con periodos de 0.2 a 0.4 días con curvas de luz de forma sinusoidal. NGC 6656, también conocido como Messier 22 (M22), es considerado como el primer cumulo globular registrado en la historia de la astronomía, dicho título conlleva características notables en la morfología del cumulo. Su cercanía a la Tierra y al bulbo galáctico, además de su intenso brillo, hacen de M22 un objeto observacional relevante para nuestros propósitos de estudio. Por otro lado, NGC 6453 se ubica aproximadamente a 10 kpc de distancia de la Tierra y cuenta con una significativa presencia de estrellas tipo RR Lyrae, lo que permite realizar una estimación de parámetros físicos. Este cúmulo es especialmente relevante para el análisis debido a su antigüedad, siendo uno de los más antiguos de la galaxia, con una edad estimada entre 12 y 13 gigaaños. Los datos de las estrellas RR Lyare fueron descargados del catálogo del Optical Gravitational Lensing Experiment(OGLE) divididos en dos temporadas (OGLE III y OGLE IV), consisten en dos tablas llamadas FullStarTable y Photometry. Para cada región del cúmulo obtuvimos 36 estrellas RRR Lyrae para NGC 6453 y 42 para M22. Las dos tablas de dichas estrellas sirvieron como datos de entrada para el código utilizado para graficar las curvas de luz de todas las estrellas registradas. El programa denominado Fases extrae las variables HJD, Eo y P para ajustar la fase del día juliano. Al convertir al formato estándar de HJD y restarle la época de máximo brillo (Eo), después dividirlo entre el periodo (P) de la estrella, se obtiene la fase al tomar la parte decimal del resultado, produciendo un valor entre 0 y 1 para el eje horizontal.  Usando el método de longitud de la cuerda, mediante la implementación del código Selcurvas ,para obtener un periodo optimo en el que la curva de luz sea lo mas suave y coherente posible. Debido a la importancia en la estructura de la curva de luz en la estimación de parámetros, se creó un programa paraaplicar la descomposición en series de Fourier de sus curvas de luz y emplear amplitudes y corrimientos de fase de cada armónico en la serie. Utilizando los parámetros anterioreslos parámetros de Fourier fueron calculados y registrados en un archivo. El programa cuenta con dos versiones, una de 6 armónicos y una de 4, esto se debe a la diferencia de datos entre el filtro V e I, mientras que el filtro I contenía una cantidad considerable, el V contaba con una ausencia de datos en ciertos sectores, lo que conducía a un ajuste erróneode la curva mostrando comportamientos abruptos. Posteriormente los archivos de salida eran modificados usando el mejor ajuste de los dos. El paso siguiente consistió en la evaluación del ajuste de las estrellas RRab. El programa Dmcalcula la desviación de los parámetros ajustados con los observados en estrellas RRab en las nubes de magallanes, con las cuales fueron hechas las calibraciones para el cálculo de parámetros físicos. En resumen, el código Dm estima la calidad del ajuste de la serie de Fourier mencionada. Finalmente, los archivos de salida de los códigos Selcurvas y el de descomposición en series de Fourier, clasificados conforme al subtipo correspondiente (RRab y RRc), fueron procesados por el programa ParfisRRab. El código Parfis extrajo los valores de la amplitud obtenidos aplicando series de Fourier a la curva de luz en el filtro I, así como los coeficientes de Fourier para el filtro V. Los periodos fueron obtenidos del archivo Selcurvas. Con las variables asignadas a cada estrella, se estimaron la metalicidad, magnitud absoluta, temperatura efectiva, luminosidad, distancia y radio. Los resultados fueron registrados.


CONCLUSIONES

La estancia de verano permitió una introducción a temas básicos de la astrofísica, en especial la rama de la evolución estelar mediante el análisis de estrellas variables.  Se profundizo en la importancia de estas, así como en la práctica mediante el análisis de datos actuales. A pesar de obtener resultados coherentes y satisfactorios en lo que parámetros físicos se refiere, el análisis de estrellas variables puede extenderse, ya sea analizando a profundidad algunas estrellas del cumulo o realizando representaciones de las relaciones en los parámetros, un diagrama HR sería lo óptimo. El cumulo M22, aun siendo de los más viejos descubiertos, posee una pobre cantidad de datos en el filtro V, lo que dificulta la estimación de parámetros físicos y todo lo que conlleva. No obstante, parámetros como la distancia o la luminosidad muestran una buena estimación comparados con datos anteriormente registrados. Para el cúmulo NGC 6453 se pudieron obtener resultados más certeros comparados a los de M22, ya que también pudimos obtener más datos del cúmulo en OGLE III y los pudimos juntar con OGLE IV. A pesar de que se estuvo trabajando con más datos en este cúmulo, aún siguieron faltando datos del filtro V para algunas estrellas RR Lyrae.
Díaz Carriedo Edgar Josuee, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

GALAXY MáQUILA: ESTUDIO DE LAS GALAXIA BRILLANTES DEL CúMULO DE VIRGO EN EL INFRAROJO


GALAXY MáQUILA: ESTUDIO DE LAS GALAXIA BRILLANTES DEL CúMULO DE VIRGO EN EL INFRAROJO

Caamaño García Carolina, Benemérita Universidad Autónoma de Puebla. Correa Arballo Antonio, Universidad Autónoma de Baja California. de Ramon Tadeo Diego, Benemérita Universidad Autónoma de Puebla. Díaz Carriedo Edgar Josuee, Benemérita Universidad Autónoma de Puebla. Ornelas Castañeda César Mariano, Universidad de Guadalajara. Reyes Acosta Miguel Angel, Universidad Tecnológica de Tehuacán. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El Cúmulo de Virgo es una de las concentraciones más grandes de galaxias cercanas a la Vía Láctea, con una gran variedad de tipos morfológicos, incluyendo galaxias elípticas, espirales, barradas y lenticulares. Estudiar estas galaxias en el espectro infrarrojo es esencial para comprender mejor sus características estructurales, ya que este rango de longitud de onda es menos afectado por el polvo interestelar, lo que permite una visión más clara de la distribución de masa estelar. Sin embargo, el análisis detallado de estas estructuras enfrenta desafíos significativos, como la resolución limitada de las imágenes disponibles y la presencia de contaminantes como estrellas brillantes y otras galaxias cercanas en las imágenes. Estos factores pueden complicar la descomposición precisa de las componentes galácticas, como el bulbo, el disco y las barras, dificultando la caracterización de la dinámica interna y la historia de formación de las galaxias. Además, la diversidad de morfologías dentro del cúmulo sugiere procesos evolutivos distintos, lo que plantea la necesidad de un análisis comparativo riguroso para identificar patrones comunes y diferencias clave en la evolución galáctica.



METODOLOGÍA

Este estudio se basó en imágenes infrarrojas obtenidas de los catálogos astronómicos 2MASS y PanStarrs, centradas en galaxias brillantes del Cúmulo de Virgo. La selección de estas imágenes permitió el análisis de estructuras galácticas con una menor interferencia de polvo interestelar, lo que es crucial para una evaluación precisa de las componentes estelares. El software GALFIT fue el principal instrumento utilizado para descomponer las galaxias en sus componentes estructurales: bulbo, disco y barra. Se aplicaron funciones de Sérsic para modelar el bulbo, mientras que las componentes de disco fueron ajustadas utilizando modelos de disco exponencial. Para algunas galaxias, se consideraron funciones gaussianas para representar características adicionales como barras o anillos. Las imágenes se procesaron inicialmente con DS9, un software de visualización que permitió examinar y recortar las imágenes, asegurando un enfoque en la región de interés. A continuación, se crearon máscaras utilizando scripts en Python, específicamente diseñados para eliminar la interferencia de estrellas brillantes y otras galaxias cercanas. Esto ayudó a minimizar la influencia de estos contaminantes en los resultados fotométricos y morfológicos. Ellipsect fue utilizado para extraer perfiles de brillo superficial de las galaxias y de los modelos generados por GALFIT. Esta herramienta permitió comparar los modelos teóricos con las observaciones reales, facilitando la evaluación de la precisión del ajuste. Se prestó especial atención al ajuste de la función de dispersión puntual (PSF), fundamental para el modelado preciso de las características galácticas más finas. Finalmente, se evaluó la calidad del ajuste de los modelos utilizando el valor de Chi²/nu y análisis de residuos, asegurando que las discrepancias entre los modelos y las observaciones fueran mínimas.


CONCLUSIONES

Los análisis realizados sobre las galaxias brillantes del Cúmulo de Virgo han revelado una diversidad estructural significativa, reflejada en los diferentes parámetros obtenidos, como los índices de Sérsic y los radios efectivos. Estos resultados sugieren que las galaxias del cúmulo han experimentado historias evolutivas distintas, posiblemente influenciadas por interacciones galácticas y procesos internos variados. Uno de los hallazgos clave es la variabilidad en la prominencia de componentes como bulbos, discos y barras, lo que indica una diversidad en los procesos de formación y evolución estelar. Sin embargo, se identificaron varios desafíos en el proceso de análisis, como la dificultad para aislar las galaxias objetivo de las interferencias causadas por estrellas cercanas y otras galaxias brillantes, lo que complicó el ajuste de los modelos. El valor de Chi²/nu y el análisis de residuos mostraron que, aunque se lograron ajustes razonables, existen limitaciones en la precisión del modelado, particularmente debido a la calidad de las imágenes y la influencia de contaminantes. Para mejorar estos ajustes, se recomienda considerar el uso de software adicional para la generación de funciones de dispersión puntual (PSF) y explorar la presencia de núcleos activos galácticos (AGNs), que podrían influir en las características observadas de algunas galaxias. Estos resultados iniciales proporcionan una base para futuros estudios, sugiriendo la necesidad de una mayor resolución y una mejor eliminación de contaminantes para comprender completamente la estructura y evolución de las galaxias en entornos de cúmulos densos. 
Diaz Hernandez Miguel Angel, Universidad Autónoma de Baja California
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

DINáMICA COSMOLóGICA: ECUACIONES DE MOVIMIENTO EN EL MODELO FRW Y BORN-INFELD.


DINáMICA COSMOLóGICA: ECUACIONES DE MOVIMIENTO EN EL MODELO FRW Y BORN-INFELD.

Diaz Hernandez Miguel Angel, Universidad Autónoma de Baja California. González Domínguez Annalucia, Universidad Autónoma de Chiapas. López Díaz Brandon Miguel, Universidad Autónoma de Chiapas. Rodríguez Sánchez Stephanie, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La cosmología moderna se fundamenta en el modelo de Friedmann-Lemaître-Robertson-Walker (FRW), el cual describe un universo homogéneo e isotrópico. Este modelo es esencial para derivar las ecuaciones de movimiento que rigen la dinámica del universo y ofrece una comprensión detallada de su evolución, desde el Big Bang hasta la expansión acelerada que observamos en la actualidad. Sin embargo, a pesar de su éxito en la descripción general del universo, el modelo FRW tiene limitaciones cuando se enfrenta a fenómenos extremos o a nuevas teorías en física. En este contexto, el campo escalar de Born-Infeld emerge como una extensión significativa de las teorías de campo escalar tradicionales. Originado en el marco de la teoría de cuerdas y otras áreas de la física teórica, el formalismo de Born-Infeld fue inicialmente introducido para regular singularidades en la electrodinámica no lineal. No obstante, sus aplicaciones se han expandido, incluyendo interesantes implicaciones cosmológicas. El interés en el escalar de Born-Infeld radica en su capacidad para evitar singularidades y generar comportamientos dinámicos únicos que no se encuentran en las teorías de campo escalar convencionales. En particular, este escalar ofrece nuevos mecanismos inflacionarios que podrían superar las limitaciones de los modelos tradicionales de inflación. Así, la inclusión del escalar de Born-Infeld en el modelo FRW proporciona una oportunidad valiosa para abordar problemas no resueltos en la cosmología estándar y realizar predicciones observacionales que podrían ser verificadas con futuros datos cosmológicos.



METODOLOGÍA

En primer lugar, dedujimos los símbolos de Christoffel para un espacio-tiempo descrito por la métrica de Friedmann-Lemaître-Robertson-Walker (FRW). Posteriormente, procedimos a obtener el tensor de Ricci R_{mu nu} contrayendo las derivadas de los símbolos de Christoffel. A continuación, calculamos el escalar de curvatura R contrayendo el tensor de Ricci. Con estos elementos, procedimos al cálculo de la acción agregando la acción del modelo FRW. Donde S_{phi} es la acción del campo escalar. El siguiente paso fue obtener el lagrangiano a partir de la densidad lagrangiana integrando la acción. Para campos escalares, el lagrangiano se expresa como: L=-frac{3adot{a}}{c^{2}N}+3kaN+kappa^{2}a^{3}(frac{1}{2c^{2}N}dot{phi}^{2}-NV(phi)) donde V(ϕ)V(phi)V(ϕ) es el potencial del campo escalar. Luego, procedimos a obtener el hamiltoniano a partir de la densidad lagrangiana. Las ecuaciones de movimiento para el campo escalar se derivaron del principio de acción. La solución de estas ecuaciones nos permitió entender cómo el campo escalar influye en la expansión del universo. Para encontrar parámetros que generen inflación, buscamos un potencial V(ϕ)V(phi)V(ϕ) y condiciones iniciales para ϕphiϕ y ϕ˙dot{phi}ϕ˙​ que satisficieran el criterio de inflación, donde la segunda derivada del factor de escala a(t)a(t)a(t) fuera positiva (a¨>0ddot{a} > 0a¨>0). Esto implica que el universo se está expandiendo aceleradamente. A continuación, repetimos el proceso, pero ahora con el campo escalar de Born-Infeld. El lagrangiano de Born-Infeld, que introduce una no linealidad, se expresa como: S_phi=-intsqrt{-g}alpha_T^2V(phi)sqrt{1+alpha_T^{-2}g^{mu u}partial_mupartial_ uphi}d^4x. Así obtuvimos la acción total agregando el campo escalar. Una vez obtenido esto , procedimos de igual manera a obtener el lagrangiano Born-Infeld, el cual esta dado como: L=-frac{3adot{a}^2}{c^2N}+3kaN-kappa^2alpha_T^2Na^3V(phi)sqrt{1-alpha_T^{-2}c^{-2}N^{-2}dot{phi}^2}. El hamiltoniano para el escalar de Born-Infeld se obtuvo de manera similar al caso del campo escalar homogéneo, teniendo en cuenta la no linealidad. Las ecuaciones de movimiento para el escalar de Born-Infeld derivadas de la acción modificada, se resolvieron numéricamente para obtener la evolución dinámica del campo y del universo.Finalmente, buscamos parámetros que, al ser aplicados al escalar de Born-Infeld, pudieran generar un período de inflación cósmica, ajustando las condiciones iniciales adecuadamente. Una vez obtenidas y resueltas las ecuaciones de movimiento para ambos campos escalares, realizamos un análisis comparativo para identificar las diferencias en la dinámica resultante. Esto incluyó cómo cada campo afectó la expansión del universo y los parámetros necesarios para generar inflación. Además, a partir de los resultados obtenidos anteriormente, pudimos realizar aproximaciones en los Hamiltonianos. Esto nos permitió derivar las ecuaciones de Wheeler-DeWitt. Por último, observamos  las diferencias entre los dos sistemas calculados, comparando la eficiencia de cada campo en generar inflación, la estabilidad de las soluciones y las predicciones observacionales resultantes. Este análisis proporcionó una comprensión más profunda de las implicaciones teóricas y prácticas de incluir el escalar de Born-Infeld en el modelo FRW.


CONCLUSIONES

Este trabajo abordó de manera exhaustiva la inclusión del escalar de Born-Infeld en el modelo FRW y sus implicaciones para la dinámica del universo y la generación de inflación. A través de un análisis detallado y comparativo, logramos obtener una comprensión más profunda de los mecanismos que gobiernan la evolución cosmológica. Esta investigación no solo clarificó las diferencias entre ambos enfoques, sino que también destacó las posibles aplicaciones observacionales del escalar de Born-Infeld, abriendo nuevas perspectivas en el estudio de la inflación y la expansión del universo.
Díaz Solís Rossuany Margareth, Universidad Autónoma de Chiapas
Asesor: Dra. Georgina Beltrán Pérez, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE SENSORES BASADOS EN FIBRA óPTICA PARA LA DETECCIóN DE ETANOL, METANOL Y ACETONA.


DESARROLLO DE SENSORES BASADOS EN FIBRA óPTICA PARA LA DETECCIóN DE ETANOL, METANOL Y ACETONA.

Díaz Solís Rossuany Margareth, Universidad Autónoma de Chiapas. Marquez Moreno Sarahi, Instituto Tecnológico Superior de Huauchinango. Asesor: Dra. Georgina Beltrán Pérez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de sistemas de análisis capaces de detectar compuestos orgánicos volátiles (VOCs) en el aliento representa una herramienta prometedora para la detección de enfermedades en México. La presencia de VOCs en el aliento y su correlación con diversas patologías como diferentes tipos de cáncer (pulmonar, prostático y de mama), diabetes, enfermedades gástricas, asma, entre otras; debido al desbalance metabólico que generan, representa grandes posibilidades para el pre-diagnóstico y monitoreo de estas. Este nuevo método ofrece como ventajas evitar los riesgos e incomodidades que implican las técnicas tradicionales, los cuales son invasivos para los pacientes, además de ofrecer un diagnóstico más rápido, temprano e incluso más accesible. Los sensores de fibra óptica a través de sus diferentes configuraciones buscan ser una alternativa eficaz para estos nuevos métodos de detección, se han construido sensores para la detección de diferentes VOCs como amonio, propanol, benceno, etanol, metanol y acetona a partir de fibras adelgazadas, rejillas de periodo largo e interferómetros de Mach-Zehnder (MZI). Este trabajo propone el estudio experimental de sensores MZI basados en fibra óptica adicionados con polidimetilsiloxano (PDMS) y polimetilmetacrilato (PMMA) como películas sensibles, para la detección de etanol, metanol y acetona, los cuales son de los VOCs más presentes en el aliento, a través de la aplicación de la técnica de análisis multivariable PCA (Análisis de componentes principales).



METODOLOGÍA

Se utilizó un carrete de fibra óptica estándar monomodo SMF-28e+ del cual se cortaron secciones de 80 cm de largo a las cuales en el centro a lo largo de 5 cm se les retiró el recubrimiento (zona efectiva del sensor). Con ayuda de una empalmadora FITEL S176 en su modo manual se procedió a realizar el grabado del sensor en la zona efectiva antes mencionada, basándonos en el método de arco eléctrico descrito por G. Rego en 2007 [1]. El interferómetro consta de dos rejillas de periodo largo (LPFG) con un periodo de 515 um, cada una con 20 puntos y un 1 cm de separación entre ellas. Una vez grabados los MZI, tres de ellos fueron depositados con PDMS y otros tres con PMMA. El PDMS fue depositado directamente sobre la fibra usando el método de drop-casting y se dejó curando por 24 horas a temperatura ambiente. Para el depósito de PMMA fue necesario diluirlo en cloroformo, para esto se preparó una disolución compuesta por 50 mg de PMMA y 50 ml de cloroformo, se vertió en una caja Petri donde se sumergió la zona efectiva del sensor durante 24 horas. Para el proceso de inyección, un par de sensores (uno con PDMS y otro con PMMA) serán inyectados con un alcohol diferente. El primer alcohol inyectado fue el etanol, después el metanol y finalizamos con la acetona. Se colocó el sensor dentro de una cámara de teflón para después empalmar un extremo de la fibra a un diodo láser superluminiscente cuya longitud de onda se encuentra en un rango de 1400 a 1550 nm, y el otro extremo a un analizador de espectros ópticos (OSA). A través de un compartimiento de la cámara de teflón, utilizando una jeringa con resolución de 1 ul se procedió a inyectar 0.1 ul del alcohol a medir cada 10 minutos hasta alcanzar un volumen de inyección de 1 ul, al llegar a este valor se abre la cámara y se conecta una bomba para purgar la cámara durante 10 minutos, posterior a este tiempo se repite el proceso de inyección dos veces más y así para cada sensor con su alcohol y película correspondiente a analizar. Finalmente, habiendo inyectado todos los sensores, comenzamos el proceso de análisis de los resultados experimentales obtenidos. Debido a que el análisis de estos sensores es a través de las variaciones en los espectros medidos, los cuales contienen 751 datos por espectro, se optó por procesar toda nuestra información con ayuda del método multivariable y de reducción de dimensionalidad PCA. Para poder visualizar el comportamiento de los sensores consideramos únicamente tres componentes principales (los componentes principales, PC, son las nuevas variables que se obtienen del PCA a partir de las variables originales de entrada), y se graficó PC1 vs concentración, PC1 vs PC2 y PC1 vs PC2 vs PC3.


CONCLUSIONES

Como primer resultado relevante, obtenemos que, de los tres alcoholes, la acetona es el compuesto mas agresivo, debido a que, tanto en el caso de el PDMS como en el del PMMA este logro corroer la pelicula sensora de una manera mas rapida y con concentraciones menores que los otros dos. De manera general el comportamiento del sensor se ve afectado por la interacción del sensor con las particulas del compuesto utilizado desde la primera inyección, ya que, apesar de contar con un sistema de purga nuestro sensor nunca regresa a su estado inicial, sin embargo, aún sigue funcionando y detectando el compuesto en la segunda y tercera inyección. También se pudo observar que ambos polimeros (PDMS y PMMA) presentan una buena reacción a los tres alcoholes, sin embargo, de manera especial, el etanol provoca grandes variaciones en el espectro del sensor al interactual con PMMA, y el metanol con el PDMS. Finalmente, a partir de PCA, pudimos observar que cada alcohol tiene un comportamiento caracteristico, lo cual abre la posibilidad de poder diferenciar entre los diferentes compuestos utilizados.
Diego Molina Fernando, Instituto Tecnológico Superior Purépecha
Asesor: Dr. Julio Cesar Ponce Gallegos, Universidad Autónoma de Aguascalientes

DESARROLLO DE APLICACIóN INCLUSIVA PARA PERSONAS CON DISCAPACIDADES AUDITIVAS, VISUALES Y DISCALCULIA


DESARROLLO DE APLICACIóN INCLUSIVA PARA PERSONAS CON DISCAPACIDADES AUDITIVAS, VISUALES Y DISCALCULIA

Diego Molina Fernando, Instituto Tecnológico Superior Purépecha. Espinosa Oseguera Juan Carlos, Instituto Tecnológico Superior Purépecha. Asesor: Dr. Julio Cesar Ponce Gallegos, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Los problemas de aprendizaje son unos de los aspectos más controvertidos y probablemente menos comprendidos de la educación de las personas. La idea de que algunos niños y adolescentes padecen algún problema de aprendizaje, según el Instituto para el Futuro de la Educación del Tecnológico  De Monterrey dice que los expertos calculan que un 3% a un 6% de la población padecen discalculia y existen diferentes niveles de discapacidad. (Delgado, 2020) En nuestro mundo actual los problemas de aprendizaje ya representan la principal categoría dentro de la educación especial, considerando la cantidad de personas que los sufren. Es de gran importancia el dar difusión a problemas específicos en la adquisición del aprendizaje. En México, el porcentaje de niños y adolescentes con alguna discapacidad que representan problemas de aprendizaje y dificultades para concentrarse es significativo. Según el censo de población y vivienda 2020 del INEGI, el 4.9% de la población total del país tiene algún tipo de discapacidad. (INEGI, 2020). Datos del Consejo Nacional para el Desarrollo y la Inclusión de las Personas con Discapacidad el (CONADIS) indican que las personas con discapacidad presentan numerosas barreras educativas, lo cual afecta su capacidad para aprender y concentrase adecuadamente. (CONADIS, 2019), como lo es la discalculia y a su vez ser un reto para la educación inclusiva que propone el mundo global actual.



METODOLOGÍA

Se planteo el claramente el objetivo general del proyecto el cual es la implementación de una aplicación educativa interactiva en 2D desarrollada en Unity, enfocada en los temas del libro Centro de Atención para Estudiantes con Discapacidad (CAED), para mejorar significativamente las habilidades matemáticas y de resolución de problemas de personas con discalculia. Al proporcionar un entorno de aprendizaje visualmente atractivo y adaptado a las necesidades de los usuarios, se espera que los usuarios experimenten una mayor motivación, comprensión y retención de conceptos matemáticos en comparación con métodos de enseñanza tradicionales. Planificamos claramente los objetivos de la aplicación, así como el público objetivo y las funcionalidades que se pretenden ofrecer. Esto nos ayudó a guiar el proceso de desarrollo y garantizar que la aplicación cumpla con las expectativas, para esto se creó la siguiente gamificación: Sistema de Puntos: Recompensar a los estudiantes con puntos por cada respuesta correcta. Niveles y Desbloqueables: Progresión a través de niveles y desbloqueo de contenido adicional. Tiempo y Reto: Desafíos contra reloj para completar una serie de operaciones en un tiempo determinado. Se realizo un análisis exhaustivo de los requisitos funcionales y no funcionales en el libro representaciones simbólicas y algoritmos del Centro de Atención para Estudiantes con Discapacidad (CAED). Para poder comenzar con el diseño de la interfaz del usuario, la arquitectura de la aplicación y el flujo de usuario. Para lo cual utilizamos snook.ca, que es una herramienta de verificación de contraste de color que cuenta con la evaluación WCAG (Web Content Accessibility Guidelines) que es un conjunto de pautas internacionales desarrolladas por el W3C (World Wide Web Consortium) que establecen criterios para hacer que el contenido web sea más accesible a personas con discapacidad. Estas pautas cubren una amplia gama de discapacidades incluye visuales, auditivas, motoras y cognitivas.


CONCLUSIONES

El proyecto desarrollado representa un avance significativo en el campo de la educación inclusiva, brindando una herramienta personalizada y accesible a personas con discapacidades. A través de un diseño intuitivo y actividades interactivas, esta aplicación facilita la comprensión de los conceptos matemáticos básicos, promoviendo el aprendizaje autónomo y reforzando la autoestima de los usuarios. Al combinar elementos de gamificación con estrategias pedagógicas basadas en evidencia, la aplicación logra mantener la motivación de los usuarios y facilitar la adquisición de habilidades matemáticas de manera gradual y progresiva. La implementación de principios de diseño universal y la adaptación a las necesidades específicas de personas con discapacidades hacen de esta aplicación una herramienta valiosa para complementar los procesos de enseñanza y aprendizaje en el ámbito educativo. Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el desarrollo de aplicaciones, videojuegos y software en general con la plataforma Unity, también la lógica de la programación para la elaboración de mecánicas dentro de las aplicaciones y por último se logró aplicar los conocimientos adquiridos para que nuestra aplicación funcione correctamente y cumpla las necesidades de la problemática que fue investigada y planteada en un inicio. La aplicación se diseñó siguiendo los lineamientos de accesibilidad establecidos por las WCAG, que garantiza que nuestra interfaz sea intuitiva y fácil de usar para todos los usuarios. Bibliografía CONADIS. (24 de Enero de 2019). Gobierno de México. Obtenido de https://www.gob.mx/conadis/articulos/la-educacion-y-personas-con-discapacidad Delgado, P. (24 de Enero de 2020). Observatorio Tec de Monterrey (FutureEd). Obtenido de https://observatorio.tec.mx/edu-news/que-es-la-discalculia/ INEGI. (2020). Cuentame de México. Obtenido de https://cuentame.inegi.org.mx/poblacion/discapacidad.asp
Domínguez Carpio Karla Paola, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional

AJUSTE A UN MODELO MATEMáTICO DE DATOS DE LAS CINéTICAS DE CRECIMIENTO DE MICROORGANISMOS EXTREMóFILOS (METALTOLERANTES) AISLADOS DE AGUAS Y SEDIMENTOS CONTAMINADOS DE ORIGEN ANTROPOGéNICO


AJUSTE A UN MODELO MATEMáTICO DE DATOS DE LAS CINéTICAS DE CRECIMIENTO DE MICROORGANISMOS EXTREMóFILOS (METALTOLERANTES) AISLADOS DE AGUAS Y SEDIMENTOS CONTAMINADOS DE ORIGEN ANTROPOGéNICO

Domínguez Carpio Karla Paola, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

 Actualmente el estudio de microorganismos extremofilos ha ganado relevancia en el campo de la biotecnología y microbiologia, debido a su capacidad para sobrevivir y prosperar en ambientes extremos y contaminados. Estos microorganismos presentan adaptaciones unicas que les permite resistir y metabolizar compuestos tóxicos, lo cual los convierte en sujetos de estudio prometedores para la biorremediación y demás aplicaciones.  La construcción de modelos implica la recolección de datos experimentales bajo diversas condiciones ambientales y la aplicación de técnicas de análisis matemático y estadístico para ajustar los parámetros del modelo a los datos observados. El empleo de modelos matemáticos en las cineticas de crecimiento de estos microorganismos es crucial para comprender y predecir su comportamiento en distintos entornos, ya que permiten analizar las tasas de crecimiento y la capacidad de tolerancia en determinados ambientes, proporcionando una herramienta valiosa para la optimización de procesos biotecnológicos y el diseño de estrategias de remediación ambiental.   



METODOLOGÍA

De acuerdo con la búsqueda de bibliografía se seleccionó un trabajo específico titulado Evaluación de las cinéticas de adaptación y tolerancia a metales pesados de microorganismos aislados de aguas y sedimentos contaminados de origen antropogénico, del cual se reprodujeron los resultados de cálculos de acuerdo a un modelo matemático de los datos de las cinéticas de crecimiento de tres  microorganismos seleccionados siendo Pseudomonas rhodesiae, Bacillus cereus y Rhodotorula taiwanensis presentados en el trabajo mencionado, los cuales fueron realizados mediante dos sistemas de crecimiento, el primero siendo en un matraz en agitación y el segundo en un biorreactor. De acuerdo con los datos recopilados de las cinéticas de crecimiento, se ajustaron a un modelo logístico de Verhulst-Pearl mediante una ecuación previamente planteada en el mismo trabajo, permitiendo obtener la concentración de organismos en un tiempo t X(t) utilizando el programa OriginPro 9.1 con la opción de ajuste Slogistic 1. Con base a los resultados del ajuste matemático se obtuvieron los valores de los parámetros cinéticos de los microorganismos metaltolerantes. Finalmente, se graficaron las cinéticas de crecimiento de los datos experimentales y ajustes de la evolución en el tiempo (horas) de la concentración en peso seco (g/L) para cada microorganismo


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos acerca del empleo de modelos matemáticos para la determinación de parámetros cinéticos en cultivos de microorganismos metaltolerantes provenientes de ambientes contaminados y  expuestos a diferentes concentraciones de dos metales pesados, siendo cobre y manganeso. Permitiendo obtener una comprensión detallada de las tasas de crecimiento y las capacidades de tolerancia de estos microorganismos, facilitando la predicción de su comportamiento en diferentes condiciones y optimizando las estrategias de remediación. La integración de la biología y la matemática en el estudio de los microorganismos extremófilos promueve nuevas oportunidades para el desarrollo de soluciones sostenibles a los problemas de contaminación ambiental causados por actividades antropogénicas, contribuyendo hacia prácticas directas en la protección y restauración del medio ambiente.
Durán Carranza Emerich José, Instituto Tecnológico de Morelia
Asesor: Post-doc Juan Esteban Velez Alvarez, Corporación Universitaria Remington

IDENTIFICACIóN DE LOS NIVELES DE MADURACIóN DEL AGUACATE (PERSEA AMERICANA VAR. HASS) MEDIANTE REFRACCIóN Y MACHINE LEARNING.


IDENTIFICACIóN DE LOS NIVELES DE MADURACIóN DEL AGUACATE (PERSEA AMERICANA VAR. HASS) MEDIANTE REFRACCIóN Y MACHINE LEARNING.

Durán Carranza Emerich José, Instituto Tecnológico de Morelia. Asesor: Post-doc Juan Esteban Velez Alvarez, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

Durante la edición 2024 del programa de investigación científica y tecnológica del pacifico Delfín que comprende del 17 de Junio al 2 de Agosto, se realizó una estadía presencial con el investigador D.C Vélez Alvarez Juan Esteban, en la Corporación Universitaria Remington, campus ubicado en Medellín, Antioquia, Colombia. Fui seleccionado para realizar una colaboración a un proyecto, el cual trata de aplicar espectroscopia de esparcimiento inelástico para la identificación de proteinas integrinas dentro de los tumores asociados a melanoma canino. Lamentablemente por cuestiones de logística externas al investigador, no se pudo dar seguimiento a este proyecto, por lo cual optamos por el planteamiento de otro proyecto siguiendo la línea de investigación de Física Aplicada y en el cual también pudiéramos aprovechar mis conocimientos y habilidades como estudiante de la carrera de ingeniería bioquímica. El proyecto que planteamos es Identificación de los niveles de maduración del aguacate (Persea americana var. Hass) mediante refracción y machine learning.. En el cual, mediante un led naranja, plantemos usar el indice de refracción a 600 nm en la superficie de la piel del aguacate para posteriormente con el entrenamiento de una inteligencia artificial, sea posible predecir el nivel de maduración del fruto para así optimizar su proceso de clasificación.



METODOLOGÍA

1. Se elaboro una cámara oscura con carton industrial a la cual se le coloco un led de luz naranja (600 nm) y un filtro para concentrar la mayor cantidad de luz en un solo punto. 2. Dentro del equipo se colocaron tres diferentes muestras de aguacate (Persea americana var. Hass) con diferentes niveles de maduración como control, las cuales se clasificaron como "Inmaduro", "Firme" y "Maduro". 3. Con la cámara de un iPhone 14 Pro Max, se tomaron 100 fotografías del indice de refracción sobre la superficie de la piel del fruto. Cada 10 fotografías se roto el fruto. 4. Mediante la herramienta digital "Teachable Machine" se entro una IA con las 100 fotografías de cada muestra control.


CONCLUSIONES

Para la validación del entrenamiento de la inteligencia artificial se tomaron como muestra tres aguacates (Persea americana var. Hass), que tenían diferentes niveles de maduración, que se clasificaron en 1, 2 y 3, para posteriormente de igual manera que con las muestras control, colocarse una por una las muestras a analizar dentro del equipo y se tomaron 4 fotografías con una diferente rotación de cada muestra. Posteriormente, las fotografías tomadas de las muestras se introdujeron a la herramienta digital Teachable Machine, para poder analizar el porcentaje de confiabilidad que tiene la inteligencia artificial después del entrenamiento para reconocer los diferentes niveles de maduración en las diferentes muestras. La herramienta digital Teacheable Machine mostró resultados con resultados con un alto porcentaje de confiabilidad para las muestras tomadas. Esto nos indica que esta técnica si es viable para poder clasificar el aguacate (Persea americana var. Hass), por sus diferentes niveles de maduración mediante el uso del indice de refracción a 600 nm y posteriormente el uso de una inteligencia artificial con redes neuronales convolucionales previamente entrenada. Aunque este proyecto aun se encuentre en una fase sumamente temprana, esto abre la posibilidad de expandir la investigación a otras variedades de aguacate y también poder pensar en realizar una escalado del proyecto y llevarlo a la distribución para un uso industrial y masivo.
Durán Hernández Chantal Scarlett, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Fabiola Gabriela Nieto Caballero, Benemérita Universidad Autónoma de Puebla

SÍNTESIS ELECTROQUÍMICA DE MATERIALES SEMICONDUCTORES Y SU CARACTERIZACIÓN ÓPTICA.


SÍNTESIS ELECTROQUÍMICA DE MATERIALES SEMICONDUCTORES Y SU CARACTERIZACIÓN ÓPTICA.

Durán Hernández Chantal Scarlett, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Fabiola Gabriela Nieto Caballero, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

SÍNTESIS ELECTROQUÍMICA DE MATERIALES SEMICONDUCTORES Y SU CARACTERIZACIÓN ÓPTICA ASESOR: Dr. Nieto Caballero Fabiola Gabriela ESTUDIANTE: Durán Hernández Chantal Scarlett   PLANTEAMIENTO Las aplicaciones de los semiconductores desarrollan un importante rol en la tecnología y energía. Su aplicación se destaca en el uso para tratamiento de aguas residuales, diodos, celdas solares, sensores y en dispositivos de comunicación. Un semiconductor es un compuesto inorgánico conduce electricidad al adicionar energía o dopar de otros elementos al material, así se puede establecer una corriente eléctrica permitiendo que los electrones de banda de valencia se movilicen a la banda de conducción y generar pares electrón-hueco disponibles para recombinarse emitiendo fotones o llevar a cabo reacciones de óxido reducción dependiendo de su aplicación. Durante la estancia se realizó investigación bibliográfica correspondiente a los antecedentes, métodos de síntesis y deposición, usos y aplicaciones de materiales semiconductores, así como la importancia en aplicaciones diversas. En la investigación realizada se comparan los resultados obtenidos de diversos grupos de investigación tomando en consideración la caracterización del material usando fotoluminiscencia y su aplicación en procesos de fotocatálisis para remediación del medio ambiente. De la información obtenida se realiza una discusión de los resultados y se toman en consideración aspectos del material semiconductor que se desea obtener mediante la síntesis de procesos electroquímicos. Un comportamiento interesante en los semiconductores es que para la obtención de un material mediante electrólisis con características específicas se deberá controlar parámetros como corriente, temperatura, humedad del ambiente, iluminación y tiempo. Otra parte que se trabajo fue en el laboratorio donde se usaron obleas de silicio cristalino y el proceso de electrólisis para el depósito de materiales semiconductores como el óxido de zinc, dióxido de titanio y óxido de galio; materiales que se ha reportado su obtención mediante este proceso, así como su aplicación en fotocatálisis. Los procesos electroquímicos son de utilidad en la producción de hidrógeno, el cual representa un material asequible con posible uso en producción en energía limpia.



METODOLOGÍA

Objetivo: Realizar investigación bibliográfica sobre la síntesis y caracterización óptica de materiales semiconductores   Síntesis Electroquímica (trabajo en el laboratorio): Para la síntesis electroquímica, se usó obleas de silicio. Estas obleas deben limpiarse adecuadamente utilizando una secuencia de disolventes: primero xileno, seguido de acetona y finalmente etanol. Posteriormente, las obleas se colocan en una celda de teflón, donde se procederá a administrar la corriente eléctrica necesaria para la obtención de silicio poroso. Las condiciones que deben tomarse en cuenta para el proceso son: corriente, voltaje, temperatura, tiempo, humedad del ambiente y condiciones de iluminación.   Característica visual: Sobre la oblea de silicio dopada bajo diferentes parámetros, se puede observar un cambio óptico en color (naranja) que es visible únicamente bajo luz ultravioleta. Este fenómeno se denomina fotoluminiscencia, y ocurre cuando los electrones en la banda de conducción se recombinan con huecos en la banda de valencia o en niveles de energía intermedios creados por el dopaje.   Síntesis de materiales semiconductores: La bibliografía de los artículos abarca diversas técnicas de síntesis como la solvotermal, método sol-gel, coloidal y la deposición química en fase vapor, además de modificaciones mediante dopaje. También se analiza cómo estas técnicas afectan la eficiencia y la estabilidad de los fotocatalizadores en la degradación de contaminantes.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos teóricos sobre las diversas técnicas de síntesis de materiales semiconductores. Además, se aplicaron estos conocimientos en la práctica mediante la síntesis electroquímica utilizando obleas de silicio para obtener silicio poroso. Las condiciones climáticas son factores que alteran el proceso electroquímico para observar el fenómeno de fotoluminiscencia y la humedad elevada influye en el resultado. El proceso de síntesis mediante electrólisis es un proceso poco utilizado en la obtención de materiales semiconductores y aún se encuentra en fase experimental, lo que representa una oportunidad para la investigación y su posible aplicación.
Echeverri Ospina Cristian Alexis, Instituto de Educación Técnica Profesional de Roldanillo Valle - INTEP
Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara

ANáLISIS DE LA RADIACIóN SOLAR EN LOS MESES CáLIDOS- HúMEDOS Y SU IMPACTO EN LA EFICIENCIA ENERGéTICA DE SISTEMAS SOLARES EN BAHíA DE BANDERAS, MéX


ANáLISIS DE LA RADIACIóN SOLAR EN LOS MESES CáLIDOS- HúMEDOS Y SU IMPACTO EN LA EFICIENCIA ENERGéTICA DE SISTEMAS SOLARES EN BAHíA DE BANDERAS, MéX

Echeverri Ospina Cristian Alexis, Instituto de Educación Técnica Profesional de Roldanillo Valle - INTEP. Pedro Trujano Daniela Jazjanny, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La radiación solar es energía emitida por el Sol, fundamental para la vida y la mayoría de los procesos los procesos océano atmosféricos que regulan la vida en el planeta Tierra. Sin embargo no se recibe la misma cantidad de energía en toda la superficie de la Tierra.  Factores como la estación del año, la temperatura, la hora del día, fenómenos atmosféricos, la distancia entre el Sol y la Tierra y por ende la cantidad de radiación solar recibida. Además, la radiación que recibimos varía debido a que existen distintos tipos de radiación solar, que al momento de atravesar la capa de ozono, se debilitada y la irradiancia va disminuyendo.  El cambio de la radiación solar durante el día presenta la problemática de que afecta significativamente en la cantidad de energía que genera, lo cual reduce la eficiencia de los sistemas energéticos solares. 



METODOLOGÍA

Se utilizan bases de datos obtenidas de dos estaciones meteorológicas automáticas, una ubicada en el Centro Universitario de la Costa y otra en la Preparatoria Regional UDG, ambas en Puerto Vallarta Jalisco México. Las bases de datos de la radiación solar cada 30 minutos durante los años 2017 y 2021. El primer proceso por el que pasan los datos, es para una clasificación de los meses más cálidos y los meses más húmedos mediante un análisis de la humedad relativa y la temperatura. Una previa investigación nos indica que, partiendo de una misma temperatura, pero menor humedad relativa es un mes seco y con mayor humedad relativa es un mes húmedo. Se realizan cálculos de los promedios mensuales de la humedad relativa para identificar los meses más cálidos o secos y húmedos del año, de los cuales elegimos tres meses de cada uno.   Una vez identificados los seis meses del año con los que se va a trabajar, se hace el análisis de estos meses por separado, promediando los datos de radiación a lo largo del día. Es decir, se promedia el índice de radiación cada treinta minutos de todos los días del mes y así para cada uno de los seis meses. Se grafica la radiación contra la hora de los seis meses del 2017 y de igual forma para los seis meses del 2021.


CONCLUSIONES

El comportamiento de la radiación solar a lo largo del día, presenta un mayor cambio en las estaciones de la Preparatoria Regional y el CUC del año 2021. En esta última estación, el índice de la radiación registrada aumenta para todos los meses.  El mes de junio es el mes que presenta menor índice de radiación solar en la hora pico, que es entre las 12 y las 2pm, y esto coincide en las dos estaciones y en los dos años que se analizaron.  La variación de la radiación solar captada por las estaciones meteorológicas, afecta el aprovechamiento de sistemas energéticos con fuentes solares y esto influye en la eficiencia de los sistemas que utilizan fuentes solares, afectando el uso eléctrico y fotovoltaico que beneficia a los habitantes de la región de Bahía de Banderas en Puerto Vallarta. 
Eleuterio Gómez Daniel, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Alfredo Castañeda Hernandez, Universidad de Sonora

OPTIMIZACIóN DE DOSIS DE HADRON TERAPIA CON LA SIMULACIóN EN GEANT4.


OPTIMIZACIóN DE DOSIS DE HADRON TERAPIA CON LA SIMULACIóN EN GEANT4.

Eleuterio Gómez Daniel, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Alfredo Castañeda Hernandez, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Según la Organización Mundial de la Salud, "el cáncer se considera la principal causa de muerte en todo el mundo, con un estimado de muertes igual a 9,7 millones" en 2022. Dependiendo de su tipo y de lo avanzado que esté, el cáncer puede tratarse con distintas técnicas o combinaciones de ellas, como Quimioterapia, Cirugía y Radioterapia. El objetivo de la radioterapia es maximizar la dosis sobre el tumor sin dañar el tejido sano cercano. Con la radiación electromagnética (rayos X y gamma), es difícil lograr esto, especialmente en tumores profundos, debido a la distribución decreciente de la dosis al penetrar el organismo. La hadronterapia, que utiliza partículas pesadas cargadas (protones e iones pesados), ofrece una distribución de dosis diferente y más beneficiosa. Estas partículas pierden más energía al final de su recorrido, concentrando la dosis en el tumor y reduciendo la radiación al tejido sano, a diferencia de la radioterapia con fotones. Con el objetivo de iniciar la investigación, se planteó utilizar una simulación de Hadronterapia que esta basada en el software Geant4 para poder simular varias iteraciones con la finalidad de modificar los parámetros para así poder obtener una dosis ideal.



METODOLOGÍA

Para comenzar el estudio de la investigación, se accedió a la simulación, que consume muchos recursos del ordenador. Por ello, se optó por utilizar un escritorio remoto proporcionado por la Universidad de Sonora (UNISON). Se accedió a la página Open OnDemand para conectar con el servidor ACARUS de UNISON. Una vez conectado, se accedió a la simulación llamada Hadrontherapy, la cual está desarrollada en Geant4 y su código fuente está en C++. Ahora bien, la geometría usada en la simulación fue la siguiente: Las ventanas de Kapton: Permite el paso del haz del vacío al aire. Lámina de dispersión: Una lámina delgada que realiza una primera dispersión del haz original. El detector MOPI: Dos detectores de gas microstrip ortogonales. Permite la comprobación en línea de la simetría del haz mediante la integración de la señal de la carga recogida para cada tira. Cámara de monitorización: Es una cámara de ionización de aire libre capaz de medir la fluencia de protones durante el tratamiento. Colimador: Es una placa de PMMA con un agujero en el centro. Caja moduladora: Es una caja de aluminio en la que se encuentran el desplazador de rangos y el modulador de energía, cada cara es una losa de aluminio con un agujero en su centro. El detenedor: es un pequeño cilindro capaz de detener la componente central del haz. Está conectado a la segunda lámina de dispersión y representa el segundo elemento del sistema de dispersión. Tubo y colimador final: La última parte de la línea del haz de transporte consiste en una placa de PMMA para detener toda la radiación difusa, un tubo de latón para colimar bien el haz de protones y un colimador final que proporciona la forma transversal final del haz. Fantoma: Una caja en la que el haz transportado es depositado al final del sistema, en este caso fue de un cubo de dimensión 40 cm x 40 cm x 40 cm, el fantoma puede variar de material pero para este ejemplo se utilizó un fantoma de agua y dentro del fantoma se encuentra el detector. Detector: Un cubo pequeño de dimensión 4 cm x 4 cm x 4 cm, en el cual esta dividido en pequeños voxel (Volumetric Pixel) de dimensión .1 mm x 40 mm x 40 mm. Una vez entendida la geometría de la simulación, se procedió a ejecutar el código en repetidas ocasiones. Cabe resaltar que la geometría del sistema permaneció inalterable en todas las ejecuciones de la simulación. La fuente principal de partículas fue siempre un protón, y la distribución de la energía correspondió a una gaussiana en todos los casos. Además, solo se tomó en cuenta la dirección "i", es decir, la línea desde la que provienen los haces. Entonces el único parámetro modificado fue la energía inicial del protón, siendo 4 veces modificado con 50, 60, 70 y 90 MeV. Al penetrar en un medio absorbente, los protones y iones pesados pierden energía principalmente por interacciones con los electrones del medio. La pérdida de energía es inversamente proporcional a la raíz cuadrada de su velocidad, lo que provoca que depositen la mayor densidad de energía al final de su recorrido, conocido como el pico de Bragg. Esto permite irradiar una región específica del cuerpo con una dosis mayor sin afectar tanto al tejido superficial.


CONCLUSIONES

Entonces el pico de Bragg para correspondiente para cada nivel de energía fueron los siguientes: Para una energía inicial de 50 MeV le corresponde una dosis de 1.42341e-08 Gy a la altura del voxel 182. Para una energía inicial de 60 MeV le corresponde una dosis de 1.64118e-08 Gy a la altura del voxel 271. Para una energía inicial de 70 MeV le corresponde una dosis de 1.83364e-08 Gy a la altura del voxel 367. Para una energía inicial de 90 MeV le corresponde una dosis de 6.98769e-08 Gy a la altura del voxel 205. Se observó que a medida que aumenta la energía, también incrementa el pico de Bragg, es decir, la cantidad de dosis suministrada en el fantoma. Este comportamiento se observó con energías iniciales de 50, 60 y 70 MeV. Sin embargo, con una energía inicial de 90 MeV, aunque el pico de Bragg es mucho mayor, se distribuye mucho antes que en los otros casos. Otra cosa para considerar es la forma de las gráficas. El objetivo es que la dosis máxima se suministre lo más lejos posible, mientras que la dosis mínima se aplique al principio del fantoma (en los tejidos sanos). Tomando en cuenta estas consideraciones, la energía más adecuada es la de 60 MeV. Sin embargo, esto no significa que una energía inicial de 60 MeV sea adecuada para cualquier tipo de cáncer, ya que en este proyecto se utilizó un cubo de agua como fantoma. Lo ideal sería usar un cuerpo humano y trabajar con una zona específica. Además, se podrían cambiar la geometría del sistema y los parámetros físicos que conlleva.
Elizondo Mejia Eduardo Antonio, Instituto Tecnológico de Tepic
Asesor: M.C. Victoria Pérez Reyes, Instituto Tecnológico de Chihuahua II

EXTRACCIóN DE URANIO MEDIANTE RESINAS DE INTERCAMBIO IóNICO Y EXTRACCIóN LíQUIDO-LíQUIDO UTILIZANDO UN SISTEMA DE DIGESTIóN ABIERTA.


EXTRACCIóN DE URANIO MEDIANTE RESINAS DE INTERCAMBIO IóNICO Y EXTRACCIóN LíQUIDO-LíQUIDO UTILIZANDO UN SISTEMA DE DIGESTIóN ABIERTA.

Elizondo Mejia Eduardo Antonio, Instituto Tecnológico de Tepic. Asesor: M.C. Victoria Pérez Reyes, Instituto Tecnológico de Chihuahua II



PLANTEAMIENTO DEL PROBLEMA

En la ciudad de Chihuahua, México, la presencia del complejo uranífero de Peña Blanca tiene relevancia nacional lo que genera la necesidad de monitorear y cuantificar con precisión los niveles de radioisótopos de uranio 238U y 234U, en ambiente. La cuantificación precisa de estos radioisótopos es esencial para evaluar el impacto ambiental de las actividades mineras y para implementar medidas adecuadas de protección ambiental y salud pública. La obtención de datos precisos sobre la concentración de radioisótopos de uranio depende en gran medida de los métodos de extracción utilizados. Se emplean dos métodos principales para la extracción de dicho elemento en muestras ambientales: el uso de resinas de intercambio iónico, como UTEVA, y la extracción líquido-líquido mediante cócteles centelleantes (URAEX). Sin embargo, no está claramente establecido cuál de estos métodos ofrece un rendimiento superior en términos de eficiencia de extracción y precisión en la cuantificación de los radioisótopos.  El estándar certificado IAEA-375, es utilizado como referencia para calibrar instrumentos y validar métodos de extracción, y dicho estándar debe de ser caracterizado de manera adecuada. Llevar a cabo una comparación de los métodos de extracción con un estándar certificado asegura la confiabilidad en los resultados obtenidos, y así evitar las subestimaciones o sobreestimaciones de los niveles de uranio en el ambiente en general.



METODOLOGÍA

Se llevó a cabo la cuantificación de los radioisótopos 238U y 234U en el estándar certificado IAEA-375 y una muestra de matriz ambiental por espectrometría alfa por los siguientes métodos: electrodeposición y centelleo líquido (CL) (este último fue el único método usado en la muestra ambiental). Para conocer la composición del estándar IAEA-375, se realizó difracción de rayos X (XRD) en el equipo PANAlytical, la identificación de las fases minerales fue mediante el programa MATCH. Digestión. Se efectuó una digestión en sistema abierto con parrilla, la extracción fue mediante resinas de intercambio iónico (UTEVA) necesario para el procedimiento de electrodeposición, así como extracción líquido-líquido (URAEX) para CL. Se tomó 0.5 gramos de muestra y se calcinó a 600°C durante 24 horas. Una vez calcinada la muestra se transfirió a un vaso de precipitado de PTEE y se trazó con estándar 232U. Posteriormente se añadió HF, agua regia y HClO4, la mezcla se descompuso en una parrilla hasta sequedad. Este paso se repitió hasta completar la digestión. Después, se agregó HClO4 y se evaporó hasta casi la sequedad. A continuación, se adicionó HNO3 5M y se transfirió a vaso de precipitado de vidrio. El tiempo de digestión fue de una semana. Electrodeposición. Extracción de radioisótopos con columnas UTEVA. Para la preconcentración de actínidos el residuo de la digestión se evaporó, a temperatura templada se agregó H2O y solución portadora de Fe3+, se agregó amoniaco hasta un pH de 9. La solución se transfirió a tubos de centrifuga y se centrifugó por 30 min a 4000 rpm. Posteriormente se elimina el sobresaliente y el precipitado se llevó a sequedad total. Para pasar la muestra por la UTEVA fue necesario disolver el precipitado con HNO3. Posteriormente, se extrae el Th utilizando HNO3, se realizó una segunda extracción para U empleando 5 HCl 0.01M. La fase acuosa se evaporó hasta casi sequedad. Se agregó NaSO4 0.3M para evitar la adsorción en las paredes del recipiente. Se llevó a sequedad, para disolver el precipitado se añadió H2SO4 instra. Después se agregó H2O + indicador azul de timol, el cual se torna en un color rosado. Se ajustó el pH entre 2 y 2.2 con amoniaco hasta obtener un color amarillo. Finalmente, la solución se trasfirió a una celda de electrodeposición por 20 min a 1.2 A. La medición se llevó a cabo en una cámara de espectrometría alfa Canberra 7401VR por 48 horas.  Centelleo Líquido. Extracción Liquido-Líquido con URAEX. El residuo de digestión se llevó a sequedad para después adicionar HNO3 (c) + H2O, y se evaporó. Posteriormente se agregó H2SO4 5M + Na2SO4 1M y se llevó a sequedad, este paso se repitió 2 veces. El residuo obtenido se disolvió en H2O y se transfirió a un tubo de ensayo cuidando el pH entre 1.3 y 1.5. Se adicionó URAEX y se agitó, para después dejarlo en reposo hasta alcanzar la separación de fases. Se extrajo la fase orgánica y se transfirió a un culture tube (10 mm x 75 mm), seguido de una desoxigenación con un flujo de argón. Finalmente se llevó a medición en el equipo PERALS por 72 horas para el IAEA-375 y 24 horas para la muestra ambiental.


CONCLUSIONES

El estándar IAEA-375 está compuesto en su mayoría por SIO2 (cuarzo), lo cual se determinó por XRD. La extracción líquido-líquido en el estándar obtuvo mejor rendimiento respecto al uso de la UTEVA. La concentración de actividad de los radioisótopos 238U y 234U se encuentra dentro del intervalo de confianza de 95 % que marca el certificado del estándar IAEA-375 en la extracción líquido-líquido. En el espectro de la medición alfa del mismo estándar, se logró identificar los isótopos del uranio por su energía característica. Se cuantificó la concentración de actividad de una muestra de sedimento, por lo que el método de extracción líquido-líquido es viable para muestras ambientales.
Enriquez Duran Stephanie Daniela, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE MODELOS DE INFLACIóN CóSMICA A TRAVéS DEL ANáLISIS DE LA ECUACIóN DE WHEELER-DEWITT EN FíSICA MATEMáTICA


DESARROLLO DE MODELOS DE INFLACIóN CóSMICA A TRAVéS DEL ANáLISIS DE LA ECUACIóN DE WHEELER-DEWITT EN FíSICA MATEMáTICA

Enriquez Duran Stephanie Daniela, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Durante mi estancia en el verano científico, el objetivo fue abordar la inflación cósmica desde un enfoque teórico, utilizando herramientas de física matemática. La investigación comenzó con la construcción de la acción del sistema, partiendo de la métrica y los tensores, elementos fundamentales en la descripción del espacio-tiempo en la teoría de la relatividad general. Este marco permitió incorporar un campo escalar, con el cual exploramos cómo dicho campo podría haber actuado como un mecanismo impulsor de la inflación en el universo temprano. Los resultados nos llevaron al análisis de la ecuación de Wheeler-DeWitt, con el objetivo de conectar las dinámicas cuánticas del universo con la teoría de la relatividad general.



METODOLOGÍA

Para abordar el problema, se inició con una construcción de la acción a partir de la métrica ​ y los tensores asociados, lo que permitió un tratamiento del espacio-tiempo bajo la influencia de un campo escalar. Se implementó un campo ϕ4 para modelar la inflación, siguiendo las predicciones teóricas que sugieren que la expansión acelerada del universo en sus primeros instantes podría explicarse mediante tales campos escalares. El desafío central del proyecto fue abordar la ecuación de Wheeler-DeWitt, una ecuación diferencial parcial que describe la evolución cuántica del universo en su totalidad. Esta ecuación, HΨ=0, donde H es el operador hamiltoniano, requiere encontrar la función de onda del universo, Ψ, que encapsula todas las posibles configuraciones del espacio-tiempo y la materia.   Intentamos resolver esta ecuación de diversas maneras, comenzando con enfoques analíticos que incluyeron el uso de funciones especiales, como las funciones de Bessel, las funciones hipergeométricas y las funciones esféricas armónicas. Cada una de estas funciones tiene propiedades particulares que las hacen adecuadas para resolver ciertos tipos de ecuaciones diferenciales, especialmente aquellas que surgen en contextos físicos como el problema de la mecánica cuántica y la teoría de campos. Funciones de Bessel: Estas funciones, que aparecen frecuentemente en problemas de ondas y potenciales en sistemas esféricos o cilíndricos, fueron una de las primeras herramientas exploradas para buscar soluciones a la ecuación de Wheeler-DeWitt. La complejidad de la ecuación y su acoplamiento resultaron en dificultades para aplicar esta función de manera efectiva. Funciones hipergeométricas: Posteriormente, se emplearon funciones hipergeométricas, conocidas por su capacidad de resolver ecuaciones diferenciales de segundo orden con tres puntos singulares regulares. No obstante, la naturaleza no trivial del operador hamiltoniano en la ecuación de Wheeler-DeWitt hizo que encontrar una forma cerrada para Ψ en términos de funciones hipergeométricas fuera extremadamente complicado. Funciones esféricas armónicas: También se exploró la posibilidad de utilizar funciones esféricas armónicas, que son fundamentales en la descripción de sistemas con simetría esférica, como sería el caso de un universo isotrópico y homogéneo. Estas funciones permiten descomponer ecuaciones diferenciales en coordenadas angulares y radiales. Sin embargo, las ecuaciones resultantes, incluso después de esta separación, no se simplificaron lo suficiente como para permitir soluciones exactas. Ante estas dificultades, recurrimos a métodos numéricos, empleando diversos softwares especializados para explorar posibles soluciones. Estos enfoques numéricos nos permitieron simular escenarios inflacionarios y analizar la viabilidad de los modelos propuestos, con el fin de reproducir la dinámica observada en el universo temprano.


CONCLUSIONES

Los resultados de esta investigación señalan la dificultad inherente a la ecuación de Wheeler-DeWitt, un componente clave en la búsqueda de una teoría cuántica de la gravitación. La ecuación, que encapsula la superposición cuántica de todos los posibles universos y configura una "función de onda del universo", se mostró resistente a soluciones analíticas convencionales. Esta resistencia muestra la complejidad de combinar la mecánica cuántica con la relatividad general en un marco coherente. La transición hacia enfoques numéricos permitió un avance significativo, aunque aún no definitivo, hacia la comprensión de los mecanismos inflacionarios. A través de simulaciones numéricas, se han comenzado a identificar soluciones que podrían explicar la inflación observada, acercándonos así a una comprensión más detallada de cómo un campo escalar podría haber generado la rápida expansión del universo. La ecuación de Wheeler-DeWitt sigue siendo un desafío en la física teórica, pero su resolución o el avance en la comprensión de sus soluciones numéricas podría proporcionar la clave para una teoría unificada de la física que integre de manera consistente la mecánica cuántica con la relatividad general, y así desentrañar los misterios del universo desde su origen cuántico.
Escobar Lopez Cristopher, Universidad Mexiquense del Bicentenario
Asesor: Dr. José Filomeno Conrado Parraguirre Lezama, Benemérita Universidad Autónoma de Puebla

SISTEMAS AGROFORESTALES EN CLIMAS TROPICALES


SISTEMAS AGROFORESTALES EN CLIMAS TROPICALES

Escobar Lopez Cristopher, Universidad Mexiquense del Bicentenario. Asesor: Dr. José Filomeno Conrado Parraguirre Lezama, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

uno de los grandes problemas en la agricultura debido a la falta de información en los productores es la eroción del suelo debido al lavado de las tierras de labor ya se por las lluvias constantes o por la forma de riego que conocemos como rodado (agua corriente en el suelo de labor) lo cual si no se maneja de la manera adecuada provoca un desgaste en la capafertil de la tierra llevandose consigo los macro y micro elementos esenciales para un buen desarrollo de los cultivos asi como la materia organica, dejando así un suelo erocionado y pobre en minerales y fuentes de carbono. Una forma de solucionar este problema en los cultivos es mediante la implementación de sistemas agroforestales los cuales resultan en una asociación entre dos o maas cultivos que no se dañan sino que la relación que se tiene entre ellos es de ayuda. un ejemplo de ello es el sistema que se usa con magueyes el cual se usa como una planta retenedora de agua entre un cultivo de arboles frutales.



METODOLOGÍA

la metodologia para este proyecto de investigación se basa en la busqueda de información en articulos de sistemas agroforestales usados por nuestros antepasados que a pesar de no tener los conocimientos suficuentes los utilizaban de manera existosa, como la implementación de magueyes en los limites de sus parcelas que ademas de delimitar los terrenos sin saber tambien los ayudaban ya que tenian ina berrera natural contra animales, intrusos humanos y por que no ayudar como barreras contra el viento que en algunos cultivos los vientos fuertes son perjuduciales para ellos. es por ello que se decidio indagar en diversos articulos sobre este tema ademas de consultar con las personas mayores de la región de Coatepec Harrinas Edo. Mexico, sobre el funcionamiento de estos sistemas.


CONCLUSIONES

en concluasión, el resultado que se espera obtener con esta investigación es consolidar la mayor cantidad de información que se pueda obtener tanto de fuentes bibliograficas como de productores que sin saber mucho de matera teorica usan estos sistemas desde hace muchos años atras. aunado a lo anterior se pretende que toda esa información lllegue a los productores de la region que consideran sus tierras poco productivas para que con todo el conocimiento se pueda dar una solución a este problema que tanto afecta a los bosques, ya que si en algun momento un terreno se considera como poco productivo la alternativa la mayoria de las veces no es la restauración sino que se opta por aumentar la tierra de labor recurriendo a la tala de los bosques que ademas de ser fuente de oxifeno son fuente de resguardo para una gran cantidad de flora y fauna silvestre.
Espinosa Fernández Estefanía, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

RELLENADO DE DATOS NULOS EMPLEANDO EL ALGORITMO K-NN


RELLENADO DE DATOS NULOS EMPLEANDO EL ALGORITMO K-NN

Espinosa Fernández Estefanía, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Las normales climatológicas son datos fundamentales en diversos análisis de Ciencias de la Tierra. Por ejemplo, la evaporación y la precipitación son fundamentales en análisis de cuenca. Y en conjunto con la temperatura, cada vez adquieren más relevancia en ámbitos como el plantemiento urbano, agrícola y análisis medioambientales.  La mayoría de los métodos y algoritmos para realizar los tipos de análisis enlistados anteriormente requieren conjuntos de datos completos, por lo que el tratamiento de nulos es fundamental en cualquier procesamiento. Algunas soluciones a este tipo de problemas son rellenar con ceros, rellenar con la media o con algún otro método estadístico, e incluso eliminar la observación relacionada al dato faltante. No obstante, estos métodos no siempre toman en cuenta patrones e involucran pérdida de información, lo que se vuelve relevante conforme aumenta la cantidad de datos ausentes. 



METODOLOGÍA

Adquisición y preprocesamiento de datos.  Los datos se descargaron de la base de datos de normales climatológicas de la Comisión Nacional del Agua, a través de su página web (https://smn.conagua.gob.mx/es/informacion-climatologica-por-estado?estado=pue) los datos de cada estación se encuentran en formato txt con información sobre la precipitación, evaporación y temperatura.   Los datos se procesaron en Python, por lo que fue necesario eliminar los encabezados y colocarles un formato de tabla, esto se realizó en Excel, ya que los archivos estaban separados por espacios, pero el ancho de cada columna estaba definido de forma distinta, lo que causaba espacios vacíos y nulos falsos.   Preprocesamiento en Python  Colocar el formato correcto a los datos e identificar los espacios vacíos se llevó a cabo en Python, utilizando las librerías pandas y numpy.  Los diferentes tipos de algoritmos y su funcionamiento se analizaron y estudiaron en documentación oficial de TensorFlow y ScikitLearn, se seleccionó el algoritmo k-NN debido a su facilidad para trabajar sobre datos nulos sin intervención manual.  El modelo se diseñó en Python utilizando la librería ScikitLearn, el procedimiento seguido para generar el código fue el siguiente:  Para poder ingresar las fechas en un formato reconocible por cualquier algoritmo, se transforman las fechas a julianas, que son números enteros. Esto permite ordenar los datos para reconozcan automáticamente las fechas faltantes (si no hay registro de dicha fecha ni siquiera como instancia).  Identificar las fechas de inicio y fin para realizar el estudio, a partir de estas generar un data frame, que posteriormente será la base para acomodar los datos evitando excluir algún día dentro del periodo de estudio.   Cargar el conjunto de datos.  Convertir las fechas a cadenas con la finalidad de poder dividirlas después. Aquí también debe identificarse si hay alguna línea con caracteres, que suelen indicar el final del conjunto.   Calcular las fechas julianas de cada día presente en el conjunto.  Acomodar los datos en el data frame base, esto permite tener una serie de tiempo continua.  Identificar la ubicación de los datos nulos, generar dos data frames: uno sin datos nulos y otro donde se incluyan todas las fechas con datos faltantes.  Convertir los datos al arreglo requerido por k-NN (un arreglo numpy bidimensional).  Generar el modelo, ajustar y calcular error (el paquete k-NNRegressor tiene por defecto el coeficiente de determinación, R²).   Ajustar el modelo para las fechas en las que no hay datos.   Generar un conjunto con los datos completos.  Presentar de forma gráfica. 


CONCLUSIONES

Al calcular R² para el rellenado de nulos utilizando las medidas de tendencia central, se obtienen resultados negativos, lo que implica que utilizarlas para rellenar este tipo de datos puede llegar a ser peor que emplear valores aleatorios, utilizar k-NN para las normales climatológicas representa una mejora significativa con respecto a los métodos tradicionales, con R² entre 0.12 y 0.5. Debido a que solo es necesario variar la entrada de los datos para adaptar al modelo a cualquier normal climatológica, modificando mínimamente el código es posible adaptarlo a otro tipo de datos, por lo que es versatil y podría emplearse para problemas en otras áreas.   Es posible reconocer patrones en el comportamiento de las normales climatológicas al graficarlas, que se repiten con respecto al tiempo, y k-NN es capaz de adaptarse dichos patrones, dando una idea más cercana a la realidad que una línea recta, y siendo mejor para aquellas con patrones más evidentes. Entonces, k-NN podría ser capaz de rellenar datos faltantes para cualquier serie temporal que cumpla con determinado patrón, con tendencias definidas o con comportamiento periódico,
Espinosa López Luis Humberto, Universidad de Guadalajara
Asesor: Dr. Rafael Hernández Jiménez, Universidad de Guadalajara

FORMACIÓN DE AGUJEROS NEGROS PRIMORDIALES A TRAVÉS DEL MECANISMO DE WARM INFLATION


FORMACIÓN DE AGUJEROS NEGROS PRIMORDIALES A TRAVÉS DEL MECANISMO DE WARM INFLATION

Delgado Ortiz Rosaura Patricia, Universidad de Guadalajara. Espinosa López Luis Humberto, Universidad de Guadalajara. Asesor: Dr. Rafael Hernández Jiménez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los agujeros negros son una de las predicciones más fascinantes de la teoría de la relatividad general de Einstein, donde la concentración gravitacional es tan intensa que ni siquiera la luz puede escapar de estas regiones.  El propósito de este proyecto es entender la formación agujeros negros primordiales (primordial black holes(PBH)). Estos agujeros negros se originaron poco después del Big Bang bajo condiciones extremas de densidad y temperatura. Son de gran interés porque podrían constituir una fracción significativa de la materia oscura del universo y proporcionar información crucial sobre las condiciones del universo temprano. La formación de agujeros negros primordiales está ligada a las fluctuaciones de densidad en el universo temprano y a procesos como la inflación cósmica. La inflación es una expansión extremadamente rápida del universo que ocurrió en una fracción de segundo después del Big Bang,causada por un campo escalar llamado inflatón. Para llevar a cabo este estudio, se utilizaron modelos de warm inflation (inflación tibia), escenario donde la temperatura juega un rol importante, con un potencial cuártico. Estos modelos permiten simular las condiciones del universo temprano y evaluar cómo las fluctuaciones cuánticas y las características del campo inflacionario influyen en la creación de agujeros negros primordiales. Analizando las ecuaciones de la inflación cálida y utilizando simulaciones numéricas, se podrá modelar las condiciones del universo temprano y determinar qué tipo de agujeros negros se podrían formar bajo diferentes parámetros inflacionarios.  



METODOLOGÍA

El principal enfoque de este estudio es investigar la formación de estructuras en el universo primigenio a través del mecanismo de warm Inflation. De acuerdo a la literatura, la formación de agujeros negros primordiales requiere valores del Power Spectrum del orden cercano a 10^-2, inclusive uno o dos ordenes menores. Para alcanzar estos valores, es fundamental resolver las ecuaciones de fondo y de perturbaciones de warm Inflation y desarrollar los parámetros de slow-roll. Para ello se requiere definir el tipo de potencial utilizado como el coeficiente de disipación en el contexto de warm Inflation. En este estudio, se consideraron dos modelos de interacciones fundamentales dentro de un esquema de wam inflation: el modelo estándar y un modelo basado en supersimetría. Para ambos ejemplos, se empleó un potencial cuártico en combinación con dos tipos de coeficientes disipativos: uno dependiente de la temperatura y otro dependiente del campo inflatón. Se trabajó con un código numérico en C++ para resolver las ecuaciones de la dinámica inflacionaria, lo que permitió obtener los datos necesarios para realizar un ajuste con series de potencias del Power Spectrum reescalado en función del Power Spectrum observacional. Este ajuste consideró tanto el número de onda k como un número de onda pivote k_0. Además, se llevó a cabo un ajuste exponencial basado en el número de e-folds, medida que determina los pliegues en el que el universo se expande. Dado que el valor del Power Spectrum observacional es del orden de 10^-9 y las condiciones necesarias para la formación de agujeros negros primordiales requieren que el Power Spectrum crezca en al rededor de 7 órdenes de magnitud, se realizó un ajuste lineal con los valores numéricos obtenidos, igualándolos a 10^7. Este procedimiento permitió encontrar la relación entre los valores de k y k_0 utilizados en las observaciones del satélite Planck, y así determinar los valores de k. Estos cálculos se realizaron para ambos modelos, mostrando que en el modelo estándar, la inflación termina en 50 e-folds, mientras que en el modelo de supersimetría, el proceso inflacionario concluye en 60 e-folds. Una vez determinados estos valores de k, se utilizaron en las ecuaciones pertinentes para la formación de agujeros negros primordiales, calculando la masa de estos en función del factor disipativo, el k_PBH, siendo ésto el número de onda asociado a la formación del agujero negro primordial, y un k normalizado.  


CONCLUSIONES

Para el modelo estándar se trabajó con una cota, dado que para este modelo inflación termina en 50 e-folds, se trabajó con una cota mínima antes de la finalización de inflación a 45 e-folds y una máxima a 50 e-folds, dando lugar a agujeros negros primordiales con masas estimadas entre 1.0114*10^6 masas solares y 7714.43 masas solares al finalizar inflación. En contraste, el modelo de supersimetría que finaliza a 60 e-folds, indica que se pueden producir agujeros negros primordiales de aproximadamente 224.513 masas solares. Estos resultados sugiere la posibilidad de formar agujeros negros primordiales de diferentes tamaños, desde algunos masivos hasta unos de tamaño estelar, dependiendo del modelo inflacionario utilizado. Estos resultados coinciden con la literatura existente, que establece una relación inversa entre la masa del agujero negro y el número de onda. Según los modelos utilizados, se espera que la formación de agujeros negros primordiales de tamaño estelar sea la más común, con la posibilidad de algunos de tamaño masivo, similares a los que se encuentran en el centro de galaxias. Aunque la literatura sugiere la existencia de agujeros negros primordiales más pequeños que la masa solar, nuestros resultados no lograron identificar estos objetos. Esto podría deberse a que, de acuerdo con la teoría de la radiación de Hawking, dichos agujeros negros pequeños se habrían evaporado antes de alcanzar la época actual.  Bibliografía: Carr, B. J. (1975). The primordial black hole mass spectrum. The Astrophysical Journal, 201, 1-19. https://doi.org/10.1086/153853 Green, A. M. (2022). Primordial black holes: Formation, cosmic abundances and impact on structures. Universe, 9(2), 203. https://doi.org/10.3390/universe9020203
Espinosa Oseguera Juan Carlos, Instituto Tecnológico Superior Purépecha
Asesor: Dr. Julio Cesar Ponce Gallegos, Universidad Autónoma de Aguascalientes

DESARROLLO DE APLICACIóN INCLUSIVA PARA PERSONAS CON DISCAPACIDADES AUDITIVAS, VISUALES Y DISCALCULIA


DESARROLLO DE APLICACIóN INCLUSIVA PARA PERSONAS CON DISCAPACIDADES AUDITIVAS, VISUALES Y DISCALCULIA

Diego Molina Fernando, Instituto Tecnológico Superior Purépecha. Espinosa Oseguera Juan Carlos, Instituto Tecnológico Superior Purépecha. Asesor: Dr. Julio Cesar Ponce Gallegos, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Los problemas de aprendizaje son unos de los aspectos más controvertidos y probablemente menos comprendidos de la educación de las personas. La idea de que algunos niños y adolescentes padecen algún problema de aprendizaje, según el Instituto para el Futuro de la Educación del Tecnológico  De Monterrey dice que los expertos calculan que un 3% a un 6% de la población padecen discalculia y existen diferentes niveles de discapacidad. (Delgado, 2020) En nuestro mundo actual los problemas de aprendizaje ya representan la principal categoría dentro de la educación especial, considerando la cantidad de personas que los sufren. Es de gran importancia el dar difusión a problemas específicos en la adquisición del aprendizaje. En México, el porcentaje de niños y adolescentes con alguna discapacidad que representan problemas de aprendizaje y dificultades para concentrarse es significativo. Según el censo de población y vivienda 2020 del INEGI, el 4.9% de la población total del país tiene algún tipo de discapacidad. (INEGI, 2020). Datos del Consejo Nacional para el Desarrollo y la Inclusión de las Personas con Discapacidad el (CONADIS) indican que las personas con discapacidad presentan numerosas barreras educativas, lo cual afecta su capacidad para aprender y concentrase adecuadamente. (CONADIS, 2019), como lo es la discalculia y a su vez ser un reto para la educación inclusiva que propone el mundo global actual.



METODOLOGÍA

Se planteo el claramente el objetivo general del proyecto el cual es la implementación de una aplicación educativa interactiva en 2D desarrollada en Unity, enfocada en los temas del libro Centro de Atención para Estudiantes con Discapacidad (CAED), para mejorar significativamente las habilidades matemáticas y de resolución de problemas de personas con discalculia. Al proporcionar un entorno de aprendizaje visualmente atractivo y adaptado a las necesidades de los usuarios, se espera que los usuarios experimenten una mayor motivación, comprensión y retención de conceptos matemáticos en comparación con métodos de enseñanza tradicionales. Planificamos claramente los objetivos de la aplicación, así como el público objetivo y las funcionalidades que se pretenden ofrecer. Esto nos ayudó a guiar el proceso de desarrollo y garantizar que la aplicación cumpla con las expectativas, para esto se creó la siguiente gamificación: Sistema de Puntos: Recompensar a los estudiantes con puntos por cada respuesta correcta. Niveles y Desbloqueables: Progresión a través de niveles y desbloqueo de contenido adicional. Tiempo y Reto: Desafíos contra reloj para completar una serie de operaciones en un tiempo determinado. Se realizo un análisis exhaustivo de los requisitos funcionales y no funcionales en el libro representaciones simbólicas y algoritmos del Centro de Atención para Estudiantes con Discapacidad (CAED). Para poder comenzar con el diseño de la interfaz del usuario, la arquitectura de la aplicación y el flujo de usuario. Para lo cual utilizamos snook.ca, que es una herramienta de verificación de contraste de color que cuenta con la evaluación WCAG (Web Content Accessibility Guidelines) que es un conjunto de pautas internacionales desarrolladas por el W3C (World Wide Web Consortium) que establecen criterios para hacer que el contenido web sea más accesible a personas con discapacidad. Estas pautas cubren una amplia gama de discapacidades incluye visuales, auditivas, motoras y cognitivas.


CONCLUSIONES

El proyecto desarrollado representa un avance significativo en el campo de la educación inclusiva, brindando una herramienta personalizada y accesible a personas con discapacidades. A través de un diseño intuitivo y actividades interactivas, esta aplicación facilita la comprensión de los conceptos matemáticos básicos, promoviendo el aprendizaje autónomo y reforzando la autoestima de los usuarios. Al combinar elementos de gamificación con estrategias pedagógicas basadas en evidencia, la aplicación logra mantener la motivación de los usuarios y facilitar la adquisición de habilidades matemáticas de manera gradual y progresiva. La implementación de principios de diseño universal y la adaptación a las necesidades específicas de personas con discapacidades hacen de esta aplicación una herramienta valiosa para complementar los procesos de enseñanza y aprendizaje en el ámbito educativo. Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el desarrollo de aplicaciones, videojuegos y software en general con la plataforma Unity, también la lógica de la programación para la elaboración de mecánicas dentro de las aplicaciones y por último se logró aplicar los conocimientos adquiridos para que nuestra aplicación funcione correctamente y cumpla las necesidades de la problemática que fue investigada y planteada en un inicio. La aplicación se diseñó siguiendo los lineamientos de accesibilidad establecidos por las WCAG, que garantiza que nuestra interfaz sea intuitiva y fácil de usar para todos los usuarios. Bibliografía CONADIS. (24 de Enero de 2019). Gobierno de México. Obtenido de https://www.gob.mx/conadis/articulos/la-educacion-y-personas-con-discapacidad Delgado, P. (24 de Enero de 2020). Observatorio Tec de Monterrey (FutureEd). Obtenido de https://observatorio.tec.mx/edu-news/que-es-la-discalculia/ INEGI. (2020). Cuentame de México. Obtenido de https://cuentame.inegi.org.mx/poblacion/discapacidad.asp
Esquivel Ramírez Angel Manuel, Instituto Politécnico Nacional
Asesor: Mg. María Jaqueline Espinosa Rodríguez, Universidad EIA

ANáLISIS DE LA ESTABILIDAD DE TALUDES Y MOVIMIENTOS EN MASA CON APOYO DE LA CARTOGRAFíA SOCIAL


ANáLISIS DE LA ESTABILIDAD DE TALUDES Y MOVIMIENTOS EN MASA CON APOYO DE LA CARTOGRAFíA SOCIAL

Arratia Castillo Maria Guadalupe, Instituto Tecnológico de Matamoros. Esquivel Ramírez Angel Manuel, Instituto Politécnico Nacional. Asesor: Mg. María Jaqueline Espinosa Rodríguez, Universidad EIA



PLANTEAMIENTO DEL PROBLEMA

Los movimientos en masa afectan las laderas, movilizando masas de suelo y causando pérdidas humanas y materiales. En México, estos eventos han sido significativos, con 2317 movimientos registrados entre 1991 y 2021 (CENAPRED, 2021), con las lluvias como principal detonador. Se estima que, en promedio, 29 vidas se pierden anualmente debido a estos movimientos. La detección temprana es difícil, por lo que la percepción de la población sobre su entorno es crucial para identificar síntomas y tomar medidas preventivas. Este estudio busca determinar el factor de seguridad de algunas laderas en dos zonas de estudio mediante cartografía social, identificando áreas de riesgo dentro de las comunidades visitadas. La falta de estudios detallados sobre la estabilidad de taludes en Altas Cumbres y Tapijulapa ha impedido la implementación de medidas preventivas adecuadas, aumentando la vulnerabilidad de las comunidades locales. La estabilidad de taludes es crítica en la ingeniería geotécnica, ya que puede tener consecuencias desastrosas. Altas Cumbres, en Tamaulipas, y Tapijulapa, en Tabasco, son áreas con alta incidencia de movimientos en masa debido a su topografía, geología y clima. Estas áreas tienen pendientes pronunciadas, suelos y rocas de baja resistencia y altas precipitaciones, lo que las hace susceptibles a deslizamientos. Este estudio utiliza métodos tradicionales de análisis de estabilidad de taludes y cartografía social para involucrar a las comunidades en la gestión de riesgos.



METODOLOGÍA

La identificación temprana y adecuada evaluación de la amenaza son esenciales para minimizar los daños. El conocimiento y las medidas de acción y prevención que tienen las poblaciones vulnerables son cruciales. La cartografía social permite delimitar las zonas de riesgo y proporcionar herramientas a los pobladores para identificar amenazas. Se realizó una cartografía social en dos zonas de estudio en México, analizando la ocurrencia de movimientos en masa mediante entrevistas. Se investigaron las herramientas disponibles para la identificación de movimientos en masa, enfocándose en la prevención y las medidas de acción tomadas. El análisis recoge datos cuantitativos y cualitativos, vinculando la información de campo con datos recopilados en gabinete. Se seleccionaron zonas con alta susceptibilidad a movimientos en masa para la cartografía social, recopilando información y mapas, y formulando preguntas para entrevistas a los pobladores. Las preguntas de las entrevistas incluyeron: ¿Ha ocurrido algún derrumbe recientemente? Indique dónde. ¿Conoces a alguien que haya experimentado un deslizamiento? ¿Cómo reconocieron el peligro y qué acciones tomaron? ¿Cómo era el clima en el momento del derrumbe? ¿Llovía o hubo sismo? ¿Consideras los deslizamientos una amenaza significativa? ¿Has notado grietas o deformaciones en el terreno? Indique dónde. ¿Existen árboles caídos o inclinados en las laderas cercanas? Indique dónde. ¿Con qué frecuencia e intensidad ocurren lluvias? ¿Existen inundaciones? Indique dónde. ¿Qué señales de advertencia conoces de un posible deslizamiento? ¿Cómo te informas del riesgo? ¿Estás familiarizado con los planes de evacuación? ¿Has participado en simulacros? ¿Existe un sistema de alerta para deslizamientos? ¿Qué medidas tomas tras la advertencia? Se visitaron dos comunidades con riesgo por su relieve y orografía. Se investigaron los tipos de fallas y factores que influyen en la estabilidad de taludes para entender los comportamientos de las laderas. Se realizó un reconocimiento en gabinete y campo de las zonas de estudio, recopilando datos sobre clima, hidrología, población y relieve. Se hizo un análisis de estabilidad de dos laderas (una en cada zona) mediante métodos de equilibrio límite con el software GeoStudio. Se utilizaron datos históricos y SIG para determinar las dimensiones de las laderas.


CONCLUSIONES

Esta estancia reforzó conocimientos en estabilización de taludes, demostrando que la cartografía social es útil para identificar zonas de riesgo. Los movimientos en masa representan un riesgo significativo y su identificación es crucial para la prevención de desastres. La cartografía social ha probado ser valiosa en el reconocimiento de laderas susceptibles. El análisis respaldado por la población local indicó que las lluvias son el principal factor de falla. Los modelos de GeoStudio revelaron que ambos taludes son propensos a fallas, aunque el talud de Altas Cumbres presenta mayor seguridad comparado con el de Tapijulapa. A pesar de las limitaciones, como la ausencia de pruebas in situ, se considera que las laderas evaluadas son zonas de riesgo. Es fundamental proporcionar herramientas a la población para identificar amenazas y realizar estudios más rigurosos para mitigar daños. La colaboración comunitaria y la cartografía social son esenciales para la prevención de desastres.
Esquivias Robles Fernando Alberto, Universidad Autónoma de Baja California
Asesor: Dr. Alejandro Puga Candelas, Universidad Autónoma de Zacatecas

LA COMPLEJIDAD ALGORíTMICA COMO VARIABLE DE ESTADO PARA LA GENERACIóN DE REDES SOCIALES


LA COMPLEJIDAD ALGORíTMICA COMO VARIABLE DE ESTADO PARA LA GENERACIóN DE REDES SOCIALES

Esquivias Robles Fernando Alberto, Universidad Autónoma de Baja California. Asesor: Dr. Alejandro Puga Candelas, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

En 2015, se llevó a cabo una intervención psicológica con el personal médico de la Unidad de Especialidades Médicas (UNEME) de Oncología en el estado de Zacatecas. El equipo estaba compuesto por 12 personas: el director, una enfermera, cinco radiólogos, una administradora, una trabajadora social y dos físicos. Se detectó un descontento entre los pacientes en cuanto a los tiempos de espera y la atención recibida por parte del personal. Estos problemas se atribuyeron a la falta de comunicación entre los miembros del equipo, lo cual dificultaba y hacía ineficiente la atención a los pacientes. Para mejorar las relaciones entre el personal, se decidió realizar una intervención psicológica. Durante esta terapia, se utilizó una encuesta para obtener dos redes sociales del personal: una antes y otra después de la intervención. Las redes eran dirigidas y ponderadas, y cada integrante calificaba su relación con cada uno de los demás en una escala del 0 al 4. Posteriormente, se intentó cuantificar el cambio producido por la terapia utilizando dos medidas de sistemas complejos: la entropía de Shannon y la complejidad algorítmica. De estas dos, la complejidad algorítmica resultó ser la medida más adecuada para cuantificar un verdadero cambio en las relaciones personales. Sin embargo, aún quedan aspectos por considerar, específicamente, la problemática de trabajar con una muestra tan pequeña. Para demostrar que la terapia puede generalizarse a cualquier sistema de redes personales, es necesario contar con una mayor cantidad de muestras. Esto permitirá validar la efectividad de la intervención psicológica y la aplicabilidad de la complejidad algorítmica como medida de cambio en redes sociales en contextos clínicos.



METODOLOGÍA

Para manejar de manera más efectiva la red, se realizó una normalización de la información donde -2 representaba una relación conflictiva y 2 una relación amistosa. Con esta nueva representación de la información, se obtuvieron nuevas variables a partir de la matriz que podrían servir como variables de estado. El siguiente desafío fue determinar qué variables debían ser descartadas y cuáles no. Para abordar esto, se simplificó el problema, trabajando con una red no ponderada y no dirigida, donde la matriz era simétrica y contenía solo 0's y 1's. Con la matriz simplificada, se identificó que una variable importante a considerar era la distribución de grado, la cual representa cómo están distribuidas las conexiones en los nodos. A partir de la distribución de nodos, se generó una gran cantidad de redes que cumplían con esta misma distribución utilizando el algoritmo del modelo de configuración. Una vez generadas estas redes, se aplicó un filtro para seleccionar aquellas redes cuya complejidad algorítmica era más cercana a la original. Esto permitió obtener redes más similares a la original en términos de complejidad algorítmica, aunque aún se requerían más pruebas para mejorar los resultados. Posteriormente, se decidió utilizar la centralidad de eigenvector en lugar de la distribución de grado, ya que es una métrica más adecuada para determinar la importancia de cada nodo. Sin embargo, el problema con la centralidad de eigenvector es que no se puede obtener una función de distribución para utilizar el modelo de configuración. Para solucionar este problema, se empleó un algoritmo genético. A partir de una población inicial, se seleccionaron aquellas redes cuyo vector de centralidad fuera más cercano al original, aplicando mutaciones y repitiendo el proceso hasta encontrar redes con centralidades idénticas a la original. Este método permitió obtener redes con estructuras muy similares a la original. Al considerar matrices dirigidas (no simétricas), se identificó que la centralidad de eigenvector no era la más adecuada, pero este problema se resolvió utilizando la centralidad de Katz. Además, fue necesario introducir una nueva variable de estado capaz de cuantificar cómo están distribuidas las conexiones mutuas, denominada reciprocidad. El objetivo final era analizar una matriz dirigida y ponderada. Para ello, se descompuso la matriz original en cinco capas, una para cada valor de -2 a 2. A cada capa se le aplicó la metodología utilizada anteriormente para una única matriz: se calcularon la complejidad algorítmica, el vector de centralidad de Katz y la reciprocidad. Posteriormente, a partir de un algoritmo genético, se obtuvieron matrices que cumplían con las tres variables de estado de la matriz original.


CONCLUSIONES

Durante el desarrollo del proyecto se lograron adquirir conocimientos profundos sobre el análisis y generación de redes sociales en el contexto de una clínica oncológica. Se implementaron técnicas avanzadas de normalización de datos y generación de redes utilizando algoritmos de configuración y genéticos, lo que permitió obtener redes con estructuras similares a la original, mejorando así la comprensión de la complejidad algorítmica como una variable de estado. La continuación de este trabajo permitirá no solo mejorar las relaciones entre el personal médico y la atención a los pacientes en la UNEME de Oncología de Zacatecas, sino también establecer un marco metodológico generalizable para el análisis de redes sociales en otros contextos clínicos.
Estevez Cruz Julieta, Universidad Autónoma de Yucatán
Asesor: Mtra. Ana María Pretel Martinez, Tecnológico de Estudios Superiores de Jocotitlán

ESTRATEGIAS PARA DISMINUIR EL IMPACTO AMBIENTAL GENERADO POR LAS FÁBRICAS PORCINAS EN EL ESTADO DE YUCATÁN


ESTRATEGIAS PARA DISMINUIR EL IMPACTO AMBIENTAL GENERADO POR LAS FÁBRICAS PORCINAS EN EL ESTADO DE YUCATÁN

Estevez Cruz Julieta, Universidad Autónoma de Yucatán. Asesor: Mtra. Ana María Pretel Martinez, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

Este trabajo busca estudiar el impacto ambiental mediante parámetros cómo el nivel de contaminación de suelo, agua y aire que este tipo de industria pecuaria genera y la forma en las que estas se manifiestan, para así poder analizar y proponer posibles estrategias para disminuir el impacto ambiental generado por las fábricas porcinas ubicadas en el estado de Yucatán en el año 2024.



METODOLOGÍA

A partir de una primera etapa de investigación y selección de las problemáticas del estado de Yucatán relacionadas con la insostenibilidad y vulnerabilidad del medio ambiente, se logró identificar la creciente problemáticas con respecto a la existencia de las fábricas porcinas no reguladas ni monitoreadas por las autoridades correspondientes. Se optó este problema con el objetivo de visibilizar el conflicto y contaminación que este genera, además de exponer posibles estrategias que solucionen las pérdidas generadas por esta industria. Para ello, se dio paso a la segunda etapa, una vez seleccionada la línea de investigación, se inició con la investigación y la recopilación de información alrededor de las fábricas porcinas ubicadas en el estado de Yucatán, para conocer no solo cuantas son o su ubicación, si no también exponer a detalle las implicaciones medio ambientales que traen consigo, esto mediante la consulta de libros digitales, PDF, videos o debates grabados y subidos a la red, que no rebasen los 10 años de antigüedad; cómo también la consulta a investigadores locales, nacionales e internacionales que tengan algún tipo de relación con los temas que se buscan exponer. Una vez realizada esta investigación, después de las lecturas y análisis de cada pedazo de información recolectada, pasamos a una tercera etapa, la exhibición de posibles estrategias sustentables y efectivas, en beneficio del medio ambiente y la salud humana, sin comprometer la supervivencia de la industria porcícola. Lo anterior, tomando en consideración que este trabajo busca ser el medio para poder desarrollar problemas similares en un futuro, tomando de apoyo lo temas desarrollados, de manera sencilla y concisa.


CONCLUSIONES

Con base en todo lo obtenido, podemos concluir en que se encuentra una clara y fuerte correlación entre nuestras dos variables de estudio, haciendo que nuestra primera hipótesis se compruebe. Como también este siendo el inicio de una posible investigación más larga, profunda y futura, pues la actividad pecuaria es una industria que se encuentra en todo el mundo, y si aquí en Yucatán, un estado en pleno crecimiento a sufrido grandes cambios, solo nos queda esperar que en otro estados o países también se vean afectados por los mismos tres tipos de contaminación, tal vez de manera diferente y con otras condiciones medio ambientales, pero con el mismo problema ambiental.
Estrada Barrera Lilia Montserrat, Universidad Autónoma de Guerrero
Asesor: Mg. Maria Margarita Sierra Carrillo, Universidad Cooperativa de Colombia

BIODEGRADACIóN DE ACEITE AUTOMOTRIZ Y GASOLINA CON MICROORGANISMOS AISLADOS DE SUELOS CONTAMINADOS


BIODEGRADACIóN DE ACEITE AUTOMOTRIZ Y GASOLINA CON MICROORGANISMOS AISLADOS DE SUELOS CONTAMINADOS

Estrada Barrera Lilia Montserrat, Universidad Autónoma de Guerrero. Asesor: Mg. Maria Margarita Sierra Carrillo, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

mejor disposición final). ¿Los microorganismos aislados de suelos contaminados con aceites residuales automotrices y gasolina tienen el potencial para degradar este tipo de contaminantes? La presente investigación pretende responder la siguiente interrogante mediante la identificación microscópica, macroscópica y molecular de microorganismos aislados de suelos contaminados con aceites residuales de un taller mecánico. Además, se plantea determinar el potencial de los microorganismos para degradar estos compuestos en los suelos contaminados El manejo inadecuado de contaminantes peligrosos compuestos por hidrocarburos como los aceites residuales y la gasolina, tienen un gran impacto negativo en los suelos, debido a que estos componentes químicos alteran la composición de la microbiota del suelo y su equilibrio ecológico, dichos contaminantes son difíciles de remover y que más tiempo permanecen (persistentes). Por lo que la incorrecta disposición final de este tipo de contaminantes son una amenaza para los sustratos y organismos presentes en el suelo. La gran mayoría de las tecnologías empleadas para filtrar este tipo de residuos son costosas por lo que la utilización de esta en comparación con otras es de bajo costo. La contaminación del suelo por el aceite residual afecta a la capa freática de las aguas subterráneas; siendo, perjudicial para el hombre y todas las demás formas de vida, aumentando el riesgo en ciudades costeras, alterando los procesos de intercambio en los ecosistemas. El aceite lubricante usado que se quema bajo condiciones no controladas puede emitir más plomo al aire que cualquier otra fuente industrial. (Jong-Su et al.,2009; Lladó 2012).Ante esta problemática se plantea trabajar con la degradación microbiana para el correcto tratamiento de este tipo de contaminantes y darle una mejor disposición final).



METODOLOGÍA

El lugar de muestreo de la siguiente investigación fue un taller mecánico en donde se extrajo una muestra de suelo. Las cuales mantuvieron aisladas en el Laboratorio de Biotecnología de la Universidad Autónoma de Guerrero. Para la selección de cepas se elegirán microorganismos nativos y capaces de degradar hidrocarburos competitivamente. Aislamiento de microorganismos Para extraer los microorganismos que se encontraron en la muestra de suelo, se realiza primeramente el medio mínimo de sales (MMS),  compuesto por 1.2g de fosfato monopotasio (KH2PO4), 2.4g de fosfato de sodio (Na2HPO4), 0.4g de cloruro de amonio (NH4CI), 0.2g de cloruro de sodio (NaCl) y 6g de agar bacteriológico y se sembrará de forma masiva en agar MMS suplementado con 2% de ARA y gasolina suplementado con 200μL de sulfato de magnesio (MgSO4), 10μL de cloruro de  calcio (CaCl2) y 10μL de vitamina B12. Se realizan veinte cajas y se procede por siembra masiva y por medio de esta se realiza estriado cruzado para aislar las cepas observadas que crecieron en el medio fresco 18 ± 1 h del aislado puro del medio MMS.Las cajas se almacenan por 24hrs, y mediante el crecimiento de las cepas que se observó en cada caja se utilizaron las colonias que mas crecieron, las cuales se identificó que pertenecían a la misma colonia. Y en medio mínimo liquido en tubos se agregó su concentración determinada de ARA y gasolina al 2% 2000 mL suplementado con con 200μL de sulfato de magnesio (MgSO4), 10μL de cloruro de calcio (CaCl2) y 10μL de vitamina B12.Para la técnica de siembra en los tubos se utiliza la siembra por inoculación o agitación con un asa bacteriológica, esterilizada, se toma cantidad de inoculo, se introduce en el centro del medio líquido, agitándose, no tocando la pared del tubo se inoculó una alícuota de 1 mL de la cepa a evaluar proveniente de un caldo nutritivo de 24 horas de crecimiento, ajustado al tubo No.1 del patrón de MacFarland. Los cultivos se incubaron a 35°C y se realizarán observaciones diarias por 18 horas. Se estableció como tubos positivos aquellos que presentaron crecimiento por turbidez y disgregación del ACPM (Brown y Braddock, 1990; Haines et al., 1996). Identificación fenotípica  Las cepas escogidas se caracterizan macroscópica y microscópicamente. . teniendo en cuenta la morfología bacteriana, coloración de Gram, tamaño, bordes, cromogénesis, elevación y consistencia (Gómez et al., 2006).  A través de la tinción GRAM sirve para diferenciar bacterias gram positivas con un color azul y gram negativas expresadas con un color rosa utilizando los colorantes cristal violeta y safranina, junto con el fijador Lugol y el decolorante el alcohol.Las pruebas de catalasa y oxidasa se realizan con las cepas seleccionadas para identificar su sistema aeróbico o anaerobio de las bacterias.  


CONCLUSIONES

La estancia del verano delfín permitió adquirir conocimientos utilizando herramientas de vigilancia tecnológica como R, R estudio y bibliometrix las cuales ayudaron con la recopilación de artículos relacionados al tema para analizar las metodologías empleadas en trabajos previamente realizados, así como bases de datos para la búsqueda de los artículos . Los resultados obtenidos en los medios que se establecieron para el aislamiento de microorganismos, se logró observar un crecimiento de cepas bacterianas en ambos medios, en el medio liquido se observó un crecimiento de acuerdo con el que presentó mayor turbidez indicando una gran cantidad de microorganismos, cabo los protocolos de tinción GRAM y pruebas bioquímicas, los resultados que se obtuvieron con Tinción GRAM fue de Gram positivas y en la prueba de catalasa todas resultaron positivas sin embargo para logar la identificación se requiere de hacer más pruebas bioquímicas para descartar el grupo al que pertenece. Debido al tiempo establecido no se permitió continuar con las demás pruebas de la metodología y demostración de los resultados de la investigación sin embargo se reforzó en la etapa del análisis metodológico de la investigación y se analizaron los resultados con las pruebas realizadas.  
Estrada Martinez Yadhyra Itzel, Universidad de Guadalajara
Asesor: Dr. Erik Díaz Bautista, Instituto Politécnico Nacional

EVOLUCIóN TEMPORAL DE ESTADOS COHERENTES DEL GRAFENO EN CAMPOS MAGNéTICOS GENERADOS MEDIANTE MECáNICA CUáNTICA SUPERSIMéTRICA.


EVOLUCIóN TEMPORAL DE ESTADOS COHERENTES DEL GRAFENO EN CAMPOS MAGNéTICOS GENERADOS MEDIANTE MECáNICA CUáNTICA SUPERSIMéTRICA.

Estrada Martinez Yadhyra Itzel, Universidad de Guadalajara. Asesor: Dr. Erik Díaz Bautista, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En este trabajo, se estudia la evoluación temporal de los estados coherentes que describen a los portadores de carga de una placa de grafeno sometida a un campo magnético obtenido mediante el formalismo de la mecánica cuántica supersimétrica.  La mecánica cuántica supersimétrica (SUSY QM, por sus siglas en inglés) ofrece una metodología para resolver sistemas cuánticos con potenciales exactamente solubles, facilitando la determinación de los espectros de energía.  El objetivo principal de esta investigación es mostrar cómo se pueden construir y analizar los estados coherentes del grafeno en campos magnéticos generados mediante las técnicas de factorización propias de la SUSY QM.



METODOLOGÍA

Inicialmente, se introducen los conceptos fundamentales de la SUSY QM y se describe cómo se pueden construir los llamados Hamiltonianos socios supersimétricos con la finalidad de determinar las eigenfunciones y valores propios de energía de un sistema a partir de uno ya conocido. Se muestra explícitamente cómo el formalismo SUSY QM permite obtener los socios supersimétricos del Hamiltoniano de oscilador armónico cuántico, el cual posee un potencial exactamente soluble. Luego, se aplican estos conceptos al estudio del grafeno en presencia de un campo magnético, específicamente en la construcción de los estados coherentes asociados al sistema físico. La investigación se centra en el estudio de tales estados cuánticos y su evolución temporal, cuando el campo magnético con el que interactúan los portadores de carga del grafeno es generado mediante la SUSY QM.


CONCLUSIONES

La implementación del formalismo de la SUSY QM en sistemas físicos como el grafeno interactuando con un campo magnético, facilita la obtención de las eigenfunciones y el espectro de energía de potenciales exactamente solubles.  Se anticipa que el estudio detallado de la evolución temporal de los estados coherentes del grafeno bajo la influencia de un campo magnético proporcionará una comprensión más profunda de sus características cuánticas y su dinámica bajo condiciones magnéticas, lo cual podría tener implicaciones importantes en el desarrollo de nuevos dispositivos electrónicos basados en materiales de Dirac, como el grafeno.  
Facio Corona J. Angel Sebastian, Instituto Tecnológico de Morelia
Asesor: Dr. Irving Josué González Chan, Universidad Autónoma de Yucatán

SíNTESIS Y CARACTERIZACIóN DE OXIDO DE CADMIO A TRAVéS DEL USO DE EXTRACTOS DE LA HOJA DE PAPAYA (CARICA PAPAYA)


SíNTESIS Y CARACTERIZACIóN DE OXIDO DE CADMIO A TRAVéS DEL USO DE EXTRACTOS DE LA HOJA DE PAPAYA (CARICA PAPAYA)

Facio Corona J. Angel Sebastian, Instituto Tecnológico de Morelia. Asesor: Dr. Irving Josué González Chan, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Dentro del campo de química verde la utilización de extractos de plantas en la reducción de iones metálicos es una de las múltiples estrategias para generar rutas de síntesis de nanopartículas de una forma más amigable con el medio ambiente, por lo que en este trabajo se planteó como objetivo sintetizar nanopartículas de CdO utilizando extracto de la planta de papaya (Carica papaya) para reducir CdCl2 a CdO. Los resultados de esta síntesis se llevaron a analizar por difracción de rayos X donde se presentaron los picos característicos del CdO y también por espectrometría UV-Vis en la cual no se presentó un comportamiento de absorbancia común en el CdO, debido a impurezas de carbonatos presentes en papel filtro que se calcinó junto con el nanomaterial sintetizado, lo cual produjo un fenómeno de absorbancia no esperado pero que se puede explicar por la presencia de CdCO3 que se presentó también en la gráfica del análisis de difracción de rayos X.



METODOLOGÍA

Obtención del extracto de hoja Para su preparación se usaron hojas de la planta Carica Papaya, las cuales se limpiaron primero de polvo y suciedad con agua común, para ser luego recortadas y enjuagadas con agua destilada para eliminar impurezas de la primera limpieza, posteriormente se dejaron secar en un horno de convección por 3 horas a 40ºC para eliminar por completo la humedad superficial y secar la hoja. Una vez seca, se mezcló 12.5 gramos de la hoja seca con 100 ml de agua destilada para llevar a calentar a 60ºC y agitar durante 1.5 horas, transcurrido el tiempo se filtra el extracto. Reducción de sal y recuperación de nano partículas Se preparó una solución de 50 ml de 0.2 M de CdCl2, que se añadió al extracto precalentado a 60 °C y se agitó por 15 minutos, después se agregó 100 ml de NaOH a 2.0M y se siguió agitando durante 2 horas a 60 °C, posteriormente se dejó enfriar. Una vez a temperatura ambiente se filtró la mezcla con papel filtro y se recuperó el filtro junto con el material atrapado, se colocó en un crisol y se llevó a un horno de convección a 100 °C durante 3 horas, posteriormente se llevó a una mufla a 800 °C por 3 horas. El material que se produjo era rojizo oscuro y se trituro para generar un polvo fino.


CONCLUSIONES

Análisis por Difracción de rayos X Para la caracterización de la estructura cristalina de las nanopartículas en este trabajo, las mediciones de difracción de rayos X se realizó mediante un difractómetro Bruker D8- ADVANCE con modalidad de Bragg (polvos), el tiempo de paso es de 0.1 segundos y el tamaño de paso es de 0.02°, se irradia con 40 kV utilizando un tubo de cobre Kα1. Los picos presentes en la gráfica coinciden con los asociados al CdO los cuales son a 33°,38.3°,55.3°,65.9° y 69.2° correspondientes a los planos (111),(200),(220),(311) y (222) . Pero además de estos picos, se pudieron observar también picos de CdCO3 los cuales fueron el resultado del papel filtro utilizado para la recolección de material. El filtro contenía ceniza, dentro de la cual existían carbonatos que posteriormente reaccionaron con el cadmio generando CdCO3. Análisis por espectrometría Uv-Vis Se analizó la presencia de las nanopartículas de CdO por espectroscopia UV-Visible con un equipo Jasco 750 con esfera de integración, en un rango de 190 a 900 nm. En el espectro resultante se puede observar un comportamiento peculiar en el grado de absorbancia pues no se genera un aumento drástico después de 496 nm como se esperaría del CdO, si no que existe un aumento gradual desde los 890 nm. Este fenómeno se puede atribuir a la presencia de CdCO3 el cual al no tener un comportamiento semiconductor no genera un aumento drástico de absorbancia si no un comportamiento más gradual por transiciones electrónicas en los iones metálicos. El compuesto que actúa dentro del extracto para la reducción del CdCl2 no está identificado para este caso en específico, pero se puede suponer mediante otros artículos que ya utilizaron esta planta que las moléculas involucradas en la reducción pueden ser hidroxilos, flavonas o catequinas.
Fajardo Hanrryr Sebastian Camilo, Universidad del Quindío
Asesor: Dr. Rosendo Romero Andrade, Universidad Autónoma de Sinaloa

REPORTE DE POSICIONAMIENTO GNSS UTILIZANDO RECEPTORES DE BAJO CON “GROUND PLATE” DE DIFERENTES MATERIALES


REPORTE DE POSICIONAMIENTO GNSS UTILIZANDO RECEPTORES DE BAJO CON “GROUND PLATE” DE DIFERENTES MATERIALES

Fajardo Hanrryr Sebastian Camilo, Universidad del Quindío. Herrera Isaza Ruben Dario, Universidad del Quindío. Asesor: Dr. Rosendo Romero Andrade, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los sistemas de Navegación Global por Satélite (GNSS) se han convertido en una herramienta esencial en diversas aplicaciones geoespaciales. La precisión y fiabilidad de los datos GNSS son cruciales para el éxito de diversas aplicaciones. En este contexto, el uso de receptores de bajo costo representa una oportunidad para tener acceso a la tecnología GNSS, permitiendo su implementación en diferentes proyectos. Para llevar a cabo este estudio, se han utilizado receptores GNSS de bajo costo instalados en la terraza de la Facultad de Ciencias de la Tierra y el Espacio de la Universidad Autónoma de Sinaloa, en México. La base y la antena se colocaron sobre un pilar con una placa con centro forzado utilizando diferentes materiales: madera, plástico, aluminio, acero y polarizado-metálico. Cada material fue probado durante un periodo de una hora, los datos de navegación y observación se recogieron utilizando el software U-center, configurado para recibir datos de las constelaciones GNSS (GLONASS, GPS, Galileo, BeiDou) a una frecuencia de 1 Hz. Objetivos Objetivo General Determinar la influencia de diferentes materiales de soporte (madera, plástico, aluminio, acero y polarizado-metálico) en la calidad de los datos de posicionamiento GNSS recolectados mediante receptores de bajo costo. Objetivos Específicos Analizar el impacto de cada material en la relación señal-ruido (SNR), los efectos multitrayectoria, porcentaje de integridad y severidad de los saltos de ciclo, en los datos GNSS en función del material de soporte utilizado por medio del software TEQC. Generar la estadística de los datos a partir del método PPP (Precise Point Positioning) mediante el software online CSRP-PPP. Comparar y validar las coordenadas obtenidas del software CSRP-PPP y el método RE (Relativo - Estático) en Topcon Tools para evaluar la variación (ENU) de las coordenadas según el material de soporte utilizado por medio de un código ejecutado en el Software Matlab.



METODOLOGÍA

Los materiales utilizados para la realización de esta práctica fueron los seis de referencia: Aluminio., Plástico., Madera, Acero circular, Acero cuadrado, Polarizado-metálico.  Igualmente, se utilizó la antena GNSS de bajo costo U-blox que iba sobre cada material anteriormente mencionado. Se trabajó con 4 receptores de bajo costo diferentes para determinar su funcionamiento.Finalmente, se utilizaron materiales como base nivelante para poner la antena con los diferentes tipos de material, cinta métrica para determinar las alturas, los cables necesarios para llevar la información al computador y el ultimo mencionado para recopilar toda la información recibida. Primero, se seleccionó como área de estudio la Universidad Autónoma de Sinaloa, exactamente uno de los mojones localizados en la azotea de la FACITE. Seguidamente, se conectan los equipos y se procede a recopilar los datos. Este procedimiento se empleó para cada material.En la siguiente etapa, el archivo con extensión UBX grabado en el paso anterior, ejecutamos el Software RTKLIB el cual cuenta con diferentes funciones, en este caso se empleó la conversión del archivo UBX a RINEX. Con los archivos de observación y navegación derivados a partir de la conversión a RINEX se ejecutó el archivo de extensión. obs para verificar el tiempo de lectura (mínimo 1 hora) y que los datos recopilados se hayan almacenado correctamente.  Luego se realizó el control de calidad por medio del Software TEQC para conocer los indicadores de interés como: Efecto Multitrayectoria (MP1 - MP2),  Relación Señal - Ruido (SN1 - SN2), Saltos de Ciclo (o/slps) y Porcentaje de Integridad. Después se procede a buscar en la web una Software online llamado CSRS-PPP, creada por el gobierno de Canadá. Esta plataforma está diseñada para proporcionar información precisa y de alta calidad a partir de las observaciones GNSS recopiladas en el campo sin utilizar una estación de monitoreo continuo de referencia.         


CONCLUSIONES

En conclusión, la investigación demuestra que, en primer lugar, ejecutando el software TEQC los materiales metálicos, y en particular el acero, son superiores para soportar receptores GNSS de bajo costo, mejorando la calidad de los datos recolectados, es decir, mostraron una mejor calidad en las observaciones, proporcionando una mayor SNR y reduciendo los efectos multitrayectoria y la severidad de los saltos de ciclo. Por otro lado, a través del método Precise Point Positioning (PPP) utilizando el software online CSRS-PPP, se observó que los materiales metálicos también ofrecían mejores resultados estadísticos con desviaciones estándar entre los 0.015 y 0.21 m. Sin embargo, el material de acero en particular presentaba desviaciones menores a 9 cm. Así mismo, ejecutando el código en Matlab para conocer los valores ENU usando como referencia un punto procesado en método Relativo Estático, se destacaron los materiales de Plástico y Original donde sus datos procesados mostraron una mayor precisión y menor dispersión en las coordenadas obtenidas. Estos valores se encuentran entre los 0.035 y 0.145 m. No obstante, al comparar estos materiales con otro punto de referencia con procesamiento en método PPP (Precise Point Positioning) el material Original presenta valores en E de 0.045 m, en N de -0.063 m y en U de 0.145 m reafirmando la superioridad de los materiales metálicos en la recolección de datos GNSS con equipos de bajo costo. Finalmente, aunque los materiales metálicos, como el acero, mostraron ventajas significativas en la recolección de datos GNSS, es importante considerar que materiales como el plástico también pueden ser preferibles en ciertos contextos, especialmente cuando se prioriza la precisión y la estabilidad en las coordenadas obtenidas. 
Fernanda Méndez María, Benemérita Universidad Autónoma de Puebla
Asesor: Mg. Mauricio Chaparro Parra, Universidad Católica de Colombia

ANÁLISIS DE ACELERACIÓN CIRCULAR CON SENSORES MÓVILES


ANÁLISIS DE ACELERACIÓN CIRCULAR CON SENSORES MÓVILES

Fernanda Méndez María, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Mauricio Chaparro Parra, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, el uso de dispositivos móviles con capacidades inteligentes son muy eficientes para recopilar y analizar datos experimentales.  Dichos sensores ofrecen oportunidades significativas, como lo que es promover el aprendizaje experimental, en el cual los sensores pueden integrarse en entornos educativos para la adquisición de habilidades prácticas en ciencia y tecnología. Así mismo también amplia el acceso a la experimentación, dado que la utilización de estos sensores móviles permite realizar experimentos en entornos con recursos limitados, accediendo fácilmente a la investigación científica. Cabe destacar que el uso de estos sensores con la combinación del análisis de datos puede dar lugar a aplicaciones no solo al contexto físico, sino también en diversos campos como la salud, el medio ambiente, la agricultura, etc. Si se enfatiza en el campo de la física, se tiene que el empleo de teléfonos inteligentes ha sido propuesto en varias experiencias que abarcan temáticas de mecánica, electromagnetismo, óptica, oscilaciones y ondas, entre otras. Sin embargo, la integración de dichos dispositivos presenta ciertos desafíos que deben abordarse para maximizar su potencial. Algunos de estos desafíos incluyen: Diseño: Los experimentos deben diseñarse cuidadosamente para obtener el mayor potencial del sensor, y así poder reducir los problemas como la vibración a causa de otros factores. Los datos de los sensores deben recopilarse, procesarse y analizarse para lograr eficiencia y tener una mejor facilidad de uso. Aun así, siguen existiendo un paso adelante en el aprovechamiento de estos dispositivos, como en esta ocasión, donde se presenta en la posibilidad de emplear simultáneamente los sensores en la medición de aceleración de un sistema en rotación.  A partir de las medidas de los sensores se obtiene la aceleración tangencial y gracias a un ajuste numérico de los datos se relacionan las medidas del modelo teórico. En la experiencia planteada el teléfono se fija en la parte exterior de una rueda de bicicleta y se pone en movimiento de régimen de rotación (dando vueltas completas en una dirección).



METODOLOGÍA

Metodología   Materiales: Una rueda con eje Un teléfono con sensor Hilo de coser Un soporte para la rueda Procedimiento: Preparación: Anclar el soporte a la mesa, y asegurarlo correctamente. Montar la rueda en el soporte de manera que el eje quede horizontal. Sujetar el teléfono a la circunferencia de la rueda con el hijo de coser, y fijar lo mejor posible para que el movimiento del teléfono sea el mínimo. Colocar el programa con los sensores correspondientes y dejarlo listo para grabar. Medir el radio de la rueda. Experimento: Comenzar a grabar. Impulsar la rueda con la mano para tratar de hacer lo mejor posible de que gire a una velocidad constante. Repetir el procedimiento varias veces para obtener un conjunto de datos. Consideraciones adicionales: Es importante verificar que la rueda gire sobre un eje horizontal (lo mejor que se pueda lograr) para minimizar la influencia de la fricción y la gravedad.   Es posible apreciar que, en cada una de las gráficas generadas a partir de los datos experimentales de cada situación, se muestra una clara relación sinusoidal, la cual es característica de un movimiento circular uniforme, esta relación puede ser apreciada con más detalle en los ajustes trigonométricos realizados, en dichos ajustes se obtuvieron ecuaciones que representan el movimiento circular de la rueda, y en esas ecuaciones es posible observara simple vista datos como la velocidad angular y la amplitud, los cuales fueron calculados teóricamente a partir de los períodos experimentales, teniendo asi que dichos datos coinciden con los obtenidos de las ecuaciones. Asi mismo analizando cada caso se obtuvo que los desfases y amplitudes obtenidos de las gráficas coinciden con los valores teóricos esperados, resultando asi que el modelo matemático utilizado es adecuado para describir el fenómeno físico, el cual, recordando consiste en el movimiento de una rueda girando verticalmente y midiendo la aceleración por medio de los sensores móviles.


CONCLUSIONES

Conclusión En el presente análisis sobre la aceleración circular donde se utilizaron sensores móviles, se demostró la capacidad de los dispositivos inteligentes para recopilar y analizar datos experimentales de manera eficiente y precisa. En el presente documento, se utilizaron los acelerómetros de un teléfono inteligente para medir la aceleración en los ejes X, Y y Z mientras la rueda giraba. Los resultados mostraron patrones sinusoidales consistentes con el movimiento circular uniforme, que pudieron ser modelados con precisión mediante ecuaciones trigonométricas, para posteriormente mostrar la relación existente entre los resultados experimentales con los modelos teóricos de la aceleración circular, esto es posible apreciarse mediante los gráficos y las ecuaciones obtenidas de los ajustes sinusoidales y los datos reales, dado que resultaron ser  similares, por ejemplo, la velocidad angular y las amplitudes calculadas a partir de los períodos experimentales coincidieron estrechamente con las obtenidas de las ecuaciones ajustadas, validando la exactitud del proceso experimental, esta gran semejanza entre el modelo teórico y el modelo arrojado por el ajuste sinusoidal demuestra que los sensores de los teléfonos pueden ser acertados, siempre y cuando se tenga un buen arreglo experimental, un buen dispositivo y un buen ajuste de datos, para que así sea posible confiar en los sensores móviles y poder emplearlos en la adquisición de datos experimentales o alguna otra área. El uso de sensores móviles para el análisis de aceleración circular se presenta como una herramienta eficaz, precisa y accesible. Este enfoque no solo mejora la recolección y análisis de datos en contextos educativos y científicos, sino que también abre nuevas oportunidades para la innovación en diversas disciplinas. La tecnología móvil, combinada con un adecuado diseño experimental, puede transformar la manera en que se realizan y enseñan los experimentos científicos, haciendo la ciencia más accesible y práctica para todos.
Fernández Maldonado Yenifer Daniela, Universidad Nacional Abierta y a Distancia
Asesor: M.C. Francisco Fabián Calvillo Aguilar, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias

ANáLISIS ESPACIAL DE CRECIMIENTO URBANO Y DEFORESTACIóN EN ARAUCA-ARAUCA, COLOMBIA A PARTIR DE DICIEMBRE DE 2019 A DICIEMBRE 2023


ANáLISIS ESPACIAL DE CRECIMIENTO URBANO Y DEFORESTACIóN EN ARAUCA-ARAUCA, COLOMBIA A PARTIR DE DICIEMBRE DE 2019 A DICIEMBRE 2023

Fernández Maldonado Yenifer Daniela, Universidad Nacional Abierta y a Distancia. Asesor: M.C. Francisco Fabián Calvillo Aguilar, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias



PLANTEAMIENTO DEL PROBLEMA

La ciudad de Arauca, capital del departamento de homónimo con el paso de los años ha mostrado una expansión urbana ampliamente notorio que ha venido impulsando diversos factores económicos, sociales, políticos y ambientales. Dicho crecimiento ha provocado transformaciones significantes en el uso del suelo, que, aunque este es necesario para el crecimiento urbano, rural y mejoramiento de calidad de vida de sus habitantes, también ha llevado consigo una significativa deforestación de las áreas circundantes. Tal expansión urbana ha abarcado la ocupación de terrenos que, en el pasado fueron ecosistemas naturales, los cuales desempeñan funciones vitales, como la conservación de biodiversidad, regulación del clima y aprovisionamiento de servicios ecosistémicos. Los incendios forestales, talas de árboles y, la conversión de bosques en áreas urbanas y agrícolas no solo amenazan la fauna y flora local, sino que también impactan la calidad del aire y el agua, intensificando problemas ambientales como la erosión del suelo y cambio climático. Frente a este crecimiento es importante crear de manera integral entre el crecimiento urbano y la deforestación en Arauca. Es necesario promover un desarrollo urbano sostenible que contemple la conservación de los recursos naturales, la implementación de políticas públicas efectivas y la participación continua de la comunidad en la gestión ambiental.



METODOLOGÍA

Para analizar el NDVI y el crecimiento urbano, me enfoque en el municipio de Arauca, departamento de Arauca, se descargaron imágenes satelitales de plataformas en línea como, EarthExplorer USGS y Shuttle Radar Topography Mission (SRTM) . Haciendo uso de Qgis y sus complementos se analizaron las imágenes para facilitar el procesamiento y lectura de las capas descargadas. Selección de la zona La capa del municipio de Arauca en formato TIF se obtuvo de la base de datos de la Shuttle Radar Topography Mission (SRTM), suministrando un archivo ráster de la zona de estudio querida. Adicional a esto, fue indispensable conocer la región para saber en qué sectores enfocar la investigación. Recopilación de imágenes Shuttle Radar Topography Mission (SRTM): imagen del casco urbano 2019 y 2023 de la ciudad de Arauca, tamaño 5X5, formato TIF. Earth Explorer- USGS: Landsat colección 2, nivel 2 (Landsat 8- bandas 4 y 5) bandas correctas para el NDVI Google Earth Pro: polígono vectorial para realizar el recorte de la zona Complementos Qgis: Calculadora raster, extracción, value tool, DB Manager, QuickMapServices. Procesamiento Digital de Imágenes Agregación y unificación de capas: A través de Ráster adjunté las capas descargadas en Earth Ecplorer - USGS y Shuttle Radar Topography Mission (SRTM) y por medio de vectorial agregué el polígono descargado en Google Earth. Proyección y Corrección de capas: se utilizó la calculadora ráster y la fórmula para calcular el NDVI logré hallar el cálculo deseado y, con la herramienta de geoproceso “disolver” logré combinar, reducir y preservar las características de las capas. Recorte de la zona de estudio: Para realizar el recorte de la ciudad usé la herramienta “extracción” Cálculo NDVI Teniendo las capas en bandas roja e infrarroja de Sentinel 2, usé la formula NDVI=(NIR-RED)/(NOR+RED). Obteniendo así una capa ráster que, numéricamente nos mostró los valores correspondientes a los años 2019 y 2023. Realizando el ajuste de renderizador (Pseudocolor monobanda) se puede intuir a simple vista cuanta vegetación se a perdido y cuanto a crecido el casco urbano.


CONCLUSIONES

El estudio realizado sobre la expansión urbana y pérdida de vegetación a través de un análisis NDVI, haciendo uso de herramientas SIG y datos satelitales que permiten la cuantificación y visualización del crecimiento de constante de diferentes partes del mundo, en este caso en la ciudad de Arauca capital reveló que, para el año 2017 se contaba con un índice de vegetación de 0,462027 y para el año 2023 contaba con un índice de 0,460219. Esta reducción, aparentemente pequeña demuestra la pérdida de vegetación en la región. La disminución de vegetación se le puede atribuir a la expansión urbana y conservación de áreas naturales. La perdida de vegetación puede tener efectos significativos en la biodiversidad local como, calidad del aire, agua, temperatura, y la resiliencia del ecosistema frente al cambio climático. La ligera disminución de vegetación (NDVI) denota la urgencia de implementar políticas y prácticas de desarrollo sostenible que equilibren el crecimiento urbano con la conservación de los recursos naturales. Para concluir, estos hallazgos resaltan la importancia de un monitoreo ambiental continuo que a su vez promueva la reforestación y protección de área verdes para mitigar los efectos del cambio climático en el casco urbano y predios agrícolas.
Fernández Pellón Pérez Rubén, Universidad Autónoma de Guerrero
Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua

CARACTERIZACIóN HIDROGEOLóGICA DEL ACUíFERO DE LA PENíNSULA DE YUCATáN.


CARACTERIZACIóN HIDROGEOLóGICA DEL ACUíFERO DE LA PENíNSULA DE YUCATáN.

Fernández Pellón Pérez Rubén, Universidad Autónoma de Guerrero. Martinez Ramos Marco Antonio, Universidad Autónoma de Guerrero. Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

La Península de Yucatán alberga uno de los acuíferos más importantes y vulnerables de México debido a la compleja hidrogeología. El acuífero predominantemente kárstico se compone de un sistema de formación rocosa en la que existe una red de cuevas y ríos subterráneos, lo que ha sido aprovechado por la población durante siglos como la principal fuente de agua dulce. Su recarga depende de la precipitación que infiltra el suelo y de la conexión con cuerpos de agua superficiales y áreas forestales.



METODOLOGÍA

Durante el transcurso de un año, 2023-2024, se llevó a cabo un análisis hidrogeológico para evaluar la influencia del proyecto del Tren Maya sobre el acuífero de la Península de Yucatán. El análisis se centró en el indicador clave: la elevación del nivel estático del agua, ya que refleja el estado del acuífero y cómo responde a cambios externos. Se instalaron estaciones de monitoreo en varios puntos del trazado del Tren Maya para medir la elevación del nivel estático del agua de manera continua; además, se recopilaron datos mensuales para observar la dinámica estacional y las tendencias a largo plazo. También se realizó un análisis adicional de la geología y la estratigrafía para comprender mejor la naturaleza del acuífero. Se consultaron mapas detallados de las formaciones geológicas de la región, identificando las capas de roca y sus características hidrogeológicas. Los perfiles estratigráficos con la descripción de la disposición y el espesor de las capas de roca y su relación con la permeabilidad y porosidad. Finalmente, se prestó especial atención a la característica del terreno kárstico dado que la Península de Yucatán es conocida por este tipo de terreno.   Después de hacerse una idea de la naturaleza del acuífero, se llevó a cabo el análisis de la calidad del agua en la zona de influencia geográfica del Tren Maya. El estudio se propuso verificar si el proyecto estaba influyendo en los parámetros de calidad del agua o si las desviaciones observadas se debían a las singularidades de la zona o a la influencia de la urbanización. Se llevaron a cabo varias campañas de muestreo mensual de agua subterránea en diferentes ubicaciones en el trazo del Tren Maya y en varias temporadas del año para abarcar las variaciones estacionales. Los parámetros evaluados incluyeron el pH, la conductividad, los sólidos totales disueltos, los iones mayoritarios como el calcio, el magnesio, el sodio, el potasio, los bicarbonatos, el sulfato y el cloro, así como metales pesados y contaminantes orgánicos. Los análisis se realizaron de acuerdo con los niveles establecidos en la NOM-127-SSA1-2021, que establece los límites permisibles de la calidad del agua para consumo humano. Para comprender mejor las características hidrogeoquímicas del agua subterránea, se caracterizaron las diferentes familias de agua presentes en la zona y las causas de su formación, utilizando The Geochemist’s Workbench para interpretar los datos de calidad del agua. Algunas de las principales familias de agua incluyen: agua bicarbonatada cálcica, agua bicarbonatada magnésica y agua clorurada.     Los parámetros hidrogeoquímicos presentan variaciones originadas por: la interacción roca-agua, la influencia de actividades humanas, la disolución de minerales en el material de suelo y subsuelo. Para que se mejore la interpretación de los datos hidrogeoquímicos y así se conozcan mejor los procesos que afectan la calidad del agua se realizaron cinco tipos de diagramas:   Diagrama de Piper: Clasificó y visualizó los diferentes tipos de agua subterránea en función de su composición iónica. Diagrama de Schoeller: Este diagrama comparó las concentraciones de iones principales para encontrar patrones de mezcla o de contaminación. Diagrama de Stiff: Presentó una parcela de representación gráfica de la composición química del agua. Se utilizó para comparar y encontrar similitudes y diferencias entre las muestras. Diagrama de Mifflin: Se utilizó para conocer que procesos geológicos influyen en la calidad de agua subterránea. Diagrama de Gibbs: Este diagrama se determinó los procesos dominantes que controlan la química del agua.


CONCLUSIONES

Las variaciones en la elevación del nivel estático del agua se deben a la variación estacional, es decir, un incremento en los niveles estáticos en periodo de lluvias, y una disminución de este en temporada de estiaje. Los parámetros de calidad del agua no mostraron cambios significativos que puedan ser atribuidos al proyecto Tren Maya. Sin embargo, algunas zonas urbanas cercanas si influyeron. La composición química del agua subterránea intentó identificar diferentes familias de agua influenciadas por factores naturales y las actividades humanas.
Fernández Salazar Mía Ayrem, Instituto Politécnico Nacional
Asesor: Dr. Adrián Antonio Cisneros Hernández, Universidad de Guadalajara

ANáLISIS DE CONTENEDORES EN EL PROGRAMA "PUNTOS LIMPIOS" DE GUADALAJARA, JALISCO, MéXICO


ANáLISIS DE CONTENEDORES EN EL PROGRAMA "PUNTOS LIMPIOS" DE GUADALAJARA, JALISCO, MéXICO

Fernández Salazar Mía Ayrem, Instituto Politécnico Nacional. Asesor: Dr. Adrián Antonio Cisneros Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En el marco del programa Puntos Limpios de Guadalajara, Jalisco, México, se ha identificado una necesidad apremiante de evaluar y mejorar la eficiencia de los contenedores de residuos. Aunque estos contenedores se implementaron con la intención de promover una gestión de residuos más sustentable y accesible para los ciudadanos, persisten diversas inconsistencias tanto visuales como funcionales que dificultan su óptimo uso. La falta de un análisis detallado y sistemático de estos contenedores ha generado problemas en su accesibilidad y efectividad, lo que compromete los objetivos del programa. Para abordar esta problemática, es esencial identificar y analizar los tipos de contenedores actualmente en uso, evaluando su diseño y funcionalidad desde una perspectiva de accesibilidad. El desarrollo de un instrumento de análisis con respaldo teórico permitirá registrar de manera rigurosa las deficiencias encontradas. 



METODOLOGÍA

Para evaluar si en Guadalajara se cumplen los objetivos de los contenedores, se ha empleado el método de observación no participante. Esta técnica de investigación cualitativa permite observar un grupo o fenómeno sin intervenir ni influir en su comportamiento. A diferencia de la observación participante, el investigador se mantiene a distancia, recopilando datos de manera objetiva y naturalista. Esto facilita una comprensión detallada y objetiva sobre el uso y la efectividad de los contenedores de reciclaje sin influir en el comportamiento de los usuarios. Para la observación inicial, se seleccionó un punto estratégico en la barranca de Huentitán el Alto, en Guadalajara, Jalisco, México. Este lugar ofrece una vista óptima de la estructura del contenedor, permitiendo una evaluación detallada de su diseño y funcionalidad en el contexto. No obstante, este no es el único punto de observación, ya que Guadalajara dispone de múltiples ubicaciones con contenedores, cada una con sus propias características y contextos. La ubicación elegida facilita el análisis de cómo se integra el contenedor en el entorno y su uso por parte de la comunidad. La observación no solo se basa en la visualización, sino que implica un proceso de recopilación de información mediante la percepción directa y detallada de objetos, eventos o comportamientos en su entorno natural. Este enfoque permite captar matices que podrían pasar desapercibidos en otros métodos de investigación, brindando una comprensión más profunda de la interacción entre los contenedores y su contexto. En este caso, se realizó una visita al Punto Limpio de Huentitán, específicamente en el mirador, a las 11 a.m. Al llegar, se informó sobre el depósito de los contenedores y se indicó que debía esperar hasta más tarde. Posteriormente, se observó a una persona depositando cuadernos, que parecían ser escolares. El investigador se retiró temporalmente para esperar el mecanismo de mantenimiento. Por la tarde, tras una ligera lluvia, se regresó al lugar y se observó a dos trabajadores en un camión abriendo los contenedores desde la parte inferior y depositando el contenido en el vehículo. Sin embargo, se notó que algunos artículos se tiraban por descuido. Los trabajadores se retiraron, y el investigador regresó a su lugar de observación, registrando lo visto. Para el análisis de los contenedores, se adoptó un enfoque centrado en identificar inconsistencias visuales y funcionales. Este proceso sistemático busca detectar y evaluar discrepancias en la apariencia y el desempeño de los contenedores.  Las inconsistencias visuales se refieren a defectos que afectan la apariencia externa del contenedor, influyendo en la percepción del usuario. Se identificaron etiquetas ilegibles o mal colocadas, problemas que pueden surgir por un diseño deficiente en su fabricación. Estos inconvenientes no solo afectan la estética del contenedor, sino que también pueden generar confusión sobre su uso. Las inconsistencias funcionales se enfocan en problemas que impactan el funcionamiento práctico del contenedor. Entre las deficiencias observadas, se encontró pintura descascarada o deteriorada, atribuible a condiciones climáticas adversas o a la falta de mantenimiento. Este deterioro afecta tanto la apariencia como la integridad del material.


CONCLUSIONES

Con los hallazgos obtenidos en la estancia de investigación se determinó que los contenedores en los Puntos Limpios presentan varias inconsistencias tanto visuales como funcionales, Los principales problemas incluyen etiquetas ilegibles o mal colocadas, pintura deteriorada, grietas en la estructura, desalineación de puertas, mecanismos de apertura defectuosos, sistemas de drenaje obstruidos y fugas durante el transporte. Basándose en la carrera de Dibujo Asistido por Computadora, que se centra en dibujo mecánico, arquitectónico y diseño gráfico, se proponen las siguientes acciones: estandarizar etiquetas utilizando software CAD para diseñarlas de manera uniforme, legible y resistente a la intemperie; seleccionar y especificar materiales duraderos que soporten condiciones adversas; diseñar puntos de inspección y acceso para facilitar tareas de revisión y reparación; integrar componentes mecánicos con tolerancias precisas para asegurar un uso eficiente y duradero del sistema de apertura; incorporar características ergonómicas como asas y ruedas para mejorar la manipulación y transporte; mantener limpios y funcionales los sistemas de drenaje para prevenir acumulaciones de líquidos; asegurar la hermeticidad del contenedor mediante materiales y pruebas adecuadas para mejorar sellos y juntas. Los Puntos Limpios en Guadalajara son esenciales para la gestión eficiente de residuos y la concienciación ambiental. Para maximizar su efectividad, es crucial implementar mejoras en el diseño y mantenimiento de los contenedores. La propuesta, basada en el Dibujo Asistido por Computadora, busca optimizar la funcionalidad, durabilidad y usabilidad de estos contenedores, contribuyendo a un entorno más sostenible y a una mejor calidad de vida para la comunidad.
Flores Alcántara Silvia Yael, Universidad Veracruzana
Asesor: Dra. Rocío García Martínez, Universidad Nacional Autónoma de México

DETERMINACIóN DE LAS CARACTERíSTICAS FISICOQUíMICAS Y METALES PESADOS DEL AGUA DE LLUVIA DE LA REGIóN DE ORIZABA


DETERMINACIóN DE LAS CARACTERíSTICAS FISICOQUíMICAS Y METALES PESADOS DEL AGUA DE LLUVIA DE LA REGIóN DE ORIZABA

Flores Alcántara Silvia Yael, Universidad Veracruzana. Asesor: Dra. Rocío García Martínez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

A la fecha, en México son pocos los estudios que evalúan el impacto de la contaminación atmosférica en la calidad del agua de lluvia en regiones con ecosistemas montañosos, y cómo ésta afecta directa o indirectamente a la superficie terrestre y cuerpos de agua. Nuestra región de estudio se centra en Ciudad de Orizaba, Ver, la región de Orizaba, Veracruz a la que hemos nombrado Eco-región de Orizaba, la cual no se limita sólo a las actividades primarias, ya que se es fácil identificar un sinnúmero de industrias de tipo alimenticio, metalurgia, farmacéutica, química, papelera, alcoholera y cementera, entre otros. Por lo anterior, resulta efectivo considerar la utilización del agua pluvial con el fin de cubrir y completar la demanda de la población en crecimiento. Ya que, a pesar de que la región cuenta con diversos tipos de escurrimientos por parte del deshielo de los glaciares del Pico de Orizaba.



METODOLOGÍA

La composición química del agua de lluvia esta influenciada por las emisiones naturales y antropogénicas provenientes de diferentes regiones que existen alrededor del área a estudiar esto quiere decir que las emisiones generadas por dichas áreas pueden contribuir y alterar la composición química del agua de lluvia. Por ello, en el siguiente trabajo se analizarán las características fisicoquímicas y metales pesados presentes en el agua de lluvia (Al, Cd, Cr, Cu,Fe, Mn, Ni, Pb). Las muestras se colectaron utilizando un colector de lluvia automático, modelo 78-100, fue utilizado para la colección de la precipitación pluvial. Para el muestreo se utilizaron cubetas de polietileno de alta densidad (HDPE).


CONCLUSIONES

Las 20 muestras colectadas, se analizarán utilizando la técnica de Espectrometría de Absorción Atómica acoplado a Horno de Grafito. El análisis de estos componetes permitiran conocer el riesgo e impacto para la salud humanada debido a la composición de los metales pesados, que resulta ser tóxica y generar diversas condiciones de salud en la población.
Flores Martinez Diego Rodrigo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. José Martínez Reyes, Universidad de La Ciénega del Estado de Michoacán de Ocampo

REPORTE FINAL INGENIERíA EN ENERGíA GEOTéRMICA


REPORTE FINAL INGENIERíA EN ENERGíA GEOTéRMICA

Flores Martinez Diego Rodrigo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. José Martínez Reyes, Universidad de La Ciénega del Estado de Michoacán de Ocampo



PLANTEAMIENTO DEL PROBLEMA

La energía geotérmica es una fuente de energía renovable que aprovecha el calor almacenado en el interior de la Tierra. Este calor puede ser utilizado para generar electricidad, calefacción y otros usos directos. La energía geotérmica se considera sostenible porque el calor terrestre es prácticamente inagotable a escala humana y su explotación tiene un impacto ambiental mucho menor en comparación con los combustibles fósiles.



METODOLOGÍA

Métodos Geoquímicos de Prospección La prospección geoquímica es esencial en la exploración de recursos geotérmicos. Este enfoque utiliza el análisis químico de fluidos geotérmicos (agua y gases) para identificar áreas con potencial geotérmico. Los métodos geoquímicos ayudan a comprender las características del reservorio, como la temperatura, la composición química y la interacción entre el agua y las rocas. A continuación, se describen algunos métodos geoquímicos comunes: Análisis de la Composición de los Fluidos El análisis de la composición de los fluidos geotérmicos implica medir las concentraciones de iones principales (como Na+, K+, Ca2+, Mg2+,Cl-, SO42-, HCO3-) y elementos traza. Estos datos pueden revelar información sobre el origen del fluido, su historia de flujo y las reacciones químicas que han tenido lugar en el reservorio. Las concentraciones de estos iones pueden indicar procesos como la mezcla de aguas, la disolución de minerales y la interacción agua- roca. Estudios de Isótopos Los isótopos estables de oxígeno (δ18O) e hidrógeno (δ2H) son útiles para determinar la temperatura y el origen del agua geotérmica. Los isótopos permiten rastrear el origen del agua (meteórica, magmática, etc.) y los procesos de intercambio isotópico que ocurren a altas temperaturas. Además, los isótopos de carbono (δ13C) y azufre (δ34S) pueden proporcionar información sobre la interacción entre el agua y los gases volcánicos. Gasometría La medición de gases disueltos en el agua geotérmica, como CO2, H2S, CH4 y H2, es otra técnica importante. Estos gases pueden indicar la presencia de actividad geotérmica y ayudar a evaluar el potencial del reservorio. La concentración y la composición de los gases pueden reflejar procesos como la desgasificación magmática y la actividad hidrotermal. Geotermómetros Los geotermómetros son herramientas geoquímicas que estiman la temperatura del reservorio geotérmico basándose en las concentraciones de ciertos iones en el agua geotérmica. Existen varios tipos de geotermómetros, cada uno adecuado para diferentes rangos de temperatura y condiciones químicas del reservorio: Geotermómetro de Sílice (SiO2) El geotermómetro de sílice se basa en la solubilidad de la sílice en el agua, que aumenta con la temperatura. Existen varias fórmulas de geotermómetros de sílice (como las basadas en cristobalita y cuarzo) que son útiles para estimar temperaturas en un rango de 90°C a 180°C (Fournier, 1981). Geotermómetro de Na-K Este geotermómetro se basa en la relación entre las concentraciones de sodio (Na) y potasio (K) en el agua geotérmica. La relación Na/K es dependiente de la temperatura y se utiliza para estimar temperaturas entre 200°C y 350°C. Este geotermómetro es particularmente útil en sistemas geotérmicos de alta temperatura (Arnórsson, 2000). Geotermómetro de Na-K-Ca El geotermómetro de Na-K-Ca combina las concentraciones de sodio, potasio y calcio (Ca) para estimar temperaturas en un rango más amplio. Este geotermómetro requiere correcciones adicionales para la presencia de calcio y es más complejo en su aplicación, pero puede ser muy útil para evaluar sistemas geotérmicos mixtos (Fournier y Truesdell, 1973). Casos de Estudio El Campo Geotérmico de Cerro Prieto, México El campo geotérmico de Cerro Prieto es uno de los más grandes y desarrollados del mundo. Situado en Baja California, México, este campo ha sido objeto de extensos estudios geoquímicos que han permitido identificar zonas de alta temperatura y optimizar la extracción de vapor. Los geotermómetros de sílice y Na-K han sido esenciales para el desarrollo y la gestión del campo, proporcionando estimaciones precisas de las temperaturas del reservorio (280°C) y ayudando a planificar la perforación y la producción (Lippmann, 2002).  


CONCLUSIONES

La energía geotérmica es una fuente de energía limpia y sostenible que ofrece múltiples beneficios ambientales y económicos. Los métodos geoquímicos de prospección, junto con los geotermómetros, son herramientas esenciales en la exploración y desarrollo de recursos geotérmicos. Los casos de estudio de campos geotérmicos en diferentes partes del mundo destacan la importancia de estas técnicas para maximizar el potencial geotérmico y asegurar la explotación sostenible de los recursos. Referencias 1. Arnórsson, S. (2000). "Geothermal Systems in Iceland: Structure and Conceptual Models — I. High Temperature Areas." Geothermics, 29(6), 619- 654. 2. Fournier, R. O. (1981). "Application of Water Geochemistry to Geothermal Exploration and Reservoir Engineering." In: Rybach, L., Muffler, L. J. P. (Eds.), Geothermal Systems: Principles and Case Histories. Wiley, pp. 109-143. 3. Fournier, R. O., & Truesdell, A. H. (1973). "An empirical Na-K-Ca geothermometer for natural waters." Geochimica et Cosmochimica Acta, 37(5), 1255-1275. 4. Karingithi, C. W. (2010). "Chemical Characteristics of the Geothermal Fluids and Mineral Equilibria in Geothermal Systems in Kenya." In: Proceedings of the World Geothermal Congress 2010. Bali, Indonesia. 5. Lippmann, M. J. (2002). "The Cerro Prieto Geothermal Field: 30 Years of Production." Geothermics, 31(4), 435-459. 6. Mahon, W. A. J., & Finlayson, J. B. (1972). "The Chemistry of the Broadlands Geothermal Area, New Zealand." American Journal of Science, 272(1), 48- 68.
Flores Palacios Rigoberto, Universidad Autónoma de Baja California
Asesor: Dr. Jaime Hernández Sánchez, Benemérita Universidad Autónoma de Puebla

CANDIDATO A MATERIA OSCURA EN UN DOBLETE-TRIPLETE


CANDIDATO A MATERIA OSCURA EN UN DOBLETE-TRIPLETE

Flores Palacios Rigoberto, Universidad Autónoma de Baja California. Asesor: Dr. Jaime Hernández Sánchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El Modelo Estándar de Física de Partículas (ME o SM), es una teoría cuántica de campos que es consistente con la teoría de la Mecánica Cuántica y la teoría de la Relatividad Especial. El Modelo Estándar es la mejor teoría con la que se cuenta actualmente para esta área del conocimiento. El ME es capaz de poder describir tres de las cuatro interacciones fundamentales del universo conocidas, entre las partículas elementales que se estudian y componen toda la materia que observamos a nuestro alrededor. Estas tres interacciones son: Interacción de la Fuerza Fuerte. Interacción de la Fuerza Nuclear débil. Interacción electromagnética. A pesar de ser la mejor teoría que se tiene para explicar los fenómenos del mundo de las partículas, posee algunos límites que le impiden describir algunos fenómenos que se observan en las investigaciones experimentales, siendo algunas de ellas: 1. Materia oscura, la masa de los neutrinos, asimetría entre materia y antimateria y el problema de la jerarquía. El problema de interés durante esta investigación es el de la materia oscura, donde el ME no incluye una partícula que pueda ser responsable de los efectos que ocasiona la materia oscura, ya que todas las partículas que se conocen interactúan con la luz o con otro de tipo de radiación. Esto a llevado a suponer que la materia oscura está compuesta por una o más partículas nuevas que el ME no predice y, hasta el momento, son desconocidas y no interactúan electromagnéticamente.   Los esfuerzos actuales por encontrar un candidato a materia oscura son enormes por parte de la comunidad de física de partículas, resultando ser uno de los problemas más importantes a resolver en el área de la física de partículas. En esta misma línea, se ha propuesto un modelo de doblete-tiplete para lograr conseguir un candidato a materia oscura.



METODOLOGÍA

Para llevar a cabo este estudio, se comenzó con una revisión de la literatura relevante para situarnos en la tendencia actual de la investigación sobre la materia oscura. Una vez alcanzada esta comprensión, se definió desde qué perspectiva estudiaríamos el Modelo Estándar (ME) para proponer nuestro candidato a materia oscura. En el análisis de las partículas y sus interacciones dentro del ME, se distinguen tres sectores principales: 1. Sector fermiónico. 2. Sector bosónico de norma. 3. Sector escalar o sector de Higgs. De estos, se seleccionó el sector escalar o sector de Higgs, que se introduce en el ME a través de un Rompimiento Espontáneo de la Simetría (RES). Nos centramos en este sector y propusimos un modelo que incluye un doblete y un triplete, los cuales representan los modelos matemáticos que se siguieron para el desarrollo del estudio. Utilizando estos dos modelos, se construyó el potencial, que está definido por la interacción de un doblete y un triplete, además de la intervención de un triplete inerte. La definición precisa de estos componentes permitió realizar las operaciones correspondientes. Para facilitar los cálculos y análisis, se utilizó el software Mathematica. El proceso en Mathematica comenzó con la definición de los campos reales que se emplearían, así como los términos de potencia asociados. Posteriormente, se definió el doblete y su correspondiente transpuesto conjugado. Estos mismos pasos se siguieron para la definición del triplete. Con el doblete y el triplete definidos, se procedió a la construcción del potencial. Este paso se llevó a cabo de manera metódica y por etapas, con el fin de mantener un orden y precisión en el desarrollo del modelo. Al completar estos cálculos, se obtuvo un escalar, que es el resultado esperado y un paso importante hacia la identificación de un candidato a materia oscura.


CONCLUSIONES

Durante la estancia de verano, se adquirieron amplios conocimientos teóricos sobre la materia oscura, un tema crucial en la cosmología moderna y en la física de partículas, y se aplicaron estos conocimientos a través de técnicas de modelado matemático y simulaciones computacionales. Para abordar la complejidad de los cálculos necesarios, se utilizó el software Mathematica, que resultó fundamental para llevar a cabo análisis detallados y precisos de los datos recopilados. No obstante, debido a la naturaleza compleja y extensa del trabajo, el proyecto aún se encuentra en una fase inicial de modelado y, por el momento, no se dispone de resultados concluyentes que puedan ser presentados. Se espera que la implementación de estructuras de doblete y triplete en los modelos de partículas sea clave para comprender mejor las propiedades de la materia oscura, su interacción con la materia visible y su distribución en el universo. Este enfoque innovador podría, eventualmente, llevar a la identificación de un candidato viable para la materia oscura, proporcionando nuevas perspectivas sobre uno de los mayores misterios de la física contemporánea.
Flores Saldaña Jose Pablo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Hector Vargas Rodriguez, Universidad de Guadalajara

OBSERVADORES DE VECTOR DE POYNTING NULO EN LA RELATIVIDAD ESPECIAL.


OBSERVADORES DE VECTOR DE POYNTING NULO EN LA RELATIVIDAD ESPECIAL.

Flores Saldaña Jose Pablo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Hector Vargas Rodriguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

 En la relatividad especial es bastante frecuente el empleo de observadores inerciales, que se mueven con velocidad constante, para describir efectos físicos, pero se deja de lado la descripción de estos efectos cuando se consideran observadores acelerados o en rotación.  Habitualmente se entiende que un marco de referencia inercial se refiere a un sistema de coordenadas espaciotemporales y los instrumentos de medición asociadas a un observador que se mueve con velocidad constante, se entiende, por ejemplo, que cuando el observador mide un campo electromagnético, este lo mide en cada punto del espacio-tiempo. En su lugar aquí se empleará a distintas familias de observadores en movimiento. De modo que, en nuestro ejemplo, cada uno de los miembros de cada una de estas familias medirá el campo electromagnético en su ubicación concreta. De esta manera el conjunto de las líneas de mundo de estos observadores determinara una congruencia en el espacio-tiempo, y los vectores tangentes a estas líneas, las cuadrivelocidades de los observadores determinaran un campo vectorial cuatridimensional que asumimos que representa al marco de referencia asociado a los observadores.   En este trabajo consideraremos los campos electromagnéticos asociados a una línea de carga infinita en movimiento con velocidad constante a lo largo de sí misma y a un anillo cargado en rotación; y su descripción desde el punto de vista de vista de distintas familias de observadores, observadores en reposo, estos miden un vector de Poynting no nulo; observadores comóviles y observadores principales [5,6], estos últimos dos tipos de observadores miden un vector de Poynting nulo, pues en su marco de referencia el campo magnético se anula, este hecho puede ser interpretado como que los observadores se desplazan con el campo electromagnético. 



METODOLOGÍA

En este trabajo se emplearán formalismos matemáticos como el cálculo tensorial [3] y la teoría de formas diferenciales de Cartan [1]; y teorías físicas como la relatividad especial en su formulación monádica [2], y la teoría electromagnética de Maxwell en su formulación covariante para la descripción de los campos electromagnéticos en los distintos marcos de referencia [2,4,5]. La elección de estas herramientas matemáticas es natural debido a las características de la teoría electromagnética y de la relatividad especial.  Concretamente, a partir de la 2-forma del campo electromagnético reconstruida en el marco de referencia de los observadores en reposo, se determinarán dos covectores, uno de tipo tiempo, que al ser normalizado describirá el campo de mónada (el campo de cuadrivelocidades) de los observadores comóviles con la línea cargada y corrotantes con el anillo; y otro de tipo espacial. El vector de mónada de los observadores principales es entonces construido como una combinación lineal de estos dos covectores cuidando la naturaleza unitaria y temporal del vector resultante. Finalmente, con la ayuda de estos vectores de mónada se determinan los campos eléctricos que miden los observadores comóviles y principales, y se encuentra que el campo magnético se anula para ellos. 


CONCLUSIONES

En este trabajo se obtuvieron las descripciones de los campos eléctrico y magnético en los marcos de referencia comóvil y principal, para la línea cargada se concluye que los observadores comóviles son inerciales, mientras que los observadores principales en general son no inerciales. En el caso del anillo cargado en rotación tanto los observadores en reposo como los observadores principales son no inerciales.  Respecto a los campos eléctricos medidos por ambas familias de observadores, se encuentran que son de la misma magnitud, pero que residen en un subespacio tridimensional distinto, dicho subespacio es ortogonal al vector de mónada (geométricamente parecido a una rotación).      Referencias   [1] Flanders, H. (1963). Differential forms with applications to the physical sciences. Dover publications.  [2] Mitskievich, N. V. (2006). Relativistic physics in arbitrary reference frames. Nova Publishers.  [3] Synge J.L. & Schild, A. (1978). Tensor Calculus.  Dover Publications  [4] Vargas-Rodríguez, H., Gallegos, A., Muñiz-Torres, M. A., Rosu, H. C., & Domínguez, P. J. (2020). Relativistic rotating electromagnetic fields. Advances in High Energy Physics, 2020(1), 9084046.  [5] Vargas-Rodríguez, H., Rosu, H. C., Medina-Guevara, M. G., Gallegos, A., & Muñiz-Torres, M. A. (2022). Vanishing Poynting Observers and Electromagnetic Field Classification in Kerr and Kerr‐Newman Spacetimes. Advances in High Energy Physics, 2022(1), 1066886.  [6] Wylleman, L., Costa, L. F. O., & Natário, J. (2021). Poynting vector, super-Poynting vector, and principal observers in electromagnetism and general relativity. Classical and Quantum Gravity, 38(16), 165009. 
Fon Lizárraga José Ramón, Universidad Politécnica de Sinaloa
Asesor: M.C. Carolina Bojórquez Sánchez, Universidad Politécnica de Sinaloa

PREPARACIóN DE MUESTRAS DE SUELO Y PLANTAS PARA DETERMINAR PARáMETROS FíSICOS Y ELEMENTOS POTENCIALMENTE TóXICOS EN SITIOS IMPACTADOS POR ZONAS MINERAS DEL SUR DE SINALOA


PREPARACIóN DE MUESTRAS DE SUELO Y PLANTAS PARA DETERMINAR PARáMETROS FíSICOS Y ELEMENTOS POTENCIALMENTE TóXICOS EN SITIOS IMPACTADOS POR ZONAS MINERAS DEL SUR DE SINALOA

Camacho Partida Christofer Emmanuel, Universidad Politécnica de Sinaloa. Fon Lizárraga José Ramón, Universidad Politécnica de Sinaloa. Asesor: M.C. Carolina Bojórquez Sánchez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El sector minero tiene una gran importancia para México, ya que este es uno de los mas grandes contribuyentes a su economía. Esto puede ejemplificarse con sus beneficios potenciales, tales como: los empleos generados, la infraestructura desarrollada a consecuencia de este, y la ganancia neta de ingresos que proporciona.   Específicamente, en el estado de Sinaloa, la minería esta creciendo a una velocidad vertiginosa debido a los altos indicios de mineralización que se encuentran a lo largo del territorio, como sugieren datos de 2021. Según estos, Sinaloa se situó en el doceavo lugar a nivel nacional en producción de oro, el onceavo en plata y el décimo en cobre.   Sin embargo, esta no es una actividad libre de riesgos ni impactos ambientales, como puede observarse cuando ocurren eventos que pueden resultar en la acumulación de Elementos Potencialmente Tóxicos (EPTs), como ha sucedido en el sur de Sinaloa. Estos presentan toxicidad, persistencia y las propiedades de bioacumulación y biomagnificación. Más notablemente, estos inhiben la capacidad de crecimiento de las plantas, además de dañar su estructura y disminuir sus actividades fisiológicas y bioquímicas.   Tomando en cuenta lo anterior, este proyecto busca preparar y tratar muestras de suelo y plantas para determinar sus parámetros fisicoquímicos y EPTs de sitios que fueron expuestos a actividades mineras por más de 500 años para presentar un diagnóstico de los efectos de tal explotación en los sitios.



METODOLOGÍA

Preparación de Equipos de Laboratorio  Limpieza de Contenedores:     - Lavar recipientes de polipropileno y vidrio con detergente y agua.     - Enjuagar con agua destilada.     - Sumergir en una solución de ácido nítrico 2M durante 72 horas.     - Enjuagar nuevamente con agua destilada y agua de calidad milli-Q.     - Secar a temperatura ambiente.    Preparación de Muestras    1. Muestras de Suelo:     - Secar las muestras de suelo a temperatura ambiente.     - Homogeneizar y tamizar las muestras.    2. Muestras de Vegetación:     - Macerar y homogenizar las muestras de plantas.     - Pesar el tejido vegetal para las digestiones ácidas.    Análisis de Parámetros en Suelos    1. Determinación de pH, Textura y Materia Orgánica (NOM-121-RECNAT-2000):     - Tamizar el suelo con una malla de 2 mm para medir pH y textura.     - Eliminar la materia orgánica utilizando peróxido de hidrógeno para el análisis de textura.     - Tamizar el suelo con una malla de 0.5 mm para determinar el contenido de carbono orgánico.     - Medir el pH utilizando el método AS-02.     - Medir la materia orgánica con el método AS-07 de Walkley y Black.     - Determinar la textura mediante el procedimiento de la pipeta (AS-28).    Digestión de Muestras    1. Digestión de Muestras de Suelo y Plantas:     - Añadir ácidos fuertes a las muestras de diferentes matrices.     - Realizar la digestión bajo condiciones controladas de temperatura y presión.     - Aforo y acondicionar las muestras.    Análisis y Elaboración del Informe    1. Análisis de Datos:     - Realizar un análisis estadístico descriptivo de los datos obtenidos.    2. Integración y Síntesis de Resultados:     - Integrar y analizar los resultados. 


CONCLUSIONES

Aunque la industria minera represente una gran oportunidad de desarrollo económico para el estado de Sinaloa, esta también representa una gran cantidad de riesgos ambientales, especialmente en la liberación de EPTs por sus interacciones con la biota y el suelo circundante.   Dado lo anterior, la metodología presentada busca proporcionar un diagnóstico comprensible de la extensión y afectación de los EPTs, para de este modo posibilitar el diseño de estrategias de remediación, así como de prevención, para minimizar los percances que afectarían a medio ambiente y comunidades locales.   Por lo pronto, hemos logrado adquirir bastantes conocimientos teóricos sobre los EPTs, como sus características o importancia, además de que los hemos suplementado con conocimientos prácticos de metodologías de análisis. Sin embargo, a pesar de que hemos obtenido datos, reportarlos ahora mismo daría una imagen imprecisa de la situación, por lo que se espera que podamos brindar una imagen mas clara al final de nuestra estancia.
Fontes Palma José Angel, Universidad Autónoma de Occidente
Asesor: Dra. Analila Luna Valenzuela, Universidad Autónoma de Occidente

ESTABILIDAD TéRMICA DE NANOPARTíCULAS DE ORO (AU) A TEMPERATURA FINITA PARA APLICACIONES BIOMéDICAS


ESTABILIDAD TéRMICA DE NANOPARTíCULAS DE ORO (AU) A TEMPERATURA FINITA PARA APLICACIONES BIOMéDICAS

Fontes Palma José Angel, Universidad Autónoma de Occidente. Asesor: Dra. Analila Luna Valenzuela, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La resonancia de plasmón de superficie (SPR) en nanopartículas de oro ha emergido como un fenómeno de gran relevancia en la óptica biomédica debido a sus propiedades ópticas únicas y altamente sensibles. Estudiar y simular estos modelos es crucial para entender cómo variaciones en el tamaño, forma y medio de las nanopartículas influyen en sus características ópticas, especialmente en la región del cercano infrarrojo (NIR). Las nanopartículas de oro exhiben una fuerte absorción y dispersión de luz debido a la SPR, lo que les confiere un potencial significativo para diversas aplicaciones biomédicas, incluyendo la imagenología, la terapia fototérmica y el desarrollo de biosensores. La capacidad de ajustar las propiedades ópticas de estas nanopartículas mediante el control de sus parámetros físicos y el entorno inmediato permite optimizar su desempeño para aplicaciones específicas. La simulación de modelos que analicen estas variaciones proporciona una herramienta poderosa para predecir y personalizar las respuestas ópticas de las nanopartículas, evitando la necesidad de costosos y laboriosos experimentos empíricos. A través de estos modelos, se puede explorar cómo cambios precisos en el tamaño y la forma de las nanopartículas, así como en el índice de refracción del medio circundante, alteran su respuesta SPR, facilitando el diseño de nanopartículas con propiedades ópticas deseadas para aplicaciones específicas en el ámbito biomédico.



METODOLOGÍA

Bases de datos de índices de refracción de las nanopartículas de oro (AuNPs): Obtuvimos datos sobre el índice de refracción de nanopartículas de oro de refractiveindex.info. Esta plataforma recopila datos de fuentes públicas. Nos enfocamos en nanopartículas de oro con geometrías esféricas y esferoidales. Descargamos los índices de refracción en un formato compatible con Excel, facilitando su procesamiento. Estos índices de refracción son cruciales para nuestro estudio, ya que influyen en el comportamiento óptico de las nanopartículas, clave en aplicaciones biomédicas como la terapia fototérmica. Interpolación de Datos: En situaciones donde los datos disponibles eran insuficientes, aplicamos técnicas de interpolación para estimar valores intermedios. La interpolación permite generar datos adicionales entre puntos de datos conocidos, aumentando la precisión de nuestras gráficas y predicciones. Este proceso fue especialmente útil para ajustar curvas de absorción y dispersión. Desarrollo de algoritmos: Desarrollamos algoritmos avanzados basados en teorías de Maxwell y Mie para modelar y analizar el comportamiento óptico de las nanopartículas de oro. Creamos modelos matemáticos que describen la interacción de la luz con estas nanopartículas. Estos algoritmos permitieron cargar la base de datos de índices de refracción y ajustar parámetros como el radio de las AuNPs. Instalación y uso de software GNU-Octave para Simulaciones y Análisis Computacional: Utilizamos GNU Octave para simulaciones de absorción de luz en nanopartículas de oro. Este software, compatible con MATLAB, es una herramienta versátil destinada a cálculos numéricos, como resolver problemas de álgebra lineal numérica e integrar funciones ordinarias. Ejecutamos un programa que simulaba la absorción de luz en nanopartículas de oro, ajustando parámetros como el radio de las AuNPs y utilizando una base de datos de índices de refracción. Generamos gráficos de diversos índices ópticos, como el índice de dispersión y el índice de absorción, en diferentes longitudes de onda. Estos gráficos permitieron visualizar cómo varían las propiedades ópticas de las nanopartículas de oro con la longitud de onda de la luz incidente. La absorción de luz y su conversión en calor son de gran importancia para aplicaciones biomédicas, lo que facilitó una exploración detallada de estas propiedades Validación y Comparación de Resultados: Realizamos múltiples simulaciones con AuNPs de diferentes tamaños y formas. Las esferoides mostraron dos picos de absorción, dependiendo de su orientación, y nanopartículas más grandes absorbieron a longitudes de onda más largas. Validamos nuestros resultados comparándolos con datos de investigaciones existentes y otros estudios.


CONCLUSIONES

Los resultados de nuestra metodología de simulación de absorción de luz en nanopartículas de oro fueron obtenidos utilizando GNU-Octave, y teóricamente se basan en las ecuaciones de Maxwell y el patrón de esparcimiento de Mie. En esta investigación, obtuvimos el espectro de absorción de las nanopartículas de oro, el cual concuerda con los resultados experimentales reportados en la literatura. Asimismo, observamos que, a medida que cambia la geometría de las nanopartículas de plata a esferoides, el espectro de absorción varía en la longitud de onda e intensidad. Por tanto, las nanopartículas de oro, con su capacidad de exhibir resonancias de plasmón de superficie (SPR), no solo contribuirán a un entendimiento más profundo de los mecanismos ópticos de absorción fundamentales en nanopartículas, sino que también abrirán nuevas oportunidades para su aplicación en el diagnóstico y tratamiento de enfermedades. Estas nanopartículas ofrecerán mejoras significativas en la precisión y efectividad de las técnicas ópticas en la medicina moderna, especialmente en terapias fototérmicas para controlar el calor irradiado en tejido biológico cancerígeno, contribuyendo así a la muerte celular localizada
Franco Alvarado Héctor Agustín, Universidad Autónoma de Yucatán
Asesor: Dr. Jesús López Hernández, Universidad Autónoma de Sinaloa

DETERMINACIóN DE ABUNDANCIAS QUíMICAS EN GALAXIAS CON FORMACIóN ESTELAR CON EL USO DE MéTODOS EMPíRICOS CON OBSERVACIONES CON ESPECTROSCOPíA INTEGRAL DE CAMPO.


DETERMINACIóN DE ABUNDANCIAS QUíMICAS EN GALAXIAS CON FORMACIóN ESTELAR CON EL USO DE MéTODOS EMPíRICOS CON OBSERVACIONES CON ESPECTROSCOPíA INTEGRAL DE CAMPO.

Franco Alvarado Héctor Agustín, Universidad Autónoma de Yucatán. Asesor: Dr. Jesús López Hernández, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Desde el inicio de las observaciones, hasta la época actual se han desarrollado diversas técnicas y métodos para explorar más allá de nuestra galaxia, con el avance de la tecnología han aumentado también las herramientas y la accesibilidad a datos para poder trabajar con los mismos. De igual forma, los avances en la física y ajustes. Para las observaciones con varios proyectos andando y actualmente utilizando Espectroscopía Integral de Campo (IFU). Por otro lado, el análisis de la abundancia química suele ser analizada por métodos empíricos basados en la Temperatura electrónica de acuerdo con Marino et al. (2013) sin embargo, en el mismo artículo se menciona que se ha encontrado relación entre las razones de líneas de [NII] y [OIII] y la abundancia química medida con los datos de CALIFA basados en la Temperatura electrónica.



METODOLOGÍA

Marvin es una herramienta que busca divulgación de datos sobre observaciones espectroscópicas hechas de MaNGA (Mapping Nearby Galaxies at Apache Point Observatory) que es uno de los programas de la Sloan Digital Sky Survey (SDSS), en este caso con un archivo LIN. El acceso de datos para SDSS RL17 contiene la función de ofrecer con Marvin de un ecosistema de cubos de datos de galaxias, se pueden descargar en formatos procesables con Python. Para el procesamiento de los datos con la herramienta de Python se utilizó Spyder (Scientific Python Development Environment) que es un entorno de desarrollo integrado (IDE). Algunas librerías usadas son astropy que es un proyecto creado para el procesamiento de datos astronómicos por una comunidad de desarrolladores (The Astropy Project, n.d.), este paquete de recursos ofrece la opción de trabajar con archivos .fits que son los que fueron utilizados y descargados desde Marvin. También se utilizó Numpy que se especializa en trabajar con matrices y que al ser cubos de datos lo que se trabaja, fue de gran ayuda para los arreglos y procesos. De igual manera, Matplotlib se utilizó para el procesamiento de esos datos, poder convertirlos en imágenes que fueron útiles para la interpretación de estos. Scipy es una librería que se utilizó para definir funciones que se utilizaron, es una librería que se centra en métodos de integración e interpolación. En el inicio del código se importaron las partes de la librería que se requirieron para el procesamiento del archivo descargado, para después mostrar las dimensiones del cubo de datos, donde estará en orden de longitud de onda, dimensión espacial 1 y dimensión espacial 2. Todo esto tal y como se muestra en la figura. Posterior a esto, se realiza por medio del catálogo dapall v-3_1_1-3.1.0, donde se descargó el archivo y se abrió de acuerdo al número de la placa del objeto que se observó y con base en ello se utiliza la propiedad nsa\_z, una vez con eso la corrección se hace en la última línea de la Figura. Posterior a las definiciones, se crea un ciclo for anidado con las dimensiones espaciales para que píxel por pixel se realice el ajuste y los demás procesos utilizados para el procesamiento de los datos que permitió insertar una línea de emisión y guardarse en otra matriz que se llenó de números uno. Dentro del ciclo for anidado se definió en anwave de manera manual la longitud de onda correspondiente a la línea de emisión que también es el centro de la campana de Gauss que fue ajustada y los límites por donde se comenzará a analizar, utilizando un rango de ±10, por último, para el continuo se utilizó un rango de ±5 para evitar en un aproximados, los datos de la línea de emisión. Todo esto dentro de un try para que en caso de que no se obtengan valores, pueda seguir el programa o asignar otro valor. Una vez ya definidos los datos, se parametrizan para asegurar que los datos sean de los rangos definidos y trabajar con ellos, que fueron sometidos al ajuste y a la gaussiana. Una vez con esto se realiza una integral debajo de la campana de Gauss limitada por h y k que son los límites de integración definidos, una vez se realiza la integral, este dato se almacena en cada pixel. Y se cierra con un except donde se le asigna un cero. Para los diagramas de diagnóstico o diagramas BPT ofrecen un límite teórico para los estallidos y por ende una mejor distinción de las fuentes de ionización de las observaciones. Para ello se utilizan las razones de líneas siento estas [OIII, [NII], Ha y Hb. Con estas funciones propuestas se forma un diagrama de diagnóstico en el cual se utiliza todos los valores de las razones de líneas del objeto observado para tener un solo punto y dependiendo de su posición será la clasificación de las fuentes de ionización. Una vez medidas las líneas de emisión [NII]  y Ha es posible poner a prueba un modelo propuesto por Marino et al. (2013), donde por medio de métodos empíricos se realiza un ajuste a las relaciones observadas entre la razón de la medición N2 con la abundancia química que como es mencionado previamente, se obtiene de CALIFA y literatura basada en la temperatura electrónica. Se grafican los valores, se aplican valores mínimos y máximos, debido a que aunque se aplicaron filtros antes, los valores de los bordes principalmente son muy bajos, entonces de acuerdo a los límites que ofrece el artículo previamente citado donde está la mayoría de los datos de abundancia del objeto.


CONCLUSIONES

Durante la estancia fue posible tener una introducción teórica a la espectroscopía integral de campo, se obtuvo un medio público y gratuito de obtención de los datos de observaciones y de igual modo se pudieron aplicar métodos matemáticos para realizar mediciones de líneas de emisión, identificarlas, generar imágenes de calidad y crear mapas de las mediciones como lo fueron los mapas de abundancia química. En definitiva, los resultados obtenidos por estos métodos, pese a no ser iguales entre sí, concuerdan con los valores esperados y medidos en el rango que se observa en el artículo; es posible continuar ampliando el estudio con histogramas y más objetos observados, de igual modo, mejorar la precisión de algunos algoritmos para las precisiones.
Franco Arvizu Pablo Santiago, Universidad de Sonora
Asesor: Dr. Carlos Rafael Michel Uribe, Universidad de Guadalajara

PROPIEDADES DE FOTODETECCION EN EL RANGO DEL ULTRAVIOLETA Y VISIBLE DE LOS COMPUESTOS LIMN2O4 Y AG/LIMN2O4


PROPIEDADES DE FOTODETECCION EN EL RANGO DEL ULTRAVIOLETA Y VISIBLE DE LOS COMPUESTOS LIMN2O4 Y AG/LIMN2O4

Celaya Alvidrez Luis Roberto, Universidad de Sonora. Franco Arvizu Pablo Santiago, Universidad de Sonora. Asesor: Dr. Carlos Rafael Michel Uribe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La fotodetección en compuestos semiconductores es un proceso fundamental en la tecnología de detección de luz y tiene una amplia variedad de aplicaciones tecnológicas, incluyendo cámaras, sistemas de comunicación óptica y sensores. Este proceso se basa en la generación de pares electrón-hueco cuando los fotones inciden en un material semiconductor.  El dopaje de estructuras semiconductoras es una técnica crucial que permite optimizar la fotodetección de los dispositivos para una amplia gama de aplicaciones industriales y tecnológicas. Mediante el dopaje, es posible mejorar la eficiencia, la sensibilidad, la velocidad de respuesta y la precisión de los fotodetectores.  La exposición a diferentes longitudes de onda afecta la fotodetección de las estructuras semiconductoras de diversas maneras, influyendo en la eficiencia de absorción, la generación de pares electrón-hueco, la eficiencia cuántica y la durabilidad del dispositivo. El dopaje desempeña un papel vital en ajustar estas propiedades para mejorar la sensibilidad y precisión de los dispositivos fotodetectores en rangos específicos del espectro electromagnético.



METODOLOGÍA

Se usaron dos pastillas de aprox. 1 cm de diámetro, una hecha de LiMn2O4 a partir de 0.1926 g de nitrato de litio al 99% y 1 g de nitrato de manganeso al 98% y otra añadiendo 1 g de nitrato de plata al 99.9% a la mezcla. Esta mezcla de nitratos fue disuelta en 10 ml de ácido fórmico al 95%. Tras una reacción donde se liberaron humos de NO2, se crean formiatos de los materiales. Seguido a ello, se evaporó el solvente usando un microondas al 20% de potencia y agitando repetidamente. Para finalizar la evaporación, se introdujo el material mayormente seco a un horno a 100°C durante 8 horas.  Después del tiempo de espera, se separaron los polvos obtenidos en distintas muestras para futuro análisis. Cada una de estas muestras seria calcinada a distinta temperatura, 1 para cada compuesto. Las temperaturas variaron entre los 100°C y los 600°C. Para este calcinamiento, se introdujeron con una rampa de 100°C por hora y calentarse durante 6 horas adicionales tras llegar a la temperatura deseada. Una parte de los polvos resultantes fue luego preparada para análisis mediante DRX. Con los materiales disponibles, se hizo una película delgada de LiMn2O4 y Ag/LiMn2O4 calcinado a 600°C para hacer pruebas de conductividad respecto a la temperatura. Adicionalmente, se hicieron las pastillas previamente mencionadas formadas tras comprimirla a 1300 lb/m^2 durante 5 min y calentarlas a 500°C durante 6 horas. Tras ello, se realizaron las pruebas interactuando con luz.  Las pruebas con luz que se hicieron fueron las siguientes: de fotocorriente, responsividad y de sensibilidad. Las luces usadas fueron las siguientes: Azul, Blanca, Roja y UV-A. Para cada luz se utilizó un rango diferente de irradiancia en la prueba de fotocorriente, siendo para la luz Azul un rango de 46.5-136.25 mW/cm2, los cuales eran de 1 min con la luz apagada y 1 min con la luz encendida, esto durante 900 s, con ayuda de un temporizador programable; para la luz Blanca se usó un rango de 32-89.75 mW/cm2 ; para la luz Roja se utilizó un rango de 36.5-106 mW/cm2; por último, para la luz UV-A se usó un rango de 29.75-345 mW/cm2 . Estas configuraciones fueron tanto para la pastilla que no contenía plata, como también para la que si contenía.  En las pruebas de responsividad, se hicieron 2 pruebas para cada luz. Para la luz Azul se hizo prueba tanto para 117.75 y 136.25 mW/cm2, las 2 pruebas con la misma configuración, donde se tenía 100 s apagada la luz, 900 s encendida y 320 s apagada; para la luz Blanca se hizo pruebas para 36 y 76.5 mW/cm2, el primero con la misma configuración, mientras que en el segundo caso se dejó encendida la luz durante 1060 s; para la luz Roja se hicieron pruebas para 44 y 77 mW/cm2, las 2 pruebas con la misma configuración, la cual es de 100 s apagada la luz, 1020 s encendida y 1200 s apagada. Por último, la luz UV-A; la irradiancia de las pruebas fueron de 29.75 y 228.5 mW/cm2, con configuración de 240 s la luz apagada, 2000 s encendida y 1500 s apagada. Estas configuraciones fueron tanto para la pastilla que no contenía plata, como también para la que si contenía.  En las pruebas de sensibilidad, fue solo una prueba para cada luz, siendo que para la luz Azul se usó un rango desde 65 hasta 118 mW/cm2, con un incremento gradual por cada intervalo, el cual era de 2 min luz apagada y 2 min luz encendida; para la luz Blanca se usó un rango desde 32 hasta 76.5 mW/cm2, con un incremento gradual por cada intervalo; para la luz Roja se usó un rango desde 36.5 hasta 106 mW/cm2, con un incremento gradual por cada intervalo; por último, para la luz Blanca se usó un rango desde 29.75 hasta 345 mW/cm2, con un incremento gradual por cada intervalo. Estas configuraciones fueron tanto para la pastilla que no contenía plata, como también para la que si contenía.  Además de las pruebas con luz, también se prepararon muestras para DRX, esto para las 2 síntesis, la que no contiene plata y la que si tiene. Se hicieron en total 5 muestras por cada síntesis, una para cada temperatura de calcinación (100° C, 300° C, 400° C, 500° C, y 600° C). Su forma de preparación fue la molienda de cada síntesis para obtener un polvo muy fino, y de esta forma depositarlo en una lámina de cristal, por medio de la adhesión por una capa de vaselina que se aplicó con anterioridad.


CONCLUSIONES

Tras la investigación, se comprobó el efecto fotoeléctrico y los conocimientos prácticos de síntesis y preparación de muestras para difracción de rayos x. Esto para conocer el procedimiento de prueba de estos materiales. No se pudo hacer un análisis mediante SEM por su falta de disponibilidad. Sin embargo, el objetivo se cumplió, estudiando las diferencias de interacción con las luces probadas entre LiMn2O4 sin añadir plata a Ag/LiMn2O4.
Franco Flores Marisol, Universidad Mexiquense del Bicentenario
Asesor: Dr. Aquiles Ortega Arrieta, Fundación Universitaria Tecnológico Comfenalco

REPORTES INTEGRADOS PARA PYME


REPORTES INTEGRADOS PARA PYME

Franco Flores Marisol, Universidad Mexiquense del Bicentenario. Asesor: Dr. Aquiles Ortega Arrieta, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

La ausencia de un sistema de reporte integrado, impide a las pyme tener una visión holística y entiempo real de su desempeño. los datos se encuentran dispersos en múltiples plataformas y formatos lo que genera problemas de accesibilidad, precisión y análisis.



METODOLOGÍA

Diseño metodológico de la investigación, clase de investigación, tipo de investigación, diseño de la investigación, Hipótesis, instrumentos de recolección de información, esquemas de análisis, resultados, conclusiones y recomendaciones.


CONCLUSIONES

La implementación de un sistema de reporte integrado en una pyme representa un paso crucial, hacia la optimización de la gestión de la información y la toma de decisiones estratégicas. Este proyecto ha permitido consolidar datos dispersos en múltiples plataformas en una forma única de fuentes confiables y accesibles en tiempo real.
Franco Segovia Irving Andres, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Juan Pablo Serrano Rubio, Instituto Tecnológico Superior de Irapuato

EXPLORACIóN Y ANáLISIS DE DATOS PARA EL ESTUDIO DE LOS PRINCIPALES CONTAMINANTES EN PARQUES DEL MUNICIPIO DE LEóN


EXPLORACIóN Y ANáLISIS DE DATOS PARA EL ESTUDIO DE LOS PRINCIPALES CONTAMINANTES EN PARQUES DEL MUNICIPIO DE LEóN

Franco Segovia Irving Andres, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Juan Pablo Serrano Rubio, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

León es el municipio más poblado de Guanajuato y el tercero a nivel nacional, con un total de 1,721,215 habitantes, según el censo de 2020 del INEGI. Su gran población, junto con su extenso parque industrial y la presencia de la industria de calzado más importante del país, provoca que la contaminación en este municipio alcance niveles significativos. La gran cantidad de vehículos en movimiento y el consumo de energías fósiles incrementan la generación de contaminantes como el dióxido de carbono (CO2) y el monóxido de carbono (CO). La industria del calzado contribuye a los altos niveles de TVOC (total de compuestos orgánicos volátiles) debido al trabajo con cuero. Además, la industria automovilística genera residuos como PM10 y PM2.5, que son particularmente nocivos debido a su capacidad para ingresar al torrente sanguíneo por su reducido tamaño. Para desarrollar propuestas efectivas que contrarresten la contaminación en León, es esencial identificar las causas y las zonas más afectadas. Con este objetivo, el CIATEC realizó un estudio en tres parques del municipio, midiendo nueve contaminantes desde octubre de 2022 hasta junio de 2023. Estos datos fueron proporcionados para su análisis durante este verano de investigación, con el fin de obtener la mayor cantidad de información posible.



METODOLOGÍA

Los datos fueron proporcionados en una hoja de cálculo. El primer paso fue analizar este conjunto de datos, identificando la información en cada una de las columnas. Se identificó que, además de los datos recolectados de los parques, también incluía datos obtenidos del Subsistema Estatal de Información de Calidad del Aire (SEICA), un sistema que monitorea la concentración de contaminantes en el aire en algunos municipios de Guanajuato. En particular, León cuenta con tres estaciones: CICEG, T-21 y FM. El archivo contenía tres hojas, una por cada uno de los parques donde se recogieron los datos: Pío X, Panorama y Chapalita. Se combinaron estas tres hojas en una sola y se convirtió a un archivo CSV para poder exportarlo a un entorno donde se pudiera explorar y modificar el conjunto de datos utilizando un lenguaje de programación. El entorno escogido fue Jupyter Notebooks con el lenguaje de programación Python. Para cargar el archivo CSV, se utilizó la librería panda, con la cual se identificaron los nueve contaminantes medidos: CO2, CO, TVOC, H2S, NO2, SO2, PM2.5, PM10 y O3. Se usó esta misma librería para identificar todos los datos faltantes, que fueron reemplazados con un signo de interrogación ? para las columnas de tipo objeto y un 0 para las columnas numéricas. Además, se corrigieron otras inconsistencias en los datos, como la detección de "CO " en lugar de "CO" debido a un espacio extra. Después de la limpieza de datos, se exportó nuevamente el archivo a CSV para crear un primer dashboard usando la herramienta Power BI. Las gráficas realizadas incluyeron: Una gráfica de barras apiladas con los contaminantes como categorías, utilizando el promedio de cada contaminante y los tres parques como leyenda. Una gráfica similar a la anterior, pero intercambiando las variables de categorías y leyenda. Una gráfica de barras apiladas con los meses como categorías, el promedio de los contaminantes en el eje y, y los parques como leyenda. Dado que el primer dashboard no arrojó resultados concluyentes, se decidió enfocar el análisis en los contaminantes más nocivos para la salud: O3, SO2, NO2, PM10 y PM2.5. Antes de crear otro dashboard, se construyó una nueva tabla abstraída del conjunto de datos original. Esta tabla contaba las veces que un parque tenía la mayor concentración de cada contaminante en cada una de las 14 fechas de recolección de datos. En Power BI, utilizando el conjunto de datos original y la tabla procesada se crea un nuevo dashboard enfocado en los contaminantes más perjudiciales para la salud. Las gráficas incluyeron: Dos gráficas de barras agrupadas que mostraban la contaminación de los parques, divididas de la primera gráfica del primer dashboard para mayor claridad. Dos gráficas de barras agrupadas comparando los PM y los gases (NO2, SO2 y O3) de manera separada. Una gráfica de columnas apiladas usando la nueva tabla, mostrando el conteo de veces que cada parque tuvo mayor contaminación, segmentado por los contaminantes nocivos. Dos gráficas de líneas que comparaban el comportamiento del promedio de la contaminación en los tres parques con las tres estaciones de SEICA, una para los PM y otra para los gases nocivos.


CONCLUSIONES

Durante esta instancia de verano, logré reforzar mis habilidades para el análisis de datos usando herramientas como Power BI y la librería pandas en un entorno de Jupyter Notebooks. Además, me permitió comprender mejor el impacto de los contaminantes analizados tanto en el ambiente como en la salud humana. Del análisis realizado, se puede concluir que el parque Pío X es el más contaminado de los tres parques medidos, ya que fue el parque que presentó la mayor concentración de contaminantes nocivos en la mayoría de las mediciones. En 8 de los 9 contaminantes, Pío X tuvo la mayor concentración y, durante los últimos cinco meses del periodo de muestra, fue el parque con la mayor concentración de PMs. A pesar de estos hallazgos, aún quedan procedimientos por realizar, como la aplicación de modelos de machine learning con el fin de obtener reglas de asociación entre los contaminantes y para imputar los datos faltantes sin afectar al comportamiento original. Estos pasos adicionales contribuirán a un análisis más robusto y a la formulación de propuestas más efectivas para mitigar la contaminación en León.
Fuentes Cruz Ximena Yamileth, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Avelino Cortés Santiago, Benemérita Universidad Autónoma de Puebla

ANáLISIS DEL MéTODO HF EN EL CáLCULO DE LA ESTRUCTURA ELECTRóNICA DE LOS SISTEMAS: H, H2, O, O2, HE Y H2O.


ANáLISIS DEL MéTODO HF EN EL CáLCULO DE LA ESTRUCTURA ELECTRóNICA DE LOS SISTEMAS: H, H2, O, O2, HE Y H2O.

Fuentes Cruz Ximena Yamileth, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Avelino Cortés Santiago, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Un progreso importante en la forma operativa de los métodos en la química cuántica, ha sido el cálculo de funciones de onda de campo para átomos, moléculas y sistemas extendidos [1]. Por ejemplo, en el método de Hartree-Fock las ecuaciones pueden considerarse como ecuaciones análogas a la de Schrödinger para describir el movimiento de los electrones. En este modelo, se considera que cada electrón se mueve en un campo potencial promedio [2]. En este método, la función de onda se describe como un determinante de Slater, compuesto por un conjunto antisimétrico de orbitales de espín, en donde cada orbital de espín se expresa como el producto de un orbital espacial y una función de espín [3]. En este trabajo, se utilizaron configuraciones de capa cerrada y de capa abierta en el método HF para estudiar la estructura electrónica de átomos y moléculas simples con el objetivo de encontrar funciones de onda con diferentes representaciones matemáticas de los orbitales a través de los llamados conjuntos de funciones de base utilizando para ello el código Nwchem y el software Molden para la visualización y análisis de los sistemas estudiados. 



METODOLOGÍA

Primero, se investigó el concepto de estructura electrónica y en qué consiste la función de onda de Schrodinger independiente del tiempo; de este modo, estudiar el método de Hartree Fock (HF). Después, se realizó una introducción al ambiente linux para poder instalar y construir archivos de entrada Nwchem para realizar cálculos de estructura electrónica en los sistemas: H, H2, He, O, O2 y H2O para obtener las funciones de onda usando el método HF con diferentes conjuntos de funciones base (sto-2g, sto-3g, sto-4, sto-5g, sto-6g, 3-21g, 4-31g, 6-31g, 6-311g). Luego, se realizaron cálculos cambiando las coordenadas de los átomos en la molécula de agua en el software Molden y los resultados se compararon con la geometría experimental. Se visualizaron todos los resultados en el software Molden para medir los valores del ángulo, la energía y la distancia de enlace entre átomos. Usando el mismo procedimiento, se calculó la energía y parámetros geométricos de los átomos: hidrógeno, helio y oxígeno. Finalmente, se analizaron los resultados en tablas elaboradas en Excel para su interpretación y presentación. 


CONCLUSIONES

Se calcularon funciones de onda para el estado fundamental de la molécula de agua, utilizada en la sección Sample input files - Nwchem [https://nwchemgit.github.io/Sample.html#job-1-single-point-scf-energy], a la que llamamos Manual, después con la molécula de agua construida en el software Molden, Agua Molden, y finalmente, con la molécula de agua construida y modificada en Molden, Construida. Con la base gaussiana establecida, se calculó la geometría de equilibrio y los valores de energía de la molécula Manual:     Base    Funciones   Energía.   Ángulo    Distancia 3-21g.      13.         -75.586.    107.682     0.97 4-31g.      13          -75.909.    111.229     0.95 6-31g.      13.         -75.985     111.544     0.95 sto-2g       7           -72.744     98.5          1.00 sto-3g.      7           -74.966.    100.027.   0.99 sto-4g       7.          -75.499.    100.000.   0.99 sto-5g.      7           -75.639.    100.002.   0.99 sto-6g.      7           -75.681.    100.003.   0.99 Observamos que el valor de la energía de la base 6-31g concuerda bien con el valor experimental -75.983998 ua. Aunque cambiamos las coordenadas de la molécula de agua por las de Agua Molden y Construida2 obtuvimos la misma respuesta. A Pesar de la buena concordancia en la geometría, los resultados de energía tienen un error de entre un 0.001% y un 4.3%. Esto se atribuye a una insuficiencia del modelo Hartree-Fock.  Siguiendo el mismo procedimiento, se calculó la energía usando HF para los siguientes átomos: Oxígeno Base.   Funciones   Energía 3-21g.       9            -74.393 4-31g        9            -74.705 6-31g        9            -74.780 sto-2g       5            -71.572 sto-3g       5            -73.804 sto-4g       5.           -74.337 sto-5g       5            -74.475 sto-6g       5            -74.517 6-311++g. 17           -74.805 O2 Base.   Funciones   Energía 3-21g.       18            -148.767 4-31g        18            -149.393 6-31g        18            -149.546 sto-2g       10            -143.217 sto-3g       10            -147.633 sto-6g       10            -149.051 6-311++g. 34             -149.601 Hidrógeno Base.   Funciones   Energía 3-21g.       2            -0.496 4-31g        2            -0.498 6-31g        2            -0.498 sto-2g       1            -0.454 sto-3g       1            -0.467 sto-4g       1.           -0.470 sto-5g       1            -0.471 sto-6g       1            -0.471 6-311++g. 4             -0.500 H2 Base.   Funciones   Energía 3-21g.        4            -1.123 4-31g         4            -1.127 6-31g         4            -1.127 sto-2g        2            -1.093 sto-3g        2            -1.117 sto-6g        2            -1.125 6-311++g.  8             -1.128 Helio Base.   Funciones   Energía 3-21g.       2            -2.836 4-31g        2            -2.855 6-31g        2            -2.855 sto-2g       1            -2.702 sto-3g       1            -2.808 sto-4g       1.           -2.836 sto-5g       1            -2.844 sto-6g       1            -2.846 6-311++g. 3             -2.860 Bibliografía  [1] Levine, I. (2012). Quantum Chemistry (7ª ed.). Pearson.  [2] Slater, J. C. (1951). A Simplification of the Hartree-Fock Method. Physical review journals archive, vol. 81. https://doi.org/10.1103/PhysRev.81.385.  [3] Valatin, J. G. (1961). Generalized Hartree-Fock Method. Physical review journals archive, vol. 122. https://doi.org/10.1103/PhysRev.122.1012. 
Fuentes Domínguez Diego Alberto, Universidad de Guadalajara
Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional

CALIBRACIóN DE DOSíMETROS TLD-100


CALIBRACIóN DE DOSíMETROS TLD-100

Fuentes Domínguez Diego Alberto, Universidad de Guadalajara. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La física médica es una rama interdisciplinaria que aplica conceptos de la física al área de la salud. Las aplicaciones son diversas; desde la radioterapia, la medicina nuclear, técnicas de imagenología, técnicas de diagnóstico y tratamiento. Pero una de las prácticas más importantes es la dosimetría de radiaciones.  La dosimetría es una parte importante de la seguridad radiológica. La disciplina consta en mantener un control del nivel de exposición de radiaciones ionizantes de los trabajadores y los pacientes. Los materiales utilizados en ésta disciplina son los dosímetros; que poseen la propiedad de retener la información de la dosis a la cual fueron expuestos. Dicha información puede ser leída posteriormente utilizando un equipo especial. Por lo anterior, los dosímetros empleados en temas seguridad radiológica y control de calidad de los tratamientos.  Sin embargo, antes de proveer al personal con dosímetros individuales, o realizar un control de calidad de algún tratamiento de radioterapia, es necesario que los dosímetros pasen por un proceso de calibración. Este procedimiento se realiza para cerciorar que el dosímetro muestre adecuadamente la dosis de radiación absorbida. Por esto, el objetivo a desarrollar durante el verano de investigación fue obtener una calibración a partir de un lote de dosímetros termoluminiscentes TLD-100. 



METODOLOGÍA

Se utilizó un lote de 110 dosímetros LiF:Mg,Ti; conocidos como TLD-100, de la marca Thermo Fisher. Primeramente, los dosímetros fueron sometidos a un tratamiento térmico de borrado. Usando una mufla Thermo Fisher localizada en el laboratorio de dosimetría de Cicata Legaria, los dosímetros fueron expuestos a 400°C durante una hora, seguido de un proceso de enfríamiento a 0°C durante 24 horas. Luego, se enumeraron los dosímetros, y fueron colocados en un portamuestras acrílico de forma matricial.  Después, los dosímetros fueron llevados a las instalaciones de un hospital de tercer nivel, donde fueron irradiados a una dosis única de 50cGy por un acelerador lineal, dejando aparte 10 dosímetros como testigos. Una vez irradiados, los dosímetros se trasladaron una vez más a las instalaciones de Cicata Legaria. Ahí, los TLD-100 fueron leídos con el equipo Harshaw-3500. Se realizaron dos lecturas por dosímetro; la primera mostró la curva de brillo característica de cada TLD, mientras que la segunda mostró su "ruido," o bien la respuesta emitida por el dosímetros en condiciones normales. Se obtuvo la diferencia entre ambas lecturas, lo cual resultó finalmente en la respuesta termoluminiscente (TL) de los 110 dosímetros.  Con las respuestas TL de los 110 dosímetros, se realizó un análisis estadístico en Excel y Python. Se obtuvo el promedio de las respuestas TL, y se calculó el 5% de error de dicho promedio. El error fue sumado y restado al promedio, obteniendo un límite superior e inferior. Se identificó entonces a un sublote de 26 dosímetros que estuvieron dentro de los límites superior e inferior calculados. Adicionalmente, se calculó la distribución normal de las respuestas TL, para observar la variación existente entre las respuestas TL obtenidas, y compararlo con la variación que el distribuidor de TLD-100 dice que hay.  Habiendo identificado el sublote de dosímetros, se separaron del lote principal y se les realizó un tratamiento térmico de borrado. Después, el mismo sublote se organizó en pequeños subgrupos de 4 dosímetros y 2 testigos. Después, el sublote fue llevado una vez más al acelerador lineal a ser  irradiado a distintas dosis. A cada dosis se le asginó un subgrupo, irradiando el sublote a 50, 100, 200, 300, 400 y 500cGy. Posteriormente, el sublote fue leído en el Harshaw 3500.  Con las respuestas TL del sublote, se obtuvo la media de las respuestas de cada subgrupo, obteniendo un valor promedio para cada subgrupo de 4 dosímetros. Los valores fueron graficados en OriginPro y se les realizó un ajuste lineal, obteniendo la ecuación característica del sublote. Además, a partir del valor promedio del primer subgrupo (50cGy), se calcularon los valores "ideales" del subgrupo. Es decir, el primer valor promedio fue multiplicado por los factores adecuados para obtener los promedios ideales de 100, 200, 300, 400 y 500cGy. Estos valores también fueron graficados junto con los valores obtenidos y se obtuvo la "ecuación ideal."


CONCLUSIONES

Se logró obtener las curvas de brillo y las respuestas TL del lote de 110 dosímetros TLD-100. Esto permitió que al realizar el análisis estadístico, se pudiera seleccionar un sublote apropiado en base de la respuesta TL promedio.  Se obtuvo también la ecuación característica del sublote irradiado a distintas dosis, lo cual comprobó la proporcionalidad existente entre la respuesta TL y la tasa de dosis absorbida. Debido a esto, se concluyó que el sublote de 26 dosímetros era apto para aplicaciones dosimétricas, tanto para seguridad radiológica, como control de calidad de procesos de radioterapia.  Durante el verano se obtuvieron también conocimientos generales acerca de la física médica, las radiaciones ionizantes, y la ciencia de materiales aplicada a dosimetría. El proyecto asignado fue completado de forma satisfactoria y los resultados obtenidos fueron provechosos. 
Galaviz Pinto Ana Dhaly, Universidad Autónoma de Occidente
Asesor: Dr. Jeován Alberto Ávila Díaz, Universidad Autónoma de Occidente

EVALUACIÓN DE LA EFICIENCIA DE TECNICAS BIOLOGICAS DE REMEDIACIÓN EN SUELOS CONTAMINADOS ARTIFICIALMENTE POR HIDROCARBUROS TOTALES DE PETROLEO EN BASE A LA NOM138-SEMARNAT/SSA1-2012


EVALUACIÓN DE LA EFICIENCIA DE TECNICAS BIOLOGICAS DE REMEDIACIÓN EN SUELOS CONTAMINADOS ARTIFICIALMENTE POR HIDROCARBUROS TOTALES DE PETROLEO EN BASE A LA NOM138-SEMARNAT/SSA1-2012

Galaviz Pinto Ana Dhaly, Universidad Autónoma de Occidente. Nolazco Lopez Alejandra Aracely, Universidad Autónoma de Occidente. Asesor: Dr. Jeován Alberto Ávila Díaz, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La contaminación del suelo por hidrocarburos en Sinaloa, resultante de la actividad industrial y petrolera, representa un problema crítico tanto para el medio ambiente como para la salud pública. Esta contaminación es particularmente alarmante en una región donde la agricultura es una pieza fundamental de la economía estatal, poniendo en riesgo la producción agrícola y, por ende, la seguridad alimentaria y los ingresos de los agricultores locales. Las técnicas tradicionales de remediación de suelos contaminados, aunque efectivas, suelen ser costosas y disruptivas para el ecosistema. En contraste, las técnicas biológicas de remediación, como la bioestimulación y el bioventeo, ofrecen una alternativa más económica y ecológica, promoviendo la degradación de hidrocarburos a través de la optimización de la actividad microbiana del suelo. Sin embargo, la eficacia de estas técnicas puede verse influenciada significativamente por la textura del suelo y otros factores ambientales. En este contexto, nuestra investigación se enfoca en evaluar la eficiencia de la bioestimulación y el bioventeo en suelos contaminados artificialmente con hidrocarburos de fracción pesada (HTP) en Sinaloa. Se propone el uso del bocashi, un abono orgánico, como componente clave para la bioestimulación, complementado con la aplicación manual de bioventeo. Además, se diseñará una solución nutritiva específica para maximizar la actividad microbiana y, por ende, la eficiencia de la biorremediación. El objetivo principal es cumplir con los límites de contaminación establecidos en la norma NOM-138-SEMARNAT/SS-2012 para suelos agrícolas, garantizando que el suelo tratado no represente riesgos para la salud ni para el medio ambiente, y evitando la necesidad de fases adicionales de validación con plantas.



METODOLOGÍA

Se llevó a cabo un estudio experimental para evaluar la efectividad de diferentes tratamientos de biorremediación en suelos contaminados con hidrocarburos en Sinaloa. Dos muestras de suelo, una de San José, Ahome, y otra de la Universidad Autónoma de Occidente (UAdeO), fueron recolectadas y caracterizadas. Cada muestra pesaba 20 kg y fue utilizada para establecer 20 unidades experimentales de 2 kg de suelo cada una. Las unidades experimentales se colocaron en bolsas de polietileno y se contaminaron artificialmente con hidrocarburos de fracción pesada (HTP) obtenidos del taller mecánico de la UAdeO. La contaminación se realizó para triplicar el límite máximo permisible establecido en la norma NOM-138-SEMARNAT-2012, que es de 3000 mg/kg. Las unidades no contaminadas sirvieron como control y para realizar la caracterización inicial del suelo. Para la caracterización del suelo, se realizó una prueba de textura utilizando el método de Bouyoucos, según la NOM-021-RECNAT-2000. Se pesaron 75 g de suelo y se mezclaron con agua y hexametafosfato, luego se agitaron y se dejaron sedimentar para medir las partículas en suspensión con un hidrómetro. Además, se midió el pH y la conductividad eléctrica de las muestras de suelo, utilizando un medidor de pH calibrado con soluciones reguladoras y siguiendo el método descrito en la misma norma. Se diseñaron seis tratamientos diferentes para evaluar la eficacia de la biorremediación: Tratamiento 1: Bioestimulación y Bioventeo: Aplicación mensual de una solución nutritiva y bioventeo manual semanal. Tratamiento 2: Técnicas Biológicas con Abono Orgánico: Bioestimulación, bioventeo y una única aplicación de abono orgánico (bocashi). Tratamiento 3: Variación del Nutriente: Uso de abono orgánico (bocashi) en lugar de solución nutritiva, manteniendo la misma frecuencia de riego y bioventeo. Tratamiento 4: Bioestimulación con Abono Orgánico: Aplicación única de bocashi y riego periódico, sin aireación del suelo. Tratamiento 5: Bioestimulación con Solución Nutritiva y Riego Periódico: Aplicación de solución nutritiva cada dos semanas, sin aireación del suelo. Tratamiento 6: Suelo Testigo: No recibió ningún tratamiento y sirvió como control. El análisis de los hidrocarburos en el suelo se realizó mediante el método de reflujo con equipo Soxhlet, utilizando hexano como disolvente. El equipo rotoevaporador se empleó para extraer los hidrocarburos y llevar el material a sequedad, recuperando el disolvente. Para determinar la materia orgánica, se utilizó el método AS-07 de Walkley y Black. Esto incluyó la titulación con sulfato ferroso tras una reacción con dicromato de potasio y ácido sulfúrico.


CONCLUSIONES

Los resultados revelan que la estructura del suelo es crucial para la efectividad de los tratamientos de biorremediación. Los suelos arenosos, como el de San José, permiten una remediación más rápida debido a su mayor permeabilidad, facilitando la acción de los microorganismos. En cambio, los suelos franco-arcillosos, como el de UAdeO, tienen una estructura más compacta que dificulta la infiltración de agua y aire, requiriendo más tiempo y estrategias adicionales para la remediación. Resultados específicos: Suelo de San José: Alta efectividad con remociones de HTP superiores al 95%. El tratamiento T4 destacó con una remoción promedio del 99.22%, cumpliendo los límites permisibles. Suelo de UAdeO: Después de un mes adicional, se alcanzaron los límites permisibles de HTP. El análisis ANOVA no mostró diferencias significativas entre las técnicas de remoción. El pH alcalino favoreció la actividad microbiana, crucial para la degradación de HTP. La conductividad eléctrica y la materia orgánica mostraron variabilidad entre tratamientos, afectando la movilidad de contaminantes y la disponibilidad de nutrientes. Estos hallazgos subrayan la importancia de ajustar los parámetros ambientales durante la biorremediación según las características del suelo para optimizar la efectividad y asegurar una recuperación ambiental sostenible.
Galindo Gonzalez Juan Manuel, Universidad Autónoma de Manizales
Asesor: Dr. Diego Muraca Casasola, Universidade Estadual de Campinas

INFLUENCIA DE LA FORMA DE ADICIóN DE SALES DE HIERRO EN LAS PROPIEDADES MAGNéTICAS DE NANOPARTíCULAS MAGNéTICAS RECUBIERTAS CON áCIDO CíTRICO


INFLUENCIA DE LA FORMA DE ADICIóN DE SALES DE HIERRO EN LAS PROPIEDADES MAGNéTICAS DE NANOPARTíCULAS MAGNéTICAS RECUBIERTAS CON áCIDO CíTRICO

Galindo Gonzalez Juan Manuel, Universidad Autónoma de Manizales. Peña Orta Pablo, Universidad Autónoma de Baja California. Asesor: Dr. Diego Muraca Casasola, Universidade Estadual de Campinas



PLANTEAMIENTO DEL PROBLEMA

En las últimas tres décadas ha aumentado vertiginosamente el estudio de materiales en la escala nanométrica. Un material nanométrico debe presentar en algunas de sus dimensiones tamaños nanométricos, por ejemplo: nanopartículas, nanohilos, filmes finos. El interés de estos nuevos materiales o nanomateriales es debido a que presentan propiedades emergentes diferentes de sus contrapartes masivas que posibilitan nueva y diversas aplicaciones.     De entre los sistemas más estudiados, las nanopartículas (NP’s) magnéticas, se destacan por sus propiedades específicas que permiten su utilización en hipertermia magnética, remediación ambiental, imagen por resonancia, terapia génica, suministros de fármacos, fotocatálisis,  etc. Entre las más estudiadas están  las polimorfas de Óxido de Hierro (FexOy), tales como sus fases de goethita (FeO(OH), hematita (α-Fe2O3), maghemita (γ-Fe2O3) y magnetita (Fe3O4). Estas NP’s pueden ser obtenidas por  diversos métodos de síntesis, ya sean con métodos orgánicos e inorgánicos, que permiten obtener características fisicoquímicas únicas dependiendo del método de síntesis. En este trabajo se estudiaron las propiedades magnéticas de nanopartículas magnéticas de óxido de hierro. En particular, se  estudió el efecto de la forma de adición de las sales de hierro en su síntesis en sus propiedades magnéticas y estructurales. Las muestras fueron obtenidas por coprecipitación química de precursores organometálicos. Para esto se realizaron dos muestras variando la forma de la adición de las sales de hierro en la síntesis y posteriormente se recubrieron con ácido cítrico. La estructura cristalina y la morfología de las nanopartículas obtenidas se analizaron por difracción de rayos X (DRX) y microscopía electrónica de transmisión (TEM). Las propiedades magnéticas se analizaron mediante mediciones magnéticas de corriente continúa utilizando magnetometría SQUID.  



METODOLOGÍA

Las nanopartículas de magnetita se sintetizaron por el método químico de coprecipitación de sales férricas y ferrosas utilizando como agente precipitante hidróxido de sodio. NPMs1: se realizó a partir de una disolución de 4.62 g de cloruro de hierro (III) hexahidratado (FeCl3 6H2O) y 1.71 g de cloruro de hierro (II) tetrahidratado (FeCl2 4H2O) en 450 mL de agua destilada. Paralelamente, se preparó una disolución de 4.32 g de NaOH en 240 mL de agua destilada, la cual se calentó a 65 °C. La disolución de NaOH caliente se añadió posteriormente a la disolución de sales de hierro.  NPMs2: las sales se agregaron directamente a la disolución de 4.32 g de NaOH en 240 mL de agua destilada, también calentada a 65 °C.  Ambas síntesis reaccionan durante 30 minutos con agitación magnética continua y a una temperatura constante de 65 °C. Tras la reacción, las nanopartículas se separaron magnéticamente utilizando un imán para eliminar el sobrenadante. Se realizaron lavados sucesivos con agua destilada para eliminar los residuos de NaOH y alcanzar un pH neutro (pH 7). Finalmente, las nanopartículas se secaron en un horno a 50 °C durante 5 horas. De la cantidad final obtenida de nanopartículas en cada muestra, se conservó la mitad para mediciones de caracterización, y la cantidad restante se sometió a un recubrimiento con ácido cítrico. Para el recubrimiento: las nanopartículas (NPMs1 y NPMs2) se expusieron a una disolución de 30 mL de agua destilada con una concentración molar de 0.137 M de ácido cítrico (C6H8O7) y 0.40 M de NaOH, con agitación constante y a una temperatura de 65 °C durante 20 minutos. Finalmente, se eliminó el sobrenadante, separando las nanopartículas recubiertas con ayuda de un imán, y se sometieron al mismo proceso de secado mencionado anteriormente. La estructura cristalina, la composición química y la morfología se estudiaron por difracción de rayos X (DRX) utilizando un difractómetro de rayos X en polvo (DH2 Phaser-Bruker, cuya fuente de rayos X con longitud de onda  1,54 Å / 8,047 keV Cu K-α) y microscopía electrónica de transmisión (TEM) se obtuvieron utilizando un microscopio de transmisión  CNPEM disponible en el  LNNAno. Las imágenes fueron tomadas por el supervisor, pero los análisis fueron realizados en el contexto de este trabajo por los autores. Las distribuciones de tamaño se determinaron mediante la medición manual de las partículas utilizando el software de dominio público ImageJ.  Las propiedades magnéticas fueron analizadas por  magnetometría DC utilizando un SQUID (Superconductivity Quantum Device) Tesla MPMS SQUID7.0 de tercera generación. Las mediciones de magnetización vs. temperatura se realizaron con un campo magnético de 50 Oe aplicado en los protocolos Zero-Field Cooling (ZFC) y Field-Cooling (FC) con el fin de estudiar la distribución de temperaturas de bloqueo (barreras de energía de anisotropía). Fueron realizadas medidas de  magnetización vs campo a diferentes temperaturas entre 2 K y 300 K con el campo aplicado en el rango de -4 T a 4 T para obtener el campo coercitivo (Hc) en función de la temperatura y determinar la magnetización de saturación (Ms) de la muestra.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos teóricos sobre las propiedades magnéticas de los nanomateriales, los cuales se pusieron en práctica utilizando técnicas de análisis de estructura cristalina, composición química y morfología. Estas técnicas complementaron el estudio para comprender el comportamiento magnético resultante de las mediciones de SQUID. Sin embargo, debido a la extensión y complejidad del trabajo, que depende de múltiples mediciones, aún se están esperando los últimos resultados de SQUID, los cuales se obtendrán en la segunda semana de agosto. Esto permitirá culminar los análisis correspondientes y realizar una entrega completa de la investigación.
Galindo Vazquez Sofia, Benemérita Universidad Autónoma de Puebla
Asesor: Post-doc Cindy Lorena Gomez Heredia, Pontificia Universidad Javeriana

PREPROCESAMIENTO DE IMáGENES DIGITALES APLICADO A LA ASISTENCIA EN EL DIAGNóSTICO DE MALARIA.


PREPROCESAMIENTO DE IMáGENES DIGITALES APLICADO A LA ASISTENCIA EN EL DIAGNóSTICO DE MALARIA.

Galindo Vazquez Sofia, Benemérita Universidad Autónoma de Puebla. Asesor: Post-doc Cindy Lorena Gomez Heredia, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

La malaria, una enfermedad infecciosa causada por parásitos del género Plasmodium y transmitida por mosquitos Anopheles, tiene un impacto profundo y multifacético en la sociedad. En términos de salud pública, la malaria fue responsable de 608 000 muertes en el 2022. Causando 249 millones de casos de enfermedad, estas cifras debilitan a las personas y pueden tener complicaciones graves si no se tratan adecuadamente. Los sistemas de salud en áreas endémicas están frecuentemente abrumados por la cantidad de pacientes que requieren diagnóstico, tratamiento y seguimiento, lo que puede llevar a una sobrecarga de los servicios de salud y a la falta de recursos para otras necesidades médicas.  Con este proyecto se busca beneficiar a múltiples comunidades colombianas que están en riesgo de contraer la enfermedad. Tan solo en el 2023, en Colombia se tuvo el registro de 102 455 casos confirmados. Esto representa un aumento del 29% con respecto al 2022, cuando se registraron 73 561 casos. Desde 1974, la malaria causada por Plasmodium Vivax ha sido la más común en el país, representando entre el 60% y el 65% de los casos. Sin embargo, en regiones como la Costa Pacífica, Plasmodium Falciparum es la especie más frecuente. Esta especie es conocida por ser la que causa un cuadro de enfermedad más grave y con mayor tasa de mortalidad. Las regiones más afectadas por esta enfermedad se encuentran situadas cerca del Pacífico (Departamentos del Chocó, Cauca, Nariño ​y el distrito de Buenaventura), acumulando del 50 al 60% del total de casos  nacionales; mientras que esta va seguida por la región Urabá, Bajo Cauca y Alto Sinú (Antioquia y Córdoba) registrando del 20 al 30% de los casos [2]. Se espera que este proyecto pueda ser replicable en otras regiones del mundo como un apoyo para mejorar el diagnóstico de la enfermedad. En México se han logrado avances considerables en la lucha contra la malaria en los últimos años. En 2021 se registraron 242 casos autóctonos, lo que representa una reducción del 69.8% en comparación con 2018, cuando se registraron 803 casos. Actualmente, la transmisión de la malaria en México se concentra en cuatro estados: Chiapas, Campeche, Chihuahua y Sinaloa. Chiapas alberga la mayoría de los casos, con alrededor del 68% del total nacional. A pesar de estos avances, al igual que en el resto del mundo, la malaria sigue siendo un problema de salud pública en México.  La prueba de referencia para el diagnóstico de malaria es el examen microscópico de sangre, que requiere personal capacitado para interpretar los resultados. Esta prueba permite la identificación visual de las diferentes especies de Plasmodium y también puede determinar la parasitemia (la cantidad de parásitos en la sangre). Esta información es crucial para el tratamiento adecuado, ya que la efectividad de los medicamentos puede variar según la especie de Plasmodium y la gravedad de la infección. A comparación de otros métodos de diagnóstico más complejos (como la prueba PCR), esta técnica no requiere tecnología compleja ni equipos costosos, lo que facilita su implementación en áreas remotas o con infraestructura limitada. La microscopía óptica también se puede utilizar para monitorear la respuesta al tratamiento, lo que permite evaluar la efectividad de los medicamentos y ajustar el tratamiento según sea necesario. Esto es particularmente importante para pacientes con malaria grave o con infecciones por Plasmodium Falciparum.



METODOLOGÍA

Se utilizó un microscopio para observar muestras de gota extendida, con el objetivo de familiarizarse con el equipo utilizado por los microscopistas en el diagnóstico de malaria. Con una amplificación de 100X y aceite de inmersión, se aprendió sobre el procedimiento y las características necesarias para hacer un diagnóstico. Posteriormente, se usó la cámara integrada en el microscopio para tomar fotografías de las muestras, obteniendo un total de 400 imágenes que capturan alrededor de 4000 glóbulos rojos infectados por parásitos. Se comenzaron a ajustar los parámetros de la cámara, incluyendo saturación, ganancia, brillo y exposición. Además, se realizó una revisión bibliográfica sobre las características de la cámara y las modificaciones que ocurren al cambiar estos parámetros, con el fin de establecer un patrón para obtener la mayor cantidad de información en las imágenes. Utilizando los parámetros basados en los colores de las partes de la muestra, se decidió optar por el análisis colorimétrico como apoyo en el entrenamiento de una inteligencia artificial destinada a la detección automática de parásitos. Sin embargo, antes de proceder con el análisis colorimétrico, era necesario mejorar la calidad de las imágenes. La revisión de varios artículos indicó que la estrategia correcta consistía en implementar un filtro de reducción de ruido seguido de un filtro de mejora de contraste. Tras investigar y aplicar varios filtros, se determinó que el filtro gaussiano y la ecualización adaptativa del histograma con contraste limitado (CLAHE, por sus siglas en inglés) eran los métodos más apropiados. Se utilizó Python, con la biblioteca de OpenCV para poder aplicar los filtros. Posteriormente se utilizó ENVI para poder analizar los cambios realizados a la imagen.


CONCLUSIONES

La línea de investigación dirigida a los parámetros usados durante la toma de fotografías no pudo ser concluida debido a problemas relacionados con el microscopio. Sin embargo, se tomó en consideración parámetros utilizados para tomar las imágenes de las muestras con anterioridad, logrando replicar un resultado similar. En torno a los métodos de pretratamiento de las imágenes, se notó un claro mejoramiento en la diferencia entre los parásitos y el glóbulo rojo. Al realizar el análisis colorimétrico se puede observar una clara reducción de ruido con una mejor detección de los parásitos. Sin embargo, aún hace falta aplicar estos métodos a más imágenes. Así como realizar un análisis más cuantificable. Aún así, esta investigación arrojó resultados prometedores.
Gallegos X Naomi, Instituto Politécnico Nacional
Asesor: Dr. Diego Esparza Salazar, Universidad Autónoma de Zacatecas

SINTESIS DE NANOPARTICULAS DE COBRE (CU) Y SULFURO DE COBRE (CUS) APLICADAS A EVAPORADORES SOLARES PARA TRATAMIENTOS DE AGUA


SINTESIS DE NANOPARTICULAS DE COBRE (CU) Y SULFURO DE COBRE (CUS) APLICADAS A EVAPORADORES SOLARES PARA TRATAMIENTOS DE AGUA

Gallegos X Naomi, Instituto Politécnico Nacional. Asesor: Dr. Diego Esparza Salazar, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua es un gran problema que afecta tanto a los seres humanos como a el ecosistema, la contaminación se produce cuando sustancias nocivas, como productos químicos, microorganismos o desechos, contaminan cuerpos de agua como ríos, lagos y océanos, degradando su calidad, aunque no se consume toda el agua del mundo, la agua que consumimos es el agua dulce que representa el 2.5% del agua total de la tierra, aunque no se queda ahí, pues de ese porcentaje y gracias a él difícil acceso de la misma, solo el 1% del total de agua dulce es la que accesible. 



METODOLOGÍA

Los evaporadores solares son dispositivos que implican un proceso de transferencia de calor desde un material capaz de generar calor a un material a evaporar, en nuestro caso utilizamos esponjas a base de panianilina impregnadas con cobre (Cu) o sulfuro de Cubre (CuS), obteniendo mejoras en los procesos de evaporación en las muestras que contienen nanoparticulas de cobre.


CONCLUSIONES

La incorporación de materiales como la polianilina y nanopartículas de cobre o sulfuro de cobre (CuS) puede mejorar la eficiencia de estos sistemas al aumentar la transferencia de calor y la tasa de evaporación. Al utilizar la energía solar para evaporar y purificar el agua, lo cual es un método de desalinización y purificación de agua potencialmente sostenible y de bajo costo.
Galván Santibañez Angel Antonio, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Ramón Carriles Jaimes, Centro de Investigaciones en Óptica (CONACYT)

SíNTESIS POR RUTA VERDE Y CARACTERIZACIóN óPTICA DE PUNTOS CUáNTICOS DE CARBONO PARA POSIBLE DETECCIóN DE METALES PESADOS EN AGUA.


SíNTESIS POR RUTA VERDE Y CARACTERIZACIóN óPTICA DE PUNTOS CUáNTICOS DE CARBONO PARA POSIBLE DETECCIóN DE METALES PESADOS EN AGUA.

Galván Santibañez Angel Antonio, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ramón Carriles Jaimes, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua por metales pesados es un problema ambiental y de salud pública que afecta tanto a ecosistemas como a comunidades humanas a nivel mundial. Según la Organización Mundial de la Salud, millones de personas están expuestas a niveles peligrosos de metales pesados a través del consumo de agua contaminada y alimentos. La necesidad de desarrollar métodos eficientes y sostenibles para la detección y cuantificación de estos contaminantes es crucial. Los puntos cuánticos de carbono (CQDs) han emergido como una herramienta prometedora para diseñar dispositivos de detección debido a sus propiedades ópticas únicas, biocompatibilidad, rentabilidad y facilidad de síntesis. Investigaciones recientes han demostrado la capacidad de los CQDs dopados con nitrógeno para detectar específicamente iones de hierro en muestras ambientales, destacando su potencial en aplicaciones de monitoreo ambiental​. Durante este verano de investigación, nos enfocamos en explorar rutas ecológicas para la síntesis de CQDs, algunos dopados con Li, su caracterización óptica y la modificación de sus propiedades bajo la presencia de metales pesados como el hierro.



METODOLOGÍA

El proceso de síntesis de los puntos cuánticos de carbono fue sencillo, siguiendo una ruta hidrotermal. Se prepararon soluciones acuosas que se transfirieron a recipientes de reacción de teflón. Estos recipientes se colocaron dentro de un vaso de precipitado y se cubrieron con arena para asegurar una distribución uniforme del calor. Finalmente, se llevaron a un proceso de calcinación en un horno. La recuperación del producto se obtuvo raspando los polvos obtenidos de los recipientes, los cuales corresponden a los puntos cuánticos de carbono sintetizados. Inicialmente, se intentó sintetizar CQDs a partir de cáscara de naranja. Para esto, se preparó una solución moliendo cáscara de naranja en agua, la cual se dividió en dos porciones: una se coló y la otra no. En el primer intento, se probó añadir a una muestra 20 mg de litio, a otra una cantidad específica de hierro, y una sin aditivos. Las muestras se llevaron al horno a 220°C por 8 horas. Los polvos obtenidos no emitían luz y no eran solubles en agua. Posteriormente, se probó añadir 1.5 g de urea (CH₄N₂O) a una muestra, llevándola al horno a 180°C por 4 horas. Los polvos obtenidos emitían luz al ser excitados con luz UV, pero con una intensidad baja; la muestra con urea brillaba más que la muestra de referencia. Finalmente, se optó por el siguiente proceso de síntesis: 3 g de urea (CH₄N₂O) y 2 g de ácido cítrico (C₆H₈O₇) se dispersaron en 20 ml de agua destilada. Se prepararon tres muestras: a una se le adicionó 1 g de una solución de hierro y a otra 0.1 g de la misma solución. Las muestras se llevaron al horno a 180°C durante 4 horas. Los polvos obtenidos brillaban mucho más que en los intentos anteriores. Los espectros de absorción, emisión, excitación, el tiempo de vida y el rendimiento cuántico se midieron utilizando el espectrofluorómetro FS5 de la marca Edinburgh Instruments. Para las mediciones, se disolvieron 1.5 mg de los puntos cuánticos sintetizados en 1.5 ml de agua destilada. El índice de refracción no lineal y el coeficiente de absorción no lineal se planean estudiar utilizando la técnica experimental Z-scan descrita por Sheik-Bahae y colaboradores. Esta técnica consiste en enfocar un haz láser Gaussiano que se propaga en dirección z y medir la transmitancia de una muestra a través de una apertura en campo lejano como función de la posición z de la muestra, la cual se mide respecto al plano focal mientras la muestra se desplaza desde -z a +z. Existen dos variedades principales de Z-scan: con apertura cerrada y con apertura abierta. El Z-scan con apertura cerrada permite medir la magnitud y el signo de n2 con alta sensibilidad. El Z-scan con apertura abierta, pierde la sensibilidad a la refracción no lineal al remover la apertura, pero sigue siendo sensible a la absorción no lineal, permitiendo extraer los coeficientes de absorción no lineal con este arreglo.


CONCLUSIONES

Durante la estancia de verano se avanzó en la síntesis y caracterización de puntos cuánticos de carbono (CQDs) utilizando una ruta verde. Las muestras sintetizadas, incluyendo aquellas con y sin hierro, mostraron una emisión centrada en 470 nm. Se observó un ligero quenching en la muestra con 0.1 ml de hierro. Los rendimientos cuánticos obtenidos fueron de 5.33%, 4.34%, y 6.47%, con tiempos de vida de 4.6 ns. Estos resultados son preliminares y muestran la viabilidad del enfoque, aunque es necesario seguir mejorando la síntesis para optimizar las propiedades de los CQDs. En la siguiente fase, se planea realizar la técnica Z-scan para la caracterización óptica no lineal de las muestras.
Galvan Santos Escarlet Andrea, Universidad de Sonora
Asesor: Dra. Karol Yesenia Hernández Giottonini, Universidad de Sonora

INVESTIGACIóN EN EL DESARROLLO DE NANOMATERIALES Y SUS APLICACIONES BIOMéDICAS EN ENFERMEDADES RECURRENTES


INVESTIGACIóN EN EL DESARROLLO DE NANOMATERIALES Y SUS APLICACIONES BIOMéDICAS EN ENFERMEDADES RECURRENTES

Galvan Santos Escarlet Andrea, Universidad de Sonora. Asesor: Dra. Karol Yesenia Hernández Giottonini, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El tratamiento y la prevención de las enfermedades infecciosas (tuberculosis, brucelosis, VIH/SIDA) han avanzado considerablemente en las últimas décadas, gracias a los antibióticos, antivirales, vacunas y otras terapias. Sin embargo, la rápida propagación de nuevos patógenos (mutaciones genéticas) y las limitaciones de las terapias convencionales (uso inadecuando de antibióticos) han llevado a la búsqueda de soluciones innovadoras para reducir efectos secundarios y la resistencia al tratamiento por parte de los patógenos.



METODOLOGÍA

Estudiamos el término nanomedicina, así como la administración de fármacos y conceptos derivados como áreas de aplicación e importancia. Realizamos investigaciones sobre los métodos para la síntesis de nanomateriales y las técnicas de caracterización utilizadas, así como la importancia de estos materiales en el área biomédica, en nuestro caso con enfoque en nanofármacos. Observamos de manera virtual el laboratorio y equipos donde se llevan a cabo la síntesis de nanopartículas, así como el procedimiento utilizado y los proyectos que se esperan desarrollar mas adelante en la Universidad de Sonora.  


CONCLUSIONES

Con ayuda de la nanotecnología aplicada en medicina se busca diseñar fármacos con una liberación controlada y específica en los sitios de infección, minimizando los efectos secundarios y mejorando la biodisponibilidad reduciendo así la exposición del medicamento a los tejidos sanos y la tolerabilidad del tratamiento. Los nanofármacos representan una prometedora frontera en el tratamiento de enfermedades infecciosas por ello la investigación y el desarrollo continuos en este campo son esenciales para aprovechar plenamente el potencial de la nanotecnología en la medicina.
Galvez Soto Jose Alfredo, Universidad Autónoma de Sinaloa
Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa

MONITOREO DE DEFORMACIONES DE LA PRESA SANALONA MEDIANTE USO DE TECNICAS SATELITALES (GNSS)


MONITOREO DE DEFORMACIONES DE LA PRESA SANALONA MEDIANTE USO DE TECNICAS SATELITALES (GNSS)

Galvez Soto Jose Alfredo, Universidad Autónoma de Sinaloa. Ramos Flores Jesús Alejandro, Universidad Autónoma de Sinaloa. Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La presa Sanalona, ubicada a 25 kilómetros al este de la ciudad de Culiacán en el estado de Sinaloa, es un embalse cuya construcción data del año 1948, su conservación al día de hoy implica más de 70 años de operación continua. De acuerdo con expertos de diferentes áreas de la ingeniería, la estimación de la vida útil de una presa ronda los 50 años, con lo que se hace evidente la preocupación de los mismos de llevar a cabo monitoreos de la posición de elementos clave de la estructura de la misma con el fin de mantener un seguimiento sobre la integridad de la obra. En esta investigación se busca determinar la magnitud de posibles deformaciones en la geometría de la cortina de la presa Sanalona. Para ello, se emplean tecnologías de medición a los Sistemas Globales de Navegación Satelital (GNSS) tales como levantamientos y observaciones con receptores geodésicos de alta precisión.



METODOLOGÍA

El equipo utilizado consta de tres receptores satelitales, dos de ellos siendo los Hi-Target V30, y el último un GeoMax Zenith25. Para su correcto uso es necesaria la implementación de instrumental básico como bases niveladoras, bastones, bípodes y un longímetro. La forma en que se monitorean las deformaciones de la presa consta de una serie de 54 puntos fijos colocados consecutivamente a lo largo de la cortina de la presa, sobre los cuales se realizan las observaciones satelitales GNSS, dando un periodo estándar de medición a todos los puntos. Para llevar a cabo este monitoreo se colocó uno de los receptores Hi-Target en una base fija de nombre en clave CERR, ubicada a 150 metros de la cortina, este se configuró con un intervalo de medida a 1 segundo con una máscara de elevación de 15°, el cual estuvo activo durante todo el transcurso del monitoreo, que abarcó desde las 7:30 a las 13:30 horas aproximadamente. Con los dos equipos restantes se llevó a cabo la propia toma de información de los testigos deformantes en la cortina. La configuración de los receptores utilizados en la observación de los testigos consta de una máscara de elevación de 10° y un intervalo de medición de 1 segundo, dando 8 minutos de lectura a cada testigo. Los receptores fueron colocados de manera intercalada, es decir, que el equipo Zenith25 se ocupó de medir los testigos con denominación impar (1,3,5,7…), y el equipo V30 restante los testigos pares (2,4,6,8…). En días posteriores a la realización de las observaciones se realizó la descarga de los datos obtenidos. Los insumos generados consisten en una serie de archivos RAW en los que se contiene la información de navegación de las diferentes constelaciones de satélites, estos archivos pasaron por un proceso de conversión a formato RINEX, el cual es el estándar en trabajos con GNSS. Otro insumo necesario para este proyecto son las lecturas de la estación fija CULN de la Red Geodésica Nacional Activa (RGNA) correspondientes al periodo en el que nuestro receptor base se encontraba en operación. Para el procesamiento de los datos se utilizó el programa TopconTools, el cual toma los datos de los archivos de navegación para determinar la posición del receptor al momento en que realizaba sus lecturas. Mediante el uso de esta herramienta se realizó un ajuste en las coordenadas obtenidas en la base CERR, esto con la implementación de las lecturas de la estación CULN de INEGI utilizadas como control adicional a las observaciones del equipo colocado en CERR. Una vez que se ajustaron las coordenadas de la base se procedió a repetir el procedimiento, esta vez tomando como base las lecturas de CERR, calculando mediante los tiempos compartidos de medición la posición de todos los testigos, obteniendo a su vez en el proceso las magnitudes de posibles errores propios de las limitaciones técnicas de los equipos utilizados.


CONCLUSIONES

Los resultados obtenidos denotan la presencia de un desplazamiento de la estructura en general hacia el noreste, con una magnitud aproximada de 3 centímetros, esto se ha dado en un periodo de 8 años, con lo que la tendencia de deformaciones se corresponde con los valores obtenidos en estudios previos a este. Las deformaciones verticales si denotan una leve diferencia, ya que en promedio se ha determinado un hundimiento uniforme de entre 5 y 9 centímetros en la sección este de la cortina, mientras que en la oeste las deformaciones no denotan una correlación, pues las magnitudes van desde 2.5 hasta 8 centímetros. Tras la realización de esta investigación se ha reafirmado la eficiencia y calidad de los trabajos en los que se utilizan las tecnologías de navegación satelital, obteniendo muy buenos resultados. La calidad de las observaciones nos muestra una exactitud de 1 a 2 milímetros en las observaciones realizadas con los equipos V30, mientras que las precisiones obtenidas con el equipo Zenith25 rondan 0.5 a 1.5 centímetros.
Galvis Zarabanda Evelyn Daiana, Universidad Autónoma de Occidente
Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América

CARACTERIZACIÓN DE ACEITE DE PIRÓLISIS DE RESIDUOS PLÁSTICOS DE UNA SÓLO USO


CARACTERIZACIÓN DE ACEITE DE PIRÓLISIS DE RESIDUOS PLÁSTICOS DE UNA SÓLO USO

Galvis Zarabanda Evelyn Daiana, Universidad Autónoma de Occidente. Mora Sinisterra Sofia, Universidad Autónoma de Occidente. Murillo Guevara Laura, Universidad Autónoma de Occidente. Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Los residuos plásticos representan una gran problemática a nivel mundial. Debido al acogimiento que ha tenido este material en la sociedad por sus ventajas como lo es la flexibilidad, lo fácilmente moldeables y lo económico que son. Entre estos, los plásticos de un solo uso son particularmente problemáticos debido a su corta vida útil y alta generación de residuos. El consumo de plástico se ha multiplicado por veinte desde la década de 1950 y se espera que alcance los 720 millones de toneladas en los próximos 20 años (Estrategia. GmbH, 2020). como medidas de apoyo la problemática se han establecido los principales objetivos para el diseño, la fabricación, el uso, la reutilización y la gestión de fin de vida útil del plástico para 2030 (Comisión Europea, 2018). Por lo anterior, existen numerosos métodos para el reciclaje de residuos plásticos que incluyen métodos como la despolimerización (recuperación de materia prima química), la gasificación por arco de plasma y la pirólisis.



METODOLOGÍA

  2. Metodoogia  2.1 Selección del material y preparación del material   Seleccionar el tipo de plástico que se va a usar, teniendo presente que no todos los plásticos tienen la misma composición  como lo es el PP y el LPED entre otros. Se ha asegurado la limpieza de estos. Cuando se está listo se pasa por el proceso de trituración o molienda, lo que provoca que se aumente la superficie de reacción y mejorar la eficiencia del proceso. 2.2 Condiciones de proceso y Configuración del Pirolizador  Organizar y hacer un uso de un pirolizador adecuado. Establecer una temperatura de pirólisis adecuada en la que oscila entre los 300 y 600 °C, hacer un monitoreo de la tasa de calentamiento esto se debe de hacer por que puede influir en la composición del producto obtenido, determinar el tiempo en el que el material permanezca en el pirolizador, para poder completar la pirólisis. El calor rompe las cadenas de polímeros en monómeros y otros fragmentos más pequeños el cual se presenta con la ausencia de oxígeno para evitar la combustión y maximizar la conversión de los plásticos.   2.3 Recolección del producto   La recolección de los productos líquidos es una de las fases más importantes de la pirólisis, en el cual se usa un  sistema de condensación eficiente para capturar los vapores producidos durante la pirólisis, gracias a la condensación se obtiene el aceite. La etapa de condensación consta de diferentes etapas para enfriar y separar los vapore, en el que se manejan temperaturas  entre los 30 °C y 60 °C; hay diferentes métodos según los artículos buscados. Se debe de aclarar que presenta características diferentes como el Aceite ligero o Aceite pesado, Para la obtención del diesel por medio del aceite se presenta el proceso de destilación, en el que el aceite refinado en diferentes fracciones se lleva a un punto de ebullición. La separación permite llegar a un combustible semejante a él diesel; para que se cumpla con las especificaciones del diesel se deben de presentar ajustes en los que se incluyen aditivos, control de viscosidad y densidad. 2.4 Pruebas Con la recolección del diesel, se hacen pruebas de eficiencia y motores en las cuales se evalúa la calidad del combustible, donde se analiza la composición química de los productos, los residuos que genera y la energía que produce.  


CONCLUSIONES

La pirólisis de plásticos LDPE y PP  representa una solución viable y sostenible para la gestión de residuos plásticos en Latinoamérica. A medida que la región enfrenta crecientes desafíos ambientales, esta tecnología ofrece una oportunidad para transformar los desechos plásticos en recursos valiosos, mitigando la contaminación y promoviendo el desarrollo sostenible. Sin embargo, es necesario superar varios obstáculos para su implementación efectiva, incluyendo la inversión en investigaciones, infraestructura y desarrollo de políticas de apoyo. La pirólisis no solo ofrece una alternativa para la reducción de residuos plásticos, sino que también contribuye a una economía circular al reutilizar materiales que de otro modo serían desechados. Sin embargo, la implementación a gran escala enfrenta desafíos significativos, como la necesidad de mejorar la infraestructura, superar barreras legislativas y desarrollar mercados para los productos generados. Las investigaciones subrayan que la pirólisis catalítica es eficaz para convertir varios tipos de plásticos, incluyendo polipropileno, poliestireno y polietileno, en combustibles líquidos con propiedades comparables a las de los combustibles fósiles. Además, la utilización de modelos matemáticos y herramientas como Aspen Plus para optimizar el proceso permite aumentar tanto el rendimiento como la calidad de los productos obtenidos.  
Garcia Azuara Victor Alejandro, Instituto Politécnico Nacional
Asesor: Dr. Osvaldo Carvente Muñoz, Universidad Autónoma de Yucatán

CARACTERIZACIóN DE SISTEMAS GRANULARES ORDENADOS POR SIMULACIONES DE DINáMICA MOLECULAR.


CARACTERIZACIóN DE SISTEMAS GRANULARES ORDENADOS POR SIMULACIONES DE DINáMICA MOLECULAR.

Garcia Azuara Victor Alejandro, Instituto Politécnico Nacional. Asesor: Dr. Osvaldo Carvente Muñoz, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Conocer las diferentes estructuras cristalinas de los materiales es crucial para diversas aplicaciones en ciencia y tecnología debido a las propiedades únicas que estas estructuras confieren a los materiales, tales como: la dureza, la conductividad térmica y eléctrica, la resistencia a la corrosión y la estabilidad mecánica. El análisis de la nucleación para determinar cómo las partículas que conforman un material se ordenan en estructuras cristalinas, así como las condiciones necesarias es importante para la obtención de nuevos materiales con características físicas específicas. El cómo comienza la nucleación es la cuestión, no se sabe si inicia con una o varias semillas y también se desconoce si hay competencia entre ellas. Durante el verano de investigación se hizo la caracterización de sistemas de partículas usando una simulación del sistema experimental. Escribimos algoritmos computacionales para identificar los primeros vecinos de cada partícula del sistema y su distribución en el tiempo, también medimos la temperatura granular a diferentes alturas de la caja donde esta confinada la simulación.



METODOLOGÍA

Para la simulación numérica del sistema experimental se utilizó un programa en lenguaje Fortran proporcionado por el investigador. Como primer paso y para aprender a hacer las simulaciones, se hizo un sistema experimental de 14 esferas, con cohesión igual a 0.03 N/m, frecuencia constante a 50hz y gamma 1. El segundo paso fue calcular las dimensiones que la caja con un programa de Mathematica para obtener la formación de un cristal FCC (Face Centered Cubic) de 172 esferas (3 celdas FCC) que fueron sometidas a una vibración vertical suministrada por un pistón, aumentando la frecuencia de 22Hz a 62Hz en incrementos de 2Hz cada 5 segundos de simulación manteniendo la aceleración proporcional a la gravedad. Debido al gran número de partículas, la densidad de los datos y el procesador del equipo de cómputo utilizado, cada 5 segundos de simulación tardó aproximadamente 1 hora en completarse. Con la simulación completada se utilizó la aplicación File Renamer para cambiar la extensión de los archivos escritos por el programa a .dat para que pudieran ser leídos en Mathematica, el cual se dibujaron los resultados de la simulación numérica frame por frame y se exportó un video del experimento simulado. El tercer paso fue aprender a programar un algoritmo en Mathematica para calcular las distancias entre partículas, identificar los primeros vecinos y cuantos tiene cada partícula y graficar su distribución en el tiempo para poder ver la nucleación del sistema, asumiendo que las partículas con 12 primeros vecinos formaban una celda de FCC. Además, se escribió otro algoritmo para medir el valor promedio de las velocidades de las partículas y agruparlas por alturas por cada frame para después calcular la desviación estándar de dichas velocidades promedio y así medir la temperatura granular de cada altura para cada frame. Después de calculó la desviación estándar promedio para cada 183 frames que corresponden con el barrido de frecuencias de 22 a 62 Hz, este último valor representa la temperatura granular del sistema y se graficó en el tiempo para poder apreciar mejor el enfriamiento del sistema.


CONCLUSIONES

Durante la estancia de verano de investigación se adquirieron conocimientos de mecánica granular, mecánica de fluidos, uso básico de Fortran y un mayor aprendizaje del programa de Mathematica para procesar los datos obtenidos en la simulación. Las gráficas de las distribuciones de primeros vecinos se muestra una mayoría de partículas con 7 y 8 primeros vecinos, mientras que en la grafica de temperatura granular se observa al principio de la simulación el sistema tiene su estado de mayor energía. Las capas superiores del sistema vibran más que las capas inferiores debido a que las partículas tienen más movimiento (más grados de libertad), y durante el proceso de vibración, conforme las partículas disipan la energía, se observa que el sistema alcanza un estado estable donde la temperatura granular de todas las capas tienden a un valor muy cercano lo que indica que la energía de distribuyó de forma uniforme, resultando en una estructura mas organizada con dominios FCC y BCT (Body Centered Tetragonal) .
García Cano Aileen Montserrat, Universidad Autónoma de Yucatán
Asesor: Dr. Víctor José Sosa Villanueva, Instituto Politécnico Nacional

ESTUDIO DEL CAMBIO DE RESISTENCIA TRANSVERSAL DURANTE EL ESTUDIO PIEZORESISTIVO DE PELíCULAS METáLICAS DE ORO DE 20 NM Y 40 NM DE ESPESOR


ESTUDIO DEL CAMBIO DE RESISTENCIA TRANSVERSAL DURANTE EL ESTUDIO PIEZORESISTIVO DE PELíCULAS METáLICAS DE ORO DE 20 NM Y 40 NM DE ESPESOR

García Cano Aileen Montserrat, Universidad Autónoma de Yucatán. Asesor: Dr. Víctor José Sosa Villanueva, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El análisis del comportamiento de la resistencia transversal y longitudinal durante estudio de piezoresistividad de películas ultradelgadas de oro, tras someterse a deformaciones, ha sido objeto de investigaciones en el Departamento de Física Aplicada del Centro de Investigación y de Estudios Avanzados (CINVESTAV), previas al proyecto de estancia de investigación. Los resultados obtenidos en estos estudios previos han evidenciado una tendencia clara en el comportamiento de las resistencias longitudinal y transversal en la mayoría de las muestras deformadas dentro la zona elástica del sustrato. En particular, se ha observado un incremento de las resistencias longitudinal y en la resistencia transversal en las películas de 20 nm, 60 nm y 80 nm, con excepción en películas de 40 nm. Estas últimas han demostrado un comportamiento distintivo, caracterizado por una tendencia ocasional a la disminución de la resistencia transversal, lo cual genera incertidumbre respecto al cambio real de la resistencia en películas con este grosor específico.



METODOLOGÍA

Durante la estancia de investigación, se fabricaron películas de oro con espesores de 40 nm y 20 nm, con el objetivo de analizar el cambio porcentual de la resistencia transversal en relación con el porcentaje de deformación. Para el depósito de las películas de oro mediante el método de evaporación libre, se utilizó el Kapton. El crecimiento de las películas de oro se llevó a cabo sobre una película de poliimida, específicamente Kapton®, con un grosor de 0.05 mm y 3.78 in de ancho. Se cortaron piezas de dimensiones de 500 nm de ancho y largo, sobre las cuales se depositaron las películas de oro de 40 nm y 20 nm. Esto permitió la evaluación precisa de la resistencia transversal de las películas de oro bajo las condiciones de deformación mencionadas. El sustrato Kapton fue preparado para el depósito mediante un proceso de limpieza exhaustivo con el objetivo de eliminar grasa y otros contaminantes. El proceso de limpieza se inició con la aplicación de jabón líquido, el cual se frotó suavemente sobre el sustrato. A continuación, se enjuagó con acetona y alcohol etílico, seguido de un enjuague final con agua destilada, la muestra se secó utilizando una pistola de aire caliente a 100°C. Para realizar el depósito de oro, se utilizó una Cámara de Evaporación por el Método de Evaporación Libre, desarrollada por el Departamento de Física Aplicada del CINVESTAV del IPN, Unida Mérida. Esta cámara fue específicamente diseñada para el crecimiento de capas delgadas metálicas y opera bajo condiciones de alto vacío, alcanzando presiones de hasta . Tras la limpieza del sustrato, se procedió a su colocación en la parte superior de la cámara de evaporación, mientras que el oro en bulto, con una pureza del 99.999%, se posicionó en la parte inferior de la cámara. La cámara inició el proceso de calentamiento una vez que se alcanzó los . El primer deposito se obtuvo una película de 40.2 nm, en el segundo depósito una de 20.5 nm, y en el tercer depósito una de 40.5 nm. Posteriormente, se realizaron cortes en las películas de oro. En el primer depósito, se obtuvieron muestras con longitudes variables entre 21 mm y 50 mm del sustrato, con un ancho de 5 mm. En estas muestras, se eliminó el oro de las áreas no deseadas para obtener una película de 5 mm x 5 mm en el centro del sustrato. Este diseño se aplicó de manera consistente en las muestras del segundo y tercer depósito, aunque con ajustes en las dimensiones del sustrato; estas se estandarizaron a 25 mm de largo y 5 mm de ancho, manteniendo una película de oro de 5 mm x 5 mm en el centro de la muestra. Para la obtención de los datos necesarios, se sometió las películas a una deformación controlada, empleando una máquina universal diseñada en el Departamento de Física Aplicada del CINVESTAV del IPN, unida Mérida, esta máquina fue creada con el objetivo de tener un instrumento capaz de monitorear el comportamiento mecánico y la respuesta eléctrica asociada del material ensayado. Para permitir la deformación de las muestras y la recolección de datos, se diseñó un sistema integrado compuesto por diversos instrumentos, incluyendo una computadora, el nanovoltímetro modelo 34420A de la marca Hewlett-Packard y la máquina universal del CINVESTAV. Además, se utilizó una interfaz en LabVIEW, diseñada para seleccionar parámetros de control y visualizar datos de tiempo, desplazamiento, carga y resistencia, se operó la máquina con precisión. Las muestras se posicionaron en la máquina mediante mordazas simples que aseguraron su correcta fijación. Posteriormente, se insertaron alambre de cobre previamente pelados en los extremos de las películas de oro, utilizando pintura de plata para asegurar una conexión eficiente. Las muestras se ajustaron cuidadosamente para evitar que quedaran holgadas o estiradas, permitiendo así el inicio de las mediciones. Los resultados obtenidos se almacenaron en archivos de texto para su posterior análisis. Tras cada medición, se realizó una limpieza de los datos y se generaron gráficos mediante el software Origin Pro para un análisis detallado. La deformación de las muestras abarcó valores del 1%, 1.5%, 2% y 3%.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos significativos sobre el manejo de equipos de laboratorio, así como la familiarización de nuevos dispositivos que facilitan la creación de películas ultradelgadas. En cuanto a los resultados obtenidos, las muestras con películas de 40 nm de espesor mostraron una clara disminución en la resistencia transversal. Este comportamiento se observó consistentemente al someter las muestras a deformaciones del 1%, 1.5%, 2% y 3% en los depósitos uno y tres. Sin embargo, debido a la limitación de tiempo y la cantidad reducida de muestras con películas de 20 nm de espesor, no fue posible sacar conclusiones definitivas sobre su comportamiento; las diferentes muestras mostraron comportamientos muy diversos.
García Chávez Emilio Gael, Universidad de Guadalajara
Asesor: Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz

SISTEMAS CIRCUMBINARIOS Y EL PROBLEMA DE 3 CUERPOS


SISTEMAS CIRCUMBINARIOS Y EL PROBLEMA DE 3 CUERPOS

García Chávez Emilio Gael, Universidad de Guadalajara. León Rocha José Mauricio, Benemérita Universidad Autónoma de Puebla. Asesor: Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

A partir del tratamiento matematico para el problema de 3 cuerpos, se buscó conocer a profundidad a los sistemas solares de dos estrellas y un exoplaneta.



METODOLOGÍA

Se realizó una investigación rigurosa de los sistemas de estrellas binarias eclipsantes con el uso de herramientas como arxiv e inteligencia artificial para la obtención de articulos referentes al tema tratado. Además con el uso de python y mathlab se realizaron modelos que contrastaran con la información obtenida de los sistemas circumbinarios mediante la observación de misiones como la de GAIA y Kepler.


CONCLUSIONES

Desde el descubrimiento de los sistemas circumbinarios hasta la actualidad, estos han demostrado ser grandes manantiales de informaci ́on para la astronom ́ıa, en cuanto a medici ́on se refiere nos otorgan la posibilidad de una gran presici ́on sobre el tama ̃no y peso, tanto de estrellas como de exoplanetas. Al mismo tiempo se ha observado que los planetas circumbinarios son excelentes candidatos para encontrar vida m ́as all ́a de nuestro sistema solar debido a su esta- bilidad orbital, su flojo estellar y la luminocidad de las estrellas binarias.  
García Chimal Shalty, Universidad Veracruzana
Asesor: Dra. Adriana del Carmen Gallegos Melgar, Centro de Tecnología Avanzada (CONACYT)

SíNTESIS DE CERáMICOS PIEZOELéCTRICOS REALIZADOS LIBRES DE PLOMO DEL SISTEMA BNT-BT DOPADO CON 0.3% Y 1% DE MN.


SíNTESIS DE CERáMICOS PIEZOELéCTRICOS REALIZADOS LIBRES DE PLOMO DEL SISTEMA BNT-BT DOPADO CON 0.3% Y 1% DE MN.

García Chimal Shalty, Universidad Veracruzana. Asesor: Dra. Adriana del Carmen Gallegos Melgar, Centro de Tecnología Avanzada (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los cerámicos piezoeléctricos se caracterizan por su capacidad de poder convertir la deformación mecánica en energía eléctrica y viceversa, por lo cual los cristales piezoeléctricos cuentan con una gran variedad de aplicaciones en transductores de presión. Uno de los piezoeléctricos más usados por su alto nivel piezoeléctrico es el Zirconato titanato de Plomo, el cual, a pesar de contar con esta gran ventaja, a largo plazo sabemos que la fabricación de materiales que contengan plomo significa que somos propensos a la contaminación del espacio por este mismo. Tan solo en México se han reportado en los últimos 20 años se estimó a través de un meta análisis una gran concentración de este metal en la población infantil. Es ahí en donde radica la importancia de la investigación ya que nos encontramos con una vía alterna para la fabricación de cerámicos piezoeléctricos sin que signifiquen un riesgo para la población. Los cerámicos piezoeléctricos se caracterizan por su capacidad de poder convertir la deformación mecánica en energía eléctrica y viceversa, por lo cual los cristales piezoeléctricos cuentan con una gran variedad de aplicaciones en transductores de presión. Uno de los piezoeléctricos más usados por su alto coeficiente piezoeléctrico es el Zirconato titanato de Plomo, el cual, a pesar de contar con esta gran ventaja, a largo plazo sabemos que la fabricación de materiales que contengan plomo significa que somos propensos a la contaminación del espacio por este mismo. Tan solo en México se han reportado en los últimos 20 años se estimó a través de un meta análisis una gran concentración de este metal en la población infantil. Es ahí en donde radica la importancia de la investigación ya que nos encontramos con una vía alterna para la fabricación de cerámicos piezoeléctricos sin que signifiquen un riesgo para la población. En este caso se propone la sinterización de BNTBT dopado con Mn, el cual funcionaría como material modificado, esperando obtener buenas propiedades piezoélectricas. 



METODOLOGÍA

Se comenzó familiarizándose con la investigación, es decir conocer la ecuación para poder hacer el balance y conocer cuántos gramos de cada reactivo se necesitarían para obtener 10 gr de BNTBT. Posteriormente se pesaron los reactivos para los distintos polvos que se realizaron, dopados con 0%, 0.3%, 1% de Mn. Ya con la cantidad necesaria se realizaron las moliendas, las cuales tuvieron una duración de 3h, en donde se utilizaron bolas de ZrO2 con diferentes tamaños, se usó este material ya en esta presentación es altamente resistente.  Una vez realizada la molienda, se procedió a calcinar los polvos obtenidos, en una rampa de 10°/min, hasta llegar primero a 350° durante 20 minutos para eliminar impurezas de material orgánico, posteriormente a 750° y después 900° durante tres horas respectivamente. Se realizó una remolienda a los polvos calcinados, de 3 horas, esto con la finalidad de obtener polvos más finos. Con dichos polvos se fabricaron pastillas con los dopajes de 0%, 0.3% y 1%, para una vez obtenidas llevarlas al horno para sinterizar. Con las pastillas como producto final se hizo el cálculo para la densidad, así como un estudio de sus propiedades estructurales y mecánicas. Con los polvos calcinados antes de la remolienda se realizó un análisis termogravimétrico (TGA) y una calorimetría diferencial de barrido (DSC) utilizando un analizador térmico modelo DST 650 (TA Instruments).


CONCLUSIONES

La investigación realizada esta aún en desarrollo, por lo cual aún se deben continuar analizando algunas propiedades mecánicas y estructurales. Sin embargo, cabe mencionar que sí se percibe un cambio en el BNTBT dopado con manganeso, ya que este permite que la temperatura de sinterización disminuya, lo cual permite modificaciones en la síntesis y densificación del cerámico. 
Garcia Escobedo Angel Ulises, Universidad Politécnica de Sinaloa
Asesor: Dra. Karla Paola Valdez Núñez, Universidad Politécnica de Sinaloa

OBTENCIóN DEL IMFP A PARTIR DE ESPECTROS DE PERDIDA DE ENERGíA POR REFLEXIóN.


OBTENCIóN DEL IMFP A PARTIR DE ESPECTROS DE PERDIDA DE ENERGíA POR REFLEXIóN.

Garcia Escobedo Angel Ulises, Universidad Politécnica de Sinaloa. Asesor: Dra. Karla Paola Valdez Núñez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La espectroscopia electrónica de pérdida de electrones o EELS (Electron Energy Loss Spectroscopy) describe de manera detallada la composición, estructura y propiedades electrónicas de los materiales (Egerton, 2011). La técnica EELS se basa en el análisis de la pérdida de energía de los electrones que interactúan elásticamente con la materia. Con el apoyo de programas como OPREELS (Fuentes, 2001; Prieto-Lopez, 2008), se puede conjugar la información de un espectro experimental y un ajuste teórico que sigue la teoría de Drude, para obtener información de la función dieléctrica del material, así como otros datos relevantes en el análisis de superficies de nanomateriales.  



METODOLOGÍA

En esta investigación, se utiliza la técnica EELS para analizar la pérdida de energía de los electrones al interactuar con la materia. Se emplean programas como OPREELS para integrar la información obtenida del espectro experimental con ajustes teóricos basados en la teoría de Drude. Este enfoque permite obtener datos precisos sobre la función dieléctrica del material y otras propiedades importantes como el camino libre medio inelástico (IMFP) y las propiedades ópticas (Prieto-Lopez, 2008; Castillo, 2008). La metodología se enfoca en evitar errores en los cálculos cuantitativos mediante el conocimiento preciso de los valores de IMFP.


CONCLUSIONES

En este trabajo, se presentan los ajustes teóricos-experimentales y una aproximación del IMFP tanto en bulto como en la superficie del material. Además, se realiza un comparativo con el IMFP obtenido utilizando la ecuación TPP2. La obtención precisa de los valores de IMFP es crucial para evitar errores en los cálculos cuantitativos en cualquier espectroscopía electrónica, lo que subraya la relevancia de esta investigación en el análisis de superficies de nanomateriales (Prieto-Lopez, 2008; Castillo, 2008).
Garcia Gutierrez Alejandro Ivan, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional

DISPOSITIVOS SEMICONDUCTORES Y CIRCUITOS INTEGRADOS


DISPOSITIVOS SEMICONDUCTORES Y CIRCUITOS INTEGRADOS

Cortina Barrales Naraai, Universidad de Guadalajara. Garcia Gutierrez Alejandro Ivan, Benemérita Universidad Autónoma de Puebla. Gómez Méndez Alison Zoe, Instituto Politécnico Nacional. Hernandez Ortiz Lizette Ariadna, Universidad Veracruzana. Perez Cortes Eliseo, Benemérita Universidad Autónoma de Puebla. Quintero López Jimena, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Ramirez Beltrán Andrés Alberto, Universidad de Guadalajara. Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los dispositivos semiconductores son componentes electrónicos que se encuentran en el corazón de la tecnología moderna. Estos dispositivos utilizan materiales semiconductores, como el silicio o el germanio, que tienen propiedades eléctricas intermedias, entre los conductores se pueden identificar los metales y en los aislantes el vidrio. Los TFT (Thin-Film Transistor) son transistores de película delgada que se utilizan en pantallas de cristal líquido (LCD) y pantallas de matriz activa como las de los teléfonos inteligentes y televisores. Los TFT permiten un control preciso de cada píxel en la pantalla. Las ventajas de los circuitos integrados flexibles incluyen menor costo de procesamiento, menor huella de carbono, y procesos de fabricación más rápidos comparados con el silicio. Se busca contribuir a una mejor comprensión de la tecnología de TFT flexible para avanzar hacia circuitos integrados fiables y flexibles, además de impulsar la investigación en los campos de la microelectrónica, la nanotecnología, los MEMS, las celdas solares, los dispositivos de película delgada, los sensores y otras áreas que requieren un ambiente libre de partículas.  



METODOLOGÍA

Los pasos para crear un circuito integrado son: simulación, diseño, fabricación y pruebas. Para la simulación de compuertas lógicas a nivel de transistores NMOS se utilizó el software LTspice, teniendo diferente ancho de canal (W) y de largo (L) para observar el comportamiento de los circuitos a este nivel. Además en un software más intuitivo (wokwi) se realizó la simulación a nivel de compuertas para obtener las tablas de verdad esperadas de cada circuito realizado con diferentes combinaciones de compuertas básicas. Posteriormente se hizo uso del software Tanner para realizar el diseño de los siguientes circuitos: MEDIO RESTADOR, RESTADOR COMPLETO, MEDIO SUMADOR, SUMADOR COMPLETO, MULTIPLEXOR, COMPARADOR, FLIP FLOP TIPO D, LATCH TIPO D. tomando como base una serie de compuertas lógicas diseñadas en proyectos previos, como son la compuerta NOT, NAND y NOR. El proceso de fabricación se realizó en el Laboratorio Nacional de Micro y Nanotecnología (LNunT), el cual cuenta con un cuarto limpio tipo 100. Como primera parte de la fabricación se hizo un depósito de cromo y oro con el Evaporador D18. Después, se procedió a fabricar el circuito realizando el proceso de fotolitografía mediante escritura directa utilizando el equipo Heidelberg DWL-66FS, fotoresina S1813 y revelador MF-319. Se prosiguió a realizar otro depósito de HFO₂, con ayuda del equipo ALD 150LE. Posterior a ello con el equipo Sputtering V3 se agregó la capa del Mo. Por último se le colocó el polímero PMMA utilizando el Spinner Laurell 650. Se obtuvieron las señales de transistores, compuertas lógicas y los circuitos diseñados. Para los circuitos integrados y compuertas lógicas se utilizó un osciloscopio, un generador de funciones y una fuente voltaje, utilizando señales de voltaje de corriente continua (DC) y corriente alterna (AC), en el caso de los transistores se utilizó un analizador Keithley 4200A-SCS. Todas las mediciones se llevaron a cabo en condiciones ambientales normales.  


CONCLUSIONES

El trabajo realizado durante la estancia de verano logró reforzar y adquirir nuevos conocimientos sobre el diseño de circuitos integrados digitales en muestras de material flexible partiendo desde transistores. También se comprendió cómo el tamaño y orientación de los transistores afectaba directamente a los circuitos y su funcionalidad en general. Se adquirieron conocimientos de los procesos a seguir para poder trabajar en un cuarto limpio clase 100. Adicionalmente, se aprendió sobre el proceso de fabricación de circuitos integrados. Por último, se reforzaron conocimientos en instrumentación y medición de circuitos integrados.  
García Márquez Iván, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Valeriy Dvoeglazov, Universidad Autónoma de Zacatecas

TEORíA DE MAJORANA PARA PARTíCULAS RELATIVISTAS NEUTRALES


TEORíA DE MAJORANA PARA PARTíCULAS RELATIVISTAS NEUTRALES

García Márquez Iván, Benemérita Universidad Autónoma de Puebla. Tornez Membrila Jose Carlos, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Valeriy Dvoeglazov, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Recientemente, el interés en la mecánica cuántica relativista ha aumentado debido a que la teoría de supercuerdas no ofrece una explicación física a los problemas antiguos en la física de neutrinos. Hay muchos escenarios teóricos en el Universo; sin embargo, las discrepancias se mantienen con observaciones actuales. En este trabajo presentamos una interpretación moderna de los artículos de Ettore Majorana de los años 30, que sirve para la descripción de los espines altos y partículas neutras. Recientemente, se han descubierto algunas paradojas las cuales analizamos.  



METODOLOGÍA

Durante la estancia, se llevó a cabo una revisión del artículo "A Symmetric Theory of Electrons and Positrons" de Ettore Majorana (1937). Se inició con la traducción del artículo al español, utilizando como base la traducción al inglés publicada por una revista japonesa. Esta traducción se realizó con precisión para garantizar la fidelidad del contenido original.   Se continuó con el estudio del libro *Quantum Field Theory* de L. H. Ryder, donde se abordaron temas clave como la notación relativista, la ecuación de Klein-Gordon, los grupos SU(2) y SO(3), así como la relación entre SO(1,3) y SL(2,C). Se introdujo la ecuación de Dirac y sus interpretaciones, y se trabajó en el desarrollo de las ecuaciones pertinentes, comparando la notación empleada en el artículo de Majorana con la traducción realizada en colaboración con el Dr. Cazares.   El análisis del artículo de Majorana incluyó la deducción y contraste de las fórmulas presentadas con la notación actual. Se partió de ciertas expresiones y se estudió, en particular, ciertos conceptos dentro de un cubo de lado específico, utilizando un sistema de funciones periódicas. Al comparar, se hallaron relaciones que se analizan en el documento.   Se continuó con la lectura y el análisis del artículo, afinando la comprensión y la interpretación de los resultados obtenidos. Se calcularon los eigenvalores de una ecuación importante, resultando en cuatro posibles valores, dos positivos y dos negativos. Mediante una transformación unitaria, se reexpresaron ciertas cantidades para simplificar la Hamiltoniana.


CONCLUSIONES

En el artículo revisado, se presenta una innovadora forma de cuantización desarrollada por Ettore Majorana. A diferencia del enfoque de Dirac, que parte de un principio variacional clásico y se aplica a las ondas de materia y los potenciales electromagnéticos, la propuesta de Majorana busca una generalización del método variacional, en la que las variables del Lagrangiano asuman su significado final desde el principio y, por lo tanto, representen cantidades no necesariamente conmutativas. Además, la teoría de Majorana elimina la necesidad de abordar estados negativos, la cancelación de cantidades divergentes y la existencia de antipartículas, simplificando la interpretación de los resultados cuánticos. Aunque los experimentos actuales no han logrado determinar cuál de las dos teorías, la de Dirac o la de Majorana, es más adecuada para el tratamiento de los neutrinos, la propuesta de Majorana ofrece una perspectiva alternativa que podría resultar en avances significativos en nuestra comprensión de la física de partículas y la teoría de campos. Referencias    E. Majorana, Nuovo Cimento 14, 171 (1937). Majorana, E. (1937). A symmetric theory of electrons and positrons (L. Maiani, Trans.). Soryushiron Kenkyu, 63(3), 149-153. Majorana, E. (1937). *Teoría simétrica del electrón y del positrón* (D. A. Sinclair, Trad.). En J. A. Cazares Montes, *Estudio de las diferentes construcciones teóricas en el espacio de representación (j,0) ⊕ (0,j)* (Apéndice, pp. 150-160). Universidad Autónoma de Zacatecas. (Trabajo original publicado en 1937). Ryder, L. H. (1996). *Quantum Field Theory* (2nd ed.). Cambridge University Press.  Neumann, J. von., & Wheeler, N. A. (Eds.). (2018). *Mathematical Foundations of Quantum Mechanics* (New ed., Trans. R. T. Beyer). Princeton University Press.
García Ruiz Mónica Sofía, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Francisco Jose Moo Mena, Universidad Autónoma de Yucatán

DETECCIóN DE OBJETOS USANDO APRENDIZAJE PROFUNDO


DETECCIóN DE OBJETOS USANDO APRENDIZAJE PROFUNDO

Calderón Rivera Jonathan Jesús, Benemérita Universidad Autónoma de Puebla. García Ruiz Mónica Sofía, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Francisco Jose Moo Mena, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Las lesiones por accidentes de tránsito representan una carga importante para la salud pública, especialmente en los países en desarrollo. Hallazgos revelan una tendencia descendente en la prevalencia del uso del casco durante las últimas cuatro décadas, con una prevalencia general del 48,71%. Los conductores demostraron una mayor probabilidad de usar cascos que los pasajeros tanto en los registros de observación (62,61 frente a 28,23%) como en los registros de pacientes con accidentes (47,76 frente a 26,61%). Los países con leyes de uso obligatorio del casco tuvieron una prevalencia de uso del mismo más alta en comparación con aquellos que no las tenían (52,26 frente a 37,21%). El continente africano tuvo las tasas de uso del casco más bajas, mientras que las regiones de América Latina y el Caribe tuvieron tasas más altas. Además, los motociclistas sin casco tienen dos veces más probabilidades de sufrir una lesión en la cabeza de cualquier tipo y al menos tres veces más probabilidades de sufrir una muerte por lesión en la cabeza. A partir de esto surge la preocupación por detectar personas en moto CON y SIN casco mediante Detección de Objetos a través del Aprendizaje Profundo, concretamente YOLO (You Only Look Once), el cual es un algoritmo basado en aprendizaje profundo diseñado para detectar objetos dentro de imágenes y señalar su ubicación. YOLO logra esta tarea examinando la imagen sólo una vez, lo que le permite realizar la tarea de manera rápida y eficiente. Esto lo hace muy adecuado para aplicaciones en tiempo real y procesamiento de vídeo.



METODOLOGÍA

Para comenzar con la detección de objetos, es necesario seguir cierta metodología: en primer lugar, se debe preparar un entorno de Google Colab, el cual fue preferible sobre Python debido a que no requiere configuración, da acceso gratuito a GPUs (lo cual fue clave durante este proyecto), permite compartir contenido fácilmente, tiene bibliotecas pre-instaladas, guardado en la nube y permite la colaboración. Posteriormente, se conecta con Google Drive para acceder a todos los archivos necesarios para proceder a instalar las dependencias necesarias. Acto seguido se debe configurar el proyecto y los archivos necesarios de la siguiente forma: En primer lugar, se debe asegurar que los datos en Google Drive estén organizados de la siguiente manera: MyDriveYOLOv8\_Project Data Images Labels yaml-beautifier.yaml Para el archivo .yaml (Yet Another Markup Language) se debe tomar en cuenta que debe describir el conjunto de datos. Posteriormente, se carga y entrena el modelo de YOLO v8 que se desee. Recuérdese que YOLOv8 viene en cinco variantes según la cantidad de parámetros: nano(n), small(s), medium(m), large(l), y extra large(x). Por último, se evalúa el modelo utilizando los datos de validación, que es la parte en la que entran las métricas anteriormente presentadas en la Sección de Introducción. Cabe mencionar que esta metodología se sigue en caso de tener un Dataset ya anotado. En caso de que se requiera un Dataset con anotaciones propias e incluso un Dataset más grande que conste de la unión de dos o más Dataset, se procura el uso de Roboflow, donde en primer lugar se deben cargar todas las imágenes que se tengan disponibles para posteriormente definir las clases, que representan lo que se quiere detectar. Posteriormente se anotan las imágenes manualmente según la clase. Por último, se agregan al Dataset para después ser descargadas y agregadas a la carpeta de Drive correspondiente.


CONCLUSIONES

En este trabajo, el objetivo fue detectar a personas con y sin casco utilizando YOLO v8 modelos nano, small, medium, y large, el cual es un modelo de aprendizaje profundo de última generación reconocido por su velocidad y precisión en la detección de objetos, se evaluó así, la eficacia de YOLO v8 donde las tasas de precisión, recall, mAP50 y mAP50-95 aumentaron progresivamente, la mayor diferencia se nota del modelo small al medium. Aún así, se puede decir que los resultados son bastante certeros y adecuados.
García Sánchez Daniel Alberto, Universidad Autónoma de Chiapas
Asesor: Dr. Gustavo Medina Tanco, Universidad Nacional Autónoma de México

SIMULACIóN DEL COMPORTAMIENTO DE PLáSTICOS CENTELLADORES SOMETIDOS A INTERACCIONES CON PARTíCULAS DE CLIMA ESPACIAL EN óRBITA.


SIMULACIóN DEL COMPORTAMIENTO DE PLáSTICOS CENTELLADORES SOMETIDOS A INTERACCIONES CON PARTíCULAS DE CLIMA ESPACIAL EN óRBITA.

García Sánchez Daniel Alberto, Universidad Autónoma de Chiapas. Asesor: Dr. Gustavo Medina Tanco, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Dentro de las mediciones de clima espacial existen distintos métodos, desde la detección por luz Cherenkov en cámaras de niebla o agua, pasando por monitores de neutrones, hasta el comportamiento de la emisión de ondas de radio. Una de las formas más utilizadas para la detección de partículas con carga eléctrica es a través de centelladores, siendo lo más común el uso de plásticos centelladores. Sin embargo, las condiciones espaciales son complicadas de reproducir de forma fidedigna. Por ello, una de las formas de obtener resultados comprobables del comportamiento de estas placas es a través de simulaciones del material en dichas condiciones utilizando software especializado. Esto permite al investigador probar el comportamiento del sistema sin la necesidad de gastar recursos más allá del poder de cómputo.



METODOLOGÍA

A través del software Geant4 se crea una simulación del plástico centellador. En un entorno cúbico de 60 centímetros de lado, cuya composición es del material G4Galactic proporcionado por la lista de materiales de la biblioteca del National Institute of Standards and Technology (NIST), se coloca un prisma rectangular de 5x5x3 cm compuesto principalmente de poliestireno que hará el trabajo de plástico centellador. Se asume un índice de refracción de 1.0 en el medio y 1.58 en el plástico centellador, y una reflectividad del 95% en dicho plástico. Conjuntos de 100 partículas cargadas, específicamente electrones, protones y partículas alfa, monoenergéticas entre los 10 keV y los 10 GeV, son lanzados de forma perpendicular a una de las caras del prisma para la generación de un centelleo. Los fotones generados por la energía depositada por las partículas se reflejan hasta llegar a un área en la cara inferior del plástico centellador, que utilizamos como un contador de fotones incidentes. Las mediciones proporcionadas por la simulación se dividen en tres categorías: Medición de la cantidad de fotones incidentes en el contador de fotones: Dentro del plástico centellador, solo una fracción de los fotones generados llegará a los detectores antes de ser absorbidos por el medio. Es importante saber la cantidad de fotones que llegan al detector porque con esto podemos caracterizar la señal que será recibida eléctricamente por el sistema una vez que esté operativo. Fracción de fotones totales emitidos por el plástico centellador en comparación con los recibidos: Descartar la dependencia de la fracción de los fotones que inciden en el detector con respecto a la cantidad de fotones totales emitidos dentro del centellador permite mantener una caracterización precisa de la señal emitida a partir de los resultados esperados. Longitud horizontal avanzada por una partícula: Saber si una partícula incidió pero atravesó totalmente el detector permite crear una señal característica de la misma a partir de la implementación de un segundo detector que permita una nueva señal de centelleo. Esto ayuda a mantener una caracterización de la cantidad de fotones emitidos por una partícula en ambos plásticos centelladores. Como procedimiento especial, la distinción en la cantidad de fotones emitidos por otras interacciones y las cotas de energía de cada partícula mantienen una relación especial con los valores que se esperan obtener.


CONCLUSIONES

Inicialmente, se presenta un comportamiento que marca una detección convergente a cuatro mil fotones en el primer centellador a energías altas (a partir de los 300 MeV). Mientras que la fracción de fotones detectados ronda el 20% para los eventos. Un mayor rango energético detectable se observa en los electrones, que empiezan a ser detectables a partir de los 100 keV, a diferencia del resto de partículas que presentan centelleo a partir de los 100 MeV. Por último, este comportamiento es ideal al simular una colisión totalmente perpendicular, por lo que se espera que en un flujo isotrópico el comportamiento se acerque más a una simulación realista.
Garcia Urbina Luis Manuel, Instituto Tecnológico de Matamoros
Asesor: Dr. Ismael Santos Ramos, Benemérita Universidad Autónoma de Puebla

SíNTESIS DE PELíCULAS DELGADAS DE óXIDO DE ZINC Y TITANATO DE ZINC PARA LA DEGRADACIóN DE 4-NITROFENOL


SíNTESIS DE PELíCULAS DELGADAS DE óXIDO DE ZINC Y TITANATO DE ZINC PARA LA DEGRADACIóN DE 4-NITROFENOL

Garcia Urbina Luis Manuel, Instituto Tecnológico de Matamoros. Asesor: Dr. Ismael Santos Ramos, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El avance tecnológico ha traído numerosos beneficios en diversas áreas. Sin embargo, este progreso también ha generado problemas significativos de contaminación, especialmente en los cuerpos de agua. El avance tecnológico ha traído numerosos beneficios en diversas áreas. Sin embargo, este progreso también ha generado problemas significativos de contaminación, especialmente en los cuerpos de agua. Siguiendo las problemáticas de costos y de las deficiencias de otros procesos de tratamiento de aguas surgen los Procesos Avanzados de Oxidación (PAO) en donde se enfocará en el proceso de fotocatálisis para degradar compuestos orgánicos. Por tal motivo, en el presente trabajo se muestran los resultados de la síntesis de películas delgadas de óxido de zinc y titanato de zinc y su evaluación fotocatalítica en la degradación de 4-nitrofenol.



METODOLOGÍA

• Se prepararon substratos los cuales tuvieron un proceso de lavado con mezcla crómica. • Se hicieron 2 soluciones precursoras, una de óxido de zinc a partir de acetato de zinc y otra de titanato de zinc a partir de una solución de óxido de zinc y de dióxido de titanio. • Con ayuda de un inmersor se crearon películas de diferentes capas sobre los substratos, tanto de óxido de zinc como de titanato. • Se caracterizaron por medio de SEM y de UV-Vis. • Se analizó la actividad fotocatalítica en la oxidación del 4-nitrofenol.


CONCLUSIONES

• Según diversos autores los precursores de óxidos metálicos deben sintetizarse bajo atmosfera, en nuestra investigación se obtuvieron en atmosfera de aire sin la formación de geles. Las películas de Zn2TiO4 presentaron un alto conformado, debido al tratamiento térmico. Su alta transparencia indica un buen tratamiento térmico sin la formación de fases indeseables. De los espectros de absorción y transmitancia se calcularon las energías de banda prohibida obteniendo valores promedio de 3.9 eV, atribuido a la combinación del Zn y Ti. Así mismo, al variar la velocidad de impregnado se observó regiones donde el consolidado no fue el adecuado, presentando una coloración opaca. • Los resultados de actividad fotocatalítica mostraron que el 4-nitrofenol se puede oxidar y transformarse a 4-nitrofenolato sin usar un catalizador, en un tiempo de 120 min. Sin embargo, la reacción puede ser lenta y no transformar el compuesto en su totalidad.
García Valdés Mayte, Universidad Autónoma del Estado de México
Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara

ESTUDIO DE RIESGO SíSMICO EN EL ÁREA METROPOLITANA DE PUERTO VALLARTA.


ESTUDIO DE RIESGO SíSMICO EN EL ÁREA METROPOLITANA DE PUERTO VALLARTA.

Becerril Zárate Diana María, Universidad Autónoma del Estado de México. García Valdés Mayte, Universidad Autónoma del Estado de México. Herrera Soto Carolina, Universidad Autónoma de Sinaloa. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

México ha enfrentado notables desastres naturales en diversas regiones, subrayando la imperiosa necesidad de abordarlos mediante un enfoque científico. La clave para prevenir futuros desastres radica en la investigación rigurosa, cuyos resultados posibiliten la aplicación de medidas concretas para mitigar su impacto. En particular los terremotos han puesto de manifiesto la importancia de planificar adecuadamente, tomando en cuenta el comportamiento del suelo durante el terremoto y la vulnerabilidad de la sociedad, para disminuir pérdidas humanas y económicas. Este proyecto tiene como objetivo evaluar el riesgo sísmico en la región de la Zona Metropolitana de Puerto Vallarta.



METODOLOGÍA

Durante el verano de investigación se realizaron encuestas remotas y presenciales para el estudio del riesgo sísmico. Las cuales incluyeron evaluación visual rápida de estructuras para la generación de un inventario de edificios. 


CONCLUSIONES

Los resultados de las encuestas remotas permitieron mejorar el inventario de edificios en la ciudad de Puerto Vallarta el cual se utilizará para realizar un estudio de vulnerabilidad sísmica. Mientras que las encuestas para la medición de la percepción del riesgo sísmico por la población de Puerto Vallarta permiten evaluar la respuesta de la población a este fenómeno natural. Otras actividades realizadas durante el verano de investigación incluyeron asistencia a mini taller de escritura científica y a ponencias diversas, y la participación en ensayos geofísicos de sísmica activa y pasiva.
Garcia Villavicencio Maria Fernanda, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara

ESTUDIOS SISMOTECTóNICOS EN EL OCCIDENTE DE MéXICO A PARTIR DEL ANáLISIS DE DATOS DE LIBRE ACCESO


ESTUDIOS SISMOTECTóNICOS EN EL OCCIDENTE DE MéXICO A PARTIR DEL ANáLISIS DE DATOS DE LIBRE ACCESO

Colosio Olagues María José, Universidad de Sonora. Cota Cristobal Alethse Paulie, Universidad Autónoma de Sinaloa. Garcia Villavicencio Maria Fernanda, Benemérita Universidad Autónoma de Puebla. Medina Peralta Maria Jimena, Universidad Autónoma de Sinaloa. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Planteamiento: El occidente de México tiene una configuración tectónica donde la microplaca Rivera y la placa de Cocos subducen bajo la Placa de Norte América. Este proceso produce la deformación y fragmentación de la placa continental. Esta actividad tectónica produce una gran cantidad de sismos. De tal manera que experimentos sísmicos se han llevado a cabo cuyos datos son de libre acceso. En particular el experimento MARS fue implementado para estudiar la litosfera continental. El objetivo general de este proyecto es implementar técnicas de análisis para obtener resultados que nos permitan entender los procesos sísmicos y tectónicos presentes en el Occidente de México.



METODOLOGÍA

Metodología: Durante el verano de investigación se analizaron datos sísmicos para la identificación de fases sísmicas de las ondas P y S, así como la asignación de incertidumbres. Este procedimiento se realizó analizando archivos SAC con un código de PYTHON que implementa librerías de OBSPY.  


CONCLUSIONES

Conclusiones: El análisis realizado permitió mejorar el catálogo sísmico del occidente de México el cual se utilizará para estudios sísmicos como tomografía. Otras actividades realizadas durante el verano de investigación incluyeron asistencia a mini taller de escritura científico y a ponencias diversas, encuestas remotas y presenciales para el estudio del riesgo sísmico y la participación en ensayos geofísicos de sísmica activa y pasiva.
Garmendia Fuentes Victor Aldair, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla

EL ROMPIMIENTO ESPONTáNEO DE LA SIMETRíA EN EL MODELO DE TRES DOBLETES DE HIGGS BAJO LA SIMETRíA S3


EL ROMPIMIENTO ESPONTáNEO DE LA SIMETRíA EN EL MODELO DE TRES DOBLETES DE HIGGS BAJO LA SIMETRíA S3

Garmendia Fuentes Victor Aldair, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El rompimiento espontáneo de la simetría es de suma importancia para entender por qué las partículas del Modelo Estándar (ME) tienen masas, a pesar del gran éxito que tiene el ME aún hay preguntas sin resolver, como qué es la materia oscura, el número de familias fermiónico, entre muchas más. En la búsqueda de respuestas a las preguntas anteriores existen extensiones del ME, como es el modelo de Multidobletes de Higgs, en particular el Modelos de Tres Dobletes de Higgs (3HDM por sus siglas en inglés).



METODOLOGÍA

En este trabajo se presenta el análisis del rompimiento espontáneo de la simetría SU(3)_C × SU(2)_L  × U(1)_Y → SU(3)_C × U(1)_{em} en el 3HDM imponiendo una simetría discreta S_3.  


CONCLUSIONES

Se deducen las matrices de rotación que nos llevan a los estados de materia, así como las expresiones para las masas de los bosones de Higgs extras que aparecen en el modelo.
Garza Díaz Azucena Guadalupe, Universidad de Guadalajara
Asesor: Dr. Francisco Joel Cervantes Lozano, Universidad de Guadalajara

CARACTERIZACIóN DE CéLULAS C6 POR MEDIO DE FLUORESCENCIA.


CARACTERIZACIóN DE CéLULAS C6 POR MEDIO DE FLUORESCENCIA.

Garza Díaz Azucena Guadalupe, Universidad de Guadalajara. Asesor: Dr. Francisco Joel Cervantes Lozano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente existen varios métodos de caracterización celular, mediante los cuales puede obtenerse información acerca de todo lo que nos interesa acerca de las células. Sin embargo, aún hay muchos procesos y estructuras celulares que desconocemos, que hasta ahora han estado fuera de nuestra percepción en gran medida por la naturaleza delicada de las mismas, ya que estamos tratando con organismos vivos que requieren condiciones muy específicas para su supervivencia. Teniendo esto en mente, este proyecto tiene como eje valerse de herramientas de un campo científico que se distingue por sus cualidades no invasivas: la electrofotónica. La luz ultravioleta (UV) tiene propiedades que le permiten ser capaz de obtener características de las células por medio de la fluorescencia (en conjunto con sustancias susceptibles a ser fluorescentes). La incidencia de esta luz puede ser medible con un espectrómetro. En este proyecto utilizamos células C6, las cuales provienen de glioblastoma de rata, ya que contienen estructuras semejantes a las células neuronales humanas, de las cuales aún es necesario recabar mucha información no conocida sobre su estructura. Se prepararon cultivos de estas células con dos técnicas diferentes para observar el fenómeno de fluorescencia en ellas: preparado con FURA 2 AM y GFP (Green Fluorescent Protein). Ambas sustancias funcionan bajo mecanismos diferentes, sin embargo, tienen la característica de ser excitables al ser expuestas a luz UV. El propósito de esta investigación es comprobar que las dos sustancias antes mencionadas sean capaces de producir fluorescencia en células C6 y que además este fenómeno sea cuantificable. De este modo, se pueden establecer metodologías para aplicarse como protocolo en técnicas de caracterización celular.



METODOLOGÍA

Se realizaron las mediciones del espectro electromagnético de cada una de las muestras de las células C6 con el espectrómetro Ocean Optics (se colocó una fibra óptica para obtener mediciones más precisas). Asimismo, se utilizó el software Spectra Suite para visualizar las gráficas en tiempo real de laslongitudes de onda captadas. Se tomaron capturas de las mismas en el momento de mayor pico del espectro de la luz UV (⁓375nm) para su posterior procesamiento. Cada una de las muestras fueron registradas según las sustancias con las que fueron preparadas: CONTROL+ SF, CONTROL + AP, FURA + SF, FURA + AP, C6 CONTROL, C6 + GFP. (SF= solución fisiológica, AP= Alto potasio, GFP= Green Fluorescent Protein). Las soluciones de control se utilizaron solamente para comprobar que se recibe el estímulo de la luz UV, es decir, no contienen soluciones que emitan fluorescencia.  Después de obtener esas primeras mediciones, se exportaron los vectores de todas las pruebas para procesarlos en MATLAB. A simple vista, solo puede observarse con claridad el pico que representa la incidencia de luz UV a través de las células C6. Al no obtener resultados concluyentes en esta gráfica, se optó por normalizar los datos y posteriormente ajustarlos a escala logarítmica para que fueran observables las pequeñas diferencias que no se apreciaban en la escala original. Además, consideramos necesario eliminar el pico de la incidencia de luz UV, ya que era lo que más dificultaba obtener datos más convenientes para nuestro estudio. Por lo tanto, las siguientes gráficas fueron recortadas en el eje x, con un rango de 420-1000 nm. Se puede observar actividad significativa en la zona entre los 500-600 nm, la cual corresponde a el espectro electromagnético de la fluorescencia (colores verdes y azules). Por lo tanto, con esto se comprueba que, tanto las células C6 expuestas al FURA (con solución fisiológica y solución de alto potasio) como las que se prepararon con GFP, mostraron fluorescencia al ser estimuladas con luz ultravioleta


CONCLUSIONES

Los resultados obtenidos en las gráficas nos permiten afirmar que efectivamente se registró fluorescencia tanto en la medición de las muestras preparadas con FURA como en las que contenían GFP. Sin embargo, se llegó a esa conclusión después de ajustar la escala de los datos y eliminar el pico de la luz UV, ya que a simple vista con las gráficas originales la actividad por encima de los 500 nm no parecía ser significativa. Además, según los resultados, se observa una mayor actividad en el método probado con FURA que con GFP en las tres muestras graficadas, lo cual es interesante porque la primera percepción que se tenía antes del análisis es que se mostraría mayor fluorescencia utilizando GFP. Este dato puede ser importante para las pruebas futuras que se realicen relacionadas a estos métodos. Este proyecto demuestra que las herramientas que nos brinda el campo de la electrofotónica, como en este caso el uso de la luz ultravioleta como forma de estimular las células y el uso del espectrómetro, actualmente son muy valiosas porque nos permiten desarrollar procesos de forma no invasiva y con un enfoque diferente a lo que se ha utilizado convencionalmente, lo cual es especialmente útil cuando tratamos con organismos vivos, como es el caso de esta investigación.
Gaxiola Arguelles Beatriz Evadina, Universidad de Sonora
Asesor: Mg. Yenny Paola Sierra Bonilla, Universidad Católica de Colombia

MACHINE LEARNING TECHNIQUES TO CLASSIFY YOUNG PEOPLE WITH DEPRESSION IN THE CITY OF MEDELLIN


MACHINE LEARNING TECHNIQUES TO CLASSIFY YOUNG PEOPLE WITH DEPRESSION IN THE CITY OF MEDELLIN

Gaxiola Arguelles Beatriz Evadina, Universidad de Sonora. Asesor: Mg. Yenny Paola Sierra Bonilla, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

La enfermedad mental es una problemática importante de salud pública a nivel mundial, afectando aproximadamente una de cada cuatro personas en algún momento de sus vidas.  La Organización Mundial de la Salud (OMS) estima que los trastornos mentales representan el 14% de la carga global de enfermedades y lesiones. La presente investigación tiene como objetivo aplicar técnicas de Machine Learning supervisadas, para clasificar a los jóvenes de Medellín (Colombia) que presentan problemas de salud mental como la depresión.



METODOLOGÍA

Para llevar a cabo esta iniciativa se analizó una cantidad de datos obtenidos del portal de datos abiertos de Colombia, en el que se recuperó información a partir de una encuesta realizada a los jóvenes de Medellín en el año 2020. Para llevar a cabo este objetivo se aplicó la metodología de analítica de datos denominada CRISP-DM (que significa Cross-Industry Standard Process for Data Mining) en donde se analizaron y modelaron 2056 registros tomados de la página de datos abiertos Colombia. . El modelo CRISP-DM consta de los siguientes pasos. Comprensión de los datos. En esta etapa, se recopilaron todos los datos necesarios para el análisis. Datos sociodemográficos, respuestas a cuestionarios de salud mental, datos sobre hábitos y comportamientos. Descripción de los datos. Se realizó un preprocesamiento de la data para entender las propiedades básicas de los datos y detectar posibles problemas. Se realizó un análisis exploratorio de los datos para obtener diversas estadísticas descriptivas. Verificación de la calidad de los datos. Se evalúa la calidad de los datos para asegurar que sean adecuados para el análisis.  Selección de datos. En esta etapa, se seleccionaron las variables y registros más relevantes para el análisis, considerando que no todos los datos disponibles serían necesarios para el proyecto, por lo que se identificaron y seleccionaron solo aquellos que contribuyeron a los objetivos del estudio. Limpieza y preparación de datos. Se identificaron y corrigieron datos erróneos o inconsistentes. Esto incluye el tratamiento de valores faltantes, la corrección de errores tipográficos, la eliminación de duplicados y la gestión de valores atípicos. Para llevar a cabo la limpieza de los datos se utilizó programación en Python. Selección de Técnicas de Modelado. Se seleccionan los algoritmos de Machine Learning para realizar clasificación mediante técnicas supervisadas: Regresión logística, Random forest, SVM, KNN. Se dividió el dataset en un conjunto de entrenamiento y de prueba realizado Hold-out 70-30. Evaluación de las métricas de los diferentes algoritmos de clasificación. Mediante la comparación de las métricas arrojadas por la matriz de confusión se evaluaron los diferentes clasificadores para elegir el más conveniente. Selección del modelo. Se seleccionó el mejor clasificador y de esta manera, se obtuvieron las variables más significativas para la clasificación de un joven con depresión.


CONCLUSIONES

Los algoritmos supervisados de Machine Learning poseen la capacidad de analizar grandes volúmenes de datos, identificar patrones y predecir resultados. De esta manera, se logró identificar  factores socioemocionales que afectan la salud mental de los jóvenes de Medellín La comparación de los clasificadores binarios arrojó como resultado que el mejor clasificador de un joven con depresión fue el algoritmo de Random Forest aplicando validación cruzada y  K fold, en comparación con  los clasificadores Logistic Regression, Support Machine Vector y KNN. Según los resultados, las variables más influyentes para clasificar a un joven con depresión son: alimentación, dificultad para concentrarse, insomnio, energía, estado de ánimo, autoestima, comunicación y motivación o interés. De esta manera, se encontró que las variables menos importantes para clasificar a un joven con depresión son: ingreso, sexo, estado civil, nivel educativo y sitio de residencia.  
Gaxiola Flores Christian Daniel, Universidad de Guadalajara
Asesor: Dra. Luz Adriana Cordero Cid, Benemérita Universidad Autónoma de Puebla

INTERACCIONES DEL SECTOR OSCURO EN EL MODELO EXTENDIDO FNSM


INTERACCIONES DEL SECTOR OSCURO EN EL MODELO EXTENDIDO FNSM

Gaxiola Flores Christian Daniel, Universidad de Guadalajara. Asesor: Dra. Luz Adriana Cordero Cid, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El modelo estándar (SM) es actualmente la descripción matemática más exitosa de la física de altas energías. Sin embargo, existen aún ciertos problemas en este modelo, por lo que ha surgido la necesidad de estudiar otros modelos que puedan resolverlos. En este trabajo analizamos el modelo extendido Froggatt-Nielsen Singlet Model (FNSM) propuesto en el artículo Exploring the Dark Sector of the Extended FNSM at the LHC (Chakraborty, Ghosh, Khan, Moretti, 2024), en el cual se evalúa su viabilidad para resolver el problema de la existencia de materia oscura en nuestro universo. En dicho modelo se considera como candidato de materia oscura a un bosón pseudoescalar que proviene de la parte imaginaria de un singlete escalar incorporado al modelo. En este trabajo se estudian procesos que involucren al candidato de materia obscura de dicho modelo, llevado a cabo cálculos de amplitudes y anchuras de decaimiento.



METODOLOGÍA

El modelo estándar (SM) es una teoría basada en el grupo de norma SU(3)xSU(2)xU(1) y describe las interacciones fuerte, débil y electromagnética entre las partículas elementales. Entre estas existen los fermiones, que conforman la materia ordinaria, y las partículas mediadoras de las interacciones como los bosones de norma y el bosón de Higgs. El modelo extendido FNSM, es un modelo basado en el Modelo Estándar (SM), considerando como extra un singlete escalar complejo. Así, el sector escalar incluye un doblete Φ correspondiente al campo de Higgs del SM y un singlete S con parte real e imaginaria, dando lugar a dos bosones denotados como Hf y Af además del bosón de Higgs h. El potencial escalar está entonces dado como la suma del potencial del modelo estándar más los términos que involucran al singlete. El modelo tiene 4 parámetros libres, permitiendo considerar valores distintos al artículo original y analizar otro tipo de interacciones. En este trabajo, estudiamos el sector escalar el modelo, enfocándonos al análisis de la nueva física que surge de los acoplamientos entre el bosón de Higgs y los nuevos escalares que se introducen, haciendo uso de las reglas de Feynman y los procedimientos típicos de la teoría cuántica de campos. En específico, se analizan los siguientes vértices h a Af Af, h a Hf Hf, Hf a Af Af, Af Af a h h, Af Af a ZZ. Para los vértices que representan un decaimiento de una a dos partículas, se calcularon las expresiones matemáticas para la anchura de decaimiento correspondiente en términos de los parámetros del modelo. El resto de vértices corresponden a colisiones, para las cuales se desarrolló explícitamente el cálculo para las amplitudes que serían necesarias para obtener la secciones eficaces. Como procedimiento final, se sustituyeron distintos valores de los parámetros libres (correspondientes a las masas de las nuevas partículas, el ángulo de mezcla que caracteriza a los estados físicos de los campos escalares y el valor de expectación en el vacío del campo S) en las expresiones para las anchuras de decaimiento. Para el ángulo de mezcla y el valor de expectación en el vacío se mantuvieron valores fijos, siguiendo las cotas propuestas en el artículo original, mientras que las masas de las nuevas partículas se variaron por debajo de la mitad de la masa del bosón de Higgs para permitir los procesos estudiados. Se compararon los valores numéricos de la anchura de decaimiento del bosón de Higgs a las nuevas partículas con la cota reportada para los procesos h a invisible por el Particle Data Group (PDG).


CONCLUSIONES

Durante el desarrollo de la estancia, se ha estudiado el Modelo Estándar, el cual nos permite entender las interacciones entre las partículas elementales. Se estudiaron sus aspectos generales más importantes, así como las herramientas de cálculo necesarias para entender las interacciones a altas energías en el marco de la teoría cuántica de campos. En este trabajo analizamos indicios de nueva física, considerando el modelo extendido FNSM. Dicho modelo se caracteriza por tener un sector escalar extendido por medio de un singlete escalar complejo, y de cuya parte imaginaria se tiene un pseudoescalar que se considera como candidato de materia obscura. La extensión del sector escalar del modelo, nos permite estudiar acoplamientos entre escalares y de escalares con bosones vectoriales, así como analizar decaimientos del bosón de Higgs a los nuevos campos escalares que se introducen al modelo. Los cálculos de amplitudes y anchuras de decaimiento se realizaron exitosamente, obteniendo expresiones que dependen únicamente de los parámetros del modelo. Al obtener los valores numéricos, se encontró que el proceso h a Af Af tiene una anchura que varía entre 0.3 y 0.4 MeV, mientras que el decaimiento h a Hf Hf tiene una contribución mínima cuyo valor varía entre el orden de 10-6 y 10-2 MeV. Haciendo la comparación con la cota de los decaimientos del bosón de Higgs a estados finales invisibles (BR < 0.107) propuesta por el PDG, se encuentra que la razón de decaimiento mayor que se calculó con este modelo se encuentra ligeramente por encima de esta cota.
Giraldo Hoyos Esteban, Universidad del Quindío
Asesor: Dr. Sergio Alberto Monjardin Armenta, Universidad Autónoma de Sinaloa

ESTUDIOS TERRITORIALES Y AMBIENTALES MEDIANTE TECNOLOGíAS DE LA INFORMACIóN GEOGRáFICA


ESTUDIOS TERRITORIALES Y AMBIENTALES MEDIANTE TECNOLOGíAS DE LA INFORMACIóN GEOGRáFICA

Giraldo Hoyos Esteban, Universidad del Quindío. Piedrahita Ospina Michael, Universidad del Quindío. Asesor: Dr. Sergio Alberto Monjardin Armenta, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los estudios territoriales mediante tecnologías SIG representan un campo de investigación que está en constante crecimiento, puesto que buscan comprender y analizar las relaciones entre los sistemas naturales y sociales. Los estudios realizados a través del uso de herramientas informáticas y bases de datos georreferenciadas permiten el análisis de datos espaciales, modelación de procesos y apoyo en la toma de decisiones.Los estudios realizados, tomando un enfoque específico en temáticas como agricultura de precisión, calidad del agua y planificación urbana; son de gran importancia, ya que en la agricultura de precisión ayuda optimizar la gestión de los cultivos y recursos agrícolas; en el análisis de calidad del agua se pueden visualizar y analizar de manera espacial la distribución de contaminantes e identificación de las fuentes de contaminación. Además, permite la evaluación de algunos parámetros de calidad del agua, lo cual disminuye tiempo y costos. Finalmente, en la planificación urbana, se genera un sistema más eficiente, sostenible y participativo, gracias a los diferentes análisis que se pueden realizar con este tipo de estudios.



METODOLOGÍA

Fotogrametría digital: el estudio se llevó a cabo con el objetivo de realizar un levantamiento fotogramétrico de CU realizando una comparación del uso de una red de puntos de apoyo y sin red de puntos de apoyo utilizando un Dron DJI Phantom 4 RTK. El levantamiento permite obtener información detallada sobre la topografía, incluyendo coordenadas, distancia y áreas. Se delimitó el área de trabajo dentro del campus universitario, estableciendo 12 puntos de control mediante Google Earth Pro y materializándolos en campo con marcas de un triángulo rectángulo. Se diseñó un plan de vuelo a 80 metros de altura, con un traslape longitudinal del 70% y transversal del 65%, capturando un total de 521 imágenes en un vuelo de 40 minutos. Las imágenes fueron procesadas en Agisoft Metashape Professional. Los productos que se generaron son dos DEM y dos orto mosaico. Asimismo, se realizo un análisis de la precisión de los productos. Agricultura de precisión: Se realizo a través de un Vehículo Aéreo No Tripulado (VANT). Para este propósito, se utilizó un dron DJI Phantom 4, al cual se le ajustan dos tipos de cámaras: una cámara multiespectral (MAPIR) y una cámara térmica (FLIR Vue Pro R). El estudio se llevó a cabo en dos zonas de cultivo de tomate Cherry. En la primera, se empleó la cámara MAPIR para capturar imágenes multiespectrales; mientras que en la segunda se utilizó la cámara térmica para obtener datos sobre la temperatura de la superficie. Tras la captura de las imágenes, se generó una nube de puntos densa, que se utilizó para crear un MDE. A partir de este se creó un orto-mosaico del cultivo, permitiendo realizar análisis más detallados, como el cálculo del índice NDVI, un indicador de la salud de la vegetación. El uso de dron permite un monitoreo eficiente y preciso, contribuyendo a mejorar la producción agrícola y la toma de decisiones en la gestión de cultivos. Calidad del agua: el monitoreo de la calidad del agua es crucial para evaluar el impacto de las actividades humanas en el agua. La teledetección se utiliza para reducir costos y tiempos, en esta evaluación se usó la base de datos de CONAGUA de los puntos medidos en la presa de SANALONA, donde se aplicó un análisis de regresión múltiple utilizando datos de reflectancia de imágenes satelitales Sentinel 2 de fechas aproximadas a las que están en la base de datos. La transformación Box-Cox se utilizó para normalizar los datos del Carbono Orgánico Total (COT) y se generó un modelo matemático para evaluar la calidad del agua en función de este parámetro. Con el software QGIS y el complemento "Point Sampling Tool", se extrajeron valores de reflectancia en puntos de muestreo específicos, denominados "Puntos CONAGUA". Los resultados mostraron una relación lineal positiva entre los datos obtenidos y los valores medidos de COT.


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos teóricos sobre el uso de tecnologías SIG para la aplicación en estudios territoriales y ambientales; además de ponerlos en práctica para la evaluación y toma de decisiones. En cuanto a la planificación urbana, podemos determinar la importancia de esta para el desarrollo de salidas cartográficas y la influencia del uso de puntos de control terrestres que permiten obtener mejores precisiones a la hora de llevar a cabo un proyecto fotogramétrico. Este estudió nos arrojó en error medio cuadrático en las coordenadas X, Y, Z en conjunto de 0.04 m, ya que el dron en un momento perdió señal y el resultado se vió afectado en la coordenada Y. El estudio realizado acerca de la temática de agricultura de precisión, permitió obtener resultados óptimos con las cámaras multiespectral y térmica. En el primer caso, se evidenció que el NDVI para el cultivo de tomate Cherry estaba en un promedio de 0.288, lo cual indica que apenas se encuentra en crecimiento y la cobertura verde en esta zona es escasa o media; también se estableció una desviación estándar de 0.034, dejando por visto la homogeneidad del cultivo. Para la cámara térmica, se evidenció que las temperaturas medidas en los píxeles se encontraban dentro del rango de ± 5 °C establecidos por el fabricante, esto en comparación con la temperatura medida en campo. Finalmente, en la práctica de análisis de calidad del agua a través de imágenes satelitales, se pudo validar mediante el Contenido Orgánico Total, que la técnica Box-Cox puede normalizar de manera eficaz los datos de calidad del agua en campo. Además, se puede demostrar que los modelos propuestos resultaron ser aceptables, ya que se obtuvo un coeficiente de determinación (r2) de 76 %. También, mediante el coeficiente de correlación, se puede demostrar la relación es positiva entre las variables estudiadas, demostrando que el modelo es capaz de predecir con precisión los parámetros de calidad del agua.
Gómez Barrita Juan David, Universidad de Guadalajara
Asesor: Dr. Edmundo Lopez Apreza, Universidad Autónoma Benito Juárez de Oaxaca

ESTUDIO DE PRIMEROS PRINCIPIOS DE PROPIEDADES FíSICAS DE SEMICONDUCTORES (INN)


ESTUDIO DE PRIMEROS PRINCIPIOS DE PROPIEDADES FíSICAS DE SEMICONDUCTORES (INN)

Gómez Barrita Juan David, Universidad de Guadalajara. Asesor: Dr. Edmundo Lopez Apreza, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

El desarrollo en el campo de los semiconductores pertenecientes a los nitruros del grupo III (GaN, InN, AlN) ha sido magnifico puesto que tienen unas altas y atractivas propiedades. Durante los últimos anos el interés en el InN ha sido mucho. Estudios recientes indican que las películas de InN casi cumplen los requerimientos para su aplicación en dispositivos prácticos.1 El nitruro de indio (InN) es un semiconductor importante del grupo III de los nitruros con muchas posibles aplicaciones. El uso de InN y sus aleaciones con GaN y AlN hacen posible que se extienda la emisión de LEDs a base de nitruro del ultravioleta a cerca de la región infrarroja. Se predijo que el InN tiene menor masa efectiva de electrones dentro de los semiconductores nutruros-III, lo cual lo lleva a una alta movilidad y una alta velocidad de saturación.2 La teórica movilidad máxima calculada en InN y GaN a 300k es cerca de 4400 y 1000 cm² V-1 S-1, respectivamente, mientras que a 77k los limites están por debajo de 30000 y 6000 cm² V-1 S-1, respectivamente.3 Se dijo que las características de transporte del InN son superiores a las del GaN y GaAs, sobre un amplio rango de temperatura de 150 a 500k y una concentración de dopamiento mayor a 1019 cm-3.4 Esto sugiere que puede haber distintas ventajas al usar InN en dispositivos de frecuencia centimétrica y de ondas milimétricas. Dado esto, los diferentes estudios de los nitruros mayormente se centraban en el GaN puesto que el poder conseguir y manipular el InN como semiconductor resulta complicado, pues dependiendo de la estructura que se utilice, este se puede comportar como material conductor o material semiconductor.



METODOLOGÍA

Los cálculos de los primeros principios para el nitruro de indio (InN) en este reporte, fueron realizados mediante la base de la Teoría de Funcional de Densidad (DFT), utilizando pseudopotenciales y una base de ondas planas (PP-PW). Se utilizaron valores teóricos encontrados en la literatura para realizar los ajustes correspondientes mediante el uso del software Quantum Espresso. Acompañando para posteriores procesos y cálculos en determinación de energías, puntos y primera zona de brillouin; el uso del software XcrysDen.


CONCLUSIONES

En el estudio de materiales semiconductores como el Nitruto de Indio (InN), la relación entre la energía total y el volumen de la celda unitaria es fundamental para comprender la estabilidad de diferentes fases cristalinas y las posibles transiciones de fase que en estas pudiese existir. En este caso, se han utilizado simulaciones basadas en la teoría del funcional de la densidad (DFT) mediante el software Quantum Espresso para evaluar las estructuras de InN en sus formas cristalinas: Wurtzita (Wz), Zinc Blenda (Zb), Cloruro de Sodio (NaCl) y Cloruro de Cesio (CsCl). Las curvas calculadas de la energía versus el volumen para CsCl (B1), Zb (B2), NaCl (B3) y Wz (B4) están reflejadas en la Figura 1. Se puede apreciar en la figura que la energía de la fase B4 requiere de un volumen mayor a comparación de las demás fases, pero también se observa que tanto esta, la fase B4 y la fase B2 tienen las energías mas bajas de entre las demás fases. Para calcular los parámetros estructurales, la energía total se ajusto con la ecuación de Birch-Murnaghan como demuestra: donde E₀ es la energía mínima por unidad de fórmula en el equilibrio termodinámico, B₀ es el modulo de volumen y B’₀=dB₀/dP. Los valores del parámetro de red experimentales como calculados para estas energías se encuentran registrados en la Tabla 1. Estos resultados muestran que nuestros valores computarizados concuerdan con los recabados anteriormente. La ecuación isotérmica de tercer orden de Birch-Murnaghan de estado que relaciona la presión y el volumen viene dada por : La Figura 3 muestra la entalpía de que tiene cada estructura y su respectivo volumen, muestra que podrían existir 4 cambios de fase, las cuales son la transición entre la fase B4-B2 que se estaría situando en P=0.095353551 GPa y H=-156.294352 Ry, la transición B2-B3 situada en una P=10.076379453 Gpa y H=-156.1582953 Ry, la transición B3-B4 ubicada en una P=1.6065256059 Gpa y H=-156.25232897 Ry, y la transición B1-B4 con una P=10.840101879 Gpa y H=-156.01035422 Ry. De esto se obtiene que es posible la existencia de 1 fase (B4-B2 ) con mayor facilidad que las otras puesto que requieren una presión que se puede obtener con un equipamiento mayor que el de la fase mas cercana a 0, ya que al estar mas cerca, esta podría estar presente en condiciones normales. La estructura de bandas de la fase B1 del InN se encuentra en la Figura 4, en donde se observa un comportamiento extraño dado a sus bandas que sobrepasan la energía de fermi, haciéndolo mas parecido a un material conductor; la estructura de bandas para la fase B2 esta presente en la Figura 5, se observa que esta funciona como un conductor directo; la estructura para la fase B3 se encuentra en la Figura 6, la cual proporciona otro material conductor pero en este caso indirecto; por ultimo la estructura de bandas para la fase B4, la mas estable, se encuentra en la Figura 7, a simple vista nos da la impresión de ser otro conductor directo, sin embargo, al presentar un ancho de Band Gap inferior a 1 en dicha estructura, el graficado utilizado para realizar las estructuras lo arroja como conductor, no obstante, en esta fase, es un semiconductor indirecto. La densidad de estados total en la fase B1, B2, B3 y B4, se encuentran plasmadas en la Figura 8, Figura 9, Figura 10 y Figura 11, respectivamente. En las cuales podemos especular que los orbitales mas cercanos a la energía de fermi en la banda de valencia son los orbitales P y D
Gómez de la Cruz Jesús Arturo, Instituto Tecnológico Superior de Los Ríos
Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla

IMPACTO DE LAS EMISIONES ATMOSFéRICAS DE LA REFINERíA OLMECA EN DOS BOCAS, PARAíSO, TABASCO, SOBRE LA REGIóN DE LA CHONTALPA


IMPACTO DE LAS EMISIONES ATMOSFéRICAS DE LA REFINERíA OLMECA EN DOS BOCAS, PARAíSO, TABASCO, SOBRE LA REGIóN DE LA CHONTALPA

Gómez de la Cruz Jesús Arturo, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Evaluar de manera integral los aspectos positivos y negativos para comprender completamente el impacto de la refinería Dos Bocas en Paraíso, Tabasco, y tomar decisiones informadas sobre su operación y regulación para la ayuda hacia las personas.



METODOLOGÍA

La Refinería Dos Bocas, ubicada en Paraíso, Tabasco, es un importante complejo petrolero en México que tiene un impacto significativo a nivel regional. El total de emisiones anuales de la refinería serían de 2.16 millones de toneladas de CO2, Las emisiones de CO2 de la refinería por los 20 años de operación establecidos en la Manifestación de Impacto Ambiental (MIA), serían el equivalente a talar aproximadamente 183 millones de árboles. Los gases de efecto invernadero son componentes gaseosos en la atmósfera que tienen la capacidad de retener el calor del sol, lo que contribuye al fenómeno del calentamiento global y al cambio climático. En 2021, diversas organizaciones ambientalistas en México han expresado preocupación y críticas sobre la falta de transparencia en el proceso de evaluación ambiental del proyecto de la Refinería Dos Bocas. La refinería Dos Bocas tiene un impacto ambiental significativo tanto como positivo como negativo en la región de Paraíso, Tabasco. Por un lado, es cierto que la refinería puede tener un impacto negativo en el medio ambiente local, como la contaminación del aire y del agua, así como en la biodiversidad de la zona. 


CONCLUSIONES

La refinería Dos Bocas tiene un impacto ambiental significativo tanto como positivo como negativo en la región de Paraíso, Tabasco. Por un lado, es cierto que la refinería puede tener un impacto negativo en el medio ambiente local, como la contaminación del aire y del agua, así como en la biodiversidad de la zona. Estos efectos pueden afectar la calidad de vida de las personas que viven en las cercanías y el ecosistema en general. Por otro lado, la refinería también puede tener impactos positivos, como la generación de empleo, el desarrollo económico y la mejora de la infraestructura en la región. Es importante que se implementen medidas de mitigación efectivas para minimizar estos impactos y proteger el medio ambiente y la salud pública. 
Gómez Huidor Jesús Alberto, Universidad de Guadalajara
Asesor: Dr. Paulo César Cárdenas Montoya, Universidad Autónoma de Manizales

SIMULACIóN DE ALGORITMOS CUáNTICOS


SIMULACIóN DE ALGORITMOS CUáNTICOS

Gómez Huidor Jesús Alberto, Universidad de Guadalajara. Asesor: Dr. Paulo César Cárdenas Montoya, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

En el panorama actual de las ciencias computacionales, la computación cuántica emerge con el potencial de revolucionar diversos sectores mediante la superación de limitaciones de la computación clásica. Esta tecnología promete resolver problemas computacionalmente intensivos, que son inabordables para las supercomputadoras tradicionales. La implementación y aprovechamiento de la computación cuántica requieren una sólida comprensión de sus principios fundamentales. Así, el conocimiento profundo de los algoritmos cuánticos, las puertas lógicas cuánticas y los estados entrelazados es crucial para avanzar en este campo. Además, la programación cuántica presenta desafíos únicos, como la gestión de la decoherencia y el error cuántico, que deben ser entendidos y mitigados para realizar simulaciones efectivas. Este estudio se propone como una inmersión educativa en la computación cuántica, comenzando con la adquisición de una base teórica a través de la lectura crítica, seguido por la implementación práctica de conceptos cuánticos utilizando herramientas de programación cuántica dentro de Python. Con esto logramos simular algoritmos como el de Shor y la Estimación de Fase Cuántica (QPE), destacando la adaptabilidad y eficacia en la simulación cuántica. Este enfoque mixto, teórico-práctico, no solo facilita una comprensión más profunda de los algoritmos y técnicas cuánticas, sino que también prepara el terreno para futuras investigaciones y aplicaciones prácticas en computación cuántica.



METODOLOGÍA

Este estudio se abordó mediante un enfoque híbrido que combinó la adquisición de conocimientos teóricos con la aplicación práctica de la programación cuántica. Inicialmente, se realizó un estudio exhaustivo de los fundamentos de la computación cuántica a través de la lectura crítica de "An Introduction to Quantum Computing" por Philip Kaye, Raymond Laflamme y Michele Mosca. Material que fue seleccionado por su amplitud y profundidad en la presentación de conceptos clave que son pilares de la computación cuántica. Paralelamente, se empleó Python como lenguaje de programación principal, aprovechando bibliotecas especializadas como QuTiP para la implementación de conceptos cuánticos. La programación incluyó la simulación de rotaciones cuánticas generales y estados superpuestos, la implementación de puertas cuánticas fundamentales como las de Pauli y Hadamard, y la ejecución de mediciones utilizando proyectores, lo que permitió una comprensión más profunda de la manipulación de estados cuánticos. Además, se exploraron y programaron algoritmos cuánticos significativos, y se realizó una implementación detallada de la Transformada Cuántica de Fourier utilizando QuTiP. Un avance particular en la metodología fue la implementación del Algoritmo de Estimación de Fase Cuántica (QPE) utilizando PennyLane, una plataforma que se distingue por su enfoque en la computación cuántica diferenciable. Este aspecto del proyecto no solo demostró la versatilidad en la elección de herramientas de simulación, sino que también enfatizó la capacidad de adaptación a diferentes frameworks cuánticos. Finalmente, se llevó a cabo una revisión exhaustiva de literatura científica para identificar aplicaciones actuales y potenciales de la computación cuántica, culminando en la selección de un proyecto de investigación en química cuántica para la simulación molecular. Este enfoque holístico, que integra teoría y práctica, establece una base sólida para futuras exploraciones y experimentaciones en el campo de la computación cuántica aplicada.


CONCLUSIONES

A lo largo de este estudio intensivo sobre la computación cuántica, se ha logrado un progreso significativo en la comprensión y aplicación de conceptos fundamentales y algoritmos cuánticos. Los resultados obtenidos incluyen un conjunto de notebooks de Python, que encapsulan las implementaciones prácticas de los ejercicios programados y simulaciones, y una serie de resúmenes que sintetizan las bases teóricas adquiridas a través del estudio dirigido del texto. Los notebooks de Python constituyen un recurso valioso para la replicación, demostrando la aplicabilidad de las puertas cuánticas, la transformada de Fourier cuántica, y los algoritmos de Shor y la Estimación de Fase Cuántica. Estos proveyeron una base sólida para explorar aplicaciones más complejas y específicas de la computación cuántica. Adicionalmente, la revisión de literatura actual y relevante ha permitido identificar varios artículos de investigación que representan la frontera del conocimiento en el campo de la química cuántica y la simulación molecular cuántica. En particular, se ha planteado la posibilidad de replicar y validar los resultados de estos estudios, lo cual no solo contribuiría al campo de la química cuántica sino también al desarrollo y refinamiento de técnicas computacionales cuánticas. Mirando hacia el futuro, se considera la posibilidad de explorar nuevos horizontes en la aplicación de la computación cuántica mediante el uso de cálculos variacionales, los cuales han demostrado ser prometedores para la optimización de funciones de onda y la determinación de estados fundamentales en sistemas cuánticos complejos. Este proyecto ha establecido una sólida plataforma de conocimiento y habilidades prácticas en computación cuántica, posicionándonos a los alumnos, en un punto para abordar desafíos complejos y contribuir significativamente al avance de la ciencia y tecnología cuánticas.
Gómez Méndez Alison Zoe, Instituto Politécnico Nacional
Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional

DISPOSITIVOS SEMICONDUCTORES Y CIRCUITOS INTEGRADOS


DISPOSITIVOS SEMICONDUCTORES Y CIRCUITOS INTEGRADOS

Cortina Barrales Naraai, Universidad de Guadalajara. Garcia Gutierrez Alejandro Ivan, Benemérita Universidad Autónoma de Puebla. Gómez Méndez Alison Zoe, Instituto Politécnico Nacional. Hernandez Ortiz Lizette Ariadna, Universidad Veracruzana. Perez Cortes Eliseo, Benemérita Universidad Autónoma de Puebla. Quintero López Jimena, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Ramirez Beltrán Andrés Alberto, Universidad de Guadalajara. Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los dispositivos semiconductores son componentes electrónicos que se encuentran en el corazón de la tecnología moderna. Estos dispositivos utilizan materiales semiconductores, como el silicio o el germanio, que tienen propiedades eléctricas intermedias, entre los conductores se pueden identificar los metales y en los aislantes el vidrio. Los TFT (Thin-Film Transistor) son transistores de película delgada que se utilizan en pantallas de cristal líquido (LCD) y pantallas de matriz activa como las de los teléfonos inteligentes y televisores. Los TFT permiten un control preciso de cada píxel en la pantalla. Las ventajas de los circuitos integrados flexibles incluyen menor costo de procesamiento, menor huella de carbono, y procesos de fabricación más rápidos comparados con el silicio. Se busca contribuir a una mejor comprensión de la tecnología de TFT flexible para avanzar hacia circuitos integrados fiables y flexibles, además de impulsar la investigación en los campos de la microelectrónica, la nanotecnología, los MEMS, las celdas solares, los dispositivos de película delgada, los sensores y otras áreas que requieren un ambiente libre de partículas.  



METODOLOGÍA

Los pasos para crear un circuito integrado son: simulación, diseño, fabricación y pruebas. Para la simulación de compuertas lógicas a nivel de transistores NMOS se utilizó el software LTspice, teniendo diferente ancho de canal (W) y de largo (L) para observar el comportamiento de los circuitos a este nivel. Además en un software más intuitivo (wokwi) se realizó la simulación a nivel de compuertas para obtener las tablas de verdad esperadas de cada circuito realizado con diferentes combinaciones de compuertas básicas. Posteriormente se hizo uso del software Tanner para realizar el diseño de los siguientes circuitos: MEDIO RESTADOR, RESTADOR COMPLETO, MEDIO SUMADOR, SUMADOR COMPLETO, MULTIPLEXOR, COMPARADOR, FLIP FLOP TIPO D, LATCH TIPO D. tomando como base una serie de compuertas lógicas diseñadas en proyectos previos, como son la compuerta NOT, NAND y NOR. El proceso de fabricación se realizó en el Laboratorio Nacional de Micro y Nanotecnología (LNunT), el cual cuenta con un cuarto limpio tipo 100. Como primera parte de la fabricación se hizo un depósito de cromo y oro con el Evaporador D18. Después, se procedió a fabricar el circuito realizando el proceso de fotolitografía mediante escritura directa utilizando el equipo Heidelberg DWL-66FS, fotoresina S1813 y revelador MF-319. Se prosiguió a realizar otro depósito de HFO₂, con ayuda del equipo ALD 150LE. Posterior a ello con el equipo Sputtering V3 se agregó la capa del Mo. Por último se le colocó el polímero PMMA utilizando el Spinner Laurell 650. Se obtuvieron las señales de transistores, compuertas lógicas y los circuitos diseñados. Para los circuitos integrados y compuertas lógicas se utilizó un osciloscopio, un generador de funciones y una fuente voltaje, utilizando señales de voltaje de corriente continua (DC) y corriente alterna (AC), en el caso de los transistores se utilizó un analizador Keithley 4200A-SCS. Todas las mediciones se llevaron a cabo en condiciones ambientales normales.  


CONCLUSIONES

El trabajo realizado durante la estancia de verano logró reforzar y adquirir nuevos conocimientos sobre el diseño de circuitos integrados digitales en muestras de material flexible partiendo desde transistores. También se comprendió cómo el tamaño y orientación de los transistores afectaba directamente a los circuitos y su funcionalidad en general. Se adquirieron conocimientos de los procesos a seguir para poder trabajar en un cuarto limpio clase 100. Adicionalmente, se aprendió sobre el proceso de fabricación de circuitos integrados. Por último, se reforzaron conocimientos en instrumentación y medición de circuitos integrados.  
González Andalón Vincent Alejandro, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional

LA DINáMICA DEL UNIVERSO DURANTE LA éPOCA DE INFLACIóN EN COSMOLOGíAS ESCALARES TENSORIALES


LA DINáMICA DEL UNIVERSO DURANTE LA éPOCA DE INFLACIóN EN COSMOLOGíAS ESCALARES TENSORIALES

González Andalón Vincent Alejandro, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente el modelo cosmológico más aceptado es el modelo estándar del Big Bang SBB, el cual ha mostrado éxito predictivo en las observaciones cosmológicas actuales. Sin embargo, muchos fenómenos y observaciones a distintas escalas cosmológicas han mostrado que este modelo muestra inconsistencias y presenta problemas a la hora de predecir ciertas características de nuestro universo, es por ello que se da pie al modelo de inflación, para poder resolver los problemas con los que se encuentra actualmente el modelo estándar SBB. Entre los problemas más importantes que en los cuales falla el modelo SBB al momento de predecir los datos observados son el problema de la planitud, el problema del horizonte y el problema del monopolo magnético; de aquí es donde nace la necesidad del modelo de la inflación, en este caso se trata de modelar la época inflacionaria a través de un campo escalar conocido como el inflatón.



METODOLOGÍA

En las primeras semanas se estudiaron los fundamentos teóricos del modelo SBB, para ello se analizaron los principios cosmológicos y suposiciones que hace el modelo SBB, para ello se considera una dinámica gobernada por una fuente de un fluido perfecto con ecuaciones de estado de presión p(t) y densidad de energía ρ(t). Una vez estudiados las bases del modelo se estudiaron y analizaron los 3 problemas fundamentales que dan pie al modelo de la inflación. En particular se estudió con gran detalle el problema de la planitud y el problema del horizonte, en particular como los parámetros Ω obtenidos a partir del antiguo modelo falla al predecir la planitud observada hoy en día, al ser una función que cambia muy rápidamente con el tiempo, así como falla para predecir la homogeneidad e isotropía que se observa en el fondo cósmico de microonda, CMB por sus siglas en inglés. Después de lo cual se estudió como el inflatón se puede modelar a través de un campo escalar Φ con potencial arbitrario V, el cual no depende de las coordenadas espaciales, solo del tiempo, después se derivaron las ecuaciones de Friedmann y de Klein Gordon minimizando la acción del tensor energía momento de dicho campo escalar, las primeras se obtienen extremizando la acción respecto a la métrica FRLW en un Universo que se asumen plano, para las segundas ecuaciones se extremiza la acción con respecto al propio campo Φ. Después se estudiaron las condiciones que debe de cumplir la inflación para evitar estos problemas, además se encontraron las soluciones usuales a las ecuaciones de Friedmann para un Universo plano con un parámetro de estado ω, con cuya dicha solución se pudieron obtener analíticamente el factor de escala a(t), el radio comóvil de Hubble (aH)-1, la distancia comóvil máxima χp(t) y el horizonte de partículas Rp(t). De los cuales se obtuvieron gráficas a través del uso de python y se pudo observar como esta solución analítica mostraba las inconsistencias en las observaciones actuales. Finalmente en las últimas se propuso una solución de D´Sitter y obtuvimos todos los datos obtenidos anteriormente, pero se analizó como esta solución sí presenta una solución para los problemas con los que se enfrenta el modelo SBB.


CONCLUSIONES

Con este proyecto se exploraron las dificultades que presenta el modelo cosmológico actual y su pudo comprender de una manera más profunda dichos inconvenientes, además de las propuestas que se han dado para resolverlas usando el modelo inflacionario, sin embargo, debido al corto tiempo no se pudo explorar a más detalle los diferentes modelos inflacionarios que se pueden obtener a través del modelado con campos escalares, se espera poder modelar el inflatón a través de un potencial V dado, dicho potencial se podrá obtener a través de la geometrización de éste con las condiciones de la inflación y explorando más a fondo los parámetros conocidos como, parámetros de slow roll.
González Cepeda Valeria, Universidad Autónoma de Baja California
Asesor: Dr. Abraham Espinoza García, Instituto Politécnico Nacional

INTRODUCCIóN AL CáLCULO DIFERENCIAL TENSORIAL


INTRODUCCIóN AL CáLCULO DIFERENCIAL TENSORIAL

González Cepeda Valeria, Universidad Autónoma de Baja California. Asesor: Dr. Abraham Espinoza García, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Incursionar en el estudio de las ideas básicas de la geometría diferencial, y su uso en la descripción geométrica del electromagnetismo y de la mecánica clásica.



METODOLOGÍA

Se puede mostrar que, en la formulación lagrangiana de la mecánica clásica (para sistemas mecánicos con término cinético estándar), el espacio de configuraciones tiene la estructura de una variedad de Riemann.   Partiendo de este hecho, se consideró un sistema mecánico particular con tres grados de libertad, y se obtuvo el tensor métrico del espacio de configuraciones a partir del término de energía cinética (el cual es una forma cuadrática en las velocidades generalizadas) presente en el lagrangiano. Así mismo, se obtuvieron las ecuaciones de Euler-Lagrange asociadas al sistema mecánico en cuestión.  Por otro lado, se llevó a cabo una formulación tensorial del electromagnetismo, haciendo uso de la teoría de las formas diferenciales. Para tal fin, se introdujeron la 1-forma de potencial y la 2-forma de campo electromagnético. 


CONCLUSIONES

*Las ecuaciones de Maxwell de la electrodinámica clásica pueden ser escritas como dos ecuaciones tensoriales, en términos de formas diferenciales. *Las coordenadas generalizadas utilizadas en la descripción del sistema mecánico considerado no son cartesianas, ya que el campo tensorial métrico no adquiere su forma plana en dichas coordenadas.  *Como perspectiva, se plantea un estudio sistemático sobre la curvatura del espacio de configuraciones del sistema mecánico considerado. Se conjetura que dicho espacio no es plano.
González Daniel Isaac, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla

MACHINE LEARNING PARA EL ESTUDIO DE RAYOS CóSMICOS


MACHINE LEARNING PARA EL ESTUDIO DE RAYOS CóSMICOS

González Daniel Isaac, Benemérita Universidad Autónoma de Puebla. Méndez Velarde Jessica Michelle, Universidad Autónoma de Baja California. Morales Moro María Guadalupe, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Planteamiento Los rayos cósmicos son partículas con masa y carga que provienen de diversas regiones del espacio y bombardean continuamente la Tierra. La energía de estos rayos varía desde los 108eV hasta los 1020 eV, siendo las partículas con energías cercanas a 1020 eV (conocidas también como rayos cósmicos ultra-energéticos) las más raras de encontrar. Se estima que solo 3 o 4 partículas de esta magnitud impactan con la Tierra por kilómetro cuadrado alrededor de cada siglo. Por otro lado; actualmente nos encontramos frente un avance significativo en el campo de la inteligencia artificial, pues usando técnicas de aprendizaje automático basadas en redes neuronales artificiales podemos obtener resultados muy favorables para la resolución de problemas, por lo que resulta interesante trabajar en la capacidad de predicción e inferencia de las redes neuronales artificiales, para predecir características de rayos cósmicos que nos hablen de estos orígenes que desconocemos y nos brinden información sobre el universo en el que vivimos. El parámetro Xmax y su importancia Cuando el rayo proveniente del espacio choca con la Tierra, interactúa con la atmósfera, lo que provoca la creación de partículas secundarias, que a su vez interactúan entre ellas para producir más partículas, este proceso se repite reiteradas ocasiones hasta que la energía lo permite. La sucesiva creación de partículas desde que el rayo se descompone en la atmósfera terrestre se conoce como lluvia de partículas. La cascada (o lluvia) de partículas crece a medida que desciende hacia la Tierra hasta alcanzar un punto máximo que es precisamente el lugar en el cual se genera la mayor cantidad de partículas, llegado a este punto, la producción de partículas empieza a disminuir hasta agotar (o disipar) la energía. El punto máximo de producción de partículas se denomina Xmax, cuyas unidades son [g/cm2]. Este parámetro es sensible a la composición, es decir, su magnitud permite inferir el tipo de partícula que impactó la atmósfera terrestre inicialmente antes de descomponerse en la lluvia de partículas de la que obtenemos datos.



METODOLOGÍA

Simulaciones Se ha descubierto que el parámetro Xmax sigue una cierta tendencia lineal cuando se compara con el logaritmo de la energía, sin embargo, se observa un cierto valor de la energía a partir del cual la tendencia se altera. Aquí es donde surge el interés de aplicar algoritmos de machine learning para los datos de simulaciones realizadas por la supercomputadora. Se necesita de una gran cantidad de datos que contenga el comportamiento de estas lluvias para poder entrenar la red neuronal. Con la suficiente cantidad de datos y un modelo suficientemente flexible que permita interpretar la información, sería posible predecir estos puntos de quiebre sin la necesidad de esperar que los rayos ultra-energéticos golpeen alguno de los diferentes detectores alrededor del planeta. Papel de la supercomputadora Para el desarrollo de un algoritmo de aprendizaje supervisado, requerimos de realizar simulaciones de lluvias de partículas, mismas que se realizaron mediante el uso de la supercomputadora con el uso  de software desarrollado por el CERN. Es importante señalar que debido a que el tiempo que le tomó a la supercomputadora procesar los datos requeridos fue muy elevado, se optó por trabajar con datos anteriormente registrados mientras las simulaciones seguían cargando para un análisis posterior. Los datos en cuestión son pertenecientes a núcleos de Hierro y protones que simularon una lluvia de partículas de 1,000,000 y 70,000 datos respectivamente. Una vez obtenidos los datos se procedió a elaborar un algoritmo de regresión lineal para cada tipo de partícula en cuestión. El total de datos se dividió en dos subconjuntos: uno de entrenamiento y otro de prueba. Estos subconjuntos se suelen dividir en una relación 75%-25% respectivamente pues el subconjunto de entrenamiento debe ser lo suficientemente grande para poder predecir la tendencia de los datos; por otro lado, el subconjunto de prueba se utiliza para medir el desempeño del modelo.


CONCLUSIONES

Resultados: Modelos desarrollados Para el presente trabajo se utilizó un total de 1100000 datos, cuyas características fueron las siguientes: Número de eventos: 2 Energía inicial: 1016 Energía final: 1019 Número de lluvias por evento: 550,000   Primario: Hierro (Fe) Modelo hadrónico: EPOS - LHC   Para el manejo y análisis de estos datos se procedió a realizar una red neuronal basada en un modelo de regresión lineal de la librería de Scikit - learn. La función "LinearRegression" ajusta un modelo lineal con coeficientes w = (w1, ..., wp) para minimizar la suma residual de cuadrados entre los objetivos observados en el conjunto de datos y los objetivos predichos por la aproximación lineal. De los datos utilizados, estos se partieron en dos grupos: uno para el entrenamiento de la red neuronal y otro para su evaluación, para lo cual fue utilizada la función predeterminada "train\_test\_split" de la misma librería. Mediante los métodos mencionados, se encontró un training score de 0.81 en tanto que un test score de 0.81 por igual.   Conclusiones Durante la estancia de investigación del programa delfín 2024 se adquirieron nuevos conocimientos sobre los rayos cósmicos y su importancia para futuras investigaciones. Se estudiaron modelos de aprendizaje automático supervisado y no supervisado, sus ventajas, desventajas, así como también los diversos contextos en donde se utilizan actualmente. Se realizaron simulaciones de lluvias de partículas y se desarrollaron algoritmos de aprendizaje supervisado dando como resultado modelos simples que facilitan la aplicación de dichos algoritmos a conjuntos de datos más extensos. Este ejercicio permite comprender la importancia e influencia que tienen los datos para cada situación en la que se requiera aplicar este tipo de modelos.
González Domínguez Annalucia, Universidad Autónoma de Chiapas
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

DINáMICA COSMOLóGICA: ECUACIONES DE MOVIMIENTO EN EL MODELO FRW Y BORN-INFELD.


DINáMICA COSMOLóGICA: ECUACIONES DE MOVIMIENTO EN EL MODELO FRW Y BORN-INFELD.

Diaz Hernandez Miguel Angel, Universidad Autónoma de Baja California. González Domínguez Annalucia, Universidad Autónoma de Chiapas. López Díaz Brandon Miguel, Universidad Autónoma de Chiapas. Rodríguez Sánchez Stephanie, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La cosmología moderna se fundamenta en el modelo de Friedmann-Lemaître-Robertson-Walker (FRW), el cual describe un universo homogéneo e isotrópico. Este modelo es esencial para derivar las ecuaciones de movimiento que rigen la dinámica del universo y ofrece una comprensión detallada de su evolución, desde el Big Bang hasta la expansión acelerada que observamos en la actualidad. Sin embargo, a pesar de su éxito en la descripción general del universo, el modelo FRW tiene limitaciones cuando se enfrenta a fenómenos extremos o a nuevas teorías en física. En este contexto, el campo escalar de Born-Infeld emerge como una extensión significativa de las teorías de campo escalar tradicionales. Originado en el marco de la teoría de cuerdas y otras áreas de la física teórica, el formalismo de Born-Infeld fue inicialmente introducido para regular singularidades en la electrodinámica no lineal. No obstante, sus aplicaciones se han expandido, incluyendo interesantes implicaciones cosmológicas. El interés en el escalar de Born-Infeld radica en su capacidad para evitar singularidades y generar comportamientos dinámicos únicos que no se encuentran en las teorías de campo escalar convencionales. En particular, este escalar ofrece nuevos mecanismos inflacionarios que podrían superar las limitaciones de los modelos tradicionales de inflación. Así, la inclusión del escalar de Born-Infeld en el modelo FRW proporciona una oportunidad valiosa para abordar problemas no resueltos en la cosmología estándar y realizar predicciones observacionales que podrían ser verificadas con futuros datos cosmológicos.



METODOLOGÍA

En primer lugar, dedujimos los símbolos de Christoffel para un espacio-tiempo descrito por la métrica de Friedmann-Lemaître-Robertson-Walker (FRW). Posteriormente, procedimos a obtener el tensor de Ricci R_{mu nu} contrayendo las derivadas de los símbolos de Christoffel. A continuación, calculamos el escalar de curvatura R contrayendo el tensor de Ricci. Con estos elementos, procedimos al cálculo de la acción agregando la acción del modelo FRW. Donde S_{phi} es la acción del campo escalar. El siguiente paso fue obtener el lagrangiano a partir de la densidad lagrangiana integrando la acción. Para campos escalares, el lagrangiano se expresa como: L=-frac{3adot{a}}{c^{2}N}+3kaN+kappa^{2}a^{3}(frac{1}{2c^{2}N}dot{phi}^{2}-NV(phi)) donde V(ϕ)V(phi)V(ϕ) es el potencial del campo escalar. Luego, procedimos a obtener el hamiltoniano a partir de la densidad lagrangiana. Las ecuaciones de movimiento para el campo escalar se derivaron del principio de acción. La solución de estas ecuaciones nos permitió entender cómo el campo escalar influye en la expansión del universo. Para encontrar parámetros que generen inflación, buscamos un potencial V(ϕ)V(phi)V(ϕ) y condiciones iniciales para ϕphiϕ y ϕ˙dot{phi}ϕ˙​ que satisficieran el criterio de inflación, donde la segunda derivada del factor de escala a(t)a(t)a(t) fuera positiva (a¨>0ddot{a} > 0a¨>0). Esto implica que el universo se está expandiendo aceleradamente. A continuación, repetimos el proceso, pero ahora con el campo escalar de Born-Infeld. El lagrangiano de Born-Infeld, que introduce una no linealidad, se expresa como: S_phi=-intsqrt{-g}alpha_T^2V(phi)sqrt{1+alpha_T^{-2}g^{mu u}partial_mupartial_ uphi}d^4x. Así obtuvimos la acción total agregando el campo escalar. Una vez obtenido esto , procedimos de igual manera a obtener el lagrangiano Born-Infeld, el cual esta dado como: L=-frac{3adot{a}^2}{c^2N}+3kaN-kappa^2alpha_T^2Na^3V(phi)sqrt{1-alpha_T^{-2}c^{-2}N^{-2}dot{phi}^2}. El hamiltoniano para el escalar de Born-Infeld se obtuvo de manera similar al caso del campo escalar homogéneo, teniendo en cuenta la no linealidad. Las ecuaciones de movimiento para el escalar de Born-Infeld derivadas de la acción modificada, se resolvieron numéricamente para obtener la evolución dinámica del campo y del universo.Finalmente, buscamos parámetros que, al ser aplicados al escalar de Born-Infeld, pudieran generar un período de inflación cósmica, ajustando las condiciones iniciales adecuadamente. Una vez obtenidas y resueltas las ecuaciones de movimiento para ambos campos escalares, realizamos un análisis comparativo para identificar las diferencias en la dinámica resultante. Esto incluyó cómo cada campo afectó la expansión del universo y los parámetros necesarios para generar inflación. Además, a partir de los resultados obtenidos anteriormente, pudimos realizar aproximaciones en los Hamiltonianos. Esto nos permitió derivar las ecuaciones de Wheeler-DeWitt. Por último, observamos  las diferencias entre los dos sistemas calculados, comparando la eficiencia de cada campo en generar inflación, la estabilidad de las soluciones y las predicciones observacionales resultantes. Este análisis proporcionó una comprensión más profunda de las implicaciones teóricas y prácticas de incluir el escalar de Born-Infeld en el modelo FRW.


CONCLUSIONES

Este trabajo abordó de manera exhaustiva la inclusión del escalar de Born-Infeld en el modelo FRW y sus implicaciones para la dinámica del universo y la generación de inflación. A través de un análisis detallado y comparativo, logramos obtener una comprensión más profunda de los mecanismos que gobiernan la evolución cosmológica. Esta investigación no solo clarificó las diferencias entre ambos enfoques, sino que también destacó las posibles aplicaciones observacionales del escalar de Born-Infeld, abriendo nuevas perspectivas en el estudio de la inflación y la expansión del universo.
González Franco Leonardo Missael, Universidad Autónoma de Baja California
Asesor: Dr. David Antonio Pérez Carlos, Universidad Autónoma de Zacatecas

FORMULACIóN MAXWELLIANA DE LAS ECUACIONES DE LA TEORíA DE RASTALL HASTA EL SEGUNDO ORDEN DE APROXIMACIóN.


FORMULACIóN MAXWELLIANA DE LAS ECUACIONES DE LA TEORíA DE RASTALL HASTA EL SEGUNDO ORDEN DE APROXIMACIóN.

González Franco Leonardo Missael, Universidad Autónoma de Baja California. Gutierrez de Jesus Carlos Eduardo, Universidad Michoacana de San Nicolás de Hidalgo. Villaverde Morales Sofia Alejandra, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. David Antonio Pérez Carlos, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

La teoría de Rastall propone una generalización de la teoría de la relatividad general al permitir que la divergencia del tensor energía momento de la materia no sea necesariamente nula, esto implica una modificación significativa respecto a la teoría de la relatividad general de Einstein. Lo que significa que la variación del tensor energía momento de la materia está relacionada con la variación del escalar de curvatura, sugiriendo una dependencia de la energía y el momento con la curvatura del espacio-tiempo. La implicación principal de esta modificación es que, en presencia de materia, el campo gravitacional puede comportarse de manera diferente comparado con las predicciones de la relatividad general. Esta variación permite explorar nuevas posibilidades en la cosmología y la física de altas energías, donde las condiciones de curvatura extrema podrían hacer visibles los efectos de esta teoría modificada. El presente trabajo tiene como propósito utilizar los métodos de expansión Post-newtoniana a las ecuaciones de campo de la teoría de Rastall hasta un segundo orden, y escribirlas en el lenguaje del cálculo vectorial. Una vez obtenidas, exploraremos sus implicaciones en la física.



METODOLOGÍA

Formulación de la Justificación del Proyecto: Este trabajo se justifica en el hecho de que, dentro de esta línea de investigación, no se ha realizado un trabajo similar anteriormente, lo que puede resultar en una contribución importante a la literatura científica. Consideramos que los resultados serán novedosos e interesantes. Diseño Metodológico: Nuestra metodología a seguir es la siguiente: Estudiar los enfoques de la linealización y de las expansiones Post-Newtonianas de las ecuaciones de campo de Einstein, aplicar estos métodos a las ecuaciones de campo de la teoría de Rastall, pasar las ecuaciones de su forma tensorial a forma vectorial y realizar un análisis de las ecuaciones obtenidas. Redacción del Marco Teórico: La teoría de Rastall constituye una generalización de la teoría de la relatividad general. Se utilizan las ecuaciones de Rastall y se aplican métodos perturbativos por medio de expansiones para obtener una aproximación a segundo orden de dichas ecuaciones, esto es, ecuaciones de campo no lineales utilizando la aproximación Post-newtoniana. Interpretación Física: Se buscará una interpretación física de las ecuaciones obtenidas junto con la ecuación de onda de Rastall inhomogénea y se analizarán sus implicaciones en fenómenos gravitacionales y astrofísicos. Redacción de la Discusión y Conclusiones: Se comienza con la redacción de la discusión y las conclusiones del proyecto, interpretando los resultados obtenidos y su relevancia en el campo de la gravitación, la cosmología y la astrofísica.


CONCLUSIONES

Con este proyecto de investigación queremos analizar las implicaciones físicas de que las ecuaciones de Rastall en la formulación maxwelliana a segundo orden. Se realizará un análisis exhaustivo de las ecuaciones encontradas para así dar su interpretación física, tanto de las ecuaciones que describen los campos gravitacionales, como la ecuación de onda inhomogénea. Estos resultados pueden tener implicaciones significativas en la comprensión de la interacción gravitacional. Los resultados obtenidos hasta ahora sugieren que estas modificaciones pueden ofrecer nuevas perspectivas en el estudio de sistemas gravitacionales. Futuras investigaciones se centrarán en buscar otros métodos que nos permitan analizar sistemas gravitacionales muy masivos como agujeros negros o el universo primitivo.
Gonzalez Gonzalez Ricardo, Universidad Tecnológica de Zinacantepec
Asesor: Post-doc Cindy Lorena Gomez Heredia, Pontificia Universidad Javeriana

ANALISIS DE MATERIALES DE INTERéS PARA LA MEDICINA MEDIANTE ESPECTROSCOPIA FOTOACúSTICA


ANALISIS DE MATERIALES DE INTERéS PARA LA MEDICINA MEDIANTE ESPECTROSCOPIA FOTOACúSTICA

Gonzalez Gonzalez Ricardo, Universidad Tecnológica de Zinacantepec. Asesor: Post-doc Cindy Lorena Gomez Heredia, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

  La malaria es una de las enfermedades más grave del mundo  y sigue siendo un problema de salud pública debido a que a pesar de que se cuenta con tratamientos y cura   causa más de 400 000 muertes cada año a nivel global, la mayoría de ellas en niños menores de cinco años . Es una enfermedad infecciosa causada por un parásito apicomplejo del género Plasmodium , transmitido por el mosquito hembra género Anopheles de humano a humano. El cuadro clínico puede ser: asintomático, no complicado, complicado o severo; la respuesta humana a la malaria varía dependiendo de factores como la genética de las proteínas del parásito, coinfecciones, comorbilidades, estado nutricional del huésped, genética del huésped, entre otros.    Según la Organización Mundial de la Salud (OMS), en el año 2000 se presentaron 238 millones de casos de malaria, mientras que en el 2019 se presentaron 229 millones , se presentó una disminución de la incidencia (casos por cada 1 000 habitantes en riesgo) de 80 en el 2000 a 58 en el 2015 y 57 en el 2019 , y se redujeron las tasas de mortalidad en un 60 % en niños menores de cinco años . Aunque la malaria se presenta en 87 países a nivel mundial, los países del África subsahariana aportan la mayor carga de enfermedad en el mundo, alrededor del 94 %, del total de la carga mundial, y países como República Democrática del Congo y Nigeria representan el 34 % de las muertes estimadas por esta causa a nivel mundial.   Brasil, Colombia y Venezuela representan el 77 % de la carga de la enfermedad en la región. La pandemia de COVID-19 durante 2020, generó estancamientos en el progreso contra la malaria y en los programas de control y eliminación de malaria en algunos países, la OMS informó que las alteraciones moderadas en la prestación de los servicios de malaria, las interrupciones del tratamiento y de las pruebas de malaria en algunos países, y la disminución en la asistencia ambulatoria, afectaron el control de la enfermedad.  Actualmente los tratamientos medicos que existen para enfermedades como el cancer no son tan efectivos, por lo cual la nanotecnologia ha venido siendo en los ultimos años un gran area de estudio como apoyo en los medios de transporte de farmacos, las nanoparticulas de oro son el principal enfoque en la actualidad debido a sus propiedades antimicrobianas y termicas. El maestro Jesus Manuel Rivera realiza análisis de nanopartículas mediante espectroscopia fotoacustica, donde la logrado obtener el coeficiente de absorción de las nanopartículas de oro sintetizadas mediante ablación laser y demuestra que es una técnica eficiente para caracterizar este material (Universidad Nacional de Huancavelica, 2022) Es importante saber el estudio térmico de las nanopartículas debido a que el comportamiento térmico de los materiales. Cuando calentamos o enfriamos un material, su estructura y composición pueden cambiar, como la fusión, sublimación, solidificación o descomposición (Analitek, 2022).  



METODOLOGÍA

Para realizar las mediciones  de amplitud y fase utilizamos la espectroscopia fotoacustica, la cual tiene como fundamento el hacer insidir un laser modulado sobre un sistema de dos capas en donde la primera capa es una  muestra termicamente delgada generando el efecto fototermico y provocando una vibracion de las moleculas esto para posteriormente producir calor el cual posteriormente se difundira de forma unidimencional y lo transmitira a la siguiente capa la cual en nuestro caso son liquidos o bien conocidos como semi infinitos las cual generaran ondas sonoras las cual un sensor de sonido las tranformara en informacion para finalmente    Las muestras  fueron cultivadas en laboratorio con alto contenido de parasitemia en estadio esquizonte que aumenta la cantidad de hemozoína y nos fueron brindadas por el INS(Instituto nacional de salud).   Preparación de muestra:   y se realizaron diluciones de 50 microlitros de sangre con paracitos sobre 200 microlitros de sangre normal y 50 microlitros de de sangre con paracitos sobre 200 microlitros de sangre normal Preparación PAS: El glassy carbon de 170 micrometros es usado en la celda fotoacustica como generador del fenomeno fototermico. El sustrato (capa 2) seran las diluciones de sangre Se colocaron 100 microlitros de sangre en la fotocelda y se utilize un rango de frecuencia de 2 a 100 Hz debido a que es el rango en donde se puede trabajar mejor con estas muestras.   Análisis de muestras NPs: Las nanoparticulas fueron sintesidas en la Pontificia Universidad Javeriana por mateo zutta, estas pertenecen a un Proyecto de investigacion donde se busca la  caracterizacion de las nps especialmente la  caracterizacion termica.  Para la medicion de las nanoparticulas se utilizo como primera capa aluminio de 130 micrometros y se realizaron diluciones en serie al 80,40,20 y 10% teniendo como factor de dilucion 1.6 militros para verificar a que concentraciones se es capaz de tener señales significativas. Se  colocaron en la fotocelda  100 microlitros de sangre para cada medicion de sangre de igual manera se dejo la celda Abierto  y con las nanoparticulas se cerro la celda colocando un cristal.


CONCLUSIONES

De este proyecto logre aprender  el fundamento y como se realizan la mediciones mediante espectroscopia fotoacústica la cual es un método de análisis que esta teniendo bastante relevancia para la caracterización de materiales en cualquier rama de la ciencia de igual manera logramos obtener señales de sangre y de nanoparticulas de oro que siguira en investigacion , además pudimos realizar un proyecto con un futuro prometedor con el que con mas investigación puede seguir mejorándose, cabe destacar que de igual manera aprendí mas a fondo como se realiza una investigación del ámbito científico
González Hernández Jocelin Areli, Universidad de Guadalajara
Asesor: Dr. Víctor José Sosa Villanueva, Instituto Politécnico Nacional

PROPIEDADES MAGNéTICAS EN MATERIALES SUPERCONDUCTORES


PROPIEDADES MAGNéTICAS EN MATERIALES SUPERCONDUCTORES

González Hernández Jocelin Areli, Universidad de Guadalajara. Medina Languren Alison Lisbeth, Universidad de Guadalajara. Rodríguez Navarro Nicole Guadalupe, Universidad de Guadalajara. Asesor: Dr. Víctor José Sosa Villanueva, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los materiales superconductores, como el óxido de itrio-bario-cobre (YBCO) expulsan completamente los campos magnéticos internos al entrar en su estado superconductor, lo que se conoce como el efecto Meissner. Esto permite que los superconductores leviten sobre un imán debido a la repulsión magnética. En el estado superconductor, el YBCO puede atrapar líneas de flujo magnético, donde esta capacidad de retener campos magnéticos se utiliza en aplicaciones como la levitación magnética y la construcción de imanes superconductores.



METODOLOGÍA

Con el fin de estudiar el comportamiento de los materiales superconductores con campos magnéticos retenidos, se realizó un escaneo en tres dimesiones para observar el comportaminto del flujo magnético y analizar las líneas de flujo. El material de YBCO primero debera mantenerse en su estado superconductor a traves de nitrogeno líquido, donde se sometera a la presencia de un iman y se producira el efecto Meissner. Posterior a esto, aun siguiendo en su temperatura critica, el iman superconductor sera colocado en un soporte diseñado en SolidWorks e impreso en 3D y posteriormente traves de un sensor de medicion en tres dimensiones sera escaneado y los resultados seran obtenidos en el programa LABView.  Para completar el analisis de los datos obtenidos es necesario configurar el programa de medicion con los variables del entorno como voltaje y temperatura para tener un escaneo mas preciso.


CONCLUSIONES

A partir de los graficos generados se puede considerar que las lineas de flujo siguen un comportamiento que respeta la geometria del material superconductor, de igual manera que el campo magnético retenido es mayor en el centro y en las zonas donde haya imperfecciones estructurales. En conclusión, la investigación sobre las propiedades magnéticas en materiales superconductores demostró que el método elegido para medir el campo magnético fue altamente efectivo. La utilización de una impresora 3D para fabricar un dispositivo que permitía la inmersión continua de los superconductores en nitrógeno líquido garantizó una medición precisa y consistente del campo magnético. Este enfoque innovador no solo facilitó la estabilidad térmica necesaria para mantener los superconductores en su estado óptimo, sino que también proporcionó un entorno controlado que mejoró la exactitud de los resultados obtenidos. Así, el método empleado probó ser una herramienta eficaz y confiable para la investigación en propiedades magnéticas de superconductores.
Gonzalez Linares Christopher, Instituto Tecnológico de La Piedad
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

PREDICCIóN DE SISTEMAS FINANCIEROS MEDIANTE REDES NEURONALES HíBRIDAS


PREDICCIóN DE SISTEMAS FINANCIEROS MEDIANTE REDES NEURONALES HíBRIDAS

Belmont Zúñiga Rubén, Instituto Politécnico Nacional. Gonzalez Linares Christopher, Instituto Tecnológico de La Piedad. Pedroza Sierra Angel, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el modelado de sistemas financieros, las redes neuronales son potentes herramientas para la predicción de datos. Sin embargo, un reto importante es reducir el número de parámetros entrenables. Los modelos con muchos parámetros pueden ofrecer una gran precisión, pero también tienen una mayor complejidad computacional y necesitan más recursos para su entrenamiento. El problema radica en la necesidad de innovar y diseñar arquitecturas de redes neuronales que mantengan un alto rendimiento en el modelado de sistemas financieros, pero que al mismo tiempo requieran un menor número de parámetros entrenables. El objetivo de esta investigación es proponer arquitecturas de redes neuronales hı́bridas que optimicen el equilibrio entre el número de parámetros entrenables y el desempeño predictivo del modelo.



METODOLOGÍA

La metodología de esta investigación se describe a continuación: Recopilar y preparar el conjunto de datos históricos: Obtención de la base de datos: Se utilizaron las páginas de Investing.com y finance.yahoo.com para recopilar datos históricos tanto de acciones individuales como del índice S&P/BMV IPC. La base de datos corresponde al precio de cierre de acciones de Banorte, BBVA, BMV, Inbursa y cierre del índice S&P/BMV IPC en el periodo comprendido de 2010-01-04 a 2024-03-15. Limpieza y preprocesamiento de datos: Los datos recopilados se sometieron a un proceso de limpieza para eliminar datos faltantes y cualquier inconsistencia. Este paso también se incluye un escalamiento de los datos para trabajar con valores entre 0 y 1. División del conjunto de datos: El conjunto de datos fue dividido en conjuntos de entrenamiento (70%) y de prueba (30%). Realizar la programación para obtener el tiempo de retardo: Para determinar un tiempo de retardo adecuado, se utiliza la función de información mutua. Esta función permite cuantificar la cantidad de información entre la serie temporal original y la serie temporal retrasada para diferentes valores del tiempo de retardo. Luego, la Información Mutua Promedio (AMI, por sus siglas en inglés) es utilizada para elegir el tiempo de retardo. Realizar la programación para obtener la dimensión embebida: Se utilizó el algoritmo de falsos vecinos cercanos (FNN, por sus siglas en inglés). Este método identifica aquellos puntos que permanecen cercanos al pasar de una dimensión m a una dimensión m+1. Si los puntos se alejan considerablemente en la nueva dimensión, se consideran falsos vecinos. La distancia entre los puntos se calcula mediante una fórmula específica. La dimensión embebida adecuada se elige como aquella en la que el porcentaje de falsos vecinos es menor al 10%. Realizar la programación de la operación convolucional en una red neuronal híbrida: Se programó la operación convolucional de una red neuronal híbrida. Se utilizó Google Colab como entorno de trabajo, los códigos fueron elaborados en Python utilizando las bibliotecas de TensorFlow y Keras. Realizar la programación de la parte paramétrica para la regularización de datos: Se implementó un codificador variacional para cubrir la parte paramétrica mediante la integración de una regularización del espacio latente bajo una distribución estandar, y la función pérdida KL divergence (divergencia de Kullback-Leibler). Comparar el modelado de las redes propuestas con las propuestas de la literatura actual: Evaluación de las redes neuronales propuestas: Se evaluaron las redes propuestas en términos de desempeño y cantidad de parámetros entrenables. Los modelos fueron entrenados con un número de épocas que varía de 100 a 200, el optimizador que se utilizó fue Estimador de momentos adaptativos (ADAM, por sus siglas del inglés: Adaptive Moment Estimation), se utilizó un factor de aprendizaje de 0.001. Para actualizar los pesos de las redes se utilizó la métrica de error cuadrático sobre dos y para evaluar el desempeño de las redes se utilizó la métrica de raíz del error cuadrático medio. Reportar los resultados obtenidos: Análisis de resultados: Se analizaron los resultados obtenidos, destacando las fortalezas y debilidades de las arquitecturas propuestas. Productos obtenidos: Se realizaron exposiciones para dar a conocer los avances y resultados de la investigación. Así mismo, se está trabajando en la elaboración de artículos para ser presentados en congresos.  


CONCLUSIONES

Durante la estancia se adquirieron conocimientos de ténicas tecnológicas avanzadas e innovadoras, particularmente sobre redes neuronales. Utilizando estos conociemientos, se construyeron seis redes neuronales híbridas con una arquitectura innovadora, los cuales se listan a continuación: Codificador Convolucional combinado con una red neuronal densa (MLP, por las siglas en inglés de Multilayer Perceptron). Codificador Convolucional combinado con una red neuronal recurrente (RNN, por las siglas en inglés de Recurrent Neural Network). Codificador Convolucional combinado con una red neuronal recurrente LSTM (por las siglas en inglés de Long Short-Term Memory). Codificador Variacional combinado con una red neuronal densa (MLP, por las siglas en inglés de Multilayer Perceptron). Codificador Variacional combinado con una red neuronal recurrente (RNN, por las siglas en inglés de Recurrent Neural Network). Codificador Variacional combinado con una red neuronal recurrente LSTM ( por las siglas en inglés de Long Short-Term Memory). Gracias al diseño innovador de las arquitecturas de las redes propuestas, todos nuestros modelos de redes neuronales cuentan con pocos parámetros entrenables (menos de 30 en todos los casos). Además se logró obtener un bajo error de validación y de entrenamiento (menos de 4% en todos los casos), ası́ como reducir ampliamente el costo computacional de entrenamiento los modelos. Se espera continuar con la investigación y la escritura del artı́culo, con el objetivo de publicarlo en revistas y congresos.
González Lona Juan Ariel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Valeriy Dvoeglazov, Universidad Autónoma de Zacatecas

TEOREMA DE NOETHER Y LAGRANGIANOS EN TEORíA CUáNTICA DE CAMPOS


TEOREMA DE NOETHER Y LAGRANGIANOS EN TEORíA CUáNTICA DE CAMPOS

González Lona Juan Ariel, Benemérita Universidad Autónoma de Puebla. Varela Solis Dalila, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Valeriy Dvoeglazov, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Actualmente las teorías modernas de la física se basan en un principio de acción que tienen a su vez asociado un lagrangiano. Este lagrangiano se construye de tal manera que sea invariante bajo ciertas transformaciones. A las transformaciones que dejan invariantes los lagrangianos hasta un término de superficie se les dice que son simetrías varacionales o simplemente simetrías. Por otro lado, el teorema de Noether nos dice que por cada simetría vamos a tener una constante de movimiento que también reciben el nombre de cantidades conservadas o invariantes dinámicos.  Durante el verano de investigación se calcularon los invariantes dinámicos asociados con ciertos lagrangianos que son de gran importancia en lo que se conoce como teoría cuántica de campos.



METODOLOGÍA

Se buscó en la literatura más información sobre el tema para tener una base más sólida. Comenzamos buscando información primero sobre sistemas de partículas y la transición de la formulación Newtoniana a la Lagrangiana que es donde el teorema de Noether se puede expresar con mayor facilidad. En particular se estudiaron los conceptos de acción, lagrangiano, grado de libertad, constante de movimiento, lagrangianos equivalentes y transformación de simetría. El próximo paso fue estudiar la transición de sistemas de partículas a campos (sistemas con un infinito, no numerable, grado de libertad) y como el papel de la lagrangiana era ahora sustituido por una densidad lagrangiana. También, como en teoría cuántica de campos  (QFT por sus siglas en inglés) se trata con campos relativistas, se hizo un repaso de relatividad especial. Se estudiaron principalmente los conceptos de cuadrivectores y transformaciones de Lorentz. Con esto ya se pasó a generalización del Teorema de Noether ahora para campos. Los lagrangianos sometidos a estudio fueron los de campo escalar real campo escalar complejo campos electromagnéticos libres (y lagrangianos equivalentes) campo de Dirac (espinorial) campo de Dirac y Maxwell interactuando Debido a que el campo de Dirac es un campo espinorial, se estudió la naturaleza de los espinores como el espacio de representación de la representación espinorial del grupo de Lorentz con unos ciertos generadores. También para los campos electromagnéticos libres se estudió la notación relativista de las ecuaciones de Maxwell y un poco sobre las transformaciones de norma o gauge que son transformaciones hechas en el cuadripotencial de campo electromagnético pero que dejan los campos eléctrico y magnético invariantes. Al usar las ecuaciones de Euler-Lagrange para los lagrangianos de campo electromagnético libre, lo que se hace usualmente en la literatura es fijar la norma, sin embargo, en este trabajo no se fijó la norma para calcular los invariantes dinámicos y se tomó todo en función del cuadripotencial y no del tensor de Faraday. Con estos detalles en cuanta se procedió a calcular los invariantes dinámicos por medio del teorema de Noether, siendo el invariante más interesante el tensor de energía-momento de cada tipo de campo.


CONCLUSIONES

Durante la estancia de verano se logró obtener un conocimiento más profundo de algunas teorías (aún es su versión clásica) de campos que posteriormente se volverán importantes en QFT. Un resultado que puede ser interesante es el hecho que los tensores de energía-momento no necesariamente tienen que ser simétricos. La justificación usual que se encuentra en la literatura para que el tensor de energía momento sea simétrico es que debe ser proprcional a la derivada del lagrangiano respecto al tensor métrico, el cual es simétrico. Sin embargo, para el campo electromagnético la variación es respecto al cuadripotencial por lo que esta justificación no resulta adecuada. También hay un metódo más "artesanal" para adquirir el tensor de energía momento directamente de las ecuaciones de Maxwell y este resulta simétrico. Sin embargo, este tensor es totalmente equivalente al que se encuentra con el teorema de Noether ya que conducen a la misma cantidad conservada, aunque aparentemente las densidades de energía o de momento sean diferentes. Aún con lo anterior siempre es posible simetrizar el tensor obtenido por el teorema de Noether sin embargo esto parece no ser un requisito indispensable. Otros resultados que se planean obtener en el futuro es aprovechar la experiencia con los campos electromagnéticos para estudiar ahora el campo  de Kalb-Ramond.
González Méndez José Yered, Universidad Autónoma del Estado de México
Asesor: Lic. Patricia Lizeth Barbosa Cárdenas, Universidad de Guadalajara

EL BURNOUT EN LAS MATERIAS DE MATEMáTICAS EN ESTUDIANTES DE ESCUELAS PRIVADAS EN PUERTO VALLARTA


EL BURNOUT EN LAS MATERIAS DE MATEMáTICAS EN ESTUDIANTES DE ESCUELAS PRIVADAS EN PUERTO VALLARTA

González Méndez José Yered, Universidad Autónoma del Estado de México. Asesor: Lic. Patricia Lizeth Barbosa Cárdenas, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El síndrome de Burnout es un estrés crónico que tiene efectos negativos a nivel individual y contextual; caracterizado por cansancio emocional, despersonalización y dificultad para alcanzar logros personales.  El estudiante de educación superior, se expone a problemáticas, desafíos, exigencias y decisiones de diferente índole debido a su contexto familiar, laboral y educativo, estos pueden constituirse como fuentes de estrés; cuando no se logra adaptar a contextos donde recurrentemente existen eventos de estrés se desencadenan sensaciones de no poder más y un comportamiento negativo de autocrítica, desvalorización y desinterés generando un efecto de duda acerca de la capacidad para realizar algo.   La principal causa que provoca este síndrome es el estrés, teniendo en cuenta esto, las actividades diarias dentro de la vida universitaria son una fuente de estrés, especialmente las actividades realcionadas con asignaturas de matemáticas dado su grado de dificultad, impactando de manera significativa en el desempeño escolar, el aprendizaje y la formación. 



METODOLOGÍA

Se utilizó una investigación con un enfoque cualitativo para comprender los fenómenos desde la opinión de los participantes (alumnos de nivel superior) y la relación con su contexto. Generando una perspectiva completa y detallada de lo que piensan los encuestados proporcionando resultados concretos, realistas y pertinentes. El tipo de estudio fue descriptivo a tráves de un cuestionario con un diseño no experimental transversal.  Se hizo uso de un instrumento (cuestionario) validado anteriormente realizando las adecuaciones pertinentes al contexto estudiantil de nivel superior. Después se validó por experto en si constructo, una vez finalizado, se procedió a validar con una muestra piloto de alumnos para su entendimiento, posterior a ello, se aplicó en campo. 


CONCLUSIONES

El propósito de la investigación fue examinar la forma en que los alumnos de nivel superior perciben y experimentan el estrés derivado de las asignaturas de matemáticas.  Como conclusión de la estancia, se logró cumplir con el objetivo de la investigación al analizar la conceptualización y características del burnout por medio de una revisión teórica, que permitió la adaptación del instrumento de campo, así como la validación del mismo por medio de panel de expertos. Además de lo anterior, la aplicación del instrumento está en curso en alumnos de nivel superior específicamente en las materias de matemáticas. Posteriormente se analizará los resultados.  
González Pérez Leonel Gerardo, Universidad de Guadalajara
Asesor: Dr. Rafael Hernández Jiménez, Universidad de Guadalajara

FORMACIÓN DE AGUJEROS NEGROS PRIMORDIALES A TRAVÉS DEL MECANISMO DE WARM INFLATION


FORMACIÓN DE AGUJEROS NEGROS PRIMORDIALES A TRAVÉS DEL MECANISMO DE WARM INFLATION

González Pérez Leonel Gerardo, Universidad de Guadalajara. Asesor: Dr. Rafael Hernández Jiménez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los agujeros negros son una de las predicciones más fascinantes de la teoría de la relatividad general de Einstein, donde la concentración gravitacional es tan intensa que ni siquiera la luz puede escapar de estas regiones.   El propósito de este proyecto es entender la formación agujeros negros primordiales (primordial black holes(PBH)). Estos agujeros negros se originaron poco después del Big Bang bajo condiciones extremas de densidad y temperatura. Son de gran interés porque podrían constituir una fracción significativa de la materia oscura del universo y proporcionar información crucial sobre las condiciones del universo temprano.   La formación de agujeros negros primordiales está ligada a las fluctuaciones de densidad en el universo temprano y a procesos como la inflación cósmica. La inflación es una expansión extremadamente rápida del universo que ocurrió en una fracción de segundo después del Big Bang,causada por un campo escalar llamado inflatón.   Para llevar a cabo este estudio, se utilizaron modelos de warm inflation (inflación tibia), escenario donde la temperatura juega un rol importante, con un potencial cuártico. Estos modelos permiten simular las condiciones del universo temprano y evaluar cómo las fluctuaciones cuánticas y las características del campo inflacionario influyen en la creación de agujeros negros primordiales. Analizando las ecuaciones de la inflación cálida y utilizando simulaciones numéricas, se podrá modelar las condiciones del universo temprano y determinar qué tipo de agujeros negros se podrían formar bajo diferentes parámetros inflacionarios.   Este estudio no solo contribuirá a nuestro entendimiento de los agujeros negros primordiales, sino que también proporcionará información valiosa sobre la evolución del universo en sus primeros momentos y la naturaleza de la materia oscura.



METODOLOGÍA

El principal enfoque de este estudio es investigar la formación de estructuras en el universo primigenio a través del mecanismo de warm Inflation. De acuerdo a la literatura, la formación de agujeros negros primordiales requiere valores del Power Spectrum del orden cercano a 10^-2, inclusive uno o dos ordenes menores. Para alcanzar estos valores, es fundamental resolver las ecuaciones de fondo y de perturbaciones de warm Inflation y desarrollar los parámetros de slow-roll. Para ello se requiere definir el tipo de potencial utilizado como el coeficiente de disipación en el contexto de warm Inflation.   En este estudio, se consideraron dos modelos de interacciones fundamentales dentro de un esquema de wam inflation: el modelo estándar y un modelo basado en supersimetría. Para ambos ejemplos, se empleó un potencial cuártico en combinación con dos tipos de coeficientes disipativos: uno dependiente de la temperatura y otro dependiente del campo inflatón.   Se trabajó con un código numérico en C++ para resolver las ecuaciones de la dinámica inflacionaria, lo que permitió obtener los datos necesarios para realizar un ajuste con series de potencias del Power Spectrum reescalado en función del Power Spectrum observacional. Este ajuste consideró tanto el número de onda k como un número de onda pivote k_0. Además, se llevó a cabo un ajuste exponencial basado en el número de e-folds, medida que determina los pliegues en el que el universo se expande.   Dado que el valor del Power Spectrum observacional es del orden de 10^-9 y las condiciones necesarias para la formación de agujeros negros primordiales requieren que el Power Spectrum crezca en al rededor de 7 órdenes de magnitud, se realizó un ajuste lineal con los valores numéricos obtenidos, igualándolos a 10^7. Este procedimiento permitió encontrar la relación entre los valores de k y k_0 utilizados en las observaciones del satélite Planck, y así determinar los valores de k.   Estos cálculos se realizaron para ambos modelos, mostrando que en el modelo estándar, la inflación termina en 50 e-folds, mientras que en el modelo de supersimetría, el proceso inflacionario concluye en 60 e-folds. Una vez determinados estos valores de k, se utilizaron en las ecuaciones pertinentes para la formación de agujeros negros primordiales, calculando la masa de estos en función del factor disipativo, el k_PBH, siendo ésto el número de onda asociado a la formación del agujero negro primordial, y un k normalizado.


CONCLUSIONES

Para el modelo estándar se trabajó con una cota, dado que para este modelo inflación termina en 50 e-folds, se trabajó con una cota mínima antes de la finalización de inflación a 45 e-folds y una máxima a 50 e-folds, dando lugar a agujeros negros primordiales con masas estimadas entre 1.0114*10^6 masas solares y 7714.43 masas solares al finalizar inflación. En contraste, el modelo de   supersimetría que finaliza a 60 e-folds, indica que se pueden producir agujeros negros primordiales de aproximadamente 224.513 masas solares. Estos resultados sugiere la posibilidad de formar agujeros negros primordiales de diferentes tamaños, desde algunos masivos hasta unos de tamaño estelar, dependiendo del modelo inflacionario utilizado. Estos resultados coinciden con la literatura existente, que establece una relación inversa entre la masa del agujero negro y el número de onda. Según los modelos utilizados, se espera que la formación de agujeros negros primordiales de tamaño estelar sea la más común, con la posibilidad de algunos de tamaño masivo, similares a los que se encuentran en el centro de galaxias.   Aunque la literatura sugiere la existencia de agujeros negros primordiales más pequeños que la masa solar, nuestros resultados no lograron identificar estos objetos. Esto podría deberse a que, de acuerdo con la teoría de la radiación de Hawking, dichos agujeros negros pequeños se habrían evaporado antes de alcanzar la época actual.
Gortarez Blanco Manuel Eduardo, Universidad de Sonora
Asesor: Dr. Miguel Angel Uh Zapata, Centro de Investigación en Matemáticas (CONACYT)

DESARROLLO DE UNA INTERFAZ PARA LA SIMULACIóN DE FLUJOS EN AGUAS SOMERAS


DESARROLLO DE UNA INTERFAZ PARA LA SIMULACIóN DE FLUJOS EN AGUAS SOMERAS

Camacho Ortiz Hannia Berenice, Universidad de Sonora. Gortarez Blanco Manuel Eduardo, Universidad de Sonora. Medina Lugo Fausto Misael, Universidad de Sonora. Michel Pinto Bruno Santiago, Universidad Autónoma de Baja California. Asesor: Dr. Miguel Angel Uh Zapata, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Un fluido se define como un medio continuo y fácilmente deformable que puede ser líquido o gaseoso. El estudio de los gases comenzó con los trabajos de Bernhard Riemann sobre las ondas de choque en 1876, consolidándose en el siglo XX debido al interés en la aeronáutica generado por las guerras mundiales. En comparación, el estudio de los líquidos tiene una historia mucho más antigua, con los primeros sistemas de riego que datan de hace 30,000 años. El enfoque inicial sobre los líquidos fue la hidráulica, que era práctico y experimental, permitiendo la construcción de sistemas de riego, cisternas y acueductos. No fue hasta el siglo XVIII que matemáticos como Euler, Clairaut, d’Alambert y Bernoulli desarrollaron la hidrodinámica, el estudio analítico del agua. En 1904, la teoría de la capa límite de Ludwig Prandtl unificó los enfoques experimental y analítico en la Mecánica de Fluidos. Destacan las contribuciones de Navier y Stokes, quienes formularon las ecuaciones diferenciales parciales que gobiernan el movimiento de los fluidos, conocidas como ecuaciones de Navier-Stokes. Estas ecuaciones representan el comportamiento general de un fluido en tres dimensiones. Sin embargo, para flujos en aguas poco profundas, se simplifican en las ecuaciones de Saint-Venant. Encontrar soluciones analíticas a estas ecuaciones no siempre es posible o práctico, por lo que se han desarrollado métodos numéricos para aproximar soluciones precisas. El objetivo de este trabajo es desarrollar una interfaz que permita al usuario crear simulaciones de flujos de aguas poco profundas. En esta interfaz, el usuario podrá añadir obstáculos en un dominio rectangular de 4x2 metros y, al estar satisfecho con el diseño, iniciar la simulación con un solo clic. El sistema resolverá automáticamente las ecuaciones de Saint-Venant para varios pasos de tiempo, mostrando las soluciones en pantalla en tiempo real, permitiendo observaciones rápidas e intuitivas sobre cómo el flujo de agua se ve afectado por los obstáculos añadidos.



METODOLOGÍA

**Interfaz** Se desarrolló un Paint dónde el usuario pueda dibujar los obstáculos. El display del canvas para dibujar la figura a mallar es un programa elaborado en Python utilizando la librería Tkinter. Este programa ofrece una variedad de brochas para generar figuras y la opción de realizar trazos a mano alzada, asegurando que no haya cruces ni intersecciones entre figuras. Al finalizar el dibujo, el botón de simular genera los archivos necesarios y comienza la simulación en tiempo real. La malla se puede modificar durante la simulación y ésta se adaptará a los cambios. Si se borra el dibujo, la simulación se detiene. La malla se realiza con Gmsh en cuatro etapas: definición de geometría, establecimiento del dominio computacional, etiquetado y especificación del tipo de mallado. **Simulación** Para simular el fluido, se resuelven numéricamente las ecuaciones de Saint-Venant, derivadas de las ecuaciones de Navier-Stokes. Estas ecuaciones de advección-difusión describen el flujo del agua, considerando las componentes horizontales de la velocidad y otros parámetros físicos. También se incluye una ecuación tipo Poisson para determinar el nivel del agua. La solución numérica se obtiene utilizando el método de volúmenes finitos, que integra las ecuaciones en cada elemento triangular de la malla y aproxima las integrales resultantes. Este método fue implementado en el programa RTSUFVM escrito en Fortran 90 por el Dr. Miguel Angel Uh Zapata, que toma los archivos generados por el Paint y realiza la simulación del fluido. **Visualización** Los datos generados por el simulador en Fortran 90 se grafican utilizando ParaView, una aplicación de código abierto para la visualización y análisis de datos científicos. ParaView maneja grandes conjuntos de datos y se usa en diversas disciplinas científicas e ingenierías. **Ensamble** Para integrar simulaciones en tiempo real con ParaView y un Paint desarrollado en Python, se sigue un proceso estructurado. El Paint permite dibujar figuras que se convierten en un archivo .geo para que Gmsh genere la malla en un archivo .vtk. Este archivo es procesado por mesh-5.0 para generar un archivo .txt con los detalles del dominio. Este archivo es usado por el programa de simulación RTSUFVM, que genera múltiples archivos .vtk para visualización en ParaView. Un script automatiza todo el proceso, asegurando la correcta ejecución de Gmsh, mesh-5.0 y RTSUFVM, transfiriendo los archivos necesarios entre cada paso. Un archivo Python, ejecutado por pvpython, configura la visualización en ParaView, ajustando colores, zoom y velocidad de animación para mostrar los resultados en tiempo real. Para simplificar la ejecución y compilación del proyecto, un script principal (run.sh) automatiza todo el proceso, permitiendo a los usuarios modificar parámetros clave para personalizar la simulación y visualización sin realizar compilaciones manuales cada vez que se realiza un cambio.


CONCLUSIONES

En este trabajo, se ha desarrollado una interfaz interactiva para la simulación de flujos en aguas someras. Esta interfaz permite a los usuarios diseñar y modificar dominios con obstáculos, observando los efectos en tiempo real. La combinación de herramientas como Python, Tkinter, Gmsh, Fortran 90 y ParaView ha permitido crear una solución eficiente y práctica. Esta herramienta ofrece una forma interactiva y atractiva de aprender sobre la simulación de fluidos, siendo útil para la divulgación científica y educativa.
Grajales Lodoño Maria Camila, Universidad La Gran Colombia
Asesor: Dra. Dulce Yaahid Flores Renteria, Instituto Politécnico Nacional

INFLUENCIA DEL USO Y MANEJO DEL SUELO EN LA RESPIRACIóN BASAL E INDUCIDA POR SUSTRATO


INFLUENCIA DEL USO Y MANEJO DEL SUELO EN LA RESPIRACIóN BASAL E INDUCIDA POR SUSTRATO

Grajales Lodoño Maria Camila, Universidad La Gran Colombia. Rivas Loaiza Sara Alejandra, Institución Universitaria Colegio Mayor de Antioquia. Asesor: Dra. Dulce Yaahid Flores Renteria, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La respiración basal del suelo se refiere a la tasa de producción de dióxido de carbono (CO₂) por los microorganismos del suelo bajo condiciones naturales, sin la adición de sustratos externos. Este proceso es una medida de la actividad microbiana intrínseca y refleja la descomposición de la materia orgánica nativa del suelo. Por otro lado, la respiración inducida por sustrato es la tasa de producción de CO₂ tras la adición de un sustrato específico, como la glucosa, que sirve como fuente de carbono y energía para los microorganismos. El objetivo principal fue evaluar cómo las prácticas agrícolas y ganaderas afectan la actividad respiratoria del suelo, proporcionando una comprensión más profunda de la dinámica microbiana bajo diferentes condiciones de manejo convencionales y regenerativas.



METODOLOGÍA

Para este experimento se utilizó suelo de distintas procedencias con un diseño factorial, según su uso del suelo (agrícola y ganadero) y el manejo aplicado (convencional y regenerativo). Se prepararon las muestras de suelo de seis sitios distintos, para un total de 48 muestras. Cada muestra fue sometida a la adición de agua (0.325 ml por cada g de suelo) o glucosa con agua (0.005 g de glucosa + 0.325 ml de agua por cada g de suelo), para analizar la respuesta de los suelos como respiración basal y respiración inducida por sustrato, respectivamente. La actividad respiratoria del suelo se midió inmediatamente después de la hidratación y a lo largo del día en otras cuatro ocasiones, con un analizador de gases infrarrojo EGM-5. Los datos se analizaron mediante un análisis de varianza (ANOVA) y la prueba de diferencia de medias de Tukey, con un nivel de significancia de P ≤ 0.05.


CONCLUSIONES

Los resultados mostraron que, en cuatro de las cinco mediciones, la respiración del suelo fue mayor en las muestras tratadas con glucosa en suelos provenientes de uso ganadero, tanto bajo manejo regenerativo como convencional. En la quinta medición, se observó un ligero incremento en la respiración del suelo agrícola (promedio 0.124 ± 0.035 g de CO₂ m⁻² h⁻¹) en comparación con el ganadero (promedio 0.081 ± 0.028 g de CO₂ m⁻² h⁻¹). Este estudio demuestra que la adición de sustratos como la glucosa puede aumentar la actividad microbiana en el suelo, especialmente en terrenos de uso ganadero. Además, resalta la importancia del manejo del suelo, ya que las prácticas regenerativas pueden influir positivamente en la respiración del suelo, promoviendo un ecosistema más activo y saludable. Estos hallazgos son cruciales para desarrollar estrategias de manejo sostenible que optimicen la salud del suelo y su capacidad para sustentar la producción agrícola y ganadera a largo plazo.
Grajales Vázquez Andrea Kristal, Universidad de Ciencias y Artes de Chiapas
Asesor: Dra. Paloma Gallegos Tejeda, Universidad de Guadalajara

EXPERIENCIA AGROECOLóGICA DELFíN 2024: EXPLORANDO EL PATRIMONIO AGROALIMENTARIO EN TLAJOMULCO DE ZúñIGA.


EXPERIENCIA AGROECOLóGICA DELFíN 2024: EXPLORANDO EL PATRIMONIO AGROALIMENTARIO EN TLAJOMULCO DE ZúñIGA.

Grajales Vázquez Andrea Kristal, Universidad de Ciencias y Artes de Chiapas. Asesor: Dra. Paloma Gallegos Tejeda, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La experiencia en investigación Delfín 2024 se desarrolló en el proyecto Conservación del paisaje agroecológico de la zona Cajititlán-Cerro Viejo, Tlajomulco de Zúñiga, Jalisco, México para la soberanía alimentaria En la periurbanización del sur del Área Metropolitana de Guadalajara (AMG) el crecimiento urbano acelerado, intensifica el deterioro de los sistemas productivos, recursos naturales y formas de vida del cuidado de la tierra en zonas rurales como los pueblos tradicionales de Tlajomulco de la rivera de la laguna de Cajititlán. Aunado a la industria inmobiliaria, la presión hacía la agricultura alternativa tradicional es de la agroindustria quienes a partir de monocultivos como los de agave donde prevalece el uso de agroquímicos que van a parar al cuerpo de agua limitan a los agricultores tradicionales a seguir trabajando. En un enfoque paisajístico se observan elementos técnicos culturales que muestran la riqueza del patrimonio agroalimentario de Tlajomulco. Las evidencias de la existencia del patrimonio agroalimentario se observan por ejemplo en la Casa del Maíz donde se encuentran variedades de maíz importantes para la región como lo caracteriza la CONABIO.  Así surge la Red Ecológica de Autoabasto para la Soberanía Alimentaria (REALSA) del Centro Universitario de Tlajomulco proyecto adscrito al departamento de Salud y Enfermedad como proceso individual y colectivo de la División de Salud donde se organizan actividades como: Ferias agroecológicas, conversatorios, talleres, cursos de capacitación, se establecen sistemas productivos experimentales y se fomenta las actividades culturales del cuidado de la tierra. Por lo anterior el proyecto de investigación desde la Investigación Acción Participativa establece proyectos como el sistema keyline en el CU Tlajo de la Universidad de Guadalajara y en el Bosque Escuela de Agricultura Regenerativa BEAR. Además de distintas formas de siembra y procesos de capacitación y comercialización como forma de reconocimiento de los elementos paisajísticos de un paisaje que abona a la Soberanía Alimentaria. Así el objetivo de la investigación es caracterizar el patrimonio agroalimentario para la soberanía alimentaria de Tlajomulco y generar alternativas para su conservación.



METODOLOGÍA

La metodología es de Investigación Acción Participativa, ya que el investigador toma un papel activa en la promoción de la solución de los problemas observados para promover soluciones. En este caso se utilizaron diversos métodos, los cuales van desde la observación participativa con registro en bitácora de trabajo de campo y el registro de memoria fotográfica de diversos proyectos agroecológicos. En ellos agricultores e investigadores se involucran activamente en la conservación del entorno, por ejemplo, el proyecto del Charco Bendito en San Lucas Evangelista, su premisa es conservar y proteger el suelo, el agua y la biodiversidad. El proyecto de La Casa Del Maíz, proyecto de agricultura familiar de rescate y conservación a las semillas del maíz, transforman la materia prima y crean productos de maíz para comercialización, cuentan con un museo viviente de más de 25 variedades de semillas, los platillos que ofrecen son tradicionales de la zona, además, de talleres ambientales para la concientización de la importancia del maíz. El proyecto Bosque Escuela de Agricultura Regenerativa (BEAR), el cual se encarga de la conformación de una red de productores para el autoabastecimiento y la soberanía alimentaria, además de rescatar y conservar suelo y agua, se constituye como un espacio de aprendizaje y demostración de la aplicación de ecotécnicas y agroecología para la experimentación de distintos proyectos. Por último, el proyecto de pedagogía agroecológica Huerto Universitario Cu Tlajo, el cual es un huerto mándala con producción de agricultura natural y biointensiva, donde se muestra todos los elementos del lugar. Cabe mencionar que en el sistema Keyline, usado en la agricultura regenerativa como sistema de administración inteligente del agua y regeneración del suelo. Como parte de las mediciones que desarrolle, se tomaron los niveles de las curvas del sistema para rectificar el movimiento del agua con un nivelador láser. Otro elemento a resaltar fue el registro del dialogo de saberes acontecido en la feria agroecológica, en donde se promovió el intercambio de conocimientos entre agricultores, científicos y la comunidad, la feria agroecológica fue un espacio para compartir experiencias, comercio justo y aprendizaje mutuo. La información obtenida y la sistematización de la experiencia se presentó en la feria de la ciencia comunitaria que se presentó en la plaza principal de la cabecera municipal organizada por el Cu Tlajomulco de la Universidad de Guadalajara.


CONCLUSIONES

Durante la estancia del verano Delfín observó la importancia de la aplicación de conocimientos diversos, para involucrarse activamente en experimentos y proyectos agroecológicos que promuevan una agricultura sostenible, el aprendizaje del método de Keyline, de las técnicas de agricultura y habilidades para el manejo de grupos y trabajo colaborativo, reforestación, además de la introducción al manejo de equipos de medición topográfica y maquinaria. La importancia de la divulgación de la ciencia y el uso de herramientas como los infogramas con lo que se visualiza la diversidad de cultivos, practicas e impactos de los diferentes proyectos agroecológicos, La investigación agroecológica no solo enriquece la formación profesional, sino también amplía el campo de acción de las ciencias de la tierra desde una perspectiva de cuidado de esta misma, es esencial seguir explorando y compartiendo conocimientos para un futuro más sustentable.
Grandi Liceaga Frida Sofía, Universidad Veracruzana
Asesor: Dr. Jesús López Hernández, Universidad Autónoma de Sinaloa

EXPLORANDO LA QUíMICA DEL UNIVERSO: DETERMINACIóN DE OXíGENO EN EN REGIONES DE FORMACIóN ESTELAR EN GALAXIAS CERCANAS.


EXPLORANDO LA QUíMICA DEL UNIVERSO: DETERMINACIóN DE OXíGENO EN EN REGIONES DE FORMACIóN ESTELAR EN GALAXIAS CERCANAS.

Grandi Liceaga Frida Sofía, Universidad Veracruzana. Asesor: Dr. Jesús López Hernández, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La determinación de la metalicidad de galaxias, en particular la abundancia de oxígeno, es crucial para entender la evolución química y física del universo. La relación entre la intensidad de las líneas de emisión de [N II] λ6584 y Hα se ha demostrado como una herramienta efectiva para estimar la abundancia de oxígeno, conocida como el estimador N2. Este pryecto utiliza el método N2 para mapear la abundancia de oxígeno en galaxias, aprovechando datos espectroscópicos de alta calidad proporcionados por el proyecto Mapping Nearby Galaxies at Apache Point Observatory (MaNGA) del Sloan Digital Sky Survey (SDSS).



METODOLOGÍA

Utilizamos los datos de cubo de MaNGA DRPALL, que contienen información espectroscópica de galaxias en tres dimensiones (espectral y espacial). Se aplicó una corrección de redshift a las longitudes de onda para ajustar las observaciones a su estado reposo. Selección de Líneas de Emisión: Se seleccionaron las regiones de longitud de onda correspondientes a las líneas de emisión de Hα (6564 Å) y [N II] (6584 Å). Estas líneas son críticas para el cálculo de la relación N2. Ajuste de Curvas Gaussianas: Para cada píxel del cubo de datos (dimensiones 6732, 54, 54), se realizó un ajuste de curvas gaussianas a las líneas de emisión de Hα y [N II]. Este proceso permitió calcular el flujo de cada línea de emisión. Cálculo de la Relación N2: La relación N2 se calculó como el logaritmo del cociente entre los flujos de [N II] y Hα. Para evitar errores debido a flujos negativos o inexistentes, se asignó un valor predeterminado a estos casos. Mapeo de la Abundancia de Oxígeno: Usando la ecuación de calibración de la abundancia de oxígeno se generaron mapas de abundancia de oxígeno para cada posición del cubo de datos.


CONCLUSIONES

Los mapas generados proporcionan una visualización detallada de la distribución de la abundancia de oxígeno en las galaxias estudiadas. Estos mapas revelan variaciones espaciales significativas, lo cual es fundamental para entender los procesos de formación y evolución estelar. Los resultados obtenidos confirman la eficacia del estimador N2 para determinar la abundancia de oxígeno en galaxias. La correlación entre N2 y la abundancia de oxígeno sigue la relación lineal esperada, validando la aplicación de este método en estudios de metalicidad galáctica. El uso de datos espectroscópicos de alta calidad de MaNGA ha sido crucial para el éxito de esta investigación. La resolución y la cobertura espectral proporcionadas por MaNGA permiten un análisis preciso y detallado.
Grijalva Jimenez Martin Rodolfo, Universidad Estatal de Sonora
Asesor: Dr. Omar Delgado Rodriguez, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)

DETECCIóN DE FALLAS Y ZONAS POTENCIALES DE SUBSIDENCIA CON EL MéTODO PERFILAJE ELECTROMAGNéTICO (PEM).


DETECCIóN DE FALLAS Y ZONAS POTENCIALES DE SUBSIDENCIA CON EL MéTODO PERFILAJE ELECTROMAGNéTICO (PEM).

Grijalva Jimenez Martin Rodolfo, Universidad Estatal de Sonora. Soberanes Reyes Grecia, Universidad Estatal de Sonora. Asesor: Dr. Omar Delgado Rodriguez, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las zonas de subsidencia pueden tener como causas factores naturales (ej. fallas geológicas), como antropogénicas (ej. sobreexplotación de las aguas subterráneas). Es de gran relevancia delimitar las zonas de futuro desarrollo de agrietamientos en superficie y cavidades en el subsuelo que resultarán en el colapso del terreno y la aparición de socavones. La acción preventiva de controlar el uso de suelo en estas zonas evitaría pérdidas económicas considerables y hasta de vidas humanas. Los métodos geofísicos, en particular los métodos geoeléctricos, han jugado un papel importante en el estudio de fracturas y en la modelación de zonas en desarrollo de cavidades. El método de perfilaje electromagnético (PEM) destaca por su alta productividad en campo, siendo un método de rápido avance para llevar a cabo levantamientos de resistividad en áreas de estudios de gran extensión. En el presente trabajo se aplica el método PEM en dos sitios de estudios, presa El Hundido, SLP y Banco de Materiales, Gto, con el fin de localizar en superficie fallas geológicas y delimitar zonas de alto nivel de fracturamiento propensas al desarrollo de cavidades, zonas colapso y subsidencia del terreno.



METODOLOGÍA

El método PEM consiste en el uso de una bobina transmisora (Tx) y una receptora (Rx) cerca de la superficie del suelo, ya sea en planos horizontales o verticales. La señal electromagnética de frecuencia f emitida se detecta directamente como campo magnético primario en Rx. La corriente alterna generada en la bobina transmisora ​​induce corrientes en el subsuelo, que a su vez crean un campo magnético secundario que también se detecta en Rx. La relación entre ambos campos magnéticos (primario y secundario) en Rx. El CMD MiniExplorer 6L es un equipo multifrecuencia de PEM compuesto por un dispositivo sensor que contiene una bobina transmisora ​​(Tx) y seis bobinas receptoras (Rx) ubicadas en diferentes separaciones (S) de Tx. Diferentes valores de S y f permiten obtener en un mismo punto, simultáneamente, seis valores de s a del suelo, para seis profundidades de estudio diferentes, para cada tipo de polarización del campo electromagnético. Un portasonda con unidad Bluetooth permite un fácil manejo del equipo, mediante unidad de control con GPS se registran valores georreferenciados de s a en mS/m, tanto en modo manual como automático. Los valores de s a se convierten a valores de r a en Ohm.m mediante: r a = 1000 / s a. la profundidad de estudio 2.3 m fue la utilizada para la confección de los mapas de r a , mientras que las seis profundidades de estudios fueron consideradas para la realización de las tomografías eléctricas a partir del método PEM. Para esta investigación se realizaron levantamientos en dos áreas de estudio: presa El Hundido, San Luis Potosí, con una extensión de 17.4 ha, y Banco de Materiales, Guanajuato, con una extensión de 4.3 ha. Con el fin de obtener mapas de r a , una velocidad promedio de caminata de 4 Km/h fue considerada, y una adquisición automática de mediciones georreferenciadas cada 2 s fue programada, lo que garantizó tener puntos de medición cada 2 m aproximadamente a lo largo del recorrido. Los recorridos, separados entre sí alrededor de 8 m, se realizaron en direcciones perpendiculares a las fracturas visibles en cada sitio de estudio. Los datos obtenidos en cada sitio fueron procesados y construido el mapa de r a , utilizado el programa Surfer v.16. Para la realización de perfiles de Tomografía de Resistividad Eléctrica a partir del método PEM (TRE-PEM), se realizaron mediciones automáticas cada 1.2 s a lo largo de una línea o perfil. Posteriormente, los datos adquiridos a lo largo del perfil fueron procesados utilizando el programa Res2DInv, obteniéndose una sección geoeléctrica hasta una profundidad máxima de 2.3 m.


CONCLUSIONES

En la primera área de estudio, Presa El Hundido, se puede observar en la imagen de satélite, una zona de alto fracturamiento tipo reticular. Como resultado del levantamiento de resistividad utilizando el equipo MiniExplorer 6L, el mapa de r a muestra, en su mitad SW, una zona anómala de alta resistividad (entre 55 y 110 Ohm.m) con un ancho variable entre 100 y 200 m, como indicativo de un alto nivel de fracturamiento del terreno y el predominio de material disgregado, con incremento en el volumen de espacio vacío. No se observan lineamientos de anomalías de alta o baja resistividad como evidencias de macrofracturas. En la segunda área de estudio, Banco de Materiales, con un ambiente geológico superficial más calichoso, la imagen satelital muestra la existencia de una fractura que, si bien se observa que entra desde el norte de nuestra área de estudio, ésta desaparece hacia el centro y sur de la misma. El mapa de resistividad muestra de manera muy clara, dos anomalías alineadas de alta resistividad (entre 65 y 150 Ohm.m), ambas de orientación N-S. La del lado Oeste, muestra la continuación de la fractura visible en la imagen del satélite, mientras que la del lado Este se refiere a una segunda fractura bastante paralela a la primera. Un perfil de TRE-PEM fue realizado perpendicular a ambas fracturas pudiéndose modelar hasta una profundidad de estudio de 2.3 m. Entre ambas fracturas, la sección de TRE-PEM muestra otras fracturas menores y zonas de vacío (alta resistividad). Este último resultado nos permite entender que entre ambas fracturas se encuentra un bloque del subsuelo sujeto a crecientes fracturamiento y, como consecuencias de esto, su subsidencia.
Guerra Hernández Ariadna, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla

MODELACIóN E IMPRESIóN 3D DE CANTILEVERS


MODELACIóN E IMPRESIóN 3D DE CANTILEVERS

Guerra Hernández Ariadna, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En diferentes ramas de la ciencia como la química, biología, biofísica, ciencias de materiales, entre otras, ha resultado de gran importancia la topografía superficial de los materiales, ya que las propiedades superficiales de un material influyen directamente en las aplicaciones que pueda tener, por ejemplo, en su capacidad para adherirse a otros materiales, la susceptibilidad a la corrosión, su capacidad para interactuar con células y tejidos, entre otras más. En las últimas décadas la microscopia de sonda de barrido o SPM por sus siglas en inglés, se ha convertido en una herramienta importante para la caracterización de superficies de materiales. Existen una gran variedad de técnicas de SPM, entre las cuales destaca por su alta resolución para la visualización de detalles superficiales finos la microscopia de fuerza atómica (AFM), así mismo esta técnica es no invasiva y puede medir propiedades mecánicas como la dureza y elasticidad de la superficie, sin embargo, una de sus desventajas es su costo debido a la tecnología avanzada, los componentes de alta precisión, sistemas de control y el mantenimiento que requiere. El funcionamiento básico del AFM se basa en la interacción de una punta fina colocada a un extremo de una barra flexible conocida como cantilever que a su vez se encuentra unida a una placa (chip), el cantilever mantiene una pequeña fuerza de interacción con la superficie de la muestra, simultáneamente se hace incidir un láser en la parte superior del cantiléver el cual es reflejado y captado por un detector fotodiodo. Sin embargo, debido a que las dimensiones de estos cantilévers rondan en el orden de micras y a la finura de las puntas, estos suelen ser frágiles y su precio en el mercado es alto. En diferentes áreas de la ciencia, medicina, e incluso la industria han surgido muchos avances debido a las nuevas tecnologías en el área de hardware o de software, una de estas es la impresión tridimensional o 3D la cual ha tomado mucha relevancia en los últimos 5 años. Esto debido a su gran versatilidad con diferentes materiales para su mejor adaptabilidad dependiendo de lo que se desea modelar. Por lo que el objetivo de este proyecto es desarrollar un método de obtención de cantilevers mediante la impresión 3D con resina fotosensible para que en un futuro puedan ser utilizados en pruebas de AFM.  



METODOLOGÍA

Para el desarrollo del proyecto se llevó a cabo una investigación sobre la técnica de AFM y de los cantilevers utilizados en la misma, posteriormente se diseñaron modelos de chips con cantilevers con dos diferentes grosores (20 y 40 micras) y un rango de longitudes entre 456 y 912 micras. Una vez obtenidos los modelos se procedió a imprimirlos con resina fotosensible en diferentes posiciones respecto a la cama de la impresora Elego Saturn 3, estas fueron horizontalmente, a 45° y a 90°, finalmente se realizó un procedimiento de curado a los modelos impresos utilizando alcohol isopropiloco y luz ultravioleta para posteriormente ser analizada la morfología mediante un microscopio digital.    


CONCLUSIONES

Durante la estancia de verano además de obtener conocimientos teóricos sobre la AFM, se logró observar que la mejor opción para imprimir las piezas era horizontalmente a la cama de la impresora, ya que durante el proceso de impresión y curado de los modelos fueron las que se obtuvieron con una buena impresión del cantiléver, sin embargo, a pesar de esto en el análisis con el microscopio digital se observó que algunos cantilevers se encontraban rotos, doblados e incluso con una forma un poco cilíndrica en comparación a la forma recta con la que se habían diseñado. Por lo cual como trabajo a futuro del proyecto se realizarán mejoras en la forma de desprenderlas de su soporte y el lavado de las piezas. Así mismo se harán pruebas de los cantilevers impresos utilizando un AFM para continuar mejorando los modelos y que en un futuro puedan ser utilizadas en esta técnica de SPM.
Guerrero Rivera Luis Eddy, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Dra. Estela de Lourdes Juarez Ruiz, Benemérita Universidad Autónoma de Puebla

ANáLISIS COMPARATIVO DE RESOLUCIóN DE PROBLEMAS MATEMáTICOS: AUTéNTICOS VS NO AUTéNTICOS


ANáLISIS COMPARATIVO DE RESOLUCIóN DE PROBLEMAS MATEMáTICOS: AUTéNTICOS VS NO AUTéNTICOS

Guerrero Rivera Luis Eddy, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Dra. Estela de Lourdes Juarez Ruiz, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La investigación se sustenta en la premisa de que la contextualización de los aprendizajes matemáticos promueve un aprendizaje más significativo y duradero. Sin embargo, existe una limitada evidencia empírica sobre el impacto específico de la autenticidad de los problemas en el contexto nicaragüense. Este estudio busca contribuir a llenar este vacío de conocimiento y proporcionar evidencia sólida para respaldar la implementación de estrategias pedagógicas basadas en problemas auténticos. Se plantea que la resolución de problemas matemáticos verbales contextualizados en situaciones reales y relevantes para los estudiantes de octavo grado favorecerá significativamente el desarrollo de competencias como la comprensión conceptual, la modelización matemática y la resolución de problemas, en comparación con la resolución de problemas descontextualizados.



METODOLOGÍA

La presente investigación se enmarca dentro de un enfoque cualitativo, específicamente bajo un diseño fenomenológico. Este enfoque se centra en la comprensión profunda de la experiencia de los estudiantes al enfrentarse a problemas matemáticos verbales, tanto auténticos como no auténticos. A diferencia de un enfoque cuantitativo, que busca generalizaciones a partir de datos numéricos, el enfoque fenomenológico busca comprender los significados y las percepciones que los estudiantes construyen en torno a la resolución de problemas matemáticos. A través de análisis de pruebas escritas, se pretende explorar cómo los estudiantes experimentan la autenticidad de los problemas, qué dificultades encuentran y qué estrategias utilizan para resolverlos. Se extrajeron 6 problemas del Libro de Texto de Matematicas y del Cuaderno de Actividades de Matematicas del Octavo grado proporcionado a los estudiantes por el MINED (Ministerio de Educación), dichos problemas se analizaron cualitativamente, calificándolos en una escala de 0 a 10, teniendo en cuenta que se tomaron 5 aspectos principales de la teoría de Palm y Nyström: Evento, pregunta, propósito, lenguaje e información y datos para que sea una situación autentica, a cada aspecto se le otorgan 2 puntos bajo los siguientes criterios: 0 puntos si no cumple el aspecto, 1 punto si cumple a medias el aspecto y 2 puntos si cumple satisfactoriamente el aspecto La población objetivo de este estudio son los estudiantes de octavo grado de educación secundaria en Nicaragua. Se seleccionó este nivel educativo por considerar que los estudiantes de esta etapa ya han visto y tienen conocimientos sobre las funciones de primer grado, además se encuentran en un momento crucial para el desarrollo de habilidades matemáticas y el afianzamiento de su interés por esta área. La muestra estuvo conformada por 6 estudiantes de un centro educativo Privado de la ciudad de Rivas. Se optó por una muestra pequeña debido a la naturaleza experimental de la investigación y a la necesidad de un control riguroso de las variables. Sin embargo, los resultados obtenidos podrán servir como base para futuras investigaciones con muestras más amplias. Para seleccionar a los participantes, se consideraron los siguientes criterios: Estar cursando el octavo grado de educación secundaria., tener un rendimiento académico promedio en matemáticas, no presentar dificultades de aprendizaje que puedan afectar su desempeño en la resolución de problemas. Para recolectar los datos, se diseñaron dos pruebas matemáticas que combinaban problemas auténticos y no auténticos. Cada prueba constaba de los mismos cuatro problemas: dos problemas auténticos y dos no auténticos, presentados en el mismo orden para todos los estudiantes. Las pruebas se aplicaron a los estudiantes en dos momentos diferentes, con un intervalo de una semana entre ellas. Esta estrategia permitió controlar el efecto del aprendizaje por repetición y aislar el impacto de la autenticidad de los problemas. Las pruebas se aplicaron en un ambiente tranquilo y libre de distracciones. Se les instruyó para que no utilizaran calculadoras u otros recursos adicionales, además fueron supervisados por el docente que imparte matemática en dicho colegio.


CONCLUSIONES

Al aplicar la teoría de situaciones auténticas de Torulf Palm, este estudio exploró el impacto de la autenticidad en la resolución de problemas matemáticos verbales de funciones de primer grado. Los resultados obtenidos revelan que, si bien no todos los estudiantes lograron un desempeño excelente en cada problema, la mayoría mostraron un ligero pero significativo mejoramiento en términos de comprensión conceptual, aplicación de habilidades matemáticas, resolución de problemas. Estos resultados son prometedores y sugieren que la teoría de situaciones auténticas puede ser una herramienta valiosa para mejorar el aprendizaje de las matemáticas en Nicaragua. A pesar de las limitaciones del estudio, como el pequeño tamaño de la muestra y la corta duración del mismo, los hallazgos obtenidos proporcionan una base sólida para futuras investigaciones que exploren en mayor profundidad el potencial de la teoría de situaciones auténticas en el contexto educativo nicaragüense. Para ello se recomienda continuar investigando bajo las siguientes líneas: Ampliar la muestra de estudio para obtener resultados más generalizables, implementar la teoría de situaciones auténticas en diferentes niveles educativos y áreas curriculares. Analizar el impacto de la teoría de situaciones auténticas en la motivación y el interés de los estudiantes hacia las matemáticas. Diseñar materiales educativos y estrategias de enseñanza que promuevan el aprendizaje significativo a través de la resolución de problemas auténticos. En definitiva, la teoría de situaciones auténticas se presenta como una alternativa prometedora para abordar las dificultades en el aprendizaje de las matemáticas en Nicaragua, abriendo un camino hacia un futuro más esperanzador para la educación matemática en el país.
Gutiérrez Castillo Raúl Emilio, Universidad Autónoma de Baja California
Asesor: Dr. Daniel Ignacio Salgado Blanco, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)

SIMULACIóN DE LA LISOZIMA EN SOLUCIóN ACUOSA: ANáLISIS DE DES-AMBER Y AMBER03 CON MODELOS TIP4P-D Y TIP3P


SIMULACIóN DE LA LISOZIMA EN SOLUCIóN ACUOSA: ANáLISIS DE DES-AMBER Y AMBER03 CON MODELOS TIP4P-D Y TIP3P

Gutiérrez Castillo Raúl Emilio, Universidad Autónoma de Baja California. Macias Magallanes Lucia de Jesús, Universidad de Guadalajara. Torres Tejeda Efren Said, Universidad de Guadalajara. Asesor: Dr. Daniel Ignacio Salgado Blanco, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La lisozima es una enzima con una estructura bien definida y un papel crucial en la defensa del organismo. Este proceso es vital para proteger contra infecciones bacterianas, lo que hace de la lisozima un modelo ideal para estudiar las interacciones proteína-agua. En este proyecto, utilizamos la dinámica molecular para observar las interacciones dinámicas y estructurales en un sistema de lisozima-agua. La dinámica molecular es una técnica computacional que permite simular el movimiento de átomos y moléculas a lo largo del tiempo, proporcionando una visión detallada de las interacciones a nivel atómico. En este proyecto simulamos la dinámica molecular de un sistema compuesto por lisozima y agua, y los resultados obtenidos  se comparararon posteriormente con los resultados reportados en un artículo del año 2012, en el cual NA Ping estudia dos sistemas de lisozima-agua.



METODOLOGÍA

Se partió de la estructura cristalina de la lisozima obtenida del Protein Data Bank , utilizando específicamente el modelo 1AKI para las simulaciones. Las simulaciones se realizaron utilizando unidades de procesamiento gráfico para acelerar los cálculos. Se llevaron a cabo dos simulaciones independientes con diferentes campos de fuerza y modelos de agua. La primera simulación utilizó el campo de fuerza AMBER03 junto con el modelo de agua TIP3-D. La segunda simulación empleó el campo de fuerza DES-Amber y el modelo de agua TIP4P-D. En ambas simulaciones, se añadieron iones CL para equilibrar las cargas del sistema. La simulación con DES-Amber y TIP4P-D incluyó 25 ns de relajación seguidos de 5 ns de producción, sumando un total de 30 ns. La simulación con AMBER 03 y TIP3-D consistió en 20 ns de relajación y 5 ns adicionales de producción, alcanzando un total de 25 ns. Finalmente, se realizó una comparación con el estudio de NA Ping , para lo cual se llevaron a cabo cálculos adicionales siguiendo los mismos parámetros temporales que en la primera simulación con el campo de fuerza AMBER03 . Solamente que en esta ocasión, se empleó el campo de fuerza DES-Amber junto con el modelo de agua TIP3-D. Esta comparación permitió evaluar las diferencias en las fluctuaciones y la estabilidad estructural de la lisozima entre los dos conjuntos de simulaciones, proporcionando una comprensión más profunda sobre cuál de los enfoques resulta ser más adecuado para describir el comportamiento de la proteína en su entorno acuoso.


CONCLUSIONES

Se analizaron los datos y se construyeron curvas, en las cuales obtenemos una media de las temperaturas configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. La gráfica mostró que, en ambas simulaciones, las curvas de temperatura se mantienen consistentemente cerca de la línea de referencia de 300 K. Posteriormente se analizaron los datos y se construyeron curvas, en las cuales obtenemos una media de las presiones configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. La gráfica mostró que, en ambas simulaciones, las curvas de temperatura se mantienen consistentemente cerca de la línea de referencia de 1 bar. Se analizaron los datos y se construyeron curvas que promedian la desviación cuadrática media configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. Los resultados apuntaron a que la desviación cuadrática media es mayor en el sistema con el FF1, en este caso se espera que el RMSD sea lo más pequeño posible, por lo que en este caso la menor RMSD la obtuvo el sistema con el FF2. Se analizaron los datos y se construyeron curvas que promedian el radio de giro configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. En las gráficas pudimos observar que el sistema con el FF2, contaba con un radio de giro menor al que se obtiene en el sistema con FF1. En este caso se analizaron los resultados, pero no se calcularon promedio, ambas gráficas son consistentes, ya que comienza a contar una gran cantidad de moléculas, esto quiere decir que la proteína se envuelve y por eso las moléculas están más cerca. los resultados que se obtuvieron con los cálculos producidos en el campo FF1 y FF2, se hicieron promedios en ambos campos y estos nos dieron resultados en donde el FF1 nos dio un valor inicial de aproximadamente 277 y fue subiendo hasta llegar a un valor final de aproximadamente a 284 mientras el FF2 nos dio un valor inicial de aproximadamente 295 y fue escalando hasta llegar a un valor final de aproximadamente de 290 lo que nos quiere decir que al haber más átomos en el FF2 este tiene mayor interacción de puentes de hidrógeno por lo que el FF1 como tiene menor numero de atomos este no tiene muchas interacciones de puente de hidrógeno. Se analizaron los datos y se construyeron curvas que promedian el SASA configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. En las gráficas pudimos observar que el sistema con el FF2 tiene un área de superficie menor que la que se mide en el sistema con el FF1, podemos decir que una se envuelve más que otra. Se encontraron diferencias notables en ambos sistemas, sin embargo también hay que aclarar que también contaban con un modelo de agua distinto, por lo que las diferencias en los resultados no sólo se deben a que se usó un campo de fuerzas distinto. Conclusion: Estos resultados destacan como la elección del campo de fuerza y el modelo del agua impacta las propiedades del sistema en simulaciones de dinámica molecular. Las diferencias observadas en densidad, estabilidad estructural, compactación de la proteína, interacción de puentes de hidrógeno y exposición al solvente muestra que en el sistema FF2 no afecta negativamente la estabilidad proteica, ya que exhibe características más estables en comparación a sistema FF1, y con esto subrayamos la importancia de considerar estos factores para obtener una representación precisa de los sistemas biomoleculares en simulaciones.
Gutierrez de Jesus Carlos Eduardo, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. David Antonio Pérez Carlos, Universidad Autónoma de Zacatecas

FORMULACIóN MAXWELLIANA DE LAS ECUACIONES DE LA TEORíA DE RASTALL HASTA EL SEGUNDO ORDEN DE APROXIMACIóN.


FORMULACIóN MAXWELLIANA DE LAS ECUACIONES DE LA TEORíA DE RASTALL HASTA EL SEGUNDO ORDEN DE APROXIMACIóN.

González Franco Leonardo Missael, Universidad Autónoma de Baja California. Gutierrez de Jesus Carlos Eduardo, Universidad Michoacana de San Nicolás de Hidalgo. Villaverde Morales Sofia Alejandra, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. David Antonio Pérez Carlos, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

La teoría de Rastall propone una generalización de la teoría de la relatividad general al permitir que la divergencia del tensor energía momento de la materia no sea necesariamente nula, esto implica una modificación significativa respecto a la teoría de la relatividad general de Einstein. Lo que significa que la variación del tensor energía momento de la materia está relacionada con la variación del escalar de curvatura, sugiriendo una dependencia de la energía y el momento con la curvatura del espacio-tiempo. La implicación principal de esta modificación es que, en presencia de materia, el campo gravitacional puede comportarse de manera diferente comparado con las predicciones de la relatividad general. Esta variación permite explorar nuevas posibilidades en la cosmología y la física de altas energías, donde las condiciones de curvatura extrema podrían hacer visibles los efectos de esta teoría modificada. El presente trabajo tiene como propósito utilizar los métodos de expansión Post-newtoniana a las ecuaciones de campo de la teoría de Rastall hasta un segundo orden, y escribirlas en el lenguaje del cálculo vectorial. Una vez obtenidas, exploraremos sus implicaciones en la física.



METODOLOGÍA

Formulación de la Justificación del Proyecto: Este trabajo se justifica en el hecho de que, dentro de esta línea de investigación, no se ha realizado un trabajo similar anteriormente, lo que puede resultar en una contribución importante a la literatura científica. Consideramos que los resultados serán novedosos e interesantes. Diseño Metodológico: Nuestra metodología a seguir es la siguiente: Estudiar los enfoques de la linealización y de las expansiones Post-Newtonianas de las ecuaciones de campo de Einstein, aplicar estos métodos a las ecuaciones de campo de la teoría de Rastall, pasar las ecuaciones de su forma tensorial a forma vectorial y realizar un análisis de las ecuaciones obtenidas. Redacción del Marco Teórico: La teoría de Rastall constituye una generalización de la teoría de la relatividad general. Se utilizan las ecuaciones de Rastall y se aplican métodos perturbativos por medio de expansiones para obtener una aproximación a segundo orden de dichas ecuaciones, esto es, ecuaciones de campo no lineales utilizando la aproximación Post-newtoniana. Interpretación Física: Se buscará una interpretación física de las ecuaciones obtenidas junto con la ecuación de onda de Rastall inhomogénea y se analizarán sus implicaciones en fenómenos gravitacionales y astrofísicos. Redacción de la Discusión y Conclusiones: Se comienza con la redacción de la discusión y las conclusiones del proyecto, interpretando los resultados obtenidos y su relevancia en el campo de la gravitación, la cosmología y la astrofísica.


CONCLUSIONES

Con este proyecto de investigación queremos analizar las implicaciones físicas de que las ecuaciones de Rastall en la formulación maxwelliana a segundo orden. Se realizará un análisis exhaustivo de las ecuaciones encontradas para así dar su interpretación física, tanto de las ecuaciones que describen los campos gravitacionales, como la ecuación de onda inhomogénea. Estos resultados pueden tener implicaciones significativas en la comprensión de la interacción gravitacional. Los resultados obtenidos hasta ahora sugieren que estas modificaciones pueden ofrecer nuevas perspectivas en el estudio de sistemas gravitacionales. Futuras investigaciones se centrarán en buscar otros métodos que nos permitan analizar sistemas gravitacionales muy masivos como agujeros negros o el universo primitivo.
Gutiérrez Gutiérrez Ángel Amaury, Universidad Autónoma de Coahuila
Asesor: Dr. José Eduardo Rosales Quintero, Benemérita Universidad Autónoma de Puebla

ESTRATEGIAS DIDáCTICAS INNOVADORAS EN LA ENSEñANZA DE LA FíSICA Y MATEMáTICAS


ESTRATEGIAS DIDáCTICAS INNOVADORAS EN LA ENSEñANZA DE LA FíSICA Y MATEMáTICAS

Gutiérrez Gutiérrez Ángel Amaury, Universidad Autónoma de Coahuila. Asesor: Dr. José Eduardo Rosales Quintero, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Es común ver en los estudiantes que la rama de las ciencias exactas presenta para la mayoría gran dificultad. Partiendo de esta problemática, se busca proponer técnicas que hagan accesibles conceptos relacionados. En particular, nos centraremos en las matemáticas y la física, donde el verdadero reto a enfrentar es la transformación de conceptos abstractos y complejos en ideas simples y didácticas. Tradicionalmente, esta rama se ha enseñado de manera expositiva, lo que promueve una comprensión superficial, por ende, una falsa percepción de la verdadera dificultad de la misma. Definitivamente este problema incrementa en lugares donde el interés y la motivación por las ciencias exactas es deficiente, que en su mayoría es impulsado por la idea de dificultad errónea que se tiene. Por lo que, surge la motivación de desarrollar y aplicar estrategias didácticas innovadoras que faciliten su comprensión, y de ser posible, un interés por el aprendizaje y la ciencia.



METODOLOGÍA

Partimos de la lectura de artículos científicos para identificar técnicas y metodologías innovadoras en la enseñanza de las matemáticas y la física, más concretamente en proponer problemas que impliquen soluciones creativas, también el uso software educativo, e incluso la enseñanza mediante experimentación o formulación de problemas afines a la realidad. Basado en las técnicas identificadas, se procede al diseño de material didáctico específico, en este caso se trata de diseño de problemas de geometría y trigonometría, cubriendo la parte matemática, pero para buscar una intersección con la física se proponen ejercicios adaptados a la realidad, siendo la clave que su solución implique desafiar la imaginación. En caso de verse limitados, cada problema cuenta con su solución detallada, con la finalidad de evadir el estancamiento consultando el solucionario. Como algo secundario se pueden proponer experimentos prácticos, diseñados para ser flexibles y adaptables a distintos niveles educativos. Posteriormente, se realiza una implementación piloto de los recursos diseñados, para este caso, se aplicarán sobre los estudiantes de nuevo ingreso de la Facultad de Ciencias Físico Matemáticas de la Benemérita Universidad Autónoma de Puebla y de la Universidad Autónoma de Coahuila. Durante esta fase, se aplican evaluaciones para medir la efectividad de las estrategias respecto a generaciones pasadas que trabajaron con material tradicional. Se evaluará la comprensión conceptual y espacial, habilidades de resolutivas, y cambios en la actitud hacia las ciencias exactas. Finalmente, se recopilan y analizan datos cualitativos y cuantitativos para evaluar el impacto de las estrategias implementadas, incluyendo análisis estadísticos de las mejoras en las evaluaciones académicas, así como encuestas y entrevistas para medir la percepción y satisfacción de los estudiantes.


CONCLUSIONES

A lo largo del desarrollo del proyecto, se han observado estrategias didácticas innovadoras aplicadas, como la resolución creativa de problemas. Se espera que tengan un impacto positivo en la comprensión y el interés de los estudiantes hacia las ciencias exactas. En definitiva, sus habilidades resolutivas se verán desarrolladas, y de alguna forma puede impulsarse un aprecio a esta rama. Las encuestas y entrevistas por realizar reflejarán el impacto de este trabajo, con la esperanza de un cambio positivo en la actitud hacia el aprendizaje. Específicamente, la implementación de problemas adaptados a la realidad y la inclusión de soluciones detalladas permitirá que los estudiantes enfrenten desafíos sin sentirse abrumados, facilitando una comprensión más profunda y una mayor confianza en sus capacidades. La experiencia práctica, aunque secundaria, también puede ayudar a consolidar los conceptos aprendidos, demostrando la efectividad de una aproximación práctica y lúdica en la educación científica. En conclusión, los datos demostrarán la eficacia de las estrategias, no solo en el rendimiento académico, sino en el interés hacia las ciencias exactas. Se espera que con la expansión de este proyecto se promueva transformar la enseñanza tradicional en un enfoque más interactivo y accesible.
Gutiérrez Murillo Angel Alejandro, Instituto Politécnico Nacional
Asesor: Dr. José Carlos Jiménez Escalona, Instituto Politécnico Nacional

MAPA DE PROBABILIDAD DE AFECTACIóN POR CENIZA VOLCáNICA DEL VOLCáN POPOCATéPETL PARA EL PERIODO JULIO A DICIEMBRE DE 2023 UTILIZANDO IMáGENES MODIS Y EL MODELO HYSPLIT


MAPA DE PROBABILIDAD DE AFECTACIóN POR CENIZA VOLCáNICA DEL VOLCáN POPOCATéPETL PARA EL PERIODO JULIO A DICIEMBRE DE 2023 UTILIZANDO IMáGENES MODIS Y EL MODELO HYSPLIT

Gutiérrez Murillo Angel Alejandro, Instituto Politécnico Nacional. Asesor: Dr. José Carlos Jiménez Escalona, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El volcán Popocatépetl ha presentado erupciones continuas de baja intensidad desde finales de 1994. Debido a la elevación del cráter las nubes de ceniza volcánica generadas en el evento eruptivo alcanzan muy frecuentemente la zona del espacio aéreo que es utilizado por aeronaves comerciales para la navegación entre un aeropuerto y otro. Por esta razón, estos fenómenos naturales afectan de manera recurrente las aerovías, donde pasan cientos o miles de aviones diariamente. Debido a los grabes daños que ocasiona la ingesta de ceniza en los motores de una aeronave, cuando una nube de ceniza afecta el espacio aéreo en  el que se encuentran ubicadas aerovías, se tiene que buscar otra ruta por donde desviar a las aeronaves implicando que se pierda tiempo, combustible, energías entre muchas otras posibilidades, pero sobre todo se pierda dinero para una empresa. Por estas razones, nuestro investigador buscar crear mapas de probabilidad que nos ayuden a detectar las regiones del espacio aéreo alrededor del volcán Popocatépetl que en el caso de una erupción se generen nubes volcánicas y estas a su vez pongan en riesgo las aeronaves que se encuentren volando en la zona.



METODOLOGÍA

Se utilizaron diversas fuentes de información para recabar datos y estos mismos datos utilizarlos para crear más datos y esos datos nos dieran como resultado mapas de probabilidad. En primera instancia se utilizaron los reportes emitidos por la VAAC de Washington, dichos reportes se publican cuando una erupción volcánica puede crear una afectación en las zonas cercas al volcán y que pudieran representar un riesgo para la aviación en la región; los datos que se nos representan en esta página son, por ejemplo, la altitud a la que llegó la nube de ceniza, la dirección que tomó, a que velocidad se dirigía y por último lo más importante la fecha y la hora exacta en la que comenzó la erupción. Todos estos datos los fuimos recopilando y acomodando en una tabla hecha en Excel que más adelante usaríamos para el resto del proceso. Después de tener estos datos se obtuvieron las imágenes satelitales que captaron el evento volcánico, para tener una visión precisa y exacta del desplazamiento de la nube de ceniza y ver cómo es que se observa desde el espacio por medio de técnicas de percepción remota. Las imágenes satelitales fueron obtenidas en un sitio web de la nasa y fuimos escogiendo las imágenes de los sensores MODIS embarcados en las plataformas satelitales Terra y Aqua, dichos sensores periten obtener entre las 2 y 4 imágenes diarias de la región de estudio, por esto es que se eligieron estos sensores para trabajar el proyecto. Se buscó que las imágenes tuvieran los requisitos de tener una buena visión de nuestro objeto de estudio, que no hubiera nubosidad era uno de los principales objetivos a resolver, porque si hay nubosidad se puede perder la visibilidad de la nube de ceniza volcánica. Teniendo estás imágenes acomodadas por mes del año y día, empezamos a procesarlas para poder visualizar dónde se encontraba la nube de ceniza. Para este proceso fue necesario instalar en nuestra computadora un software llamado SNAP con este software se pudo visualizar las bandas que detectan en el infrarrojo los puntos de la nube de ceniza, dentro de este proceso se utilizaron ecuaciones para hacer resaltar la zona de la nube de ceniza. Cuando ya tuvimos la visualización de una imagen satelital ya procesada viendo la nube de ceniza, como siguiente paso se usó el modelo HYSPLIT de la NOAA para recrear cómo fue el recorrido de esta nube en un periodo de 8 horas desde el inicio de la erupción, esto para poder ver cómo se recorrió la nube de ceniza y obtener diversos datos para poder recrear los mapas de probabilidad en las aerovías. Una vez recolectados todas las corridas de los eventos eruptivos del periodo de estudio se utilizó un programa creado en Python para realizar la Geoestadística de las nubes de ceniza y con esta información y con ayuda del software QGis se crearon los mapas de probabilidad para el periodo estudiado. El periodo de análisis que me toco analizar fue de los meses julio a diciembre del 2023. En este periodo se reportaron por la VAAC un total de XXXX días con presencia de erupciones volcánicas. El periodo se dividió en dos subperiodos de 3 meses de información, con esto creamos 2 mapas de probabilidad que muestran las zonas con mayor probabilidad de afectación en caso de una erupción del volcán Popocatépetl en este periodo de tiempo.


CONCLUSIONES

Durante nuestra estancia de verano en la ESIME Ticomán y con el Investigador, obtuvimos información teórica y razones del por qué las erupciones volcánicas son de alto interés para su monitoreo y vigilancia. Entre estas afectaciones de las nubes de ceniza, pueden ser un foco de alerta para muchas actividades del ser humano, dentro de estos se encuentran las afectaciones que se presentan en la industria aeronáutica debido a la afectación del espacio aéreo en el cual se encuentran ubicadas las aerovías que utilizan los aviones para navegar de un aeropuerto a otro. Además de poner en práctica muchos softwares que en mi caso no conocía y no sabía cómo es qué funcionaban, en el caso de mis compañeras ya tienen un poco más de experiencia por el nivel de estudio académico que llevan, pero yo al ser del nivel bachillerato aún no había experimentado con este tipo de software y eso es muy valioso para mi desarrollo académico en el futuro, nosotros aportamos tan solo un poco al gran proyecto que está trabajando el investigador, pero cumplimos nuestro objetivo y creamos mapas de probabilidad de nubes de ceniza volcánica.
Gutierrez Rodriguez Oscar Excell, Universidad Autónoma de Baja California
Asesor: Dra. Claudia Moreno González, Universidad de Guadalajara

SIMULACIóN DE ONDAS GRAVITACIONALES PRODUCIDAS POR COLAPSO DE NúCLEO DE SUPERNOVA USANDO EL SOFTWARE DE PYCBC


SIMULACIóN DE ONDAS GRAVITACIONALES PRODUCIDAS POR COLAPSO DE NúCLEO DE SUPERNOVA USANDO EL SOFTWARE DE PYCBC

Gutierrez Rodriguez Oscar Excell, Universidad Autónoma de Baja California. Murillo Camarena Cristian Eduardo, Universidad de Guadalajara. Asesor: Dra. Claudia Moreno González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La relatividad general, postulada por Einstein, es fundamental para entender fenómenos astrofísicos como las ondas gravitacionales generadas por eventos cósmicos violentos, como las supernovas. Sin embargo, la detección de ondas gravitacionales de supernovas es un desafío significativo debido a su naturaleza estocástica y las complejidades asociadas con el colapso del núcleo estelar. Las supernovas son explosiones estelares extremadamente poderosas que pueden manifestarse de forma muy notable en el espacio, ocurriendo durante las últimas etapas evolutivas de las estrellas masivas. Estas explosiones no solo liberan una inmensa cantidad de energía, (aproximadamente (10^{51}) ergs), sino que también juegan un papel esencial en la distribución de elementos pesados en el universo, contribuyendo a la formación de nuevas estrellas y sistemas planetarios. Estudiar las supernovas es importante porque nos ayuda a comprender mejor los procesos de evolución estelar. Las ondas gravitacionales producidas por el colapso del núcleo de una supernova llevan información única sobre la dinámica interna del colapso. En la actualidad, se han realizado diversas simulaciones de cómo se generan las ondas gravitacionales en supernovas; sin embargo, existen muchas limitaciones. Cuando el núcleo colapsa, se involucra una gran cantidad de procesos físicos complejos, lo que causa variabilidad en los resultados. Además, las simulaciones numéricas requieren una gran cantidad de recursos computacionales. Las condiciones iniciales para las simulaciones, como la composición y estructura del núcleo estelar previo al colapso, pueden variar significativamente entre diferentes estrellas. A pesar de estas limitaciones, las simulaciones siguen siendo una herramienta esencial en el estudio de las ondas gravitacionales de supernovas, un ejemplo es usando señales de memoria, las cuales presentan una caracteristica particular de las ondas gravitacionales de colapso del nucleo de una supernova. Debido a que aún no han sido detectadas, proporcionan un marco para entender los posibles escenarios y guiar la interpretación hacia los futuros datos.



METODOLOGÍA

Para abordar el problema, se realizó una introducción exhaustiva a los fundamentos de la relatividad general, cubriendo temas clave como tensores, métricas, formas diferenciales, conceptos de curvatura, símbolos de Christoffel y geodésicas. Este estudio proporcionó una base sólida para el análisis posterior. Posteriormente, se exploró el tema de la gravitación. Se definió el tensor de energía-momento y se derivaron las ecuaciones correspondientes al tensor de Einstein. Además, se examinó el impacto de la constante cosmológica y se obtuvo la métrica de Schwarzschild. Este análisis incluyó el estudio del teorema de Birkhoff y conceptos clave relacionados con los agujeros negros, aplicando la métrica de Schwarzschild para entender los conos de luz en estas configuraciones. Para completar esta fase, se desarrolló una comprensión de la teoría linealizada de las ecuaciones de Einstein. El siguiente paso fue centrarse en la obtención y comprensión de la ecuación de onda y las polarizaciones características de las ondas gravitacionales. Se revisaron los conceptos fundamentales de la ecuación de onda y se estudió la derivación de esta ecuación a partir de las ecuaciones de Einstein en el régimen linealizado. Además, se realizó una discusión teórica sobre las polarizaciones fundamentales de las ondas gravitacionales. El proyecto avanzó hacia el aprendizaje y uso de Python para modelar ondas gravitacionales utilizando la biblioteca PyCBC. Se analizaron detalladamente los códigos de ejemplo disponibles en la página de PyCBC para entender la función e importancia de cada componente. Este análisis incluyó el estudio de técnicas avanzadas para el análisis de ondas gravitacionales. Posteriormente, se discutieron los aspectos físicos que definen la emisión de ondas gravitacionales producidas por colapsos de supernovas. Este estudio se realizó mediante lecturas introductorias que permitieron entender los mecanismos detrás de la generación de ondas gravitacionales en estos eventos catastróficos.  Finalmente, se diseñó un código en Python para estudiar la señal de memoria asociada a una señal de supernova de colapso del núcleo. Primero, se importaron las librerías necesarias para la manipulación de datos, visualización y creación de señales, así como para la instalación de librerías específicas como pycbc y ligo-common. Generamos dos señales de memoria utilizando funciones coseno con un desfase y una amplitud fija. Estas señales simulan la señal de memoria de las ondas gravitacionales. Luego, generamos componentes de ruido utilizando distribuciones normales con desviación estándar y media específicas. Posteriormente, combinamos las señales de memoria con el ruido para producir señales ruidosas. Aplicamos un ``relleno' (padding) de ceros y unos, así como un padding adicional de ruido, para extender la señal ruidosa con datos aleatorios. Finalmente, usando correlación cruzada (cross-correlation) determinamos la presencia de la señal de memoria en los datos ruidosos. La presencia de un pico en estos gráficos indica que hay una fuerte similitud o repetitividad en la señal, lo cual es una indicación de que la señal de memoria está presente en los datos ruidosos.


CONCLUSIONES

Durante esta estancia de verano, se logró un entendimiento profundo de la relatividad general y la gravitación, así como la habilidad para modelar y detectar ondas gravitacionales utilizando herramientas computacionales. El desarrollo del código para simular y detectar ondas gravitacionales producidas por supernovas marca un avance significativo en la investigación astrofísica. Se espera que estos resultados contribuyan a mejorar las técnicas de detección y comprensión de estos eventos cósmicos, abriendo nuevas posibilidades para futuras investigaciones en el campo de la astrofísica y la cosmología.   
Gutiérrez Sevilla Luis Ángel, Universidad de Guadalajara
Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE UNA RED NEURONAL DE REGRESIóN CAPAZ DE CONSTRUIR CIRCUITOS CUáNTICOS EN BASE A UN CANAL CUáNTICO DADO


DESARROLLO DE UNA RED NEURONAL DE REGRESIóN CAPAZ DE CONSTRUIR CIRCUITOS CUáNTICOS EN BASE A UN CANAL CUáNTICO DADO

Gutiérrez Sevilla Luis Ángel, Universidad de Guadalajara. Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Circuitos cuánticos y canales cuánticos Las computadoras cuánticas implementan circuitos cuánticos (también llamados algoritmos cuánticos) para llevar a cabo una serie de tareas con un mejor desempeño que las computadoras clásicas. Una de estas tareas es la simulación de procesos cuánticos (también llamados canales cuánticos), misma donde se aprovechan las propiedades físicas que posee el hardware cuántico (este tipo de simulaciones nos puede ser de gran utilidad para estudiar las tecnologías cuánticas, las cuales tienen un gran impacto en el sector industrial, pero también en materia de salud, ecología, logística, etc.) Para poder simular un proceso cuántico es necesario contar con un algoritmo cuántico que sea matemáticamente equivalente al proceso cuántico a simular, esto es, es preciso diseñar un circuito compuesto de compuertas cuánticas para poder ejecutar la simulación. Representación matricial Cada compuerta cuántica tiene una representación matemática matricial propia, además de esto, el efecto de todas las compuertas que componen un circuito se puede dar también por medio de una representación matricial. Más aún, el proceso cuántico de la naturaleza que se quiere simular puede ser descrito también por su propia representación matricial. Es así como la matriz del proceso cuántico puede inspirar el diseño de un circuito cuántico. Teóricamente se puede construir un circuito cuántico que tenga una representación matricial idéntica (o equivalente) al proceso cuántico a simular y experimentalmente se puede comprobar que las salidas del circuito tienen una correspondencia con las salidas del mapa cuántico. Simulación de canales cuánticos: el problema de hallar el circuito de la simulación El problema está en el diseño del circuito cuántico. Si solamente contamos con la matriz del proceso cuántico a simular, puede resultar una tarea bastante compleja el tratar de construir un circuito cuántico cuya matriz sea análoga a la matriz del proceso cuántico que se está estudiando. Es ahí donde la ciencia de datos, específicamente el desarrollo y entrenamiento de redes neuronales artificiales puede ayudarnos a resolver el problema.



METODOLOGÍA

Desarrollo de la red neuronal Se lleva a cabo el diseño y entrenamiento de una red neuronal de recurrencia que permita mostrar las representaciones matriciales de las compuertas de un circuito cuántico. Esto es, se entrena la red para que esta prediga el circuito cuántico de un mapa cuántico dado, siendo la entrada de la red la matriz que describe al circuito cuántico y la salida de la red el conjunto de matrices de las compuertas cuánticas que describen a dicho circuito. Además, idealmente hablando, la matriz del circuito corresponde a una de las representaciones matriciales del canal cuántico (por lo que se puede comprobar que la matriz del circuito generada por la red neuronal sea equivalente a la matriz del mapa cuántico que se busca simular al comparar estas dos matrices.) Se pueden emplear otras representaciones matriciales para describir tanto al circuito como al mapa cuántico. Para entrenar la red se dispone de dos sets de datos, cuyas instancias (los elementos que lo componen) están relacionadas entre ambos sets uno a uno. Cada instancia del primer set de datos son las representaciones matriciales del circuito, mientras que para el segundo set de datos cada una de sus instancias corresponde a las representaciones matriciales individuales de las compuertas. Ejemplo: Instancia del set de datos de entrada = [matriz del circuito a]. Instancia del set de datos de salida = [matriz de la compuerta 1 del circuito a, matriz de la compuerta 2 del circuito a, matriz de la compuerta 3 del circuito a, matriz de la compuerta 3 del circuito a]. Entrenamiento de la red neuronal Se generan sets de datos de 100,000 instancias para entrenar a la red, y al obtener resultados se evalúa el desempeño de esta mediante el cálculo de métricas y funciones de pérdida que nos indican qué tan bien se ajusta el modelo a los datos para llevar a cabo las predicciones. Tras estudiar los valores de las de métricas y de las funciones de pérdida se modifica la arquitectura de la red (ajustando hiperparámetros). Se repite el proceso de entrenamiento y se vuelven a leer las métricas y las funciones de pérdida hasta encontrar una arquitectura óptima que permita llevar a cabo predicciones de manera satisfactoria. Técnica de re-escalamiento de datos de entrenamiento A lo largo del proceso de refinamiento de la arquitectura de la red, se encontró una técnica nueva para garantizar valores óptimos de métricas y funciones de pérdida: el multiplicar los datos de entrada por un factor de re-escalamiento. Se incluye también el estudio de esta técnica: multiplicando los valores de entrada por un factor de re-escalamiento y posteriormente dividiendo las predicciones finales por el factor de re-escalamiento, se contabiliza el número de veces que las predicciones coinciden con el resultado esperado, de esta manera se comprueba si la técnica realmente mejora el modelo de red, si lo empeora o bien, si no hay cambios significativos. Las representaciones matriciales empleadas para describir tanto el mapa cuántico a simular como el circuito cuántico asociado son: matriz simple del circuito, matriz de Choi del circuito y matriz de densidad que resulta de aplicar el circuito a un estado inicial |0>.


CONCLUSIONES

Los resultados obtenidos se dividen en dos partes: el modelo de arquitectura de la red neuronal optimizado, así como las gráficas de las métricas y pérdidas para las fases de entrenamiento, validación y testeo; mientras que la segunda parte corresponde al estudio de multiplicar por un factor de re escalamiento, variando este valor y calculando el número promedio de veces que la predicción producida por la red corresponde al caso ideal.
Guzmán Navarro Andrei Julián, Universidad Autónoma de Baja California
Asesor: Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo

ECUACIóN DE DIRAC UNIDIMENSIONAL CON UN POTENCIAL COULOMBIANO


ECUACIóN DE DIRAC UNIDIMENSIONAL CON UN POTENCIAL COULOMBIANO

Guzmán Navarro Andrei Julián, Universidad Autónoma de Baja California. Asesor: Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Desde la antigua Grecia surgió la idea de que la materia podría estar formada por partículas indivisibles, a las cuales llamaron átomos. Posteriormente, a través de experimentos, el concepto de átomo fue aceptado por la ciencia. Desde entonces, esta entidad física ha avanzado con el tiempo, desarrollándose diversos modelos atómicos hasta llegar al modelo atómico de Schrödinger, el cual se rige por la mecánica cuántica. Sin embargo, este modelo tiene una limitación significativa. Si consideramos la interacción atómica de un hidrogenoide de manera clásica, notamos que cuando el número atómico se acerca a 137, la velocidad del electrón se aproxima a la velocidad de la luz. Este resultado entra en conflicto con la teoría de la relatividad especial. Por lo tanto, es necesario un modelo atómico que integre la relatividad especial, especialmente para átomos pesados, donde los efectos relativistas son más pronunciados. Este planteamiento se aborda a través de la ecuación de Dirac, que es adecuada para partículas de espín 1/2, como el electrón.



METODOLOGÍA

Al ser el trabajo completamente teórico, se inició con una consulta sobre los temas a trabajar, enfocándose principalmente en la ecuación de Dirac y otros conceptos relacionados. Se desarrolló esta ecuación bajo un potencial de la forma coulombiana V(x)=g/x, llegando a un sistema de ecuaciones, con esto se acoplaron las ecuaciones que tienen componentes cruzadas del espínor, lo que llevó a una ecuación diferencial de segundo orden. Para manejar esta ecuación de manera similar a la ecuación de Schrödinger, se propuso una solución en forma de producto de dos funciones, una de las cuales era del tipo exponencial. Se impuso la condición de que los términos de primer orden fueran iguales, lo que resultó en una ecuación auxiliar del tipo Schrödinger. Posteriormente, se analizó graficamente el potencial auxiliar de esta ecuación y se identificaron estados ligados.


CONCLUSIONES

En este programa de investigación, se identificó la posibilidad de encontrar estados ligados en la ecuación de Dirac con un potencial coulombiano. El objetivo futuro es avanzar en la investigación, principalmente mediante la determinación de las funciones de onda asociadas, así como una caracterización de la energía en relación con la masa y el análisis del colapso atómico. Este trabajo me dio el impulso para realizar más investigaciones, así como las bases para este campo de estudio.
Hernández Alpízar María Fernanda, Instituto Politécnico Nacional
Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla

COMPORTAMIENTO DE LAS FUENTES EMISORAS DE PARTíCULAS PM2.5 Y PM10 DEL AñO 2012 AL 2020 EN LA CIUDAD DE MéXICO (CDMX)


COMPORTAMIENTO DE LAS FUENTES EMISORAS DE PARTíCULAS PM2.5 Y PM10 DEL AñO 2012 AL 2020 EN LA CIUDAD DE MéXICO (CDMX)

Hernández Alpízar María Fernanda, Instituto Politécnico Nacional. Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El material particulado hace referencia a las sustancias sólidas y líquidas que abundan en la atmósfera, presentan un riesgo a la salud y al medio ambiente es por ello que es importante conocer sus fuentes de emisión, estas se clasifican en fuentes puntuales, móviles, de área y naturales.



METODOLOGÍA

Con base a los inventarios de la ZMVM se seleccionó únicamente datos de los contaminantes PM2.5 y PM10 y se seleccionó como área de estudio la CDMX debido a que cuenta con gran variedad de fuentes emisoras y es una de las ciudades líder en términos de la calidad de sus reportes de contaminantes. En la recolección de datos se incluyeron las fuentes puntuales, móviles, de área y naturales, así como su contribución a la emisión en los años 2012, 2014, 2016, 2018, 2020. Esto con el fin de poder comparar y visualizar su comportamiento. 


CONCLUSIONES

Mostrando así que del año 2012 al 2020 se ha tenido reducción de un 12% de PM2.5 y un 8% de PM10 debido al comportamiento de las fuentes emisoras el cual se ha mostrado vario a lo largo de estos años, pues se tienen significantes aumentos y disminuciones. En los años 2014 y 2016 se registran las mayores emisiones de PM2.5 y PM10. Mientras que el año 2020 se registran las menores emisiones lo cual está estrechamente relacionado con la suspensión de actividades como medida de seguridad contra el COVID-19. Las principales fuentes emisoras registradas en estos años son las fuentes móviles y de área. Con base a esto debemos tener en cuenta que la mayor fuente de emisión es de origen antropogénico.
Hernandez Botello Pamela Alexandra, Universidad Politécnica de Atlautla
Asesor: Mg. Rafael Hernán Rojas Gualdrón, Universidad de Investigación y Desarrollo

REVISIóN DE LITERATURA.


REVISIóN DE LITERATURA.

Hernandez Botello Pamela Alexandra, Universidad Politécnica de Atlautla. Reyes Luevano Paloma Yareth, Universidad Politécnica de Atlautla. Asesor: Mg. Rafael Hernán Rojas Gualdrón, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

En 1959, Dantzig y Ramser presentaron una aplicación práctica sobre cómo se entrega gasolina a las estaciones de servicio y propusieron la formulación matemática para este problema, esto se presenta como una extensión del conocido problema del agente viajero (TSP), donde un vendedor debe recorrer una serie de clientes una sola vez, para luego volver al lugar de partida.



METODOLOGÍA

El propósito de las versiones clásicas del VRP es organizar las rutas de una flota de vehículos para un solo período de planificación, ya sea un día o un turno. Ahora bien, el VRP (Problema básico de rutas de vehículos) se dedica a determinar un conjunto de rutas para atender a un número específico de clientes, reduciendo la distancia total recorrida. A partir de esta versión básica del VRP, existen muchas variantes que se han introducido en la literatura científica con el fin de considerar escenarios más ricos y realistas, escenarios estocásticos, escenarios dinámicos, criterios ambientales, problemas de sincronización, escenarios multiobjetivo, escenarios que involucran flotas eléctricas, escenarios en los que las decisiones se toman a lo largo del tiempo. 


CONCLUSIONES

El Problema de Ruteo de Vehículos (VRP) ha tenido un desarrollo importante desde que Dantzig y Ramser lo introdujeron por primera vez en 1959 para la entrega de gasolina. Con el tiempo, han aparecido muchas variaciones del VRP para atender necesidades logísticas particulares y retos extra, como el VRPTW, que incluye vehículos capacitados y ventanas de tiempo, el CCVRP, el HFVRP y el CVRP, entre otros. Estas variaciones no solo muestran la creciente complejidad de las operaciones logísticas actuales, sino que también indican la necesidad de soluciones más avanzadas y flexibles, con el aumento continuo de la necesidad de eficiencia en diferentes operaciones, la investigación sobre el Problema de Ruteo de Vehículos (VRP) y sus variantes sigue siendo vital es decir, no solo ayuda a mejorar la distribución y a disminuir costos, sino que también apoya la sostenibilidad a través de un mejor uso de recursos y la reducción de emisiones.  Por lo tanto, la investigación constante sobre el VRP y sus diferentes versiones es esencial para progresar en varias áreas. las nuevas metodologías y enfoques proporcionan herramientas prácticas para enfrentar diversos desafíos del mundo real.
Hernández Carrasco Alejandro, Universidad Veracruzana
Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima

TEORíA CUáNTICA DE CAMPOS Y ROMPIMIENTO ESPONTáNEO DE LA SIMETRíA


TEORíA CUáNTICA DE CAMPOS Y ROMPIMIENTO ESPONTáNEO DE LA SIMETRíA

Hernández Carrasco Alejandro, Universidad Veracruzana. Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

El mundo que nos rodea está lleno de interacciones: partículas con partículas, fuerzas con fuerzas, fuerzas con partículas, partículas cuánticas, entre otras; parece complicado el imaginar diferentes maneras para explicar estas interacciones, para ello usaremos la teoría cuántica de campos en la que abordaremos un nuevo punto de vista tomando a las partículas como fluctuaciones de campos cuánticos de diferentes tipos, debido a la complejidad de esto es necesario usar o tener nuevas herramientas matemáticas y formalismos físicos que nos ayuden en nuestro cometido. Al momento de intentar describir nuestras interacciones notaremos que, al trabajar con una simetría en específico, hay momentos en los que nuestra simetría se pueden romper espontáneamente con lo que llegan a surgir bosones, entender cómo y cuándo pasa esto es fundamental para entender de una mejor manera las interacciones entre partículas y fuerzas.



METODOLOGÍA

Algo muy importante para aclarar es que esta estancia se trató de una investigación o estudio completamente teórico, es decir, nosotros no medimos ni usamos ningún dato de laboratorio de alguna base de datos por lo que nuestra metodología se basó en estudiar y buscar información en libros, artículos, notas del asesor y lluvia de ideas de todos los miembros de la estancia. Se dividió la estancia en 2 partes: I.- Preparación o Repaso para el Modelo Estándar II.- Trabajo de Investigación En la parte I nos encargamos de dar un repaso o estudio acerca del Formalismo Lagrangiano, Tensores, Física Estadística, Mecánica Cuántica, Electrodinámica, Astrofísica, Física Nuclear y Teoría Cuántica de Campos, Teorema de Goldstone, Potencial de Yukawa, Teoría de Grupos; mientras que en la parte II  se abordó el tema de Rompimiento de la Simetría de la Fuerza Electrodébil en el Mecanismo de Higgs.


CONCLUSIONES

Durante la estancia de verano se logró adquirir una enorme cantidad de saberes teóricos de diferentes ramas y no solo eso, sino que también se aprendió a relacionar dichas ramas/temas en una sola teoría: Teoría Cuántica de Campos, vimos que con dicha teoría podemos explicar diferentes interacciones entre partículas del mismo tipo y de diferente tipo, adquiriendo un nuevo y diferente punto de vista del mundo que nos rodea, aprendimos a cómo describir matemáticamente estas interacción entendiendo el significado físico, después de entender lo anteriormente dicho vimos cómo aplicarlo en un caso más específico, estudiando el Rompimiento de la Simetría de la Fuerza Electrodébil en el Mecanismo de Higgs , sin embargo, debido a que a mí (el estudiante) se me complicó la parte de adquirir y entender los saberes teóricos la parte del Mecanismo de Higgs no se vio con tanta profundidad, quedando en un caso sencillo del rompimiento de la simetría. Pero se espera seguir avanzando hasta lograrlo, Todo esto ayudo bastante para entender que a veces las teorías clásicas tienen limitaciones con lo que hace falta nuevas teorías y, con ello, nuevas y complejas herramientas matemáticas, y no solo eso sino que también a comprender la intima relación de todas las ramas de la física entre sí.
Hernandez Cueva Maria Elisa, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. José Augusto Valencia Gasti, Universidad Autónoma de Baja California

ABUNDANCIA DE MEJILLóN (MYTILUS CALIFORNIANUS) EN DOS SITIOS DEL INTERMAREAL ROCOSO DE BAJA CALIFORNIA: BAJAMAR Y LA BUFADORA


ABUNDANCIA DE MEJILLóN (MYTILUS CALIFORNIANUS) EN DOS SITIOS DEL INTERMAREAL ROCOSO DE BAJA CALIFORNIA: BAJAMAR Y LA BUFADORA

Acuña Acosta Brissa, Universidad de Sonora. Hernandez Cueva Maria Elisa, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. José Augusto Valencia Gasti, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema: El intermareal rocoso es un ecosistema costero vital para la productividad de los ecosistemas marinos y terrestres adyacentes. Está compuesto por plataformas, canto rodado o conglomerados, y sufre cambios ambientales continuos debido a las mareas, como exposición aérea y variaciones en temperatura y salinidad. Estos cambios crean gradientes que influyen en la biodiversidad del área, albergando una amplia variedad de invertebrados como moluscos, equinodermos, cnidarios, crustáceos, contribuyendo al ciclo de nutrientes y a la estabilidad del ecosistema. Un ejemplo clave en este ecosistema son los mejillones californianos (Mytilus californianus), que actúan como ingenieros del ecosistema al formar hábitats tridimensionales en las rocas y servir de refugio para otras especies, además, son filtradores que mejoran la calidad del agua. La investigación del intermareal rocoso de Baja California busca proporcionar información precisa sobre la densidad de mejillones y su impacto en la comunidad, facilitando el seguimiento de los efectos de perturbaciones climáticas y humanas.  



METODOLOGÍA

Metodología: Área de muestreo Se realizaron estudios en los intermareales rocosos de Bajamar y La Bufadora, ubicados a 30 y 40 km de Ensenada, Baja California, México, respectivamente. Bajamar tiene terrazas expuestas a oleajes intensos y temperaturas entre 13 y 22°C, mientras que La Bufadora tiene una fauna similar a las islas del sur de Ensenada y un sustrato de rocas ígneas con un límite biológico superior a 2.27 m del nivel medio. Ambos sitios tienen características ambientales y biológicas específicas. Trabajo en Campo Se delimitaron cinco transectos perpendiculares a la línea de costa en cada sitio, desde el límite superior hasta el inferior del intermareal medio. Se usó una cinta métrica para guiar el conteo de mejillones en cuadrantes de PVC de 50 x 50 cm². Además, se recolectaron más de 15 mejillones por sitio para análisis biológicos. Las condiciones ambientales fueron registradas con una sonda multiparamétrica y un sensor HOBO para monitoreo continuo de la temperatura. Trabajo en Laboratorio: Conteo y Clasificación Se contaron y clasificaron mejillones a partir de imágenes de los cuadrantes utilizando el software BIIGLE 2.0 para análisis y anotación de imágenes. Procesamiento de Muestras Los mejillones recolectados se midieron y pesaron. El volumen de la concha se calculó utilizando la fórmula:   Volumen de la concha (cm) = (43)(largo)(ancho)(alto) Ecuación 1. Se identificó el sexo y se midieron los parámetros de condición. Las valvas se rompieron para separar las partes del mejillón, que luego se secaron a 50°C durante 48 horas. Se calculó el factor de condición y el índice gonadosomático usando las fórmulas: Factor de condición= (peso seco del tejido del animal) / (peso seco de las valvas) Ecuación 2. Índice gonadosomático= (peso seco de las gónadas) / (peso seco de la carne) Ecuación 3.  


CONCLUSIONES

Conclusiones El análisis de mejillones (Mytilus californianus) en La Bufadora y Bajamar muestra diferencias notables en densidad y características biológicas. En La Bufadora, las densidades varían según la orientación del transecto, con mayores concentraciones en transectos perpendiculares a la costa y menores en el transecto paralelo. En Bajamar, la densidad disminuye con la distancia desde la zona cubierta por agua, siendo más alta cerca del agua. Biológicamente, La Bufadora presenta una mayor proporción de hembras y mejillones de mayor altura relativa. Los mejillones aquí invierten más en la producción de gónadas, en comparación con Bajamar, donde el factor de condición es más bajo. Estos patrones sugieren que las diferencias en densidad y características biológicas están influenciadas por las condiciones ambientales locales y la ubicación de los transectos.  
Hernández Dorantes Marvin Aarón, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo

CARACTERIZACIÓN GEOMECANICA DE TALUDES A TRAVES DE FOTOGRAMETRÍA-CANTO CASTILLO-HERNANDEZ DORANTES-KUMUL HERNANDEZ- RODRIGUEZ NAJERA


CARACTERIZACIÓN GEOMECANICA DE TALUDES A TRAVES DE FOTOGRAMETRÍA-CANTO CASTILLO-HERNANDEZ DORANTES-KUMUL HERNANDEZ- RODRIGUEZ NAJERA

Canto Castillo Danna Beatriz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Hernández Dorantes Marvin Aarón, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Kumul Hernández Kevin Divandy, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Rodríguez Nájera Omar Neftalí, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El proyecto “Caracterización geomecánica de taludes a través de fotogrametría” fue seleccionado con el objetivo de aprender nuevas aplicaciones de la mecánica de suelos en diferentes partes del país, ya que esta era la materia de especialidad sobre la que llevamos a cabo nuestro servicio social. Inicialmente, no teníamos muchas expectativas, dado que en nuestra ciudad no se encuentran taludes de grandes dimensiones. Sin embargo, nos dimos cuenta de que la materia base de este proyecto es la mecánica de rocas, una disciplina que no está incluida en nuestra retícula de materias en el Tecnológico de Chetumal. La problemática principal es que la realización de un levantamiento geomecánico convencional de taludes es mucho más tardado y limitado en cuanto al alcance humano. Este método es una nueva forma de realizar estos levantamientos, donde las limitantes humanas han desaparecido, aunque no del todo, gracias a las nuevas tecnologías.



METODOLOGÍA

La primera semana del proyecto estuvo dedicada a comprender los objetivos y el impacto de la metodología propuesta por la M.I.T.N Marsella Gissel Rodríguez Servín (estudiante de doctorado). Se buscaba comparar el método convencional con la aplicación de software (CloudCompare, Discontinuity Set Extractor y Math Lap) para fotogrametría, junto con los métodos geomecánicos y su clasificación para macizos rocosos. El propósito final era proponer soluciones para reforzar taludes cuando fuese necesario, ya que este campo no tiene un estado del arte muy desarrollado y cada proceso publicado está orientado a un propósito específico. Recibimos clases introductorias de “Mecánica de rocas” por el Dr. José Eleazar Arreygue Rocha, quien nos explicó los procedimientos en campo, laboratorio y gabinete. En campo, nos enfocamos en la observación de la tonalidad, rugosidad, discontinuidades y pliegues de las rocas, lo que nos permitió tener una idea general de la litología y el grado de meteorización. La clasificación de la roca prioriza el estudio de las discontinuidades o diaclasas, identificando el tipo, orientación, espaciado, persistencia, rugosidad, tipo de relleno, apertura y presencia de agua. En el laboratorio, trabajamos con la matriz rocosa, realizando pruebas destructivas y no destructivas para obtener valores indispensables para los cálculos posteriores, como resistencia a la compresión uniaxial, densidad, permeabilidad y mineralogía. El trabajo de gabinete consistió en utilizar los datos obtenidos para aplicar cuatro métodos de clasificación: dos aplicables a proyectos genéricos y dos específicos para taludes. Estos métodos incluían el cálculo del RMR (Valoración del macizo rocoso), el índice de calidad de la roca, el sistema de Barton para túneles y la clasificación SMR para taludes. Conforme avanzaron las semanas, nos dedicamos a procesar la información para el análisis de los taludes. Esto implicó delimitar el espacio de trabajo, depurar la vegetación para una mejor visualización, crear nubes de puntos para generar una base del terreno y extraer datos en las diferentes aplicaciones. Estas actividades fueron novedosas para nosotros y requirieron aprender a manejar nuevos formatos de documentos y entender su aplicación en cada proceso. La salida a campo fue uno de los momentos más esperados del proyecto, ya que nos permitió observar un paisaje completamente diferente al de nuestra región. Tuvimos la oportunidad de ver cómo se realiza un levantamiento geomecánico con dron para la recolección de fotos, planificar el vuelo, evaluar la factibilidad del trabajo mediante Google Earth y decidir si el recorrido se hacía manual o predeterminado. Realizamos el análisis de tres taludes por persona, llevando a cabo todos los procesos para clasificarlos y proponiendo métodos de estabilización cuando fuera necesario.


CONCLUSIONES

En conclusión, la línea de investigación "Caracterización geomecánica de taludes a través de fotogrametría" fue una experiencia enriquecedora, ya que nos permitió aprender nuevas aplicaciones de la mecánica de suelos y rocas, áreas no incluidas en nuestro currículo en el Tecnológico de Chetumal. La primera semana proporcionó una base sólida en el método convencional y el uso de software para fotogrametría, esencial para proponer soluciones de estabilización de taludes. Las clases introductorias de mecánica de rocas, junto con el trabajo de campo y laboratorio, fueron fundamentales para comprender los procesos de clasificación y análisis de macizos rocosos. El trabajo práctico y el uso de drones para recolectar datos fotogramétricos ampliaron nuestras habilidades y conocimientos, cabe mencionar que los resultados esperados son que este nuevo método sea de gran ayuda a futuro en este campo de estudio y que sea lo más funcional posible. En resumen, esta experiencia nos ha permitido entender mejor la importancia de la mecánica de rocas y nos ha dotado de herramientas útiles para futuros proyectos de estabilización de taludes en otras partes del país.
Hernandez Espinoza Maria Sinahi, Universidad Autónoma de Occidente
Asesor: Dr. Andres Martin Gongora Gomez, Instituto Politécnico Nacional

PRESUNTAS HIPNOSPORAS DE PERKINSUS SP. EN LA ALMEJA NEGRA ANADARA MAZATLANICA EN LA LAGUNA NAVACHISTE, GUASAVE, SINALOA


PRESUNTAS HIPNOSPORAS DE PERKINSUS SP. EN LA ALMEJA NEGRA ANADARA MAZATLANICA EN LA LAGUNA NAVACHISTE, GUASAVE, SINALOA

Hernandez Espinoza Maria Sinahi, Universidad Autónoma de Occidente. Asesor: Dr. Andres Martin Gongora Gomez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La almeja negra, Anadara mazatlanica es un molusco bivalvo bentónico perteneciente al grupo conocido como patas de mula, se distribuyen desde la laguna Ballenas en Baja California hasta el sur de Tumbes, en Perú, vive enterrada en sustratos finos de la zona sublitoral ‒en la arena o fango, a una profundidad de entre 30-110 cm. La alta demanda por esta almeja en el mercado local y nacional, principalmente en los estados de Baja California Sur hasta Chiapas ha provocado el interés para su aprovechamiento a gran escala, sin embargo, es poca la información que se ha generado para esta especie. Los hidrocarburos de petróleo, metales pesados, plaguicidas, organoclorados y microorganismos diversos, son los principales contaminantes, provocando efectos negativos que pueden causar enfermedades, por lo que es importante estudiar la producida por el parásito Perkinsus sp, ya que afecta directamente tanto a los cultivos como a las poblaciones naturales de moluscos, como es el caso de la almeja negra A. mazatlanica. La progresión de la infección por el patógeno está influenciada por una variedad de factores ambientales, especialmente la temperatura y la salinidad originando diversos grados de patogenicidad en los organismos. El objetivo de la presente investigación fue detectar la presencia de presuntas hipnosporas del myzozoo Perkinsus sp. En poblaciones naturales de la almeja negra A. mazatlanica y relacionar su presencia con las variables ambientales.



METODOLOGÍA

Mensualmente se evaluaron las variables ambientales del sitio de colecta: temperatura del agua, oxígeno disuelto, salinidad, pH, profundidad y transparencia. Con la misma periodicidad se recolectaron 30 organismos en el sitio de muestreo, a los cuales se les realizaron los parámetros biométricos de longitud, largo y ancho de la concha con un vernier digital. Para la determinación del peso húmedo total o peso vivo se utilizó una balanza granataria. La detección de presuntas hipnosporas de Perkinsus sp. se realizó mediante la prueba de medio fluido de tioglicolato de Ray (MFTR).


CONCLUSIONES

Los resultados de las variables ambientales durante el periodo de estudio (junio a julio 2024) fueron: Temperatura = 30.80 a 31.1°C, salinidad = 34.5 a 36.1 UpS, pH = 7.81 a 7.86 UpH, oxígeno disuelto = 2.48 a 3.9 mg L-1, profundidad = 0.45 a 0.65 m y transparencia = 0.45 a 0.60 m. Las medidas biométricas mínimas y máximas que se obtuvieron de la almeja fueron: longitud = 47.08 a 48.49 mm, largo o altura = 36.26 a 37.06 mm, ancho = 26.13 a 27.53 mm y peso = 30.40 a 32.57 g. La mayor prevalencia de P. marinus se observó en junio y julio, con una prevalencia promedio de 20% y con grado de infección de nivel leve(˂104 parásitos g-1 tejido húmedo) de acuerdo a la escala de Bushek et al. (1994. Este trabajo aporta conocimientos básicos acerca de la detección del patógeno Perkinsus sp. en poblaciones naturales de la almeja negra A. mazatlanica en la Laguna Navachiste, Guasave, Sinaloa.
Hernández Fortanell Valentina, Instituto Tecnológico de Nuevo Laredo
Asesor: Mtra. Ana María Pretel Martinez, Tecnológico de Estudios Superiores de Jocotitlán

MANEJO DE RECURSOS HÍDRICOS EN LA CIUDAD DE NUEVO LAREDO


MANEJO DE RECURSOS HÍDRICOS EN LA CIUDAD DE NUEVO LAREDO

Hernández Fortanell Valentina, Instituto Tecnológico de Nuevo Laredo. Asesor: Mtra. Ana María Pretel Martinez, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

El agua es esencial para la vida, la economía y el medio ambiente. A pesar de diversos esfuerzos, como campañas de concientización y difusión en redes sociales, el problema de la gestión del agua persiste. La sociedad juega un papel crucial, ya que las decisiones individuales influyen en el impacto positivo o negativo del cambio. El objetivo es que la ciudad entienda la importancia del agua para las futuras generaciones y que el cambio es posible en pocos meses. Los principales desafíos incluyen el aumento poblacional, el desarrollo industrial y comercial, y el cambio climático, que afecta los patrones de precipitación, causando sequías e inundaciones. La contaminación de fuentes hídricas por desechos industriales y urbanos deteriora la calidad del agua disponible. La falta de tratamiento adecuado de la contaminación y la escasez de agua impacta la salud pública, propagando enfermedades como el cólera y la fiebre tifoidea, y afecta la producción de alimentos. Para lograr un cambio, se necesita una gestión integrada y sostenible del agua por parte del gobierno, con políticas adecuadas y tecnologías avanzadas como paneles hidroeléctricos y riego por goteo, y la cooperación entre diferentes actores.



METODOLOGÍA

El estudio utilizó un enfoque mixto, combinando métodos cuantitativos y cualitativos para recopilar datos numéricos y obtener una comprensión profunda del problema. El diseño de la investigación consideró varias variables, como campañas, mantenimiento de tuberías y gestión del agua, para encontrar una solución efectiva. La investigación se enfocó en toda la población de la ciudad y las autoridades, recopilando datos para mitigar riesgos futuros y mejorar la calidad de vida. Los datos se obtuvieron de investigaciones en línea y fuentes oficiales municipales y estatales, asegurando su validez. Inicialmente, se propuso un enfoque híbrido usando datos en línea y físicos. Sin embargo, la empresa municipal no proporcionó datos físicos, limitando la investigación a datos en línea, los cuales fueron útiles para comparar variables.


CONCLUSIONES

Los hallazgos de la investigación son cruciales para desarrollar políticas de gestión del agua que mejoren la sostenibilidad urbana. La adopción de prácticas sostenibles por parte de las empresas y políticas gubernamentales de conservación y reutilización del agua puede reducir residuos y beneficiar tanto al medio ambiente como a las economías locales. La gestión del agua no solo afecta la disponibilidad de recursos, sino también la salud pública, la producción industrial y la estabilidad económica. Es fundamental implementar estrategias para enfrentar el crecimiento demográfico y el cambio climático. Se enfatiza la necesidad de una acción coordinada entre gobiernos, industria y comunidades para asegurar el acceso al agua para las futuras generaciones. Un enfoque integrado y colaborativo es esencial para desarrollar soluciones innovadoras y sostenibles. Se recomienda más investigación en tecnologías de ahorro de agua, como la recolección de agua de lluvia y la desalinización a pequeña escala, y estudiar los efectos a largo plazo de las políticas de gestión del agua en otras ciudades para mejorar las prácticas locales.
Hernández Gordillo José Iván, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Gregorio Posada Vanegas, Universidad Autónoma de Campeche

COMPORTAMIENTO Dé OLAS PORMEDIO SIMULACIóN FíSICA DEL OLEAJE Y MONITOREO Dé PLAYAS Y CURSO Dé IMPRESORA 3D


COMPORTAMIENTO Dé OLAS PORMEDIO SIMULACIóN FíSICA DEL OLEAJE Y MONITOREO Dé PLAYAS Y CURSO Dé IMPRESORA 3D

Hernández Gordillo José Iván, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Gregorio Posada Vanegas, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

El oleaje es el componente clave en el acoplamientode la capa inferior atmosferica y la capa superficial del oceano ; tiene efectos directos e indirectos sobre el esfuerzo superficial del viento . En el estudio presenta mediciones del flujo de momento y variables metereologicas en la interfase entre el oceano y la atmosfera empleandouna Boya Oceanografica . Cuando el campo del oleaje dominante es el generado por tormentas lejanas , se presenta desviaciones de la direcion del esfuerzo del viento respecto al viento .



METODOLOGÍA

Para llevar a cabo este proyecto, llevamos una introducción a lo que son los procesos costeros y los fenómenos que influyen en él, al igual de las partes que conforman una playa. El área de estudio fue “Playa Bonita” y “Playa Tortugueros” ubicados en el estado de Campeche. Los materiales que utilizamos fueron: GPS Leica, Dron (VANT) DJI FANTHON 4, tablas de 0.45m*0.45m, laptop y los programas: Pix4D (capture y mapper), Excel, Leica Geo Office, ArcGis. Nos ubicamos en el área de estudio y estacionamos el GPS en un lugar despejado pues así no tendrá interferencia con la señal que le envíen los satélites, hacemos las configuraciones de trabajo y dejamos el debido tiempo para que haga las correcciones, en lo que el GPS está procesando ubicamos las tablas dentro del área de estudio ya que tomaremos las medidas de dichas tablas para georreferenciar la orto foto que obtendremos con el vuelo de dron (VANT), después hacemos el vuelo de dron por el área, configurándolo con el software Pix4D Capture. También se hace el levantamiento de los perfiles de playa con el equipo topográfico para ubicarlos en el MDE que obtendremos al final. Una vez que tenemos el vuelo y los puntos del GPS, descargamos los datos y hacemos las correcciones de los puntos con el programa Leica Geo Office. Una vez listo procesamos las imágenes obtenidas con el vuelo con el programa Pix4D Mapper, con el cual nos dará un reporte con las correcciones que hace al momento de georreferenciarlos con los puntos del GPS, y como resultado nos dará un mosaico el cual procesaremos con el programa ArcGis para obtener un modelo digital de elevación (MDE). tambien se utilizo la impreso 3D para llevar acabo acabo modelos para pruevas de simulacion las cuales se llevan acabo en el laboratorio de oleaje. Complementariamente al trabajo topográfico se lleva toda la informacion para llevarse acabo en elesta que de simulacion de oleaje.


CONCLUSIONES

Al final obtuvimos los resultados esperados con la metodología empleada, la relación entre la teoría y la practica fueron muy estrechas, hicimos comparaciones entre datos que ya tenían de tiempo atrás sobre el área de estudio y los datos que nosotros obtuvimos en campo e hicimos las comparaciones, así logramos ver el cambio de elevaciones que hubo por distintos factores ya mencionados.
Hernández Mendoza Giovani Josué, Universidad de Guadalajara
Asesor: Dr. Roberto Márquez Islas, Hospital General de México

ESTUDIO DE LA CINéTICA DE LA HEMóLISIS MEDIANTE MEDICIONES ELéCTRICAS.


ESTUDIO DE LA CINéTICA DE LA HEMóLISIS MEDIANTE MEDICIONES ELéCTRICAS.

Hernández Mendoza Giovani Josué, Universidad de Guadalajara. Asesor: Dr. Roberto Márquez Islas, Hospital General de México



PLANTEAMIENTO DEL PROBLEMA

La detección de hemólisis mediante dispositivos eléctricos ha avanzado, proporcionando métodos rápidos, precisos y no invasivos. Estos dispositivos son cruciales para identificar niveles inaceptables de hemólisis en pruebas diagnósticas. Entre los métodos se encuentran ensayos electroquímicos y mediciones de conductividad. La prueba de fragilidad osmótica (OFT) es el estándar actual, pero consume mucho tiempo y recursos. Se necesita un sistema eléctrico que permita mediciones continuas y en tiempo real de hemólisis de forma mínimamente invasiva. Este trabajo presenta un dispositivo que utiliza dos electrodos metálicos circulares para medir cambios en la resistividad de una solución con eritrocitos, permitiendo el monitoreo continuo de la hemólisis. El dispositivo es fácil de operar, reduce el riesgo de contaminación y es accesible para laboratorios y clínicas.



METODOLOGÍA

Materiales: Celda impresa en 3D Dos electrodos de carbono Medidor LRC (modelo U2830, ELICOL) Bomba peristáltica Pipeta micrométrica Agua destilada Suero (0.9% NaCl) Muestras sanguíneas Arreglo Experimental: Se utilizó una celda impresa en 3D con dos electrodos de carbono incrustados. Estos electrodos se conectaron a un medidor LRC mediante caimanes. La celda incluyó una bomba peristáltica lateral para generar un flujo continuo de agua a la parte superior de la celda. Propuesta para la Matriz Hipotónica: Se prepararon soluciones con diferentes proporciones de agua destilada y suero salino (0.9% NaCl): 50%-50%, 60%-40%, 70%-30%, 80%-20%, y 90%-10%. Las soluciones fueron sometidas a medición en el arreglo experimental para identificar la concentración que presentara la menor caída de resistencia en todo el ciclo de medición. Las mediciones se realizaron en ciclos de 40 minutos: 20 minutos con la bomba encendida y 20 minutos con la bomba apagada. Análisis con Bolas de Gel: Después de identificar la matriz óptima, se evaluó la capacidad del sistema para detectar cambios en la presencia de objetos dentro de la celda. Se utilizaron bolas de gel, que se hidrataron, secaron y trituraron para obtener un polvo fino. Se realizaron dos configuraciones experimentales: Bomba Encendida: La bomba funcionó continuamente. Bomba Apagada: La bomba permaneció apagada. La finalidad de utilizar las dos metodologías era confirmar que las señales arrojaras eran precisamente al crecimiento de las bolas de gel y no a un factor externo debido a la bomba peristáltica con el polvo obtenido. Depósito de Matriz: Se realizaron mediciones adicionales usando depósitos pausados de la matriz hipotónica: Deposición Pausada de 2 Gotas cada 2 Minutos: Se depositaron 2 gotas cada 2 minutos hasta agotar 1 ml. Deposición Continua de 1 ml con 1 Gota cada 15 Segundos: Se depositó 1 ml gradualmente, con una gota cada 15 segundos. La finalidad fue asociar el cambio de la resistencia con el posterior depósito de material biológico, replicando la metodología de depósito para las posteriores mediciones y esperando un cierto comportamiento específico de la resistencia en la toma de datos. Muestras Sanguíneas: Se utilizó una matriz caracterizada eléctricamente para las mediciones con muestras sanguíneas. Se depositó 0.5 ml de glóbulos rojos en la misma área de la celda donde se había depositado la matriz. Se realizaron 9 mediciones con donadores sanos y 5 con pacientes con anemia del Hospital General de México. Esto permitió comparar las respuestas resistivas entre individuos sanos y pacientes con anemia bajo las mismas condiciones experimentales.


CONCLUSIONES

Proporción Óptima de la Matriz Hipotónica: La solución con 50% agua destilada y 50% suero (0.9% NaCl) mostró la mayor estabilidad, con la menor caída en la resistencia durante las pruebas. Esta proporción demostró ser la más adecuada para obtener datos fiables, tanto en mediciones con bolas de gel como en depósitos de matriz. Resultados en la Medición de Muestras Sanguíneas: Resistencia en el Depósito de Sangre: Se observó un pico de resistencia al depositar la sangre, seguido de un incremento gradual entre los minutos 2 y 5, relacionado con la hemólisis de los glóbulos rojos, validando la capacidad del sistema para detectar hemólisis. Diferencias entre Muestras Sanas y Pacientes con Anemia: Pendiente de Resistencia: Las muestras de pacientes anémicos mostraron una pendiente de resistencia mayor después del depósito, indicando una mayor liberación de hemoglobina y hemólisis más pronunciada. Resistencia Gradual: Los pacientes con anemia no mostraron el incremento gradual en resistencia observado en individuos sanos, sino caídas esporádicas, sugiriendo una respuesta diferente en el proceso de hemólisis. Inestabilidad con la Bomba Peristáltica Apagada: Hubo inestabilidad en los resultados durante los últimos 20 minutos cuando la bomba peristáltica estaba apagada. Para obtener lecturas más consistentes, se limitó el análisis a los primeros 20 minutos con la bomba encendida. Eficiencia y Rapidez del Sistema Propuesto: El sistema de detección de hemólisis basado en mediciones de resistencia eléctrica mostró una notable eficiencia y rapidez comparado con métodos tradicionales. Permite una evaluación rápida y continua de hemólisis, facilitando un diagnóstico ágil y preciso.
Hernandez Ortiz Lizette Ariadna, Universidad Veracruzana
Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional

DISPOSITIVOS SEMICONDUCTORES Y CIRCUITOS INTEGRADOS


DISPOSITIVOS SEMICONDUCTORES Y CIRCUITOS INTEGRADOS

Cortina Barrales Naraai, Universidad de Guadalajara. Garcia Gutierrez Alejandro Ivan, Benemérita Universidad Autónoma de Puebla. Gómez Méndez Alison Zoe, Instituto Politécnico Nacional. Hernandez Ortiz Lizette Ariadna, Universidad Veracruzana. Perez Cortes Eliseo, Benemérita Universidad Autónoma de Puebla. Quintero López Jimena, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Ramirez Beltrán Andrés Alberto, Universidad de Guadalajara. Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los dispositivos semiconductores son componentes electrónicos que se encuentran en el corazón de la tecnología moderna. Estos dispositivos utilizan materiales semiconductores, como el silicio o el germanio, que tienen propiedades eléctricas intermedias, entre los conductores se pueden identificar los metales y en los aislantes el vidrio. Los TFT (Thin-Film Transistor) son transistores de película delgada que se utilizan en pantallas de cristal líquido (LCD) y pantallas de matriz activa como las de los teléfonos inteligentes y televisores. Los TFT permiten un control preciso de cada píxel en la pantalla. Las ventajas de los circuitos integrados flexibles incluyen menor costo de procesamiento, menor huella de carbono, y procesos de fabricación más rápidos comparados con el silicio. Se busca contribuir a una mejor comprensión de la tecnología de TFT flexible para avanzar hacia circuitos integrados fiables y flexibles, además de impulsar la investigación en los campos de la microelectrónica, la nanotecnología, los MEMS, las celdas solares, los dispositivos de película delgada, los sensores y otras áreas que requieren un ambiente libre de partículas.  



METODOLOGÍA

Los pasos para crear un circuito integrado son: simulación, diseño, fabricación y pruebas. Para la simulación de compuertas lógicas a nivel de transistores NMOS se utilizó el software LTspice, teniendo diferente ancho de canal (W) y de largo (L) para observar el comportamiento de los circuitos a este nivel. Además en un software más intuitivo (wokwi) se realizó la simulación a nivel de compuertas para obtener las tablas de verdad esperadas de cada circuito realizado con diferentes combinaciones de compuertas básicas. Posteriormente se hizo uso del software Tanner para realizar el diseño de los siguientes circuitos: MEDIO RESTADOR, RESTADOR COMPLETO, MEDIO SUMADOR, SUMADOR COMPLETO, MULTIPLEXOR, COMPARADOR, FLIP FLOP TIPO D, LATCH TIPO D. tomando como base una serie de compuertas lógicas diseñadas en proyectos previos, como son la compuerta NOT, NAND y NOR. El proceso de fabricación se realizó en el Laboratorio Nacional de Micro y Nanotecnología (LNunT), el cual cuenta con un cuarto limpio tipo 100. Como primera parte de la fabricación se hizo un depósito de cromo y oro con el Evaporador D18. Después, se procedió a fabricar el circuito realizando el proceso de fotolitografía mediante escritura directa utilizando el equipo Heidelberg DWL-66FS, fotoresina S1813 y revelador MF-319. Se prosiguió a realizar otro depósito de HFO₂, con ayuda del equipo ALD 150LE. Posterior a ello con el equipo Sputtering V3 se agregó la capa del Mo. Por último se le colocó el polímero PMMA utilizando el Spinner Laurell 650. Se obtuvieron las señales de transistores, compuertas lógicas y los circuitos diseñados. Para los circuitos integrados y compuertas lógicas se utilizó un osciloscopio, un generador de funciones y una fuente voltaje, utilizando señales de voltaje de corriente continua (DC) y corriente alterna (AC), en el caso de los transistores se utilizó un analizador Keithley 4200A-SCS. Todas las mediciones se llevaron a cabo en condiciones ambientales normales.  


CONCLUSIONES

El trabajo realizado durante la estancia de verano logró reforzar y adquirir nuevos conocimientos sobre el diseño de circuitos integrados digitales en muestras de material flexible partiendo desde transistores. También se comprendió cómo el tamaño y orientación de los transistores afectaba directamente a los circuitos y su funcionalidad en general. Se adquirieron conocimientos de los procesos a seguir para poder trabajar en un cuarto limpio clase 100. Adicionalmente, se aprendió sobre el proceso de fabricación de circuitos integrados. Por último, se reforzaron conocimientos en instrumentación y medición de circuitos integrados.  
Hernandez Perez Didier, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Landy Elena Sosa Moguel, Universidad Autónoma de Yucatán

OPORTUNIDADES DE APRENDIZAJE DOCENTE SOBRE LA PROPORCIONALIDAD INVERSA MEDIANTE CONVERSACIóN REFLEXIVA


OPORTUNIDADES DE APRENDIZAJE DOCENTE SOBRE LA PROPORCIONALIDAD INVERSA MEDIANTE CONVERSACIóN REFLEXIVA

Hernandez Perez Didier, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Landy Elena Sosa Moguel, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Oportunidades de aprendizaje docente sobre la proporcionalidad inversa mediante conversación reflexiva Asesora: Dra: Landy Elena Sosa Moguel, Universidad Autónoma de Yucatán. Estudiante: Didier Hernández Pérez, Benemérita Universidad Autónoma de Puebla. La manera en que un profesor de matemáticas aprende y se forma profesionalmente afecta tanto a su práctica docente como al aprendizaje de sus estudiantes. Los profesores de matemáticas continuamente enfrentan desafíos en su práctica para incorporar actividades que fomenten habilidades de pensamiento y la comprensión de conceptos matemáticos. Por consiguiente, entender cómo aprende el profesor de matemáticas y cómo generar oportunidades de aprendizaje profesional docente se han convertido en unos de los más importantes focos de la investigación en la disciplina de la Matemática Educativa. Investigaciones previas han mostrado que la reflexión y la conversación son dos procesos que favorecen el aprendizaje profesional docente en matemáticas. El objetivo de esta investigación consistió en explorar el impacto de oportunidades de aprendizaje profesional en profesores en formación, que desarrollen su conocimiento matemático para la enseñanza de la proporcionalidad inversa, mediante la Conversación Reflexiva (CR). La elección de este contenido matemático se debió a las dificultades manifestadas por profesores en formación y en servicio en la resolución de problemas que involucran establecer relaciones de proporcionalidad inversa, así como lo complejo que les resulta su enseñanza.



METODOLOGÍA

Durante la estancia se llevó a cabo la investigación bajo una metodología cualitativa de tipo exploratorio para entender procesos de formación de profesores de matemáticas. Con el objeto de generar y examinar oportunidades de aprendizaje docente desde la formación profesional, en particular sobre el concepto de proporcionalidad inversa, se diseñó un espacio de conversación reflexiva con base en el modelo de Aparicio et al. (2020) y elementos teóricos como el de aprendizaje conversacional, reflexión y conversación en colectivo. La conversación reflexiva se llevó a cabo de manera virtual por la plataforma Microsoft Teams. Participaron cuatro estudiantes para profesor de matemáticas, la investigadora, quien coordinó la conversación y un observador no participante, para la toma de nota de los aspectos relevantes acontecidos durante la CR. Para detonar la conversación reflexiva se plantearon dos tareas matemáticas a los participantes, la cual debían resolver de manera individual y, posteriormente, se discutiría en colectivo. En la Tarea 1 se mostró la simulación del movimiento de un objeto de forma esférica, pero con diferente masa, cuando es impulsado por la misma fuerza (en Newtons) para moverlo. La tarea consistió en analizar la relación entre la masa y aceleración, que era inversamente proporcional, a partir del estudio de patrones numéricos de valores dados de esta variable. Esta tarea partía de la experiencia concreta de trabajar visual y numéricamente las relaciones entre las variables masa (m) y aceleración (a), para que a través de preguntas en la CR del cómo (nivel procedimental) y porqué (nivel conceptual) de los conocimientos y procedimientos utilizados en la resolución de la tarea se llegara a la observación reflexiva de las siguientes relaciones de la proporcionalidad inversa: i) el producto de los valores correspondientes de ambas variables siempre es constante; ii) las razones entre pares de valores de una variable y los valores correspondientes de la otra son recíprocas. La Tarea 2 situaba a los participantes en el contexto del punto de equilibrio de un balancín con bloques de cierto peso en cada lado y a determinada distancia del punto de apoyo del balancín. En esta tarea se esperaba que los participantes abstrajeran y generalizaran las relaciones reconocidas en la Tarea 1 y con ello lograran proponer una expresión algebraica para calcular la distancia a la que se tendrían que colocar bloques de cualquier peso en el lado izquierdo del balancín (conocido el peso del lado derecho) para que esté en equilibrio. De modo que, a través de la CR se pretendía que transitaran a la conceptualización abstracta y experimentación activa con la proporcionalidad inversa. Los participantes resolvieron las tareas siguiendo distintos procedimientos y no conocían los que emplearon los demás, lo que enriqueció la CR hasta llegar a un consenso sobre las soluciones. Para el análisis de los datos, se registró la conversación reflexiva en audio y video, así como las respuestas escritas de las tareas dadas por los participantes. La conversación fue transcrita y el análisis del texto se centró en la identificación de extractos donde los participantes refirieron a aspectos conceptuales o procedimentales del conocimiento asociado a la proporcionalidad inversa, a fin de dar evidencia de su aprendizaje en la CR.


CONCLUSIONES

Esta investigación se enfocó en el proceso de aprendizaje de formación de docentes de matemáticas mediante la conversación reflexiva en torno al concepto de proporcionalidad inversa. La conversación reflexiva a nivel procedimental y conceptual sobre la resolución de tareas que demandaban estudiar relaciones y generalizar patrones numéricos de variables en contextos de la Física, se generaron oportunidades de aprendizaje en los participantes que les permitieron ampliar su conocimiento sobre la proporcionalidad inversa. Previo al espacio de CR, el conocimiento de los profesores de matemáticas en formación participantes se limitaba a la idea de que dos magnitudes son inversamente proporcionales si mientras una aumenta la otra disminuye, y viceversa. La confrontación de las ideas y razonamientos de los participantes por medio de la conversación y reflexión del porqué de las soluciones dadas a las tareas, la argumentación de sus diferentes procedimientos de resolución y la generación de consensos sobre estas permitió que desarrollaran su conocimiento matemático acerca de dos características centrales de la proporcionalidad inversa.
Hernández Pinzón Alejandra Sunem, Benemérita Universidad Autónoma de Puebla
Asesor: Mtra. Sol María Hernández Hernández, Benemérita Universidad Autónoma de Puebla

DISEñO DE MATERIAL DIDáCTICO PARA LA ENSEñANZA DE LA FíSICA PARA NIVEL MEDIO SUPERIOR


DISEñO DE MATERIAL DIDáCTICO PARA LA ENSEñANZA DE LA FíSICA PARA NIVEL MEDIO SUPERIOR

Hernández Pinzón Alejandra Sunem, Benemérita Universidad Autónoma de Puebla. Asesor: Mtra. Sol María Hernández Hernández, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La enseñanza es una práctica de transmisión y construcción de conocimientos e ideas entre las personas. Refiriéndonos al ámbito académico, existen varios métodos y recursos que se utilizan para facilitar el proceso de aprendizaje. Este proceso implica la interacción entre tres elementos fundamentales: el profesor, el alumno y el contenido educativo. A lo largo de la historia, los métodos de enseñanza han evolucionado de acuerdo a los cambios técnicos, sociales y económicos que experimenta la sociedad, sin embargo, existen también otros factores que han influido en estas transformaciones cómo la llegada de nuevas tecnologías al aula y al entorno que rodean a los estudiantes. Es de vital importancia tomar en beneficio de la educación todas estas herramientas que pueden ayudar tanto al aprendizaje como al desempeño académico de los estudiantes. La física se empezó a estudiar como resultado de una necesidad para la humanidad, los griegos consideraban a la naturaleza como objeto de conocimiento y en busca de explicaciones a los fenómenos físicos. Por otra parte, las matemáticas se desarrollaron hasta el punto de poder realizar cálculos sencillos y resolver problemas geométricos prácticos. Desde la época antigua los griegos se observaron en la educación la base de la formación de los seres humanos como ciudadanos y personas libres; para ellos, la educación era entendida como paideia que significa formación o educación. Como parte de esta formación los griegos estudiaron retórica, gimnasia, gramática, poesía, matemáticas y filosofía, consideraban que estas disciplinas dotaban al individuo de conocimientos, pero también formaban su carácter para tener control sobre sí mismos y así poder ejercer de manera adecuada sus deberes como ciudadanos. Mientras que los conceptos básicos podrían haber sido introducidos en una edad temprana, los estudios más avanzados en física y ciencias naturales eran generalmente abordados por jóvenes de la adolescencia y la adultez temprana. En la actualidad, dado que la enseñanza de la física va de la mano con rigurosos fundamentos matemáticos, es de ardo trabajo para los estudiantes poder comprender estos temas con esa formalidad que conlleva. A través de los tiempos han existido diversos métodos de enseñanza y aprendizaje para los alumnos, sin embargo, para fines de este proyecto, nos enfocaremos en una serie de materiales didácticos para la enseñanza de la física a nivel medio superior, donde abordaremos en específico en el tema de Refracción de la luz con el objetivo de optimizar el tiempo de clase para tratar los temas de física de manera dinámica, con el fin de alcanzar un nivel conceptual de profundidad adecuado.



METODOLOGÍA

Para la elaboración de los materiales didácticos se hizo un diseño de tres materiales didácticos, cada uno con su respectivo cuestionario. El primer material didáctico con el fin de crear curiosidad en el tema a abordar se realizó un vídeo, dónde se comenzó con un pequeño experimento mostrando perlas de hidrogel para introducir conceptos básicos cómo lo es la luz, la velocidad de la luz en el vacío, la velocidad de la luz en otros medios y el índice de refracción de la luz, a su vez con un pequeño cuestionario de diez preguntas donde se incluyen preguntas para localizar, analizar y procesar información, así como para identificar y corregir conceptos erróneos en el estudiante. El segundo material didáctico fue diseñado en forma de una lectura, dónde se volvieron a reforzar los conceptos previos al vídeo anterior agregando conceptos como la normal, el rayo de luz, el rayo incidente, refractado y ángulo incidente y refractado, así como la formulación matemática de la ley de Snell, a su vez de un cuestionario didáctico para localizar y colocar los elementos de un diagrama para la comprensión de la ley. Por último, el tercer material didáctico consistió en la elaboración de una serie de experimentos para el análisis y refuerzo de conceptos ya antes mencionados, al igual que un experimento digital por medio de un simulador en la red con ayuda del servidor phet simulaciones interactivas, con el fin de obtener cálculos numéricos y un análisis de la refracción de la luz en distintos medios y rayos de luz incidentes, esto con la finalidad de poder contestar un tercer cuestionario para la conclusión del tema.


CONCLUSIONES

En conclusión, la elaboración de los materiales didácticos ha sido estructurada de manera integral para facilitar el aprendizaje de conceptos fundamentales sobre la luz y su refracción con diferentes medios. El primer material, con un vídeo experimental inicial, despierta la curiosidad y presenta los conceptos básicos de forma accesible. El segundo material, una lectura detallada, refuerza estos conceptos e introduce aspectos adicionales como la ley de Snell, complementado por un cuestionario que facilita la comprensión a través de la identificación de diagramas. Finalmente, el tercer material ofrece una aplicación práctica a través de experimentos físicos y simulaciones digitales, permitiendo a los estudiantes realizar cálculos y análisis profundos de la refracción de la luz. Juntos estos recursos proporcionan una experiencia de aprendizaje dinámica y completa, abordando tanto la teoría como la práctica del tema. Se espera implementar éstos materiales de manera formal en una preparatoria dirigido a estudiantes de los últimos semestres con el objetivo de evaluar la eficiencia y efectividad de esta metodología desarrollada.
Hernández Reyna Enrique Imanol, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla

INSTRUMENTACIóN Y DETECTORES DE PARTíCULAS


INSTRUMENTACIóN Y DETECTORES DE PARTíCULAS

Hernández Reyna Enrique Imanol, Benemérita Universidad Autónoma de Puebla. Pulido Rosales Sergio, Benemérita Universidad Autónoma de Puebla. Ramos Moreno Diego, Benemérita Universidad Autónoma de Puebla. Vázquez Pérez Adriana Sofia, Universidad Autónoma de Chiapas. Asesor: Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los rayos cósmicos son partículas provenientes del universo con energías extremadamente altas, superando ampliamente las alcanzadas por los aceleradores de partículas más potentes creados por la humanidad. Estas partículas ingresan a la atmósfera terrestre desde el espacio exterior, y aunque sus orígenes exactos son inciertos, se cree que podrían provenir de supernovas y otros eventos astronómicos. Cuando estos rayos cósmicos interaccionan con la atmósfera generan una cascada de subproductos entre los que están fotones, electrones, positrones y muones. El estudio experimental de partículas subatómicas es esencial en la física de altas energías, astrofísica y física nuclear. Se suelen utilizar muchos tipos de detectores en conjunto para analizar rayos cósmicos y colisiones energéticas. Este Verano de Investigación estuvo enfocado en uno en específico, la RPC. Una Cámara de Placas Resistivas (RPC, por sus siglas en inglés) es un detector de radiación ionizante que, por su gran resolución temporal, confiabilidad y bajo costo es uno de los detectores que se utilizan actualmente en grandes proyectos científicos como lo son el Observatorio Pierre-Auger en Argentina, ALICE en el CERN o FOPI-GSI en Alemania. Estos dispositivos, integrados en sistemas de detección de partículas, proporcionan información precisa sobre las partículas detectadas, mejorando nuestra comprensión del universo y ofreciendo aplicaciones prácticas en diversos campos. En principio, una RPC se compone de dos placas resistivas sometidas a muy alto voltaje (unos 10-20 kV) que encierran un gas con propiedades específicas. Cuando una partícula ionizante, como el Muón, pasa por la cámara ioniza las moléculas del gas arrancándoles electrones en cadena de modo que se generan avalanchas de iones positivos y electrones cada una viéndose atraídas por el campo eléctrico a una respectiva placa. Cuando se acumulan suficientes cargas, se genera una descarga medible (como la de un capacitor). Dependiendo de la señal de corriente obtenida a la salida se puede determinar la carga, energía y con ello el tipo de partícula. El Objetivo del Programa es la construcción de una RPC de dos gaps (dos espaciamientos para el gas) con una eficiencia mínima de 80%. Para posteriormente caracterizarla y realizar algunas mediciones básicas en conjunto con el equipo del laboratorio de pruebas RPCs ALICE en el Ecocampus, BUAP (Benemérita Universidad Autónoma de Puebla).



METODOLOGÍA

El proyecto se compone de 4 etapas principales: - Preparación de materiales. - Ensamblaje de la RPC. - Medición de la resistividad con gas Argón. - Mediciones con gas Freón. Para las placas de la RPC se utilizan vidrios soda-lime de 20x20 cm^2, que se cortan a las medidas estrictamente exactas con herramientas especiales. Después se limpian meticulosamente (cualquier tipo de suciedad, por pequeña que sea, genera ruido y pueden llegar a reducir el tiempo de vida del detector) y se pintan con una pintura negra resistiva a través del método de aerosol, que garantiza una buena homogeneidad estructural en una capa muy delgada (y por lo tanto homogeneidad en la resistividad). • Para la fabricación de la Caja de Aluminio: Se cortan y ensamblan dos placas de 31x33 cm y cuatro barras de aluminio, dos de 29 cm y dos de 33cm utilizando una sierra caladora y un taladro. Se realizan perforaciones en una de las barras de 29 cm para colocar los conectores de voltaje y gas al igual una perforación para los cabes del canal. • Construcción de la Cámara: Incluye la creación de piezas mediante impresión 3D, que forman parte del marco y los separadores de gas. Se colocan conectores de gas y alambres en el marco, y se aplica resina para sellar, eso evita futuras fugas. Se cortan tapas de acrílico que se ajustan al marco. Se aplican capas de acrílico para sellar los bordes y asegurar las placas de vidrio. Se ensamblan las placas de vidrio pintado dentro de la cámara, utilizando hilo de pescar para mantener la separación entre ellas. Finalmente, hay que soldar los electrodos. • Construcción del pad El pad se construye a partir de una placa de cobre la cual se corta de un tamaño de 20 cm por lado con la ayuda de una sierra. Posteriormente se le realiza un corte para tener un 'canal' de manera que el área efectiva dentro de él sea un cuadrado de 19 cm por lado, esto se hace con la máquina y Mach3 CNC, para mejorar la efectividad de las señales que se pueden recibir. Para la medición de la resistividad del sistema primero es necesario limpiar la cámara con gas Argón, ir administrando diferentes niveles de voltaje a la placa y ver cuál es el consumo de corriente. Finalmente, para la etapa de medición se usa gas Tetrafluoroetano. Se colocan cristales centelladores con PMTs (Tubos fotomultiplicadores) de alta eficiencia funcionando como triggers (activadores) y se cuentan la cantidad relativa de eventos detectados por la RPC frente a los detectados por los triggers obteniendo de esta manera la eficiencia y curva de funcionamiento para hallar el voltaje óptimo. Las mediciones se realizan con ayuda de un Osciloscopio Teledyne LeCroy Wavepro 715Zi-A para la visualización de voltaje y los datos pueden ser guardados en una USB para un análisis más exacto.


CONCLUSIONES

La construcción de un detector RPC de vidrio de dos gaps fue exitosa, logrando los objetivos planteados en cuanto a la funcionalidad del detector. La elección de vidrio soda lime como material de las placas resistivas y el uso de pintura de grafito conductivo proporcionaron una buena resolución en la detección de eventos. Además, las pruebas de adquisición de datos confirmaron la capacidad del detector para capturar y registrar señales de partículas ionizantes. La adquisición de datos mostró señales claras de ionización, permitiendo la identificación de eventos de partículas cargadas.
Hernández Rodríguez Neliza, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Ismael Santos Ramos, Benemérita Universidad Autónoma de Puebla

ESTUDIO DE LOS COMPOSITOS DE FERRITAS DE NíQUEL Y NANOPARTíCULAS DE PLATA COMO FOTOCATALIZADORES


ESTUDIO DE LOS COMPOSITOS DE FERRITAS DE NíQUEL Y NANOPARTíCULAS DE PLATA COMO FOTOCATALIZADORES

Hernández Rodríguez Neliza, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Ismael Santos Ramos, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El suministro continuo de agua limpia y segura es un desafío crucial en la sociedad moderna. El rápido desarrollo industrial y el aumento de la población han incrementado la demanda de recursos de agua dulce, agravando el problema del acceso a agua potable en el futuro. La contaminación del agua con compuestos orgánicos tóxicos, como el 4-nitrofenol (4-NP), utilizado en la fabricación de productos químicos, plásticos y pesticidas, es una preocupación importante debido a su alta toxicidad y resistencia a la degradación. Los métodos actuales de purificación de agua, como la adsorción, coagulación, quelación, ebullición, tratamiento UV y ozonización, no siempre son suficientes para eliminar estos contaminantes de manera efectiva. En este contexto, la fotocatálisis se presenta como una alternativa prometedora, ya que utiliza la luz (ultravioleta o visible) para activar un catalizador y descomponer contaminantes en productos menos dañinos. La combinación de ferritas de níquel (NiFe₂O₄) y nanopartículas de plata (AgNPs) se propone como una solución innovadora para mejorar la eficiencia del proceso fotocatalítico, facilitando la recuperación y reutilización del catalizador, reduciendo costos y minimizando el impacto ambiental. El objetivo principal de esta investigación es evaluar la eficiencia de las cinéticas de adsorción del 4-NP, con diferentes concentraciones, utilizando como adsorbentes NPs NiFe₂O₄, Ag y el composito Ag-NiFe₂O₄ obtenidas mediante el método hidrotermal, asi como de la actividad fotocatalítica entender los mecanismos de degradación del 4-NP.



METODOLOGÍA

El estudio se centró en la síntesis y caracterización de nanopartículas de plata y ferritas de níquel, así como en la elaboración de un composito de estos materiales, evaluando su aplicación como fotocatalizadores para la degradación del 4-nitrofenol (4-NP). Para la síntesis de las nanopartículas de plata (NPs de Ag), se prepararon soluciones de ácido tánico y citrato de sodio en agua a una temperatura de 90°C. A esta mezcla se le añadió nitrato de plata y se dejó reaccionar durante 10 minutos. Posteriormente, el producto fue lavado repetidamente y centrifugado a 20,000 rpm durante 15 minutos. Las NPs se redispersaron en 20 ml de agua desionizada y se sometieron a un baño sónico durante 15 minutos para asegurar una adecuada dispersión. Para la síntesis de las nanopartículas de ferrita de níquel (NiFe₂O₄) mediante el método hidrotermal, se prepararon soluciones de Ni(DS)₂, FeCl₃ y NaOH que se agitaron en diferentes etapas del proceso, con una reacción de 10 min entre ellas. La mezcla se sometió a una estufa a 120°C durante 8 horas. Tras este procedimiento, las nanopartículas fueron lavadas con agua desionizada y etanol, y centrifugadas repetidamente a 20,000 rpm durante 10 minutos para eliminar impurezas y asegurar una alta pureza del producto final. Luego se llevo a cabo el secado de las ferritas de niquel en mufla a 60°C (2 horas). Y finalmente, se sometieron a un tratamiento térmico a 500°C durante 2 horas, primero en aire y luego en nitrógeno (N₂). La síntesis del composito de Ag-NiFe₂O₄ siguió un procedimiento similar al de las NPs de Ag. Una vez obtenidas y enfriadas, las nanopartículas de plata, a temperatura ambiente, se añadieron las nanopartículas de NiFe₂O₄ a la solución de NPs de Ag. La mezcla resultante fue dispersada en un baño sónico durante 20 minutos para asegurar una distribución uniforme de las partículas, seguida de un proceso de lavado y centrifugado a 20,000 rpm durante 10 minutos. Luego se llevo a cabo el secado en mufla a 60°C (2 horas). Y finalmente, se sometieron a un tratamiento térmico a 500°C durante 2 horas en nitrógeno (N₂). La caracterización de las nanopartículas sintetizadas incluyó análisis de morfología mediante microscopía electrónica de barrido (SEM) y evaluación de las propiedades ópticas utilizando espectroscopia UV-Vis. La actividad catalítica de las nanopartículas de Ag se evaluó mediante la preparación de películas en obleas de silicio, sobre las cuales se depositaron soluciones de nanopartículas y se dejaron secar a 60°C. Para evaluar la catálisis, se preparó una solución de 4-NP y borohidruro de sodio (NaBH₄) y se monitoreó la degradación del 4-NP en celdas de cuarzo. En el caso de las nanopartículas de NiFe₂O₄ y el composito Ag-NiFe₂O₄, se añadió directamente a una solución de 4-NP y se llevó a cabo la fotocatálisis bajo luz ultravioleta, monitoreando la degradación cada 5 minutos.


CONCLUSIONES

El estudio demostró la capacidad de las nanopartículas sintetizadas de actuar como catalizadores efectivos en la degradación del 4-NP. Las nanopartículas de ferrita de níquel (NiFe₂O₄) se sintetizaron exitosamente utilizando el método hidrotermal, obteniendo nanopartículas con band gaps consistentes con los reportados en la literatura, variando entre 1.97 eV y 1.99 eV. Las nanopartículas de Ag-NiFe₂O₄ presentaron morfologías cuasi esféricas, como se observó en los análisis de SEM. Las nanopartículas de plata sintetizadas mostraron ser efectivas en la reducción del 4-NP a 4-aminofenol (4-AP) en presencia de NaBH₄, destacando su eficiencia catalítica. Las nanopartículas de ferrita de níquel demostraron una buena actividad fotocatalítica bajo luz ultravioleta, degradando eficazmente el 4-NP y proporcionando información valiosa sobre las dinámicas de degradación y la formación de productos intermedios como el 4-nitrosofenol (4-NPO). En comparación, el composito Ag-NiFe₂O₄ también mostró capacidad para degradar el 4-NP, aunque su eficiencia fue menor en comparación con las nanopartículas de NiFe₂O₄. Esto indica un comportamiento similar en la ruta de degradación, pero con posibles diferencias que afectan la eficiencia global del proceso.
Hernandez Yañez Aniela Marian, Universidad Autónoma de Baja California
Asesor: Dr. José Reyes Gasga, Universidad Nacional Autónoma de México

MORFOLOGíA Y TAMAñO DE LOS PRISMAS DEL ESMALTE DENTAL HUMANO EN LA UNIóN AMELO DENTINARIA


MORFOLOGíA Y TAMAñO DE LOS PRISMAS DEL ESMALTE DENTAL HUMANO EN LA UNIóN AMELO DENTINARIA

Hernandez Yañez Aniela Marian, Universidad Autónoma de Baja California. Asesor: Dr. José Reyes Gasga, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En el presente trabajo se estudian las estructuras que componen al esmalte de los dientes humanos en la unión amelo dentinaria (la unión entre el esmalte y la dentina, UAD), por microscopía de luz (ML) y microscopía electrónica de barrido (SEM). El procedimiento se conforma de la preparación de la muestra, procesamiento de imagen por ML y SEM, y el análisis de las estructuras al hacer uso del software ImageJ con el propósito de conocer el diámetro de los prismas del esmalte y la distancia que existe entre sus centros. Objetivo: El objetivo de este trabajo es, por lo tanto, obtener el tamaño promedio de los prismas del esmalte dental humano que se localizan en la región de la UAD y la distancia entre ellos, con el propósito de comparar su distribución espacial con aquel de los conductos dentinarios. Hipótesis: El tamaño promedio de los prismas del esmalte dental y los conductos dentinarios en la UAD están relacionados directamente entre sí. Justificación: El esmalte dental y la dentina brindan en conjunto la integridad estructural de los dientes. Esto nos motiva a estudiar y comparar estas estructuras con el fin de comprender la unión entre ambas estructuras. Además, conocer las particularidades de la estructura de los dientes nos permitiría fabricar mejores implantes dentales.



METODOLOGÍA

En esta investigación se trabajó con una muela del juicio de 2.017cm de tamaño, adquirida de la Facultad de Odontología de la UNAM y extraída por tratamiento ortodóncico.             Se realizaron diversos cortes al diente haciendo uso de una cortadora Buehler IsoMet 1000 Precision Saw y de un monómero, el cual consistió del polímero Quarz R2V y el monómero Nic Tone Cross-linked. El primer corte realizado fue longitudinal y el segundo fue transversal, con el propósito de obtener dos muestras de esmalte dental con un poco de dentina. Se lijaron las caras con dentina de ambas muestras por 5min con una lija de grano 1200 y 2000, continuando con una de grano 4000 durante 13min. En seguida, se lavaron las muestras con un limpiador ultrasónico Branson 1510 en una solución de 90% isopropanol y 10% acetona durante 25min.             Por último, se pulieron las muestras con cuatro alúminas distintas de la marca Buehler. Primero se pulió 4min con alúminas de 5µm y 1µm, se lavaron las muestras de la misma forma durante 20min y se continuó puliendo con alúminas de 0.3µm y 0.05µm durante 4min. Por último, se volvió a lavar durante 45min. Finalmente, se atacaron ambas muestras durante 2min con ácido ortofosfórico MDC Dental, se enjuagaron con agua y se secaron con toallas limpiadoras de baja pelusa. Las muestras obtenidas se observaron con el ML Axiovert 25 Zeiss con objetivos de 5x, 10x, 20x y 50x. Se trabajó con el modo de campo claro, dado que es el modo con el que mejor se distinguen los prismas del esmalte.             Posteriormente, se depositó una película delgada de carbono sobre las muestras con un evaporizador Ernest F. Fullam, y se introdujeron al SEM JEOL JSM-7800F con modos de electrones secundarios y electrones retrodispersados. Además, se obtuvo el análisis de espectroscopía de rayos X de energía dispersiva (EDS), por medio del equipo de EDS Oxford Instruments X-MaxN. Se registró la presencia significativa de Ca, P, O, C, Na y Mg. Se seleccionaron imágenes de ML y SEM para ser analizadas con el software ImageJ, para obtener mediciones del diámetro de los prismas y distancia entre sus centros. Se elaboraron histogramas de frecuencia de ambos parámetros, a partir del promedio de 200 mediciones realizadas. Se obtuvo que el diámetro de los prismas del esmalte es en promedio 4.189µm con una desviación estándar de 0.805, mientras que la distancia entre los centros es en promedio 4.786µm con una desviación estándar de 0.719. Una característica a resaltar es la diferencia de 0.597µm entre ambos promedios; se esperaría que estos promedios fueran casi iguales al ser un arreglo continuo de figuras. Al considerar un arreglo hexagonal de círculos que representen las cabezas de los prismas, si estos tienen un contorno de 0.29µm y un diámetro de 4.19µm, la distancia entre sus centros es de 4.77µm. Por lo tanto, se concluye que los prismas del esmalte dental en la UAD deben tener un recubrimiento de material orgánico que causa una interfaz de alrededor de 0.597µm. Por otro lado, con respecto a la relación morfológica entre los primas del esmalte y los conductos dentinarios, Karla Lilian Martinez Martinez (en su trabajo) obtuvo que estos últimos tienen un diámetro de 3.34±0.45µm y que la distancia entre los centros de los conductos dentinarios es de 5.91±1.09µm. Al comparar las dimensiones de los prismas del esmalte y conductos dentinarios en la UAD se observa que no hay una relación directa entre las dimensiones de ambas estructuras. Además, se observó que la UAD tiene un gran espesor de aproximadamente 35µm. Esto sugiere que los prismas y los conductos crecen a partir de la UAD como estructuras completamente independientes entre sí. Por último, se determinó que en el caso de existir alguna relación entre las estructuras, esta no es de origen morfológico.


CONCLUSIONES

Se determinó que el esmalte dental humano está compuesto por los elementos de la hidroxiapatita, combinados con iones de Na, iones de Mg y C, donde este último conforma el material orgánico de los dientes. Además, se obtuvo que los prismas del esmalte en la UAD deben tener un recubrimiento de material orgánico de  de espesor, causando una separación de aproximadamente  entre dos prismas.             Por otra parte, tras comparar los diámetros y distancias entre los centros de los prismas del esmalte y conductos dentinarios, se determina que no hay forma de relacionar sus tamaños. Además, se concluye que es probable que ambas estructuras surjan a partir de la UAD como entes independientes. Esta investigación no se hubiera realizado sin la asesoría del Dr. José Reyes Gasga. Además, se agradece a los técnicos Ing. Pablo López Arriaga, Arq. Diego Armando Quiterio Vargas y el Ing. Samuel Tehuacanero Núñez por su apoyo.
Herrera Burgos Luz Estrella, Universidad Autónoma de Occidente
Asesor: Dra. Analila Luna Valenzuela, Universidad Autónoma de Occidente

ESTABILIDAD TéRMICA DE NANOPARTíCULAS DE PLATA A TEMPERATURA FINITA PARA APLICACIONES BIOMéDICAS.


ESTABILIDAD TéRMICA DE NANOPARTíCULAS DE PLATA A TEMPERATURA FINITA PARA APLICACIONES BIOMéDICAS.

Herrera Burgos Luz Estrella, Universidad Autónoma de Occidente. Asesor: Dra. Analila Luna Valenzuela, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La resonancia de plasmón de superficie (SPR, por sus siglas en inglés) en nanopartículas de plata ha emergido como un fenómeno de gran relevancia en el campo de la óptica biomédica debido a sus propiedades ópticas únicas y altamente sensibles. El estudio y simulación de estos modelos es crucial para entender cómo variaciones en el tamaño, la forma y el medio de las nanopartículas influyen en sus características ópticas, especialmente en la región del cercano infrarrojo (NIR). Las nanopartículas de plata exhiben una fuerte absorción y dispersión de luz debido a la SPR, lo que les confiere un potencial significativo para diversas aplicaciones biomédicas, incluyendo la imagenología, la terapia fototérmica y el desarrollo de biosensores. La capacidad de ajustar las propiedades ópticas de estas nanopartículas mediante el control de sus parámetros físicos y el entorno inmediato permite optimizar su desempeño para aplicaciones específicas. La simulación de modelos que analicen estas variaciones proporciona una herramienta poderosa para predecir y personalizar las respuestas ópticas de las nanopartículas, evitando la necesidad de costosos y laboriosos experimentos empíricos. A través de estos modelos, se puede explorar cómo cambios precisos en el tamaño y la forma de las nanopartículas, así como en el índice de refracción del medio circundante, alteran su respuesta SPR, facilitando así el diseño de nanopartículas con propiedades ópticas deseadas para aplicaciones específicas en el ámbito biomédico.



METODOLOGÍA

Metodología para la simulación de absorción de luz en nanoparticulas de plata (Ag) Bases de datos de índices de refracción de las nanopartículas de plata (AgNP’s): Obtuvimos los datos de la página web integral de constantes ópticas https://refractiveindex.info . Esta página es una recopilación de datos de fuentes disponibles públicamente, como artículos de revistas científicas y hojas de datos de materiales publicadas por los fabricantes. Numerosos investigadores han contribuido a la base de datos proporcionando datos numéricos, informando errores y sugiriendo mejoras. Aquí descargamos los índices en un archivo compatible con Excel para las nanopartículas de plata (AgNPs) de geometría esférica y esferoidal. Entrenamiento en Instalación y uso del software GNU-Octave: GNU Octave es un lenguaje de alto nivel, destinado principalmente a cálculos numéricos. Proporciona una cómoda interfaz de línea de comandos para resolver numéricamente problemas lineales y no lineales, y para realizar otros experimentos numéricos utilizando un lenguaje mayoritariamente compatible con Matlab. Octave cuenta con amplias herramientas para resolver problemas comunes de álgebra lineal numérica, encontrar raíces de ecuaciones no lineales, integrar funciones ordinarias, manipular polinomios e integrar ecuaciones diferenciales y algebraicas. En esta investigación, ejecutamos un programa para la simulación de la absorción de luz en nanopartículas de plata (AgNP´s). Este algoritmo fue desarrollado internamente por el grupo de investigación donde realicé mi verano. En este software, cargué la base de datos mencionada anteriormente, ajusté el radio de las AgNP´s y ejecutamos el programa, el cual resuelve las ecuaciones físicas asociadas a los fundamentos ópticos. Obtuvimos como resultado gráficos con diferentes índices ópticos, tales como el índice de esparcimiento, el índice de absorción y el índice de extinción de la luz, en diferentes longitudes de onda. Estos gráficos representan la simulación del espectro de absorción de las AgNP´s. Finalmente, exportamos los gráficos y los editamos en el formato más conveniente para el análisis y presentación. Análisis de resultados: Se realizaron varias simulaciones con diferentes tamaños y dos formas distintas. Se analizaron los índices obtenidos, observándose que las nanopartículas de plata (AgNP´s) de forma esférica en su gráfico solo muestran un pico. Por el contrario, las AgNP´s esferoidales muestran dos picos dependiendo de su orientación. Tienen un índice de absorción más elevado cuando se encuentran en posición vertical que en posición horizontal. Además, dependiendo del tamaño de la nanopartícula, la absorción de luz ocurre en diferentes longitudes de onda.


CONCLUSIONES

Los resultados de nuestra metodología de simulación de absorción de luz en nanopartículas de plata fueron obtenidos utilizando el software GNU-Octave, y teóricamente se basan en las ecuaciones de Maxwell y el patrón de esparcimiento de Mie. En esta investigación, obtuvimos el espectro de absorción de las nanopartículas de plata, el cual concuerda con los resultados experimentales reportados en la literatura. Asimismo, observamos que, a medida que cambia la geometría de las nanopartículas de plata a esferoides, el espectro de absorción varía en la longitud de onda y la aparición de nuevos picos. Por tanto, las nanopartículas de plata, con su capacidad de exhibir resonancias de plasmón de superficie (SPR), no solo contribuirán a un entendimiento más profundo de los mecanismos ópticos de absorción fundamentales en nanopartículas, sino que también abrirán nuevas oportunidades para su aplicación en el diagnóstico y tratamiento de enfermedades. Estas nanopartículas ofrecerán mejoras significativas en la precisión y efectividad de las técnicas ópticas en la medicina moderna, especialmente en terapias fototérmicas para controlar el calor irradiado en tejido biológico cancerígeno, contribuyendo así a la muerte celular localizada.
Herrera Isaza Ruben Dario, Universidad del Quindío
Asesor: Dr. Rosendo Romero Andrade, Universidad Autónoma de Sinaloa

REPORTE DE POSICIONAMIENTO GNSS UTILIZANDO RECEPTORES DE BAJO CON “GROUND PLATE” DE DIFERENTES MATERIALES


REPORTE DE POSICIONAMIENTO GNSS UTILIZANDO RECEPTORES DE BAJO CON “GROUND PLATE” DE DIFERENTES MATERIALES

Fajardo Hanrryr Sebastian Camilo, Universidad del Quindío. Herrera Isaza Ruben Dario, Universidad del Quindío. Asesor: Dr. Rosendo Romero Andrade, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los sistemas de Navegación Global por Satélite (GNSS) se han convertido en una herramienta esencial en diversas aplicaciones geoespaciales. La precisión y fiabilidad de los datos GNSS son cruciales para el éxito de diversas aplicaciones. En este contexto, el uso de receptores de bajo costo representa una oportunidad para tener acceso a la tecnología GNSS, permitiendo su implementación en diferentes proyectos. Para llevar a cabo este estudio, se han utilizado receptores GNSS de bajo costo instalados en la terraza de la Facultad de Ciencias de la Tierra y el Espacio de la Universidad Autónoma de Sinaloa, en México. La base y la antena se colocaron sobre un pilar con una placa con centro forzado utilizando diferentes materiales: madera, plástico, aluminio, acero y polarizado-metálico. Cada material fue probado durante un periodo de una hora, los datos de navegación y observación se recogieron utilizando el software U-center, configurado para recibir datos de las constelaciones GNSS (GLONASS, GPS, Galileo, BeiDou) a una frecuencia de 1 Hz. Objetivos Objetivo General Determinar la influencia de diferentes materiales de soporte (madera, plástico, aluminio, acero y polarizado-metálico) en la calidad de los datos de posicionamiento GNSS recolectados mediante receptores de bajo costo. Objetivos Específicos Analizar el impacto de cada material en la relación señal-ruido (SNR), los efectos multitrayectoria, porcentaje de integridad y severidad de los saltos de ciclo, en los datos GNSS en función del material de soporte utilizado por medio del software TEQC. Generar la estadística de los datos a partir del método PPP (Precise Point Positioning) mediante el software online CSRP-PPP. Comparar y validar las coordenadas obtenidas del software CSRP-PPP y el método RE (Relativo - Estático) en Topcon Tools para evaluar la variación (ENU) de las coordenadas según el material de soporte utilizado por medio de un código ejecutado en el Software Matlab.



METODOLOGÍA

Los materiales utilizados para la realización de esta práctica fueron los seis de referencia: Aluminio., Plástico., Madera, Acero circular, Acero cuadrado, Polarizado-metálico.  Igualmente, se utilizó la antena GNSS de bajo costo U-blox que iba sobre cada material anteriormente mencionado. Se trabajó con 4 receptores de bajo costo diferentes para determinar su funcionamiento.Finalmente, se utilizaron materiales como base nivelante para poner la antena con los diferentes tipos de material, cinta métrica para determinar las alturas, los cables necesarios para llevar la información al computador y el ultimo mencionado para recopilar toda la información recibida. Primero, se seleccionó como área de estudio la Universidad Autónoma de Sinaloa, exactamente uno de los mojones localizados en la azotea de la FACITE. Seguidamente, se conectan los equipos y se procede a recopilar los datos. Este procedimiento se empleó para cada material.En la siguiente etapa, el archivo con extensión UBX grabado en el paso anterior, ejecutamos el Software RTKLIB el cual cuenta con diferentes funciones, en este caso se empleó la conversión del archivo UBX a RINEX. Con los archivos de observación y navegación derivados a partir de la conversión a RINEX se ejecutó el archivo de extensión. obs para verificar el tiempo de lectura (mínimo 1 hora) y que los datos recopilados se hayan almacenado correctamente.  Luego se realizó el control de calidad por medio del Software TEQC para conocer los indicadores de interés como: Efecto Multitrayectoria (MP1 - MP2),  Relación Señal - Ruido (SN1 - SN2), Saltos de Ciclo (o/slps) y Porcentaje de Integridad. Después se procede a buscar en la web una Software online llamado CSRS-PPP, creada por el gobierno de Canadá. Esta plataforma está diseñada para proporcionar información precisa y de alta calidad a partir de las observaciones GNSS recopiladas en el campo sin utilizar una estación de monitoreo continuo de referencia.         


CONCLUSIONES

En conclusión, la investigación demuestra que, en primer lugar, ejecutando el software TEQC los materiales metálicos, y en particular el acero, son superiores para soportar receptores GNSS de bajo costo, mejorando la calidad de los datos recolectados, es decir, mostraron una mejor calidad en las observaciones, proporcionando una mayor SNR y reduciendo los efectos multitrayectoria y la severidad de los saltos de ciclo. Por otro lado, a través del método Precise Point Positioning (PPP) utilizando el software online CSRS-PPP, se observó que los materiales metálicos también ofrecían mejores resultados estadísticos con desviaciones estándar entre los 0.015 y 0.21 m. Sin embargo, el material de acero en particular presentaba desviaciones menores a 9 cm. Así mismo, ejecutando el código en Matlab para conocer los valores ENU usando como referencia un punto procesado en método Relativo Estático, se destacaron los materiales de Plástico y Original donde sus datos procesados mostraron una mayor precisión y menor dispersión en las coordenadas obtenidas. Estos valores se encuentran entre los 0.035 y 0.145 m. No obstante, al comparar estos materiales con otro punto de referencia con procesamiento en método PPP (Precise Point Positioning) el material Original presenta valores en E de 0.045 m, en N de -0.063 m y en U de 0.145 m reafirmando la superioridad de los materiales metálicos en la recolección de datos GNSS con equipos de bajo costo. Finalmente, aunque los materiales metálicos, como el acero, mostraron ventajas significativas en la recolección de datos GNSS, es importante considerar que materiales como el plástico también pueden ser preferibles en ciertos contextos, especialmente cuando se prioriza la precisión y la estabilidad en las coordenadas obtenidas. 
Herrera Soto Carolina, Universidad Autónoma de Sinaloa
Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara

ESTUDIO DE RIESGO SíSMICO EN EL ÁREA METROPOLITANA DE PUERTO VALLARTA.


ESTUDIO DE RIESGO SíSMICO EN EL ÁREA METROPOLITANA DE PUERTO VALLARTA.

Becerril Zárate Diana María, Universidad Autónoma del Estado de México. García Valdés Mayte, Universidad Autónoma del Estado de México. Herrera Soto Carolina, Universidad Autónoma de Sinaloa. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

México ha enfrentado notables desastres naturales en diversas regiones, subrayando la imperiosa necesidad de abordarlos mediante un enfoque científico. La clave para prevenir futuros desastres radica en la investigación rigurosa, cuyos resultados posibiliten la aplicación de medidas concretas para mitigar su impacto. En particular los terremotos han puesto de manifiesto la importancia de planificar adecuadamente, tomando en cuenta el comportamiento del suelo durante el terremoto y la vulnerabilidad de la sociedad, para disminuir pérdidas humanas y económicas. Este proyecto tiene como objetivo evaluar el riesgo sísmico en la región de la Zona Metropolitana de Puerto Vallarta.



METODOLOGÍA

Durante el verano de investigación se realizaron encuestas remotas y presenciales para el estudio del riesgo sísmico. Las cuales incluyeron evaluación visual rápida de estructuras para la generación de un inventario de edificios. 


CONCLUSIONES

Los resultados de las encuestas remotas permitieron mejorar el inventario de edificios en la ciudad de Puerto Vallarta el cual se utilizará para realizar un estudio de vulnerabilidad sísmica. Mientras que las encuestas para la medición de la percepción del riesgo sísmico por la población de Puerto Vallarta permiten evaluar la respuesta de la población a este fenómeno natural. Otras actividades realizadas durante el verano de investigación incluyeron asistencia a mini taller de escritura científica y a ponencias diversas, y la participación en ensayos geofísicos de sísmica activa y pasiva.
Herrero Mendez Maria Gabriela, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla

SIMULACIóN DE DETECTORES CHERENKOV PARA FOTONES DE ALTA ENERGíA


SIMULACIóN DE DETECTORES CHERENKOV PARA FOTONES DE ALTA ENERGíA

Herrero Mendez Maria Gabriela, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Existen lluvias atmosféricas generadas por la interacción de rayos cósmicos con la atmosfera, en estas se producen partículas secundarias, donde sus características dependerán de la energía de la partícula primaria. Hay varias técnicas que se han desarrollado para determinar el tipo de astro partícula que las inicia, su energía y dirección de llegada. La detección indirecta de rayos cósmicos puede hacerse detectando las partículas de las cascadas atmosféricas que se crean con materiales centelladores o detectores Cherenkov, para ello es importante realizar simulaciones, así que el objetivo de esté proyecto es simular un tanque Cherenkov de agua usando el software GEANT4 donde buscaremos maximizar la obtención de fotones ópticos y conocer la mejor posición para colocar un fotomultiplicador en las bases del tanque. Con relación a los objetivos de desarrollo sostenible impulsamos a desarrollar infraestructuras, fomentando la innovación en la universidad, ya que en un futuro se busca reconstruir un tanque Cherenkov de agua. Nuestro tanque de agua se simulará como un cilindro de 1.43 m de altura y 10.1 m de diámetro lleno de agua ultrapura con un fotomultiplicador en cada una de sus bases con el mismo diámetro con el fin de conocer en qué parte de las bases del tanque llega la mayor cantidad de fotones ópticos.



METODOLOGÍA

Para realizar nuestra simulación usaremos el software GEANT4 que es una plataforma optima, desarrollada por el CERN, que brinda un conjunto de herramientas para describir un espacio donde se considera todos los procesos físicos involucrados en el ambiente donde nosotros los definimos, donde en esta ocasión buscamos simular un tanque de agua Cherenkov, por lo tanto empezamos descargando el software GEANT4 y realizamos la instalación, este incluye ejemplos de todo tipo de categorías los cuales podemos modificar para cualquier propósito. Para nuestra simulación utilizamos el ejemplo OpNovice donde modificaremos detalladamente los siguientes aspectos: Geometría del sistema a simular.  Materiales involucrados.  Partículas fundamentales.  Generación de eventos primarios.  Paso de partículas a través de un material  Procesos físicos en interacciones.  Respuesta de los componentes de un detector.  Generación de datos de un evento.  Almacenamiento de eventos y tracks.  Visualización del detector y trayectorias de partículas Como ya se ha mencionado, usaremos el ejemplo OpNovice para crear nuestra simulación, donde este ya tiene definida una función que es la simulación de generación y transporte de fotones ópticos, superficies ópticas y proporciona procesos de física óptica (Cherenkov, centelleo, absorción, etc.) y mecanismos para contar las partículas secundarias generadas.   Empezamos creando nuestra simulación, en el cual describimos cada elemento: Mundo: Para realizar una simulación en GEANT4, primero se debe definir un espacio donde se realizarán todas las simulaciones. Este espacio se llama espacio mundo o espacio de Hall, el cual será más grande que las simulaciones que se vayan a realizar. Definición del tanque: Construimos un tanque con forma de un cilindro con 1.43 m de altura y un diámetro de 1.01 m, lleno de agua ultrapura y en referencia al mundo se colocó en el punto (0,0,0). Definición del tamaño de los fotomultiplicadores: cilindros con la altura mínima que se pueden utilizar, con el mismo diámetro del tanque, para colocarlos en las bases del tanque, simulando una circunferencia.  Definición de materiales: Se definió los elementos necesarios para usarlos en la composición (aluminio, vacío, agua, nitrógeno, oxígeno, carbono). Definición del cuerpo del cilindro: Se construyó las paredes del cilindro hecha de Tyvek para tener una mayor reflectividad interna. Realizamos varias pruebas donde verificamos que la geometría este trabajando correctamente, de igual manera tratamos de visualizarla mandando una partícula Gamma de 500 KeV, ya que con la computadora que contamos no logra tener la capacidad de visualizar más que una partícula de poca energía, pero podemos apreciar que las paredes y la geometría de nuestro tanque Cherenkov de agua y poder ver si es correcta. Comenzaremos con la recolección de datos, usamos un shell script donde vamos a definir varias instrucciones con comandos que mandaremos a GEANT4 que son: Tipo de partícula que mandaremos en este caso Muones. Energía inicial de la partícula La cantidad de partículas que mandaremos La dirección de las partículas donde está en función del ángulo cenital de 10 grados a 50 grados. Tiempo en el que termina cada simulación con diferentes datos.  Esperamos la recolección de datos, mandando así mil muones en cada corrida con una energía de 4 GeV con diferente dirección cada una, usaremos el software ROOT para el análisis de datos, aún se tiene algunos problemas con el software, dado que es la primera vez que me familiarizo con esta herramienta, pero discutimos sobre las posibles soluciones. 


CONCLUSIONES

Para llegar a completar nuestros resultados aún se trabaja en el software ROOT, donde buscamos ampliar nuestro conocimiento respecto a esta herramienta, también buscamos obtener histogramas de los resultados, aun así, en los que se han analizado se puede observar un resultado satisfactorio, de los cuales se espera que mostremos que la mejor posición de colocar un fotomultiplicador es en el centro de las bases, ya que es donde llega la mayor cantidad de fotones ópticos, aún se trabaja en conocer un rango en específico. Finalmente, para futuros trabajos podemos hacer una simulación para conocer la mejor posición para colocar un fotomultiplicador, pero, en función de la altura del tanque, todo esto con el fin de poder llegar a reconstruir un tanque Cherenkov de agua. 
Higuera Rendón Maritza del Carmen, Universidad Politécnica de Sinaloa
Asesor: Dra. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa

DYNAMIXEL AX-12A


DYNAMIXEL AX-12A

Higuera Rendón Maritza del Carmen, Universidad Politécnica de Sinaloa. Asesor: Dra. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Es esencial adquirir competencias y habilidades en robótica, particularmente en la operación y programación de servomotores AX-12 y robots humanoides, para avanzar en la creación de sistemas robóticos avanzados y eficientes. Este proceso de desarrollo abarca el aprendizaje de lenguajes de programación específicos para controlar estos dispositivos, lo que resulta en movimientos y tareas más precisos y funcionales. Asimismo, la implementación de un sistema Arduino para gestionar los servoactuadores y el robot humanoide permite una integración más flexible y accesible de estas tecnologías. Este enfoque no solo enriquece el conocimiento teórico y práctico de los sistemas robóticos, sino que también impulsa la innovación y la creatividad en la resolución de problemas complejos dentro del campo de la robótica.



METODOLOGÍA

Para programar los servomotores Dynamixel AX-12A usando Arduino, lo primero fue buscar una librería adecuada para controlarlos con un Arduino Uno. Aunque inicialmente hubo dificultades para encontrar una librería que cumpliera con los requisitos, finalmente se encontró la librería AX12A, la cual resultó ser compatible tras realizar algunas pruebas. Los servomotores Dynamixel AX-12A utilizan una conexión Half-duplex, pero se necesitaba una conexión Full-duplex. Para resolver esto, se implementó un buffer (74LS241) que permitiera tanto la lectura como la escritura de los servomotores. La comunicación con estos servomotores se realiza a través de los puertos seriales, donde el puerto TX se utiliza para escribir y el RX para leer. Se diseñó un circuito para conectar los servos al Arduino a través del buffer. Cada servomotor AX-12A tiene 6 pines: 2 para voltaje (VCC), 2 para tierra (GND) y 2 para datos. Al utilizar el Arduino Uno, se descubrió que era posible escribir en los servos pero no leer sus datos debido a que el Uno tiene solo un puerto serial, mientras que se necesitaban dos, uno para la computadora y otro para los dispositivos. Por ello, se decidió usar una placa Arduino Mega 2560, que tiene 4 puertos seriales. Para operar los servomotores con el Arduino Mega, se conectaron los puertos de los dispositivos al Serial 1, correspondientes a los pines 18 y 19, que son los puertos TX1 y RX1 respectivamente. Así, se pudo utilizar el serial para que la computadora imprimiera y leyera los datos enviados por los servos.


CONCLUSIONES

Se logró identificar y entender el funcionamiento del robot BIOLOID, compuesto por 18 servomotores DYNAMIXEL AX-12A, que fueron manipulados con el software RoboPlus de Robotis. El uso de este software es esencial, ya que su interfaz intuitiva permite a los estudiantes de robótica familiarizarse fácilmente con el control de los servomotores, creando rutinas personalizadas de movimiento y controlando la velocidad, posición y fuerza. Además, se logró manipular los servomotores DYNAMIXEL AX-12A a través de la interfaz de Arduino, lo que permitió enviar y recibir datos entre el servomotor y la computadora. Esto es muy útil, ya que abre la posibilidad de futuros proyectos en los que se pueda utilizar Arduino para el control de estos servomotores. Resultados esperados en el futuro: Implementación de sistemas inalámbricos para el control de servomotores DYNAMIXEL AX-12A mediante Arduino, utilizando tecnologías como Bluetooth o WiFi.
Ibarra Flores Carlos Yair, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Carlos Alberto Ochoa Ortíz, Universidad Autónoma de Ciudad Juárez

DESARROLLO DE UN SISTEMA DE AUTOMATIZACIóN Y CONTROL PARA UN INTERCAMBIADOR DE CALOR DE TUBOS CONCéNTRICOS


DESARROLLO DE UN SISTEMA DE AUTOMATIZACIóN Y CONTROL PARA UN INTERCAMBIADOR DE CALOR DE TUBOS CONCéNTRICOS

Ibarra Flores Carlos Yair, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Carlos Alberto Ochoa Ortíz, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El estudio se enfoca en el desarrollo de un sistema de control, monitoreo y adquisición de variables operativas en un intercambiador de calor de tubos concéntricos. Utilizando tecnologías digitales como sensores inteligentes y sistemas de control avanzados, se busca optimizar la transferencia de energía y mejorar la eficiencia operativa, contribuyendo tanto a la sostenibilidad ambiental como a la educación de los estudiantes en la Universidad Autónoma del Estado de Morelos.



METODOLOGÍA

El desarrollo del sistema incluyó una combinación de componentes de hardware y software diseñados para el control, monitoreo y adquisición de datos en un intercambiador de calor de tubos concéntricos. Los componentes principales fueron caudalímetros, sensores de temperatura, electroválvulas proporcionales, bombas centrífugas y un microcontrolador ESP32. Para la calibración de los sensores de temperatura, se utilizó un baño térmico para mantener el agua a temperaturas constantes en intervalos de 5 °C, desde 15 °C hasta 60 °C. En cada intervalo, se recolectaron 600 datos de cada sensor, utilizando un sensor RTD tipo PT-100 como referencia para asegurar la precisión. Los datos se promediaron para minimizar el error. Los caudalímetros y las electroválvulas se calibraron mediante pruebas de masa/tiempo, midiendo el flujo volumétrico y ajustando las electroválvulas para obtener valores precisos. Esta calibración aseguró que el sistema pudiera medir y controlar el flujo de los fluidos de manera eficiente y confiable. El desarrollo del software incluyó la creación de una interfaz gráfica de usuario (GUI) utilizando herramientas de desarrollo web. Esta GUI permite a los usuarios interactuar con el sistema de manera intuitiva, ingresando datos de configuración y visualizando los resultados en tiempo real. La GUI muestra gráficos de datos de temperatura y flujo, y permite el ajuste de parámetros operativos. El algoritmo de control y monitoreo fue programado para calcular la transferencia de energía utilizando la ecuación Q=m⋅Cp⋅ΔT​ es el calor específico del fluido, y ΔT es la diferencia de temperatura entre la entrada y la salida del sistema. Los datos de temperatura y flujo se registran automáticamente y se guardan en formato CSV para análisis posteriores. El ESP32 se encargó de la adquisición de datos de los sensores y de la comunicación con la GUI, permitiendo el control en tiempo real y la visualización de los resultados. La comunicación entre los componentes del sistema y la GUI se diseñó para ser robusta y eficiente, asegurando una operación fluida y precisa. Finalmente, se realizaron pruebas experimentales en configuraciones de flujo paralelo y contra flujo para evaluar la efectividad del intercambiador de calor bajo diferentes condiciones operativas. Los datos recopilados incluyeron temperaturas de entrada y salida de ambos fluidos, así como los flujos volumétricos, lo que permitió alimentar el algoritmo y calcular la eficiencia del sistema en tiempo real. El sistema desarrollado demostró ser efectivo para el control y monitoreo del intercambiador de calor, mejorando la precisión y reduciendo errores. La interfaz gráfica facilitó la interacción con el sistema, convirtiéndose en una herramienta educativa valiosa para los estudiantes.


CONCLUSIONES

El sistema desarrollado permite un control y monitoreo eficiente del intercambiador de calor, mejorando la precisión y reduciendo los errores humanos. Además, la interfaz gráfica facilita la interacción con el sistema, proporcionando una herramienta educativa valiosa para los estudiantes. La digitalización y automatización implementadas contribuyen significativamente a la sostenibilidad ambiental, optimizando el consumo de energía y reduciendo las emisiones de gases de efecto invernadero.
Ibarra Garcia Victor Alberto, Instituto Tecnológico de Tepic
Asesor: Dr. Alexis Edmundo Gallegos Acosta, Centro de Investigación en Matemáticas (CONACYT)

APLICACIóN DE MODELOS DE MACHINE LEARNING EN LA PREDICCIóN DE LA ROTACIóN DE EMPLEADOS DE DIVERSOS SECTORES LABORALES.


APLICACIóN DE MODELOS DE MACHINE LEARNING EN LA PREDICCIóN DE LA ROTACIóN DE EMPLEADOS DE DIVERSOS SECTORES LABORALES.

Ibarra Garcia Victor Alberto, Instituto Tecnológico de Tepic. Asesor: Dr. Alexis Edmundo Gallegos Acosta, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los empleados son el motor que mueve la industria. Son la fuerza de trabajo que aporta sus conocimientos y habilidades para hacer funcionar a una empresa. Ellos crean, imaginan, inventan y fabrican los productos o servicios que hacer a la empresa ganar dinero. La salida en un colaborador; mas especifico, de un gerente; puede acarrear problemas cuando tenemos en cuenta que remplazar este tipo de puestos tomo más o menos cuarenta y cinco días. Los que sumado a que puede haber hasta cinco cambios de gerente al año, esto es una pérdida de productividad que le termina costando $370,660 a la empresa, al año  Por esto, se pretende desarrollar un modelo de inteligencia artificial que permita predecir la rotación de los empleados en una empresa.



METODOLOGÍA

Usando una base de datos donde se exponen 14901 registros de trabajadores, en el que vienen recojidos datos como, la edad, las horas extras de trabajo, los años que han trabajado en la empresa, el sueldo, entre otros factores. Para visualizar la relacion entre los datos, se creo un mapa de correlacion o mapa de calor. La matriz de correlación nos muestra que los datos en su mayoría no son dependientes unos de otros, ya que las relaciones, en su mayoria, estan cerca de 0. Esto no significa necesariamente algo malo, sino que más bien es así cómo se comportan nuestros datos. Para el modelo se eligio un MLP, una red neuronal basica, que consta de una capa de entrada, una de salida y varias capas ocultas en medio. Como funcion de activacion se utilizo ReLU y se dividieron los registros en 75% para el entrenamiento y el otro 25% para testearlos.


CONCLUSIONES

Al hacer una matriz de confucion. Al analizarlo vemos que, a la hora de testear el modelo, hubo una precisión de 1855 de 2980. Lo que sería una precisión de aproximadamente el 62%. La baja prescision del modelo puede deberse a la falta de correlacion entre los datos. En trabasjos futuros se podria indagar en la causa de prescision de los datos.
Ibarra Moroyoqui Jiovanny Manuel, Universidad Autónoma de Sinaloa
Asesor: Dr. Oscar Gilberto Cárdenas Hernández, Universidad de Guadalajara

MAPA DE RIESGOS PARA EL MUNICIPIO DE AUTLÁN DE NAVARRO, JALISCO. METODOLOGÍAS Y APLICACIONES PARA LA GESTIÓN DEL TERRITORIO


MAPA DE RIESGOS PARA EL MUNICIPIO DE AUTLÁN DE NAVARRO, JALISCO. METODOLOGÍAS Y APLICACIONES PARA LA GESTIÓN DEL TERRITORIO

Ibarra Moroyoqui Jiovanny Manuel, Universidad Autónoma de Sinaloa. Martinez Parra José Alejandro, Universidad Autónoma de Sinaloa. Vilchis Dávila Luis Ángel, Universidad Autónoma del Estado de México. Asesor: Dr. Oscar Gilberto Cárdenas Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La gestión de riesgos es esencial para el desarrollo sostenible de los municipios. En el municipio de Autlán de Navarro, Jalisco, existen diversos riesgos naturales y antrópicos que requieren una evaluación y manejo adecuados para salvaguardar tanto a la población como al medio ambiente. Un mapa de riesgos es una herramienta esencial para identificar, evaluar y reducir los riesgos potenciales, lo que facilita la toma de decisiones y la implementación de estrategias de prevención y respuesta. El estudio busca desarrollar un mapa de riesgos detallado para el municipio de Autlán de Navarro, Jalisco. Este mapa servirá como una herramienta fundamental para identificar las zonas más propensas a sufrir desastres naturales y antrópicos, como deslizamientos de tierra. A través de la recopilación y análisis de datos geográficos, se pretende evaluar la susceptibilidad y vulnerabilidad de cada localidad. El objetivo final es contribuir a una mejor gestión de riesgos y a la planificación territorial del municipio, promoviendo así un desarrollo más seguro y sostenible. La metodología empleada incluye el uso de sistemas de información geográfica (SIG) y otras técnicas de análisis espacial. Este tipo de estudios son cruciales para fortalecer la resiliencia de las comunidades ante eventos adversos y pueden servir como modelo para otros municipios con características similares. El proyecto sigue en vigencia, analizando la vulnerabilidad de cada localidad para presentar un mapa que represente el riesgo a deslizamientos.



METODOLOGÍA

Cuando mencionamos deslizamientos, hacemos referencia a los desplazamientos de rocas, suelos, materiales artificiales o una mezcla de estos, que ocurren a lo largo de una superficie inclinada (Hernández Sánchez et al. 1998). La aparición de deslizamientos temporales está vinculada a momentos de intensa acumulación de agua, que se producen debido a lluvias prolongadas o aguaceros torrenciales (Reisenbach et al., 2018). Los deslizamientos son provocados por varios factores, incluyendo las características del material y del terreno, la resistencia al movimiento, la gravedad, la presión hidrostática, sismos y la actividad humana (Cordero, 2000). Estos eventos están estrechamente relacionados con lluvias intensas, la cobertura del suelo, la geología y la inclinación del terreno. Los terrenos deforestados y con pendientes pronunciadas son especialmente propensos a sufrir deslizamientos o erosión (Cordero, 2000). La magnitud del peligro de un evento específico en una zona está determinada por la combinación de estos factores, los cuales pueden ser analizados por separado para entender mejor las características que influyen en la inestabilidad de los taludes. Para este análisis, se utilizaron como datos base los siguientes mapas temáticos: Geología Tipos de suelo Pendientes del terreno Uso de suelo y vegetación. Las capas de información utilizadas como base para el análisis fueron editadas en el software QGIS, utilizando datos proporcionados por fuentes como el Instituto de Información Estadística y Geográfica de Jalisco, GeoInfoMex, el Banco de Datos del Servicio Geológico Mexicano y el INEGI. Cada una de las unidades presentes en los mapas fue analizada de forma individual, considerando su influencia en la generación o desencadenamiento de deslizamientos. De esta manera, se estudió la relación entre las características y condiciones del terreno, y el potencial de ocurrencia de derrumbes. Para ello, se asignaron valores de peso (del 1 al 5) a cada una de las unidades contenidas en los diferentes mapas temáticos utilizados, transformando los mapas de clases en mapas de valores mediante un proceso de reclasificación. Posteriormente, estos mapas fueron integrados a través de un proceso de adición, dando como resultado final el mapa de amenazas por deslizamientos, clasificado en 5 categorías: Muy baja, Baja, Moderada, Alta y Muy alta. En cuanto a los valores de peso asignados a los mapas, los valores más altos corresponden a la mayor influencia que puedan ejercer en la aceleración del mecanismo de disparo del deslizamiento.


CONCLUSIONES

Durante la estancia de verano pudimos generar un mapa con una representación aproximada de la susceptibilidad a deslizamientos en el municipio de Autlán de Navarro. Esta información resulta crucial para la gestión del riesgo geológico, la planificación territorial y la toma de decisiones en materia de protección civil. La susceptibilidad a deslizamientos no se distribuye de manera homogénea en el territorio municipal. Se observan concentraciones de zonas de alta y muy alta susceptibilidad en las áreas montañosas y con pendientes pronunciadas, lo cual es coherente con los factores geomorfológicos que condicionan este tipo de procesos. Las localidades de Autlán de Navarro y Mezquitan se encuentran asentadas en zonas con niveles variables de susceptibilidad, lo que implica un riesgo diferencial para estas comunidades. Es necesario considerar la susceptibilidad a deslizamientos en la planificación de nuevos desarrollos urbanos, evitando la ocupación de zonas de alto riesgo y promoviendo prácticas de construcción seguras. La población debe ser informada sobre los riesgos asociados a los deslizamientos y capacitada para actuar de manera adecuada ante eventos de este tipo. El mapa de susceptibilidad a deslizamientos constituye una herramienta valiosa para la gestión del riesgo geológico en esta región. Sin embargo, es importante complementar esta información con otros estudios y análisis para tomar decisiones informadas y efectivas. La identificación de las zonas de mayor peligro permite priorizar las acciones de prevención y mitigación, contribuyendo a reducir la vulnerabilidad de la población y los bienes ante este tipo de eventos naturales. Se requieren investigaciones adicionales para profundizar en el conocimiento de los factores que controlan la susceptibilidad a deslizamientos en la región y evaluar la eficacia de las medidas de mitigación implementadas.
Ibarra Raygoza Julieta del Carmen, Universidad Politécnica de Sinaloa
Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)

XXIX VERANO DE LA INVESTIGACIóN CIENTíFICA Y TECNOLóGICA DEL PACíFICO. PROGRAMA DELFíN JUNIO-AGOSTO 2024


XXIX VERANO DE LA INVESTIGACIóN CIENTíFICA Y TECNOLóGICA DEL PACíFICO. PROGRAMA DELFíN JUNIO-AGOSTO 2024

Ibarra Raygoza Julieta del Carmen, Universidad Politécnica de Sinaloa. Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los tratamientos térmicos son procesos que consisten en el calentamiento y enfriamiento de un metal en su estado sólido. Debido a las características y aleaciones especiales de estos también optimizan su funcionamiento en aplicaciones específicas como lo son reducir los esfuerzos internos del metal, modificar el tamaño de grano, sintonizar sus propiedades físicas transformando su estructura cristalina, sin cambiar la composición química de estos metales. Para poder llevar a cabo la aplicación de estos tratamientos térmicos en aceros grado herramienta se deben tomar en cuenta diferentes variables, tales como la temperatura, velocidad de enfriamiento, atmósfera, tiempo y tamaño de la pieza que será sometida a los mismos. De acuerdo a estas variables se debe identificar el tipo de tratamiento térmico que cumpla con los requisitos y lo que requiera el metal que será sometido, sin dejar de lado que los aceros grado herramienta pueden mejorar sus propiedades ante ciertas condiciones, pero sin cambiar la modificación de su composición química.



METODOLOGÍA

Se realizó una investigación sobre los difrentes tipos de tratamientos térmicos que existen y se observó que los más usados en metales son: nitruración, cementación, cianuración, carbonitruración y sulfinización. Sin embargo, estos comparten una característica importante y es que usarlos conlleva a tener un cambio de composición en el acero que sea aplicado logrando aumentar concentraciones de carbono en ellos. Se hizo una revisión bibliométrica para los tratamientos térmicos que se aplican a los aceros grado herramienta. Esta revisión consiste en el análisis de datos bibliográficos cualitativos que se obtiene de bases de datos ya sean nacionales o internacionales.


CONCLUSIONES

Se realizó una clasificación y selección de aceros de interés para el trabajo del laboratorio PROMET del CIATEQ unidad SLP, los cuales son: P20, H13, M2, D2 y C300 (Maraging). Los tratamientos térmicos que son aplicables a aceros grado herramienta son el recocido que consiste en calentar y mantener la temperatura en un acero seguido de un enfriamiento y produce generalmente una microestructura de ferrita-perlita, existen diferentes ciclos de recocido y suelen clasificarse según la temperatura de calentamiento el cual va entre 550 y 650ºC manteniendo la temperatura durante 30-120 minutos, el ciclo de enfriamiento el cual tiene que ser suficientemente lento para que no genere que el material se vuelva quebradizo, la atmosfera que debe ser reductora para reducir la capa de óxido en la superficie del acero. En cambio, el revenido consiste en calentar a temperaturas inferiores a la crítica, generalmente se realiza después de templar a temperaturas superiores a la crítica superior este se lleva a cabo a temperaturas entre 175 y 705ºC, con tiempos de 30 min a 4 horas, las velocidades de enfriamiento muy lentas no son convenientes ya que pueden producir fragilidad en ciertos aceros. El único inconveniente es que al revenir piezas gruesas se produce un efecto nivelador ya que disminuye más la dureza en las zonas martensíticas puras que en las de transición. El tratamiento de normalizado ayuda a eliminar las impurezas y a mejorar la ductilidad y tenacidad, en este proceso el material se calienta a una temperatura entre 750 y 980°C y el calor exacto aplicado para el tratamiento variará y se determinará en función de la cantidad de contenido de carbono en el metal. El acero se enfría a temperatura ambiente y generalmente produce una estructura perlítica uniforme en combinación con granos de ferrita y carburos de límite de grano presentes. El tratamiento térmico temple tiene por objetivo aumentar la dureza y resistencia mecánica del material, transformando toda la masa en Austenita con el calentamiento y después por medio de un enfriamiento brusco que puede ser en un medio de aceite, salmuera o incluso agua, después del enfriamiento se  convierte en Martensita, al igual que el recocido hay diferentes tipos de temple y esto depende del tamaño de la pieza de acero que será sometida. Cada tratamiento térmico tiene un medio de enfriamiento que puede ser usado sin dañar el acero o que este tenga una consecuencia al ser expuesto a este, algunos son los acústicos, aceites, sal fundida, entre otros. Así como cada tipo de tratamiento tiene su medio de enfriamiento pasa lo mismo con los equipos que se utilizan para cada uno, para realizar el recocido se necesita una templadora para resistencias tubulares TH01, al igual se puede utilizar horno al vacío y los hornos de recocido. Para el temple se necesitan hornos al vacío y hornos integrales este último también puede ser utilizado para normalizado y por último para el tratamiento de revenido se pueden usar revenido en baño de aceite, revenido en horno de baño de sales y revenido en horno de recirculación forzada de aire. CONCLUSIÓN Al momento de haber concluido la investigación acerca de estos tratamientos ahora se puede abordar que a los aceros grado herramienta que se investigaron se les puede aplicar uno de estos, como lo son el D2 que presenta una gran resistencia ante el desgaste y la compresión. Asimismo, este metal tiene una excelente tolerancia ante la fractura que se provoca por someterse a la compresión y tiene buenas capacidades anticorrosivas, incluso ante elevadas temperaturas durante su proceso de templado o forjado, por lo que soporta muy bien el revenido. El acero SISA P20 no requiere un tratamiento térmico adicional, sin embargo, se puede templar a durezas mayores para incrementar su resistencia. El acero SISA H13 provee un buen balance de tenacidad alta resistencia a la formación de grietas causadas por el choque térmico y resistencia al revenido, junto con resistencia al desgaste moderado y el tratamiento que se le puede aplicar es el de temple al aire. El acero AISI M2 es satisfactorio para herramientas de corte en las que se requiere mantenimiento de filo y gran tenacidad con buena resistencia al desgaste y mantenimiento de dureza al rojo, este acero es apto para someterse al tratamiento de recocido. Y por último el acero C300(Maraging) la microestructura consiste en martensita fina antes del tratamiento térmico final y se somete a endurecimiento por precipitación para conseguir sus propiedades finales.
Iglesias Arechar Sergio Jesús, Universidad Autónoma de Coahuila
Asesor: Dr. Ramon Carrillo Bastos, Universidad Autónoma de Baja California

SOLUCIONES A POTENCIALES PERIóDICOS EN MECáNICA CUáNTICA FRACCIONARIA


SOLUCIONES A POTENCIALES PERIóDICOS EN MECáNICA CUáNTICA FRACCIONARIA

Iglesias Arechar Sergio Jesús, Universidad Autónoma de Coahuila. Lamas Medina José David, Universidad Autónoma de Coahuila. Asesor: Dr. Ramon Carrillo Bastos, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La mecánica cuántica ha sido una de las áreas más fascinantes y revolucionarias de la física moderna. Dentro de este campo, la ecuación de Schrödinger juega un papel fundamental en la descripción de sistemas cuánticos. Recientemente, ha surgido un interés creciente en la mecánica cuántica fraccionaria, una extensión de la teoría cuántica que incorpora derivadas fraccionarias. Este enfoque ha abierto nuevas perspectivas para el estudio de fenómenos cuánticos en sistemas complejos y no locales. La ecuación de Schrödinger fraccionaria (ESF) es una generalización de la ecuación clásica, donde las derivadas enteras son reemplazadas por derivadas fraccionarias. El primer objetivo es encontrar soluciones a esta ecuación cuando el sistema está sujeto a un potencial periódico. Estas soluciones permitirán entender mejor cómo se comportan los sistemas cuánticos bajo estas condiciones. El teorema de Bloch es fundamental en la teoría de bandas de los sólidos, describiendo cómo los electrones se mueven en un cristal con un potencial periódico. Este objetivo busca establecer una analogía entre las soluciones obtenidas para la ESF y el teorema de Bloch clásico. Esta comparación podría revelar nuevas propiedades de los sistemas cuánticos fraccionarios y su comportamiento en potenciales periódicos. A través de la obtención y comparación de soluciones, se pretende proporcionar una guía metodológica y conceptual que facilite la exploración y comprensión de esta área emergente.



METODOLOGÍA

Para alcanzar los objetivos de la investigación de desarrollar una teoría que implemente el cálculo fraccionario en la Mecánica Cuántica, se propone la siguiente metodología. Formulación matemática: Se definirá la ecuación de Schrödinger fraccionaria independiente del tiempo (ESFIT) con un potencial periódico. La ecuación se formulará utilizando derivadas fraccionarias en lugar de derivadas enteras. Se describirá el tipo de potencial periódico que se utilizará en el estudio, destacando sus propiedades matemáticas. Propuesta de solución generalizada. Se propondrá una solución generalizada inspirada en el teorema de Bloch clásico. Esta solución deberá tener en cuenta las características de las derivadas fraccionarias y la estructura periódica del potencial. Se derivarán las condiciones matemáticas que deben satisfacerse para que esta solución generalizada sea válida para la ESFIT. Se analizará cómo varían estas condiciones (o la solución en general) con respecto a los parámetros fraccionarios y las propiedades del potencial periódico. Solución numérica. Se consultarán y utilizarán técnicas numéricas avanzadas para resolver la ESFIT planteado como problema de eigenvalores y eigenfunciones, con el método de diferencias finitas aproximado a la derivada fraccional o método de Grünwald-Letnikov. Simulaciones y Validación. Se llevarán a cabo simulaciones numéricas para diversos valores de los parámetros fraccionarios y diferentes configuraciones del potencial periódico. Se validarán los resultados obtenidos comparándolos con soluciones conocidas en el caso clásico (cuando la derivada fraccionaria se reduce a la derivada entera). Análisis e interpretación de los resultados. Se analizarán los patrones de periodicidad de las eigenfunciones obtenidas numéricamente. Se compararán estos patrones con los conocidos en la ecuación de Schrödinger normal. Se identificará cualquier comportamiento nuevo o inesperado en las soluciones fraccionarias. Se interpretarán los resultados explorando las implicaciones de la mecánica cuántica fraccionaria, como los efectos de memoria intrínseco al cálculo fraccionario, en sistemas con potenciales periódicos.


CONCLUSIONES

Con la metodología antes mencionada y con los avances en la teoría desarrollada se pretende proponer una dirección guía para futuras investigaciones implicadas en el estudio de la Mecánica Cuántica fraccionaria. Esta investigación seguirá con la exploración de otros tipos de potenciales periódicos -más allá del estudio del modelo básico que hemos trabajado-, el estudio de sistemas más complejos y la futura extensión del análisis a ecuaciones de Schrödinger dependientes del tiempo. El término de esta investigación pretende consolidar un marco sólido para la comparación de los resultados y solución propuesta con el teorema de Bloch clásico y la exploración de nuevas propiedades, tal como la "memoria", y aplicaciones de la Mecánica Cuántica fraccionaria.
Inzunza Bejarano Roberto Carlo, Universidad de Guadalajara
Asesor: Mg. Vilma Viviana Ojeda Caicedo, Universidad Tecnológica De Bolívar

ANáLISIS DE LAS TENDENCIAS DE LA ALTURA SUPERFICIAL DEL MAR Y REVISIóN DE DATOS DE SALINIDAD, TEMPERATURA Y VELOCIDADES EN PROFUNDIDAD EN LA COSTA NORTE COLOMBIANA


ANáLISIS DE LAS TENDENCIAS DE LA ALTURA SUPERFICIAL DEL MAR Y REVISIóN DE DATOS DE SALINIDAD, TEMPERATURA Y VELOCIDADES EN PROFUNDIDAD EN LA COSTA NORTE COLOMBIANA

Inzunza Bejarano Roberto Carlo, Universidad de Guadalajara. Martinez Herrera Axel Eduardo, Instituto Tecnológico Superior de Xalapa. Asesor: Mg. Vilma Viviana Ojeda Caicedo, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

La principal problemática en el análisis de datos oceanográficos es la falta de datos, para este trabajo se quiere analizar la tendencia de la altura superficial del mar en la costa norte colombiana y relacionarla con efectos globales climáticos, como el ENSO(El Niño-Southern Oscillation) que permitan evaluar medidas, a tomar en zonas costeras por posibles inundaciones o perdida de costa. Para lo anterior se recurrió a los datos libres de HYCOM(HYbrid Coordinate Ocean Model) para el estudio se organizó una base de datos de altura superficial del mar en el periodo de 1993 a 2023. También se obtuvieron los datos de las variables salinidad, temperatura y velocidades para 2023 con el fin de poder evaluar en próximos trabajos estas variables. Realizar este tipo de estudios puede contribuir a una mejor comprensión de las dinámicas oceánicas y su impacto en el ecosistema y el clima regional.   El modelo HYCOM (HYbrid Coordinate Ocean Model) es una herramienta avanzada para la simulación y análisis de procesos oceánicos, utilizando una combinación de coordenadas sigma y zeta para proporcionar datos precisos sobre las variables oceanográficas en diferentes profundidades.  Para abordar el procesamiento de los datos, se utilizará el lenguaje matemático MATLAB para desarrollar herramientas gráficas y estadísticas, que faciliten la visualización de promedios mensuales y multianuales. Este lenguaje permitirá crear representaciones gráficas detalladas y dinámicas que mostrarán las variaciones de altura superficial del mar, facilitando así la identificación de tendencias y patrones significativos. Esta capacidad de visualización es crucial para evaluar los fenómenos oceánicos en la ecología y el clima regional de la costa norte de Colombia, mejorando la capacidad para realizar análisis profundos y tomar decisiones informadas basadas en las variaciones históricas de las condiciones oceánicas 



METODOLOGÍA

1. Acceso y Selección de Datos  1.Acceso a la Plataforma HYCOM:     - Iniciar el proceso accediendo a la página oficial del modelo HYCOM.     - Asegurarse de que la página proporcione acceso a las herramientas y funciones necesarias para obtener los datos de forma relevante y precisa.  2. Selección del Data Server:     - Seleccionar la opción Data Server en la página de HYCOM.     - En el servidor de datos, buscar los experimentos que contengan marcas de tiempo correspondientes al período de interés (1990-2023).  3. Descarga de Datos:     - Una vez seleccionado el experimento adecuado, elegir la opción Access Data Here para obtener la información necesaria.     - Seleccionar la base de datos de preferencia para la extracción de datos, utilizando el acceso a través de NetcdfSubset.     - Priorizar la descarga de archivos en formato netcdf.  2. Preparación y Procesamiento de Datos  1. Importación de Datos a MATLAB:     - Configurar el entorno de MATLAB para manejar archivos netcdf.     - Importar los archivos netcdf descargados al entorno de MATLAB.  2. Revisión y Preprocesamiento de Datos:     - Realizar una revisión inicial de los datos para garantizar su calidad e integridad.     - Asignar rangos de valores para las variables de salinidad, temperatura y velocidad del agua.     - Calcular los promedios mensuales y anuales de las variables de interés.  3. Desarrollo de Scripts y Visualización  1. Creación de Scripts en MATLAB:     - Desarrollar scripts en MATLAB para generar gráficas de las variables seleccionadas.     - Los scripts deben permitir la visualización de las variaciones mensuales y anuales.  2. Generación de Gráficas:     - Crear figuras que presenten los datos promedio mensuales y anuales.     - Desarrollar figuras que muestren las variaciones de salinidad, temperatura y velocidad del agua a lo largo de los años.  3. Visualización de Datos Promediados:     - Generar gráficos que muestren los datos promedio para cada mes del año.     - Crear figuras que presenten los 12 meses del año en una sola gráfica para facilitar la comparación.  4. Validación y Ajuste de Scripts  1. Revisión de Resultados Visuales:     - Revisar los resultados visuales para identificar posibles anomalías o errores.     - Realizar ajustes necesarios en los scripts para corregir cualquier inconsistencia.  2. Pruebas de Visualización:     - Probar las herramientas gráficas desarrolladas con datos de diferentes períodos para asegurar su funcionalidad.     - Asegurarse de que las gráficas son precisas y representan correctamente las variaciones en las variables oceánicas.  5. Análisis de Resultados  1. Identificación de Patrones y Tendencias:     - Utilizar las herramientas gráficas y estadísticas, para identificar patrones y tendencias en las variaciones de salinidad, temperatura y velocidad del agua.     - Analizar cómo estos patrones pueden afectar el ecosistema y el clima regional.  2. Documentación de Hallazgos:     - Documentar los hallazgos y conclusiones basadas en las visualizaciones y análisis de datos.     - Preparar informes que resuman las tendencias observadas y su posible impacto. 


CONCLUSIONES

La metodología desarrollada permite visualizar de manera efectiva las variaciones mensuales, anuales y multianuales de la altura superficial del mar utilizando datos de HYCOM y herramientas gráficas en MATLAB a través de un proceso estructurado de acceso, selección, descarga y procesamiento de datos, se garantiza la calidad de la información.  Los scripts en MATLAB facilitan la identificación de patrones y tendencias en las variables oceanográficas, asegurando visualizaciones precisas y relevantes. Esto mejora la comprensión de las dinámicas oceánicas y su impacto en el ecosistema y clima regional.  Documentar los hallazgos proporciona una base sólida para futuras investigaciones y decisiones informadas sobre la gestión sostenible de los recursos marinos y la mitigación del cambio climático en la región. 
Isidro Roman Galilea Guadalupe, Universidad Autónoma de Guerrero
Asesor: Dr. José Carlos Jiménez Escalona, Instituto Politécnico Nacional

DETECCIóN DE CENIZA VOLCáNICA DEL VOLCáN POPOCATéPETL MEDIANTE LA PERCEPCIóN REMOTA DEL PERIODO ENERO-JUNIO 2023


DETECCIóN DE CENIZA VOLCáNICA DEL VOLCáN POPOCATéPETL MEDIANTE LA PERCEPCIóN REMOTA DEL PERIODO ENERO-JUNIO 2023

Isidro Roman Galilea Guadalupe, Universidad Autónoma de Guerrero. Asesor: Dr. José Carlos Jiménez Escalona, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Gran parte del vulcanismo que existe en México es gracias al fenómeno de subducción que existen entre las placas tectónicas de Cocos y Rivera las cuales estas están contacto con la placa Norteamericana. El volcán Popocatépetl presento su último periodo eruptivo desde 1919, presentando un lapso de inactividad durante 75 años, en el año 1994 retomo su actividad hasta la actualidad Desde el año 2015 ha presentado un incremento constante hasta el año 2023 donde hubo presencia de erupciones que pudieron haber dejado una nube de ceniza en la zona del espacio aéreo utilizado por la aviación según los datos de la VAAC de Washington. Al hablar de una erupción volcánica nuestra atención se centra en las poblaciones que están ubicadas cerca al volcán y estas puedan ser afectadas, pero otro grupo vulnerable es la aviación se ve afectada, ya que, al presentarse una erupción volcánica la nube de ceniza se deposita en la troposfera el cual es un espacio aéreo utilizado por aviones, helicópteros tanto comerciales como privados, los grupos que se ven afectables son aquellos que se encuentran en una aerolínea en el momento de la erupción volcánica y también las aerovías, esto puede causar tanto pérdidas millonarias, retrasos de salidas, desvíos en trayectoria de las aeronaves, aun no se tiene registro de alguna perdida humana pero el poder mitigar este riesgo se podría seguir con ese saldo blanco. Debido a esta problemática se han buscado soluciones, en donde, la más factible es el poder generar mapas de probabilidad, los cuales permitan localizar aquellas zonas de riesgo para las aeronaves tanto comerciales como privadas, es decir cuando sea detectada la ceniza volcánica, se genere un mapa semaforizado de manera automática de aquellas vías aéreas que sean afectadas.  



METODOLOGÍA

Para lograr generar mapas de probabilidad, se debe de trabajar con distintos datos, así como herramientas de software. Para la obtención de los primeros datos se utilizaron los reportes que emite la VAAC de Washington de la NOAA, al existir una erupción volcánica que pueda causar alguna afectación o presente algún riesgo para la población se publican dichos reportes, en ellos encontraremos información como la fecha y hora de la erupción, dirección, el nivel de vuelo, velocidad, lo antes mencionado se debe de vaciar en una hoja de Excel para tener un orden con la información obtenida así mismo permite saber cuántos días son los que hay con una erupción volcánica, cabe mencionar que del periodo de enero a junio del 2023 se obtuvieron 172 días de erupciones volcánicas. Posterior a ello se buscan aquellas imágenes que captan la nube de ceniza volcánica, tomando en cuenta que para la obtención de dichas imágenes se adquieren de LAADS DAAC una página de la NASA en donde manejan distintos sensores, en este caso para la obtención de dichas imágenes se manejaron dos los cuales son  MODIS TERRA y MODIS AQUA en donde permiten obtener de 2 a 4 imágenes, para escoger las imágenes se realizó un filtrado, es decir por cada día de erupción volcánica que se tenía registrada por la VAAC, se debían buscar aquellas imágenes que estuvieran máximo 10 horas después de la erupción esto debido a que a veces la ceniza volcánica es muy densa y puede durar horas hasta que se disperse, otras consideraciones es que nuestro volcán Popocatépetl se lograra percibir, no existiera demasiada nubosidad ya que al existir eso genera mucho ruido a la imagen y la ceniza volcánica no se percibe, ya obteniendo las imágenes se dividen en dos carpetas cada una con su sensor y organizadas por día, mes, año y hora. Mediante el software de ENVI se procesan las imágenes ya antes obtenidas de la NASA, dicho software permite georreferenciar las imágenes, así como visualizar aquellas bandas que localizan en el infrarrojo los puntos de la nube de ceniza, de igual manera se utilizaron ecuaciones para poder ubicar la superficie de la nube de ceniza volcánica. Ahora bien, para lograr saber cómo fue el trayecto de la nube de ceniza volcánica se hace mediante el modelo HYSPLIT de la NOAA, suponiendo que, desde la erupción volcánica, la nube se estuvo moviendo en un lapso de 8 horas, esto se hace por cada día que hubo de erupción. Ya recopiladas las corridas del periodo correspondido se manejó un programa desarrollado en Phyton para realizar la Geoestadística de las nubes de la ceniza volcánica, con los resultados que nos brindó mediante el software de Surfer13 se filtraron datos que nos ayudara en la realización de un mapa temático, para realizar dicho mapa se apoyó de dos softwares ArcGis y QGIS ambos manejan un ecosistema similar. 


CONCLUSIONES

Durante la estancia de verano en la ESIME Ticomán del IPN, reforcé y adquirí nuevos conocimientos tanto teóricos como prácticos, hoy en día el tema de los fenómenos naturales es muy sonado debido a que se han vivido hechos históricos que han marcado a miles de personas, el poder ayudar con la mitigación de riesgos para el caso de ceniza volcánica es un gran paso debido a que no se le da la importancia que le corresponde y mucho menos para el tema de la aviación. El lograr generar los mapas representativos es otra forma de ayudar a la población, ya que existen mapas representativos para aquellas comunidades que pueden ser afectadas en caso de una erupción volcánica, pero en el tema de aviación es un paso grande ya que no es un sector al cual se le dirija la atención. 
Islas Vizcarra Luis Arturo, Universidad Autónoma de Sinaloa
Asesor: Dr. Carlos Castaño Bernard, Universidad de Colima

CURVAS ELíPTICAS. TEORíA DE NúMEROS Y ÁLGEBRA.


CURVAS ELíPTICAS. TEORíA DE NúMEROS Y ÁLGEBRA.

Islas Vizcarra Luis Arturo, Universidad Autónoma de Sinaloa. Asesor: Dr. Carlos Castaño Bernard, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

El estudio de las ecuaciones diofantinas, es decir, el estudio de las raíces de ecuaciones polunómicas sobre los números enteros o racionales data a épocas anteriores a la antigua Grecia. Las soluciones de ecuaciones polinómicas en dos variables de grado 1 y 2 son bien conocidas, sin embargo, el grado 3 aún presenta diversas incógnitas y han supuesto no solo un desafío para los matemáticos, sino también un tema de interés a la comunidad cientifica por sus aplicaciones en la criptografía y factorización de enteros. Las primeras herramientas para el estudio de las ecuaciones polinomicas se encuentran en la teoría de números elemental y la geometría analítica. A pesar de haber resultado de utilidad para su estudio, estas ramas pronto se vieron insuficientes al afrontar problemas en grados más altos como lo fue el Último Teorema de Fermat. Llevando así al desarrollo de estas dos áreas y relacionandolas con la teoría de grupos, anillos y campos por la parte del álgebra, y las funciones analíticas por parte del análisis complejo. Una curva elíptica sobre un campo K puede ser descrita como el conjunto de puntos (x,y) en K2 que satisfacen la ecuación y3 = x2 + ax + b, donde 4a3 - 27b2 es distinto de cero para garantizar que la curva sea suave y no tenga intersecciones consigo misma. Si el campo de interés son los números complejos o lo números reales estas soluciones no son complicadas de obtener, mientras que el campo de los números racionales supone un problema de un nivel diferente en su estudio.  



METODOLOGÍA

Se inició aprendiendo sobre el plano proyectivo, el cual añade al plano cartesiano la recta al infinito. Esto permite, mediante una transformación de coordenadas, llevar cualquier ecuación polinomica irreducible en dos variables y de grado 3 a forma de Weirstrass de las curvas elípticas, facilitando las operaciones a realizar sobre la curvas más generales. En seguida, se habló sobre la ley de grupo que es posible definir sobre las curvas elipticas usando la particularidad de los puntos al infinito del plano proyectivo, y las principales preguntas sobre este grupo abeliano como el hecho de si es finitamente generado o no. Por otro lado, se estudió sobre las retículas sobre el plano complejo, las series de Eisenstein, La función P de Weirstrass y su relación con la ecuación que define a una curva eliptica. Más aún, se estudió sobre la correspondencia entre retículas y curvas elípticas por medio del invariante j. Se estudió el grupo SL2(Z) y las formas modulares, las cuales en conjunto con las series de Eisenstein y la función P de Weierstrass terminarían dando una forma explícita sobre algunas curvas elípticas. En este punto, el tratamiento algebraico de las curvas elípticas se vio limitado por los conocimientos en teoría de campos y de Galois, por lo que se estudiaron ampliamente estas dos ramas, llegando también a aprender un poco sobre geometría algebraica.  


CONCLUSIONES

La teoría de las curvas elípticas aún presenta muchas preguntas sin respuesta. Por medio de este verano de investigación se aprendieron muchas de las herramientas básicas para el estudio de estas, y se dejó abierta la puerta para continuar no solo con el estudio de este tipo particular de curvas, sino una variedad más amplia de estas por medio de la geometría algebraica, la cual es de mi interés continuar estudiando para así dar respuesta a diversos problemas no solo directamente relacionados a una curva elíptica, sino también a más áreas de las matemáticas que también dependen de resultados en esta área.  
Jara Vargas Emilio Gabriel, Universidad de Guadalajara
Asesor: Post-doc Cindy Lorena Gomez Heredia, Pontificia Universidad Javeriana

MEDICIóN Y ANáLISIS DE LAS PROPIEDADES TéRMICAS DE PIGMENTOS NATURALES UTILIZADOS COMO SENSIBILIZADORES EN LA CONSTRUCCIóN DE CELDAS DSSC


MEDICIóN Y ANáLISIS DE LAS PROPIEDADES TéRMICAS DE PIGMENTOS NATURALES UTILIZADOS COMO SENSIBILIZADORES EN LA CONSTRUCCIóN DE CELDAS DSSC

Jara Vargas Emilio Gabriel, Universidad de Guadalajara. Asesor: Post-doc Cindy Lorena Gomez Heredia, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de alternativas energéticas que sean viables en términos económicos y de eficiencia propicia una transición energética equitativa de la quema de biocombustibles al uso de energías renovables. Por ejemplo, el aprovechamiento de la energía solar ha sido muy útil en esta transición con los paneles solares basados en silicio, sin embargo, estos paneles presentan la desventaja de tener elevados costes de fabricación. En este contexto, dentro de los dispositivos que usan energía solar surge otra alternativa: las celdas solares sensibilizadas con pigmentos (DSSC, por sus siglas en inglés). Estas celdas tienen un costo menor comparados con las celdas de silicio, además de tener un impacto ambiental mucho menor. Actualmente, los pigmentos utilizados en estas celdas suelen ser a base de rutenio, alcanzando eficiencias de hasta 11.1%, aunque elevando los costos y el impacto ambiental a la hora de la extracción de este metal noble. Es por esto por lo que se han realizado esfuerzos en buscar alternativas naturales a los pigmentos a base de rutenio, ya que se reduciría el impacto ambiental de las celdas a la vez que hacer sostenible el uso de estas. A pesar de estos esfuerzos, aún no se ha logrado encontrar un pigmento natural que iguale o supere la eficiencia de los pigmentos a base de rutenio. Esta desventaja es lo que ha evitado que las celdas DSSC tengan un uso más extendido. Para abordar este problema, se han realizado caracterizaciones ópticas de los pigmentos naturales, sin embargo, también se encuentra la cuestión de entender las propiedades térmicas de los pigmentos naturales para así avanzar en el desarrollo de celdas DSSC más eficientes y estables.



METODOLOGÍA

Usando la técnica de espectroscopía fotoacústica se realizaron mediciones sobre 7 pigmentos proporcionados por la Fundación Universidad de América: Pigmento de axiote (10,000 ppm). Pigmento de axiote degradado (10,000 ppm). Pigmento de axiote (20,000 ppm). Pigmento de axiote degradado (20,000 ppm). Pigmento de espinaca. Pigmento de rutenio. Pigmento de rutenio degradado. Estos pigmentos estaban disueltos en etanol y fueron protegidos de la exposición a la luz antes de ser medidos. Sobre una muestra de glassycarbon (170 micras de espesor y 0.9 cm de diámetro) se colocaron 90 microlitros del pigmento a medir. Como fuente de luz modulada se utilizó un láser de 880 nm, el cual recibía la señal de un dispositivo Lock-in a través de un controlador de corriente (para proteger al láser). El Lock-in también recibía la señal del micrófono de la celda fotoacústica, y la interpretaba como amplitud y fase, para después registrarlo en la computadora. Una vez teniendo los datos de amplitud y fase, se normalizaron con respecto a una señal de refrencia donde no había ningún líquido sobre el glassycarbon dentro de Origin. Estos datos normalizados después fueron ingresados a Wolfram Mathematica para, mediante un proceso de fiteo al modelo teórico, encontrar la efusividad del líquido.


CONCLUSIONES

En este trabajo de investigación se desarrollaron habilidades de análisis de datos, además del aprendizaje teórico sobre las técnicas fototérmicas. Además, al ser la primer experiencia en una investigación, se logró conocer todo el proceso y trabajo que implica incluso antes de comenzar a realizar los experimentos. También se aprendió a usar Wolfram Mathematica y Origin para el manejo de datos. A pesar de que el análisis preeliminar de los datos obtenidos muestran que no hay diferencias significativas entre los pigmentos, sería interesante realizar mediciones sobre un pigmento (el pigmento de axiote, por ejemplo) a diferentes concentraciones para así poder conocer el punto donde comianza a notarse la presencia del pigmento en la señal fotoacústica.
Jimenez Aguilar Estrella, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Dulce María González Utrera, Centro de Investigaciones en Óptica (CONACYT)

SIMULACIóN DE IMáGENES PARA EL ESTUDIO DE DIFERENTES AMETROPíAS UTILIZANDO LA FUNCIóN DE DISPERSIóN DE PUNTO.


SIMULACIóN DE IMáGENES PARA EL ESTUDIO DE DIFERENTES AMETROPíAS UTILIZANDO LA FUNCIóN DE DISPERSIóN DE PUNTO.

de Jesús Piedra Martín Emmanuel, Benemérita Universidad Autónoma de Puebla. Jimenez Aguilar Estrella, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Dulce María González Utrera, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las ametropías son defectos refractivos del ojo que impiden que las imágenes se enfoquen correctamente en la retina. Las principales ametropías son la hipermetropía, la miopía y el astigmatismo. Al estudiar y comprender cómo ven las personas que presentan este tipo de errores refractivos, se pueden proponer elementos oftálmicos que compensen estos defectos visuales, teniendo así un impacto significativo en su calidad de vida.



METODOLOGÍA

Para la elaboración de este proyecto se estudia al ojo visto como un sistema óptico. En el dispositivo experimental, se utiliza un láser rojo de 635 nanómetros que se alinea para pasar por un filtro espacial. Este proceso implica el uso de un objetivo de microscopio de 10X y un pinhole de 50 micrómetros, lo que permite limpiar el haz y formar un cono de luz que se expande. Luego, este haz pasa a través de una lente con una distancia focal de 200 mm, situada frente al pinhole, lo cual permite obtener un haz de luz colimado, es decir, un frente de onda plano. Posteriormente, se coloca una lente esférica que simula la córnea y una cámara CMOS eo-1312C en una platina de traslación a una distancia  de 4.5cm, simulando así un ojo sano. Para la obtención de las PSFs, se utilizan lentes oftálmicas de diferentes potencias dióptricas que, al colocarse frente al modelo simple de ojo, cambian el punto de enfoque. Si se ajusta la posición de la cámara con la platina de traslación para encontrar el mejor foco y se retira la lente oftálmica bajo prueba, se puede simular un modelo de ojo con miopía o hipermetropía correspondiente a la prescripción en dioptrías de la lente oftálmica utilizada. Las dioptrías negativas se emplean para simular la miopía y las positivas para la hipermetropía. Estos elementos se colocan detrás de la lente esférica a una distancia de aproximadamente 2 cm. El proceso descrito, se utiliza para obtener PSFs de un modelo de ojo simulando miopía e hipermetropía en un rango de -0.75 a 0.75 dioptrías. Para obtener la PSF correspondiente al astigmatismo, se coloca una lente cilíndrica con el eje vertical frente al modelo de ojo sano. Con la obtención de las distintas PSFs de 1280x1024 pixeles se procede a elaborar el simulador en MATLAB, que consta del uso de la transformada de Fourier para el procesamiento digital de imágenes.  Como objeto se utiliza la imagen digital de una USAF 1951 de un tamaño de 1937x2048 pixeles. La PSF es convertida a escala de grises y se reajusta al tamaño de la USAF.  Posteriormente se hace uso de la fft2 en la PSF al igual que en la USAF. Estas matrices se multiplican y a la matriz resultante se le aplica la transformada inversa para obtener la imagen simulada. El anterior procedimiento es usado para cada PSF obtenida para los casos de miopía, hipermetropía, astigmatismo y ojo sano. Simulando así, cómo vería un paciente con cada una de estas ametropías. Con el programa de Matlab se encuentra la función de transferencia de modulación (MTF) analizando el contraste asociado a cada frecuencia espacial de cada elemento de la USAF target de la imagen simulada. La imagen simulada y la MTF obtenida del ojo sano sirve como referencia de una visión ideal, por lo que para las PSFs de miopía, hipermetropía y astigmatismo se tiene imágenes distintas con diferentes calidades de imagen, esto se puede observar en las MTFs correspondientes. Ejemplo, en la frecuencia espacial en 0.5 lp/mm para las rectas horizontales, en el ojo sano se tiene un contraste de 0.998, para miopía un valor de 0.537, en hipermetropía un valor de 0.117 y astigmatismo con un valor de 0.795 de contraste. Con el mismo valor de la frecuencia espacial para rectas verticales se tiene un contraste de 0.999 en el ojo sano, 0.616 para miopía, 0.092 para hipermetropía y 0.795 para astigmatismo. Mostrando que para un valor de frecuencia fijo, el contraste depende de la ametropía y la orientación del eje en el que este se mide, en el caso de la miopía e hipermetropía se tiene que el valor del contraste varía mínimamente entre la recta vertical y horizontal. En cambio, el astigmatismo depende del eje de orientación sobre el cual se mida. Simultáneamente se observó que la curva de la MTF de nuestra imagen de referencia decae más lentamente que las MTFs de las ametropías analizadas.


CONCLUSIONES

 Durante el verano de investigación se implementó un modelo experimental simple de ojo que simula diferentes ametropías. Para cada una se obtuvo su Función de Dispersión de Punto que se utilizó en un simulador de imágenes elaborado en Matlab para visualizar cómo vería una persona con esta condición y estudiar su sensibilidad al contraste.
Jiménez Guzmán Denisse, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Ismael Santos Ramos, Benemérita Universidad Autónoma de Puebla

CUANTIFICACIóN DE IONES DE FE³⁺ MEDIANTE FLUORESCENCIA CON NANOPARTíCULAS DE PLATA FUNCIONALIZADAS CON GLUTATIóN (AGNPS-GSH)


CUANTIFICACIóN DE IONES DE FE³⁺ MEDIANTE FLUORESCENCIA CON NANOPARTíCULAS DE PLATA FUNCIONALIZADAS CON GLUTATIóN (AGNPS-GSH)

Jiménez Guzmán Denisse, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Ismael Santos Ramos, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El hierro es un elemento esencial para la vida, desempeñando un papel crucial en diversos procesos biológicos. Sin embargo, un desequilibrio en sus niveles puede tener graves consecuencias para la salud humana y el medio ambiente. El exceso de hierro puede causar estrés oxidativo y daño en órganos vitales, mientras que su deficiencia provoca anemia y debilidad. En el ámbito ambiental, el exceso de hierro en cuerpos de agua puede acelerar el crecimiento de algas, reduciendo el oxígeno disuelto y afectando a otras formas de vida acuática. Por ello, es fundamental desarrollar métodos precisos para la cuantificación de hierro, especialmente de iones Fe³⁺, en las ciencias ambientales y biomédicas. Este proyecto se enfoca en evaluar la efectividad de nanopartículas de plata funcionalizadas con glutatión (AgNPs-GSH) como sensores fluorescentes para la detección específica de iones Fe³⁺ en soluciones acuosas.



METODOLOGÍA

Se emplearon los siguientes reactivos: nitrato de plata (99%), L-glutatión reducido (98%), hidróxido de sodio (98%) y nitrato de hierro nonahidratado (99%) de Sigma-Aldrich, junto con soluciones reguladoras de biftalato (pH 4), fosfato (pH 7) y borato (pH 10) de J.T. Baker. Todos los reactivos se utilizaron sin purificación adicional y se empleó agua desionizada (18.2 MΩ) en todos los experimentos. Para la preparación de las nanopartículas, se disolvieron 21.23 mg de AgNO₃ en 10 ml de agua desionizada para obtener una solución de 25 mM. Se preparó una solución de GSH a 25 mM disolviendo 156.63 mg de GSH en 20 ml de agua desionizada. Además, se preparó una solución de hidróxido de sodio (0.1 M) aforando 399.97 mg en 100 ml de agua desionizada. Se sintetizaron tres muestras de AgNPs-GSH utilizando diferentes volúmenes de GSH (10 ml, 20 ml y 30 ml). Las AgNPs-GSH-10 se obtuvieron mezclando 10 ml de GSH 25 mM con 5 ml de AgNO₃ 25 mM bajo agitación magnética vigorosa durante 15 minutos. Después se irradiaron con una lámpara UV (λ = 254 nm, marca UVP, modelo XX-15S, 115V). Se siguió un procedimiento similar para las AgNPs-GSH-20 y AgNPs-GSH-30. El cambió en la síntesis reside en que las AgNPs-GSH-20 se obtuvieron variando el valor de pH de la solución adicionando NaOH. Además, los estudios de fluorescencia se realizaron con el espectrofotómetro Cary Eclipse Varían, utilizando 3.5 ml de muestra en una celda de cuarzo con espejo.  Para medir la intensidad de emisión se excitó con 370 nm iniciando en 375nm hasta 600 nm. Para la intensidad de excitación se emitió a 430 nm y se midió de 350 nm a 400 nm. El filtro de excitación de 250 - 395nm, el filtro de emisión de 360 - 1100 nm. En relación con la aplicación, se preparó una solución 1 mM de nitrato de hierro nonahidratado disolviendo 4.04 mg en 10 ml de agua desionizada. Posteriormente, esta solución se diluyó para obtener concentraciones menores de Fe³⁺.  A continuación, se llevaron a cabo estudios de fluorescencia para establecer los parámetros óptimos de detección de Fe³⁺. Para ello, se utilizaron distintos volúmenes de AgNPs-GSH, agua desionizada, y se evaluaron diversas condiciones de pH para optimizar la detección. Además, se realizó un estudio de la concentración de AgNPs-GSH mediante el espectro de emisión de fluorescencia, diluyendo la muestra a partir de una concentración inicial desconocida. Se efectuaron mediciones de fluorescencia variando el volumen de AgNPs-GSH y DI con 970 μl de buffer. Para la detección de iones Fe³⁺, se evaluaron los cambios en la intensidad de fluorescencia de las AgNPs-GSH al añadir diferentes concentraciones de Fe³⁺. Las mediciones se realizaron en una celda de cuarzo con espejo, colocando 900 μl de AgNPs-GSH, 970 μl de buffer (pH 4, pH 7 y pH 10), 1.5 ml de agua desionizada (DI) y diversas concentraciones de Fe³⁺. Se llevaron a cabo pruebas de detección de Fe³⁺ utilizando AgNPs-GSH-10 en un buffer de pH 4, con concentraciones que variaban desde 0 hasta 210.8 μM, en pH 7 desde 0 hasta 56 μM, y en pH 10 desde 0 hasta 8.8 μM. Finalmente, se realizaron pruebas con AgNPs-GSH-30 en pH 4, con concentraciones desde 0 hasta 28.8 μM, en pH 7 desde 0 hasta 11.7 μM, y en pH 10 desde 0 hasta 3 μM, elaborando también una curva de calibración basada en la intensidad de emisión a 430 nm. Para mantener un coeficiente de correlación cercano a uno, se limitó el rango de detección. Posteriormente, se utilizaron los residuos como una muestra problema para estimar su concentración de Fe³⁺.


CONCLUSIONES

Este estudio ha demostrado que la interacción entre los iones Fe³ y las nanopartículas de plata funcionalizadas con glutatión provoca un cambio significativo en la intensidad de fluorescencia, permitiendo la cuantificación precisa de estos iones. Se observó una disminución notable en la intensidad de fluorescencia al aumentar la concentración de Fe³⁺. Además, la adición del GSH incrementa la intensidad de emisión de fluorescencia en las AgNPs y el pH es controlado para optimizar la interacción entre componentes. Las AgNPs-GSH mostraron una banda plasmónica característica y una fluorescencia dependiente de la nanopartícula, no presente en los precursores AgNO₃ o GSH. Además, el análisis DLS reveló tamaños promedio de 3.9 nm para AgNPs-GSH-10, 6 nm para AgNPs-GSH-20 y 14 nm para AgNPs-GSH-30, con un potencial Z indicando alta estabilidad y una carga superficial de -93.9mV, -99.37mV y -74.04mV respectivamente. En relación con el efecto del pH, el pico de intensidad de emisión de fluorescencia se localiza en un pH de 5 para las AgNPs-GSH. Al incrementar el pH, se observa una disminución en la intensidad de emisión y un mayor apagamiento de la fluorescencia a concentraciones menores de Fe³⁺. Los límites de detección se encuentran en un rango micromolar, siendo el más bajo de 0 a 3 μM con AgNPs-GSH-30 a pH 10 y el más alto de 50.7 μM a 213.2 μM con AgNPs-GSH-20 a pH 4. Futuras investigaciones podrían centrarse en la mejora de la estabilidad y la aplicabilidad en condiciones reales, así como en pruebas con otros metales pesados o en muestras biológicas.
Jiménez Sánchez Yulissa Monserrat, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtro. Antonio de Jesús Vidal Jiménez, Instituto Tecnológico Superior de Los Ríos

DISEñO DE UN HUMEDAL ARTIFICIAL PARA EL TRATAMIENTO DE AGUAS RESIDUALES EN EL TECNM CAMPUS LOS RíOS.


DISEñO DE UN HUMEDAL ARTIFICIAL PARA EL TRATAMIENTO DE AGUAS RESIDUALES EN EL TECNM CAMPUS LOS RíOS.

Jiménez Sánchez Yulissa Monserrat, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Antonio de Jesús Vidal Jiménez, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

Las aguas residuales generadas en actividades humanas poseen una alta carga de contaminantes que son altamente demandantes de oxígeno y estimulan el crecimiento de plantas y microorganismos patógenos que contaminan las fuentes hídricas y atentan contra la salud pública y la sostenibilidad de la sociedad (UNESCO 2015). Por lo tanto, una alternativa ecológica y económica es la construcción de humedales artificiales. El término humedales artificiales suele ser empleado como definición de aquellos sistemas que se diseñan para utilizar los procesos naturales que ocurren en el ambiente y que implican el uso de vegetación, material de soporte y asociaciones microbianas, con el objetivo de ayudar en el tratamiento de las aguas residuales (J. Vymazal, 2014). El diseño del Humedal Artificial de flujo subsuperficial (HAFSS) para el Tecnológico de los Ríos considerará cuidadosamente las características del agua residual, las condiciones del sitio y las especies de plantas acuáticas adecuadas para la región. 



METODOLOGÍA

A.Determinar el gasto y las características fisicoquímicas de las aguas residuales generadas en el Tecnológico de los Ríos. Se seleccionaron equipos y materiales para análisis de agua residual, que nos ayudarón en la toma de muestras de las aguas residuales de las fosas septicas del Campus, de lo cual obtuvimos el gasto de generación de las aguas residuales.  Se tomarón muestras de agua en los edificios B, C, D, Cafeteria y el area de Biblioteca/Administración y se llevarón al laboratorio donde se obtuvieron parametros fisicoquimicos (Color, turbiedad, sólidos suspendidos, temperatura, pH, conductividad eléctrica y DQO) y se procedieron a ser pasados los datos en una tabla excel.  B.Diseñar un humedal artificial subsuperficial de flujo horizontal para el tratamiento de las aguas residuales generadas en el Tecnológico de los Ríos. Se realizo una visita al sitio donde se observaron las caracteristicas ambientales en las cual se encuentra el lugar, se tomaron medidas de las lagunas, se procede a describir las caracteristicas ambientales y topograficas del sitio, con esos datos se logro determinar el tipo de humedal recomendado para el lugar y con los manuales de la CONAGUA se describio el diseño del humedal. 


CONCLUSIONES

  A.Determinación del Gasto total de agua residual dentro del TecNM Campus los Ríos. De acuerdo con la CONAGUA, un habitante puede gastar hasta 142 L de agua por día como resultado de sus actividades diarias del cual el 70% se convierte en agua residual. En el TecNM Campus los ríos en el presente semestre se cuentan con un total de 180 trabajadores y 1,498 estudiantes, el cual nos lleva a un total de 1,678 personas, con los datos obtenidos se realizó el cálculo del gasto total de agua residual generada por día, obteniéndose una generación de 14.73 m³ diarios de aguas residuales como resultado de las actividades: Sanitarias, cafetería, limpieza y mantenimiento. B. Análisis de parámetros fisicoquímicos de las aguas residuales dentro de la Institución. Se realizó una serie de muestreo de agua residual tomadas de las fosas sépticas ubicadas en los edificios B, C, D, Cafetería y el área de Biblioteca/Administrativos, llevándose al laboratorio para analizar parámetros correspondientes. Los resultados obtenidos fueron comparados con los límites máximos permisibles la NOM-001-SEMARNAT-2021, donde se concluye que los rangos mostrados en la tabla se encuentran dentro de los parámetros aceptados para su vertido, y si cumple con la normatividad ambiental mencionada. C. Diseñar un humedal artificial subsuperficial de flujo horizontal para el tratamiento de las aguas residuales generadas en el Tecnológico de los Ríos. El diseño del HASFH, se propone implementar tomando como referencia la laguna 1, donde CONAGUA en su manual de Diseño de Humedales Artificiales recomienda que un sistema de flujo subsuperficial típico presenta un espesor de 30 a 70 cm de lecho. Es conveniente tener una profundidad superior del lecho, con una profundidad 0.60 m como máximo dependerá de las macrófitas a utilizar, las dimensiones de largo 10.40 m, ancho 8.20 m. Se recomienda utilizar piedras entre 10 y 15 cm. Se recomienda realizar la siembra a una distancia de separación de un metro para que luzca más densa y verde, la excavación de los pozos en donde van a ser sembradas las macrofitas deben ser de 30 a 40 cm con el fin de reducir el tiempo en que permanezcan fuera del agua. Entre las especies más comúnmente utilizadas en humedales artificiales se encuentran la Typha ssp, Lenteja acuática, Thalia, Monochoria, Sagitaria, Lechuguillas de agua y Flor de loto acuática, (Pérez et al., 2013).
Joseph Zapata Jennifer, Instituto Tecnológico de Querétaro
Asesor: Dra. Danna Lizeth Trejo Arroyo, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías

ESTUDIO DE MATERIALES BIOMASA COMO MATERIAL CEMENTANTE SUPLEMENTARIO PARA LA CONSTRUCCION SUSTENTABLE


ESTUDIO DE MATERIALES BIOMASA COMO MATERIAL CEMENTANTE SUPLEMENTARIO PARA LA CONSTRUCCION SUSTENTABLE

Joseph Zapata Jennifer, Instituto Tecnológico de Querétaro. Asesor: Dra. Danna Lizeth Trejo Arroyo, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías



PLANTEAMIENTO DEL PROBLEMA

La producción de cemento es crucial para la economía mundial, ya que es esencial para las grandes construcciones e infraestructuras que impulsan el desarrollo urbano. No obstante, es una actividad altamente energética y una de las principales fuentes de emisiones de CO2, representando aproximadamente el 7-8% a nivel global. Este impacto se debe al uso de combustibles fósiles para generar el calor necesario para la fabricación del Clinker, el componente principal del cemento. Producir una tonelada de Clinker genera aproximadamente 0.9 toneladas de CO2, de las cuales el 60% proviene de la calcinación de la caliza y el 40% de la combustión de combustibles. Así, la producción de una tonelada de cemento, que contiene en promedio un 65% de Clinker, genera alrededor de 0.6 toneladas de CO2. Paralelamente, la biomasa agroindustrial, como la porquinaza (estiércol de cerdo), presenta desafíos en términos de manejo de residuos y emisiones de gases de efecto invernadero. La quema de porquinaza emite CO2, pero este es el mismo CO2 que las plantas absorben durante su crecimiento, lo que puede resultar en una reducción neta de gases de efecto invernadero. El sargazo, un tipo de alga marina, captura CO2 durante su crecimiento. Sin embargo, su descomposición microbiana puede liberar CO2 y otros gases, afectando la acidificación local del agua y perjudicando a organismos marinos como corales y moluscos. Ambos residuos, según la literatura, pueden ser evaluados como materiales cementantes suplementarios debido a su composición, la cual podría desarrollar características cementantes.



METODOLOGÍA

En esta investigación se evaluaron el sargazo y la porquinaza como materiales cementantes suplementarios. El sargazo fue colectado en la playa Mahahual, Quintana Roo, y la porquinaza, desecho agroindustrial de la industria porcina, se obtuvo de Mayabalam Bacalar, Quintana Roo. El sargazo fue lavado para extraer las sales, secado a 100ºC por 24 horas, triturado y calcinado a 600ºC por 2 horas. Se realizó un análisis morfológico y químico elemental mediante Microscopio Electrónico de Barrido (MEB) y Espectroscopía de Rayos X de Dispersión de Energía (MEB-EDS). La porquinaza también fue secada a 100ºC por 24 horas, calcinada a 600ºC por 2 horas y luego triturada y cribada a través de una malla #325 (44μm). Posteriormente, se analizó con MEB-EDS para determinar la morfología y tamaño de partícula usando el software ImageJ. Para la porquinaza, se realizó la prueba de Chapelle para determinar la puzolanidad, calculando el índice de Chapelle. Este índice se obtiene titulando soluciones con ácido clorhídrico y determinando la cantidad de ácido utilizado para la titulación. Se elaboraron matrices cementantes sustituyendo parcialmente el cemento con ceniza de porquinaza al 3% y 5% en peso, y se curaron por 3, 7 y 28 días para medir la resistencia a la compresión. Las mezclas con 3% de sustitución utilizaron 22.2 g de ceniza de porquinaza, 203.5 g de agregado fino, 717.8 g de cemento y 558 ml de agua, cumpliendo con la norma ASTM C109 para obtener la fluidez adecuada. Las mezclas con 5% de sustitución utilizaron 37 g de ceniza de porquinaza, 203.5 g de arena y 703 g de cemento, agregando 568 ml de agua debido al incremento de ceniza. Los cubos de mortero tipo I de 5 cm se prepararon para evaluar la resistencia mecánica.


CONCLUSIONES

Los resultados preliminares de la caracterización del sargazo descartaron su uso como material cementante suplementario. Las cenizas de sargazo y porquinaza fueron analizadas mediante Microscopía Electrónica de Barrido (MEB) y Espectroscopía de Rayos X de Dispersión de Energía (MEB-EDS). El sargazo mostró bajos porcentajes de silicio (Si), calcio (Ca), hierro (Fe) y aluminio (Al), esenciales para la actividad puzolánica. Además, contenía sodio (Na), magnesio (Mg), azufre (S) y cloro (Cl), requiriendo procesos adicionales de limpieza. En cambio, la porquinaza presentó altos porcentajes de silicio (Si), aluminio (Al) y magnesio (Mg), lo que permitió continuar su estudio como material cementante suplementario. El análisis de tamaño de partícula indicó un promedio de 17.712 µm. Los resultados del método de Chapelle mostraron un alto porcentaje de puzolanidad en la porquinaza, con un índice de 603.66 mg Ca(OH)2/g de ceniza, superando el mínimo de 350 mg/g establecido por la norma NF P 18-513. Esto confirmó la actividad puzolánica de la ceniza de porquinaza. La resistencia a la compresión de matrices cementantes con sustituciones de cemento al 0%, 3% y 5% de ceniza de porquinaza se evaluó a 3, 7 y 28 días. A los 3 días, la muestra de referencia alcanzó 13.548 MPa, mientras que con 3% y 5% de sustitución, las resistencias fueron 13.748 MPa y 12.786 MPa, respectivamente. A los 7 días, la muestra de referencia alcanzó 15.991 MPa, y las sustituciones al 3% y 5% lograron 16.713 MPa y 15.663 MPa, respectivamente. Estos resultados preliminares sugieren que la sustitución del cemento por ceniza de porquinaza no afecta negativamente la resistencia a la compresión en edades tempranas. La sustitución al 3% mostró un ligero incremento en la resistencia a compresión a los 3 y 7 días. Se esperan resultados a los 28 días para evaluar el comportamiento en edades posteriores.
Juarez Balderas Marco Antonio, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Emerson Sadurní Hernández, Benemérita Universidad Autónoma de Puebla

TIEMPO EFECTIVO DE DECAIMIENTO DE Q-BITS CON ENTORNO MULTICANAL


TIEMPO EFECTIVO DE DECAIMIENTO DE Q-BITS CON ENTORNO MULTICANAL

Juarez Balderas Marco Antonio, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Emerson Sadurní Hernández, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el contexto del procesamiento de información cuántica, es fundamental conocer la dinámica de los sistemas cuánticos, ya que el decaimiento de los sistemas producido por su interacción con el ambiente produce pérdidas en la información almacenada.  Uno de los sistemas cuánticos comúnmente utilizados es la trampas de iones, donde la unidad de información está constituida por el sistema de dos niveles asociado a cada partícula atómica confinada en la trampa.  De este modo, el problema a estudiar es la evolución del sistema y la determinación de la vida media máxima, en el que podría realizarse algún cálculo utilizando el sistema descrito, antes del decaimiento del estado por efectos de la decoherencia.  El objetivo principal es calcular el tiempo efectivo de decaimiento a través de soluciones analíticas.   



METODOLOGÍA

Para tratar el sistema cuántico del problema se partió del modelo de Tavis-Cummings como descripción de la interacción entre luz y un conjunto de partículas atómicas de dos niveles, pasando a un sistema abierto mediante modelos Lindbladianos de al menos dos canales. La ecuación maestra de evolución gobierna los operadores de densidad que describen un ensamble estadístico para el sistema central completo: campo de fotones y átomos multiniveles. A partir de aquí se procede a tomar trazas completas o trazas parciales operando sobre una observable específica, por ejemplo, el número de excitaciones del sistema. Finalmente se identifica el conjunto de ecuaciones diferenciales de evolución en variables reales para los promedios de interés (energía, espín total y excitaciones).  Dada la parte antihermítica de la fuente Lindbladiana se esperan decaimientos de tipo exponencial cuyas vidas medias seguirán alguna regla de suma. Se procederá a determinar dicha regla.  


CONCLUSIONES

De la deducción del decaimiento multicanal para un entorno aditivo, se espera que la vida media de una observable asociada a las excitaciones atómicas esté descrita por las constantes de acoplamiento con el entorno, gamma_i, contribuyendo inversamente a la vida media neta en la forma suma de gamma_i = 1/vida media. Este resultado no es del todo obvio, ya que depende crucialmente de las frecuencias normales del super operador de evolución. Dada la naturaleza antihermítica de la fuente, serán las partes imaginarias en general, las que determinen la velocidad de extinción (por tanto el tiempo de decoherencia). Notablemente, existen observables de significado físico para las cuales la ley aditiva indicada arriba se cumple y es de interés estudiarlas dada su relación con la no conservación de energía del sistema.  Se espera también que observables más sutiles como el espín neto atómico sufran un decaimiento más complicado, dado que las fuentes no dependen directamente del espín o no son aditivas respecto a esta observable. Finalmente, también se puede concluir que cantidades físicas más intrincadas como la entropía de Von Neumann o la pureza tengan leyes de decaimiento que solo puedan aproximarse por la ley arriba indicada, dado que sus vidas medias deben seguir leyes más complejas.  
Juarez Martinez Charly Olaf, Universidad Autónoma de Baja California
Asesor: Post-doc Jorge Andrés Ramírez Rincón, Fundación Universidad de América

EFECTO TERMO CRóMICO DE PELíCULAS DELGADAS DE PEROVSKITA MAPBI


EFECTO TERMO CRóMICO DE PELíCULAS DELGADAS DE PEROVSKITA MAPBI

Juarez Martinez Charly Olaf, Universidad Autónoma de Baja California. Asesor: Post-doc Jorge Andrés Ramírez Rincón, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Las ventanas desempeñan un papel muy significativo en los diseños de edificios, permitiendo la entrada de luz natural que mejora la iluminación interior. Sin embargo, también son una fuente significativa de ganancia o pérdida de calor. Esta doble función de las ventanas tiene un impacto directo en el consumo de energía del edificio, por lo que una de las acciones que se pueden implementar es el uso de las ventanas inteligentes, las cuales permiten la modulación de luz y con ello mejorar la eficiencia energética. En este verano se busca proponer la estructura de perovskita MAPbI como un material candidato para el desarrollo de ventanas inteligentes, el cual permite la modulación de luz solar a través de sus propiedades termocromicas.



METODOLOGÍA

Para comenzar el análisis de las propiedades termo crómicas de la perovskita, se utilizaron dos películas delgadas de perovskita MAPbI depositadas en vidrio por un proceso de spin coating, teniendo un espesor entre los 400 nm a 600 nm y un tiempo de degradación (Deformación de la estructura cristalinas por las propiedades higroscópicas) de 2 meses. Con estas dos muestras de perovskitas degradadas, se comenzó a medir la recuperación de la estructura cristalina a medida que la temperatura aumenta, utilizando una cámara hiperespectral con el fin de capturar el cambio de la transmitancia para cada longitud de onda sobre cada región de las películas delgadas. Así mismo se utilizó una celda peltier para aumentar la temperatura de las películas delgadas de perovskita de manera gradual y una fuente de luz artificial para simular la luz solar. Para cada película delgada se capturaron fotografías a distintos valores de temperatura, entre los 20C y 80C, dando como resultado la disminución de la transmitancia a medida que la temperatura aumentaba para cada una de las muestras. Esta disminución en la transmitancia fue principalmente para longitudes de onda correspondientes a la luz visible. Por otra parte, este cambio en la transmitancia se dio para temperaturas mayores a 30C y menores a 34C, donde hubo tasa de cambio mayor a 31 C. Con esto se llego a que la temperatura de transición es de 31C para ambas muestras. Otra parte del análisis fue buscar como es el cambio para cada región de las películas delgadas, teniendo como objetivo principal cuantificar cuan homogéneo es el cambio de la transmitancia. Para llevar a cavo este análisis, se utilizó un software que me permitió interpretar las imágenes capturadas en el espacio de color LAB, sin embargo, para este análisis me concentré en la componente de luminosidad. La manera de cuantificar esta homogeneidad fue a través de normalizar los valores de luminosidad y contando el número de pixeles correspondiente a cada valor entre 0 y 1, donde corresponde al pixel con la máxima luminosidad. Este análisis dio como resultado un cambio abrupto en la luminosidad de los pixeles a medida que la temperatura aumentaba. Teniendo en promedio un cambio de 0.85 a 0.2, esto debido a que, para las muestras menores a 30C, la luminosidad promedio para cada pixel era de 0.85 y para muestras mayores a 34 C fue en promedio de 0.2.   Para saber cuan homogéneo es el cambio en las películas delgadas, se destinaron 3 intervalos. Considerando el intervalo de 0 a 0.3 como pixeles obscuros y de 0.7 a 1 considerado claro. Con esto se obtuvo que la primera muestra de perovskita a temperatura ambiente (23C) contenía un 99.1% de los pixeles correspondientes al intervalo entre 0.7 a 1, es decir 99.1% de la muestra clara y 0.3 % oscura, por otro lado, al subir la temperatura a 81C se llegó a tener 98.2 % de la muestra obscura. Similar para la segunda muestra, teniendo un 96.3% de la muestra clara en 20C y 98.8% obscura en 96C.


CONCLUSIONES

Con estos resultados puedo concluir que la estructura de perovskita es un material que puede ser considerado útil debido a su baja temperatura de transición y a la homogeneidad que presenta. Desafortunadamente a mi punto de vista, es un material que se degrada muy lentamente y suele ser muy delicado, sin embargo, el efecto termo crómico que se estudió en este verano de investigación fue muy evidente y por ello, esta corta caracterización de las propiedades ópticas fue a mi parecer exitosa.  
Ku Nah Mariana, Universidad Autónoma de Baja California
Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México

ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO Y SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS


ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO Y SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS

Amezcua Hernández Daniela, Universidad Autónoma de Baja California. Castro Gonzalez Yuliana Estefanía, Universidad de Sonora. Ku Nah Mariana, Universidad Autónoma de Baja California. Nova Guinchin Juan Felipe, Universidad de Caldas. Velasquez Salinas Mildreth Mariam, Universidad de Sonora. Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La migración magmática durante el Cretácico tardío-Eoceno, en relación con la subducción de la placa oceánica Farallón bajo la placa norteamericana, es un proceso geológico complejo que aún no se comprende completamente. Esta subducción ha generado magmas que, al ascender, se contaminan con los basamentos precámbricos antiguos presentes en el noroeste de México (Baja California, Sonora y Chihuahua) y el suroeste de Estados Unidos (California, Arizona y Nuevo México). Entender este fenómeno es crucial para reconstruir la evolución tectónica y magmática de estas regiones, ya que la interacción entre los magmas y los basamentos antiguos afecta significativamente la composición final de los magmas, influenciando la formación de minerales y la geología regional. Sin embargo, la caracterización detallada de estos procesos y sus implicaciones geológicas no ha sido completamente documentada. Durante la estancia de verano de investigación, se busca abordar este problema mediante una serie de actividades centradas en la recolección y análisis de muestras geológicas, así como en la capacitación en técnicas avanzadas de geoquímica y geocronología. Estos esfuerzos están dirigidos a proporcionar una comprensión más profunda de cómo la subducción y la contaminación magmática han moldeado la estructura geológica del noroeste de México y el suroeste de Estados Unidos, contribuyendo así a un mayor conocimiento de los procesos tectónicos y magmáticos globales.



METODOLOGÍA

Durante la estancia de verano, se han llevado a cabo diversas actividades enfocadas en la separación mineral para determinar la evaluación de la migración magmática y la contaminación de magmas con basamentos precámbricos. Las principales actividades incluyen: Organización y manejo de muestras: Se ha realizado el inventariado y almacenamiento de muestras geológicas, asegurando una correcta catalogación y preservación de cada muestra para su posterior análisis. Preparación de secciones delgadas: Se han preparado secciones delgadas de rocas plutónicas, permitiendo la observación detallada de las texturas y composiciones minerales mediante técnicas de microscopía. Capacitación en separación mineral: Los estudiantes han recibido entrenamiento en técnicas de separación mineral, esenciales para estudios geocronológicos específicos como U-Pb y Ar-Ar. Este conocimiento es crucial para determinar las edades de cristalización y eventos térmicos de las rocas estudiadas. Preparación de muestras: Las muestras previamente recolectadas se han pulverizado, tamizado, etiquetado y almacenado adecuadamente para su análisis geoquímico. Caracterización de circones: Utilizando métodos de microscopía óptica y electrónica (SEM), se han caracterizad circones, lo cual es fundamental para entender los procesos de cristalización y evolución magmática de las rocas. Seminarios semanales: Se han llevado a cabo seminarios semanales en los que se discuten diversas temáticas relacionadas con el proyecto. Estos seminarios incluyen presentaciones de doctores del instituto, estas ayudan a fomentar el intercambio de conocimientos y el desarrollo de habilidades de comunicación científica. Ablación de zircones: Se han llevado a cabo procesos de ablación láser de zircones para análisis de geoquímica isotópica. Esta técnica permite la medición precisa de las concentraciones de elementos traza y las relaciones isotópicas, proporcionando información crucial sobre la edad de las rocas.


CONCLUSIONES

Hasta el momento, las actividades han permitido una mejor comprensión de los procesos de migración magmática y la interacción de los magmas con los basamentos precámbricos. Se espera que los resultados finales contribuyan significativamente a la geocronología y geoquímica regional, proporcionando datos valiosos para futuros estudios tectónicos y magmáticos. Estos hallazgos podrían ofrecer nuevas perspectivas sobre la evolución geológica de la región y ayudar a resolver preguntas clave sobre la dinámica de subducción y la formación de magmas contaminados.
Kumul Hernández Kevin Divandy, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo

CARACTERIZACIÓN GEOMECANICA DE TALUDES A TRAVES DE FOTOGRAMETRÍA-CANTO CASTILLO-HERNANDEZ DORANTES-KUMUL HERNANDEZ- RODRIGUEZ NAJERA


CARACTERIZACIÓN GEOMECANICA DE TALUDES A TRAVES DE FOTOGRAMETRÍA-CANTO CASTILLO-HERNANDEZ DORANTES-KUMUL HERNANDEZ- RODRIGUEZ NAJERA

Canto Castillo Danna Beatriz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Hernández Dorantes Marvin Aarón, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Kumul Hernández Kevin Divandy, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Rodríguez Nájera Omar Neftalí, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El proyecto “Caracterización geomecánica de taludes a través de fotogrametría” fue seleccionado con el objetivo de aprender nuevas aplicaciones de la mecánica de suelos en diferentes partes del país, ya que esta era la materia de especialidad sobre la que llevamos a cabo nuestro servicio social. Inicialmente, no teníamos muchas expectativas, dado que en nuestra ciudad no se encuentran taludes de grandes dimensiones. Sin embargo, nos dimos cuenta de que la materia base de este proyecto es la mecánica de rocas, una disciplina que no está incluida en nuestra retícula de materias en el Tecnológico de Chetumal. La problemática principal es que la realización de un levantamiento geomecánico convencional de taludes es mucho más tardado y limitado en cuanto al alcance humano. Este método es una nueva forma de realizar estos levantamientos, donde las limitantes humanas han desaparecido, aunque no del todo, gracias a las nuevas tecnologías.



METODOLOGÍA

La primera semana del proyecto estuvo dedicada a comprender los objetivos y el impacto de la metodología propuesta por la M.I.T.N Marsella Gissel Rodríguez Servín (estudiante de doctorado). Se buscaba comparar el método convencional con la aplicación de software (CloudCompare, Discontinuity Set Extractor y Math Lap) para fotogrametría, junto con los métodos geomecánicos y su clasificación para macizos rocosos. El propósito final era proponer soluciones para reforzar taludes cuando fuese necesario, ya que este campo no tiene un estado del arte muy desarrollado y cada proceso publicado está orientado a un propósito específico. Recibimos clases introductorias de “Mecánica de rocas” por el Dr. José Eleazar Arreygue Rocha, quien nos explicó los procedimientos en campo, laboratorio y gabinete. En campo, nos enfocamos en la observación de la tonalidad, rugosidad, discontinuidades y pliegues de las rocas, lo que nos permitió tener una idea general de la litología y el grado de meteorización. La clasificación de la roca prioriza el estudio de las discontinuidades o diaclasas, identificando el tipo, orientación, espaciado, persistencia, rugosidad, tipo de relleno, apertura y presencia de agua. En el laboratorio, trabajamos con la matriz rocosa, realizando pruebas destructivas y no destructivas para obtener valores indispensables para los cálculos posteriores, como resistencia a la compresión uniaxial, densidad, permeabilidad y mineralogía. El trabajo de gabinete consistió en utilizar los datos obtenidos para aplicar cuatro métodos de clasificación: dos aplicables a proyectos genéricos y dos específicos para taludes. Estos métodos incluían el cálculo del RMR (Valoración del macizo rocoso), el índice de calidad de la roca, el sistema de Barton para túneles y la clasificación SMR para taludes. Conforme avanzaron las semanas, nos dedicamos a procesar la información para el análisis de los taludes. Esto implicó delimitar el espacio de trabajo, depurar la vegetación para una mejor visualización, crear nubes de puntos para generar una base del terreno y extraer datos en las diferentes aplicaciones. Estas actividades fueron novedosas para nosotros y requirieron aprender a manejar nuevos formatos de documentos y entender su aplicación en cada proceso. La salida a campo fue uno de los momentos más esperados del proyecto, ya que nos permitió observar un paisaje completamente diferente al de nuestra región. Tuvimos la oportunidad de ver cómo se realiza un levantamiento geomecánico con dron para la recolección de fotos, planificar el vuelo, evaluar la factibilidad del trabajo mediante Google Earth y decidir si el recorrido se hacía manual o predeterminado. Realizamos el análisis de tres taludes por persona, llevando a cabo todos los procesos para clasificarlos y proponiendo métodos de estabilización cuando fuera necesario.


CONCLUSIONES

En conclusión, la línea de investigación "Caracterización geomecánica de taludes a través de fotogrametría" fue una experiencia enriquecedora, ya que nos permitió aprender nuevas aplicaciones de la mecánica de suelos y rocas, áreas no incluidas en nuestro currículo en el Tecnológico de Chetumal. La primera semana proporcionó una base sólida en el método convencional y el uso de software para fotogrametría, esencial para proponer soluciones de estabilización de taludes. Las clases introductorias de mecánica de rocas, junto con el trabajo de campo y laboratorio, fueron fundamentales para comprender los procesos de clasificación y análisis de macizos rocosos. El trabajo práctico y el uso de drones para recolectar datos fotogramétricos ampliaron nuestras habilidades y conocimientos, cabe mencionar que los resultados esperados son que este nuevo método sea de gran ayuda a futuro en este campo de estudio y que sea lo más funcional posible. En resumen, esta experiencia nos ha permitido entender mejor la importancia de la mecánica de rocas y nos ha dotado de herramientas útiles para futuros proyectos de estabilización de taludes en otras partes del país.
Lamas Medina José David, Universidad Autónoma de Coahuila
Asesor: Dr. Ramon Carrillo Bastos, Universidad Autónoma de Baja California

SOLUCIONES A POTENCIALES PERIóDICOS EN MECáNICA CUáNTICA FRACCIONARIA


SOLUCIONES A POTENCIALES PERIóDICOS EN MECáNICA CUáNTICA FRACCIONARIA

Iglesias Arechar Sergio Jesús, Universidad Autónoma de Coahuila. Lamas Medina José David, Universidad Autónoma de Coahuila. Asesor: Dr. Ramon Carrillo Bastos, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La mecánica cuántica ha sido una de las áreas más fascinantes y revolucionarias de la física moderna. Dentro de este campo, la ecuación de Schrödinger juega un papel fundamental en la descripción de sistemas cuánticos. Recientemente, ha surgido un interés creciente en la mecánica cuántica fraccionaria, una extensión de la teoría cuántica que incorpora derivadas fraccionarias. Este enfoque ha abierto nuevas perspectivas para el estudio de fenómenos cuánticos en sistemas complejos y no locales. La ecuación de Schrödinger fraccionaria (ESF) es una generalización de la ecuación clásica, donde las derivadas enteras son reemplazadas por derivadas fraccionarias. El primer objetivo es encontrar soluciones a esta ecuación cuando el sistema está sujeto a un potencial periódico. Estas soluciones permitirán entender mejor cómo se comportan los sistemas cuánticos bajo estas condiciones. El teorema de Bloch es fundamental en la teoría de bandas de los sólidos, describiendo cómo los electrones se mueven en un cristal con un potencial periódico. Este objetivo busca establecer una analogía entre las soluciones obtenidas para la ESF y el teorema de Bloch clásico. Esta comparación podría revelar nuevas propiedades de los sistemas cuánticos fraccionarios y su comportamiento en potenciales periódicos. A través de la obtención y comparación de soluciones, se pretende proporcionar una guía metodológica y conceptual que facilite la exploración y comprensión de esta área emergente.



METODOLOGÍA

Para alcanzar los objetivos de la investigación de desarrollar una teoría que implemente el cálculo fraccionario en la Mecánica Cuántica, se propone la siguiente metodología. Formulación matemática: Se definirá la ecuación de Schrödinger fraccionaria independiente del tiempo (ESFIT) con un potencial periódico. La ecuación se formulará utilizando derivadas fraccionarias en lugar de derivadas enteras. Se describirá el tipo de potencial periódico que se utilizará en el estudio, destacando sus propiedades matemáticas. Propuesta de solución generalizada. Se propondrá una solución generalizada inspirada en el teorema de Bloch clásico. Esta solución deberá tener en cuenta las características de las derivadas fraccionarias y la estructura periódica del potencial. Se derivarán las condiciones matemáticas que deben satisfacerse para que esta solución generalizada sea válida para la ESFIT. Se analizará cómo varían estas condiciones (o la solución en general) con respecto a los parámetros fraccionarios y las propiedades del potencial periódico. Solución numérica. Se consultarán y utilizarán técnicas numéricas avanzadas para resolver la ESFIT planteado como problema de eigenvalores y eigenfunciones, con el método de diferencias finitas aproximado a la derivada fraccional o método de Grünwald-Letnikov. Simulaciones y Validación. Se llevarán a cabo simulaciones numéricas para diversos valores de los parámetros fraccionarios y diferentes configuraciones del potencial periódico. Se validarán los resultados obtenidos comparándolos con soluciones conocidas en el caso clásico (cuando la derivada fraccionaria se reduce a la derivada entera). Análisis e interpretación de los resultados. Se analizarán los patrones de periodicidad de las eigenfunciones obtenidas numéricamente. Se compararán estos patrones con los conocidos en la ecuación de Schrödinger normal. Se identificará cualquier comportamiento nuevo o inesperado en las soluciones fraccionarias. Se interpretarán los resultados explorando las implicaciones de la mecánica cuántica fraccionaria, como los efectos de memoria intrínseco al cálculo fraccionario, en sistemas con potenciales periódicos.


CONCLUSIONES

Con la metodología antes mencionada y con los avances en la teoría desarrollada se pretende proponer una dirección guía para futuras investigaciones implicadas en el estudio de la Mecánica Cuántica fraccionaria. Esta investigación seguirá con la exploración de otros tipos de potenciales periódicos -más allá del estudio del modelo básico que hemos trabajado-, el estudio de sistemas más complejos y la futura extensión del análisis a ecuaciones de Schrödinger dependientes del tiempo. El término de esta investigación pretende consolidar un marco sólido para la comparación de los resultados y solución propuesta con el teorema de Bloch clásico y la exploración de nuevas propiedades, tal como la "memoria", y aplicaciones de la Mecánica Cuántica fraccionaria.
Landeros Quiroz Jazmin Cristal, Universidad de Sonora
Asesor: Dr. Josué Ramírez Ortega, Universidad Veracruzana

TEORíA DE OPERADORES EN ESPACIO DE FUNCIONES


TEORíA DE OPERADORES EN ESPACIO DE FUNCIONES

de la Cruz Martínez Nereyda Wiwiema, Universidad Autónoma de Nayarit. Landeros Quiroz Jazmin Cristal, Universidad de Sonora. Rodriguez Villarreal Victoria, Universidad de Sonora. Asesor: Dr. Josué Ramírez Ortega, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

El propósito de esta investigación es comprender de manera más clara y precisa el análisis funcional partiendo como base del álgebra lineal, haciendo uso de conceptos y resultados simples de espacios con dimensión finita o numerable para poder observar su comportamiento en espacios de dimensión infinita para establecer de qué manera se desarrolla el análisis funcional en las matemáticas. El análisis funcional, también conocido como cálculo funcional, tiene como principal objetivo el estudio de funciones cuyas variables independientes también son funciones, que son más conocidos como funcionales. Es importante tener en cuenta que se requieren ciertos conocimientos previos como la teoría de funciones de una o varias variables, incluyendo series y sucesiones, diferenciación total y parcial, integración de Riemann, así como tener desarrollado el Álgebra Lineal y cierta parte del Análisis de Fourier.  Se espera que al terminar el proceso de investigación se tengan las bases de esta área de las matemáticas establecidas de manera clara.



METODOLOGÍA

La metodología empleada durante el proceso de investigación fueron sesiones de dos horas con el investigador donde se nos brindó un apoyo para ir comenzando a sentar bases en lo que respecta a el Análisis Funcional, es decir, nos introducía conceptos con ejemplos básicos para después llevarlo a un nivel más elevado con ejemplos no tan intuitivos.  El asesor dio inicio proporcionando los temas de álgebra lineal relacionados con bases, transformaciones lineales y su representación matricial, esto con el fin de recordar los temas ya vistos en cursos anteriores y de esta manera facilitar su relación con el análisis funcional. Una vez dada esa introducción se comenzó a trabajar con las propiedades del producto interno, así como la forma de la construcción de bases ortonormales. En este punto se estudió el proceso de ortogonalización de Gram-Schmidt y la alternativa en espacios de Hilbert de dimensión infinita para construir bases. Más adelante nos adentramos al teorema de representación de Riesz, la involución y sus propiedades, de la misma forma conocimos la estructura algebraica y topológica de los operadores acotados en un espacio de Hilbert, se analizó el concepto de un operador acotado y se realizaron algunos ejemplos. Se estudiaron detalladamente los operadores unitarios, evidenciando su importancia respecto a la modificación de sistemas de referencia o de bases ortonormales en los espacios de Hilbert. Teniendo ya estos conocimientos previos realizamos algunos ejemplos de espacios de Hilbert y operadores acotados, también pudimos conocer la línea de investigación sobre el estudio de los espacios de funciones holomorfas y de los operadores de Toeplitz. Estudiamos los fundamentos del análisis funcional los cuales están relacionados con los teoremas espectrales, investigamos sobre dicho teorema espectral para operadores compactos auto-adjuntos. Hicimos énfasis en los operadores integrales de tipo Volterra y de Fredholm. Para finalizar, realizamos un estudio sobre los problemas de Sturm-Liouville, analizamos la equivalencia con el problema de la solución de una ecuación integral y aplicamos el teorema espectral para resolver el problema de Sturm-Liouville


CONCLUSIONES

Durante la estancia, se exploraron diversos conceptos avanzados en matemáticas y teoría de matrices, entre los que destacan: Espectro de una Transformación: Este concepto se refiere al conjunto de raíces del polinomio característico de la matriz que representa dicha transformación.  Teoremas Espectrales: Estos teoremas son fundamentales para descomponer matrices en formas más simples y estudiar sus propiedades algebraicas y geométricas. Grupo O(n): Este grupo representa el conjunto de todas las matrices ortogonales B en el espacio Rn que satisfacen la relación B-1=Bt. Las matrices en este grupo preservan la norma y los ángulos. Definición de Grupos de Lie: Los Grupos de Lie son estructuras algebraicas que combinan las propiedades de los grupos y las variedades diferenciables.  Resolución de Sistemas de Ecuaciones Lineales: Se abordó el proceso para encontrar soluciones de sistemas de ecuaciones lineales de la forma AX=Y, donde A es una matriz dada, X es el vector de incógnitas, y Y es el vector de términos constantes.  Proceso de Ortogonalización de Gram-Schmidt: Se estudió este método para construir bases ortonormales en espacios vectoriales, particularmente en aquellos con bases numerables. Este proceso transforma una base arbitraria en una base ortonormal. Complemento Ortogonal: Se exploró el concepto de complemento ortogonal de un subespacio en un espacio vectorial, que incluye todos los vectores ortogonales al subespacio dado.  Conjuntos Parcialmente Ordenados: Se revisaron los conjuntos parcialmente ordenados, en los que no todos los elementos están necesariamente comparados entre sí, pero existe una relación de orden que permite comparar algunos pares de elementos.  Lema de Zorn: Este lema es un principio fundamental en teoría de conjuntos que se utiliza para demostrar la existencia de ciertos tipos de elementos en estructuras algebraicas y ordenadas.  Espacios de Bergman: Se estudiaron los espacios de Bergman, que son subespacios de funciones analíticas en un dominio ( U ) que además son cuadrado integrables.  Teorema de Representación de Riesz: Este teorema establece una correspondencia entre los funcionales lineales continuos sobre un espacio de Hilbert y los vectores de ese espacio.  Operadores Acotados: Se analizó la teoría de operadores acotados y las operaciones entre ellos, incluyendo la adición y la composición. Los operadores acotados son fundamentales en el análisis funcional y en la teoría de espacios de Banach. Involución: Se estudió el concepto de involución, que en el contexto de álgebra lineal y teoría de operadores se refiere a una operación que, al aplicarse dos veces, devuelve el elemento original.
Lara Quintero Juan Guillermo, Universidad de Sonora
Asesor: Dr. Joel Carvajal Soto, Universidad de Sonora

DESARROLLO DE UNA METODOLOGíA PARA LA OBTENCIóN DE ESPECTROS DE RESPUESTA SíSMICA: ESTUDIO DEL TERREMOTO DE EL CENTRO 1940


DESARROLLO DE UNA METODOLOGíA PARA LA OBTENCIóN DE ESPECTROS DE RESPUESTA SíSMICA: ESTUDIO DEL TERREMOTO DE EL CENTRO 1940

Lara Quintero Juan Guillermo, Universidad de Sonora. Asesor: Dr. Joel Carvajal Soto, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El sismo de El Centro ocurrido en 1940 es uno de los eventos sísmicos más estudiados debido a su impacto significativo y a la calidad de los datos obtenidos. La obtención de espectros de respuesta sísmica para este evento es crucial para entender cómo las estructuras pueden responder a diferentes niveles de intensidad sísmica y para mejorar los diseños estructurales frente a futuros sismos. Dada la importancia de este sismo y la riqueza de datos disponibles, se plantea la necesidad de desarrollar una metodología detallada y precisa para obtener los espectros de respuesta sísmica. Para llevar a cabo este estudio, se requiere comprender y modelar la respuesta dinámica de estructuras representativas bajo la acción de las aceleraciones registradas durante el sismo de El Centro de 1940, utilizando herramientas matemáticas y de simulación. Esto incluye el análisis de acelerogramas, la integración numérica para obtener velocidades y desplazamientos, y la evaluación de las respuestas de sistemas de un grado de libertad (SDOF) sometidos a las excitaciones sísmicas registradas por medio de programas.



METODOLOGÍA

Para obtener espectros de respuesta sísmica del sismo de El Centro de 1940, se debe seguir una metodología que abarca desde la obtención de datos del terremoto hasta el análisis de los resultados. Se adquirieron los registros de aceleración del suelo del sismo de El Centro de 1940. Estos registros pueden obtenerse de bases de datos sísmicas internacionales, como el PEER (Pacific Earthquake Engineering Research Center). Después se verifico que el registro esté en un formato adecuado (por ejemplo, aceleración en m/s² en función del tiempo en segundos) y que tenga una frecuencia de muestreo suficiente para capturar la dinámica del movimiento. A su vez, se recopiló información relevante sobre el sismo, como su magnitud, profundidad, localización del epicentro y tipo de falla. Análisis de respuesta dinámica en modelo de SDOF (Sistema de Un Grado de Libertad):  Se utilizó la ecuación de movimiento, esta fue resuelta mediante métodos numéricos como el método de Newmark o Runge-Kutta, para obtener las respuestas en términos de desplazamiento, velocidad y aceleración de la estructura. Se establecieron los parámetros necesarios para su correcto análisis: Masa: Se asume una masa unitaria (m = 1 kg) para simplificación. Amortiguamiento: Usar un amortiguamiento típico del 2%  Períodos de Interés: Definir un rango de períodos naturales de vibración desde 0.1 segundos hasta 4.0 segundos, con incrementos de 0.2 segundos. Como implemento computacional, se utilizó el software de análisis estructural MATLAB para realizar los cálculos, y generar el acelerograma y los espectros de respuesta de desplazamiento, aceleración y velocidad.


CONCLUSIONES

La metodología desarrollada para la obtención de espectros de respuesta sísmica del sismo de El Centro de 1940 proporciona un enfoque sistemático y detallado para analizar la respuesta de estructuras ante eventos sísmicos. A través de la integración numérica y la solución de ecuaciones de movimiento, se puede obtener información crítica sobre las aceleraciones, velocidades y desplazamientos máximos experimentados por las estructuras. Estos datos son fundamentales para el diseño sísmico y la evaluación de edificaciones, permitiendo la implementación de medidas de ingeniería que aumenten la resiliencia estructural y minimicen el riesgo de daños en futuros eventos sísmicos. La aplicación de esta metodología puede extenderse a otros registros sísmicos, proporcionando una herramienta versátil y robusta para la ingeniería sísmica.
Lares de la Torre Roberto Alejandro, Universidad de Guadalajara
Asesor: Dra. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)

CARACTERIZACIóN DE GUíAS DE ONDA FABRICADAS MEDIANTE ESCRITURA DIRECTA CON LáSER DE FEMTOSEGUNDOS


CARACTERIZACIóN DE GUíAS DE ONDA FABRICADAS MEDIANTE ESCRITURA DIRECTA CON LáSER DE FEMTOSEGUNDOS

Lares de la Torre Roberto Alejandro, Universidad de Guadalajara. Asesor: Dra. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El avance tecnológico genera nuevas necesidades, destacando la creación de dispositivos más pequeños y rápidos. Históricamente, esto se ha logrado con componentes eléctricos, pero la miniaturización ha llegado a un límite, impulsando la búsqueda de alternativas como la óptica integrada, un concepto de finales de los años 60. La óptica integrada ofrece ventajas como inmunidad a interferencias electromagnéticas, gran ancho de banda y capacidad de multiplexación. Las guías de onda son elementos esenciales en la óptica integrada, confinando ondas electromagnéticas mediante reflexión interna total, que ocurre porque el índice de refracción dentro de la guía es mayor que el del material circundante. En esta investigación, se caracterizaron guías de onda de acuerdo con sus parámetros de grabado, las cuales fueron fabricadas mediante escritura en vidrio con un láser de femtosegundo. Esta técnica desarrollada en Japón en 1996 consiste en enfocar un láser de alta densidad energética a través de un microscopio hacia un sustrato de vidrio, creando líneas cilíndricas de daño que alteran el índice de refracción para generar confinamiento dentro de la guía.



METODOLOGÍA

Se caracterizaron guías de onda fabricadas previamente mediante escritura láser contando con dos variantes, un barrido en la velocidad de grabado y otro en la profundidad de grabado. En las pruebas de velocidad, se evaluaron 36 guías de onda a una profundidad de 200 μm con energías de 1 y 2 μJ. Se realizaron doce grupos de tres guías cada uno. En el primer grupo, la energía utilizada fue de 1 μJ y la velocidad de grabado fue de 100 μm/s. En el segundo grupo, la energía fue de 1 μJ y la velocidad de grabado fue de 200 μm/s. En el tercer grupo, la energía fue de 1 μJ y la velocidad de grabado fue de 300 μm/s. Este patrón continuó incrementando la velocidad de grabado en 100 μm/s hasta llegar al sexto grupo, donde la velocidad fue de 600 μm/s. Luego, se repitieron estos mismos seis grupos, pero utilizando una energía de 2 μJ. Para las pruebas de profundidad, se evaluaron 24 guías con una velocidad constante de 400 μm/s y energías de 1 y 2 μJ. Se realizaron seis grupos de dos guías cada uno. En el primer grupo, la energía utilizada fue de 1 μJ y la profundidad de grabado fue de 100 μm. En el segundo grupo, la energía fue de 1 μJ y la profundidad de grabado fue de 200 μm. Este patrón continuó incrementando la profundidad de grabado en 100 μm hasta llegar al sexto grupo, donde la profundidad fue de 600 μm. Luego, se repitieron estos mismos seis grupos, pero utilizando una energía de 2 μJ. El primer paso en la caracterización de las guías fue determinar las dimensiones de sus modos mediante el método del campo cercano, utilizando un láser de helio-neón con una longitud de onda de 633 nm. Se emplearon objetivos de microscopio de 10X y 20X como lentes y un iris para limitar la salida del haz al modo de la guía. Se alineó adecuadamente el sistema y se usó un perfilador de haz con cámara CCD para observar y medir el tamaño de los modos generados. Además, se midió la potencia a la salida con un medidor de potencia para el posterior cálculo de pérdidas. Las imágenes de los modos se capturaron a escala de grises para su procesamiento posterior. Utilizando Matlab y el método del parámetro V, se obtuvo numéricamente el índice de refracción efectivo de las guías de onda. Se realizó un barrido en V para obtener la frecuencia normalizada y, utilizando ecuaciones específicas, se calculó el índice de refracción para cada guía. Asimismo, se obtuvo el perfil de índice de refracción generado en cada guía mediante el procesamiento de imágenes en Matlab, normalizando las imágenes y aplicando la raíz de la intensidad para obtener el campo eléctrico y aplicando la ecuación de Helmholtz, se graficó el resultado para obtener visualmente el perfil de cada guía de onda.   Finalmente, para conocer las pérdidas, se partió por calcular la transmitancia en las guías de onda, así como el coeficiente de pérdidas por acoplamiento y la eficiencia de los modos transversales utilizando un sistema en Excel. Tomando la calidad de alineación como perfecta y considerando el modo de las guías como simétrico, se obtuvo el coeficiente de pérdidas por propagación (α).


CONCLUSIONES

Después de la caracterización de las guías de onda se obtuvieron varias conclusiones significativas. En primer lugar, se identificaron las condiciones óptimas para lograr un confinamiento efectivo de la luz dentro de la guía y mantener un comportamiento monomodal. Específicamente, se encontró que velocidades de grabado superiores a 300 μm/s y profundidades menores a 400 μm son ideales para conseguir un cambio efectivo en el índice de refracción y un perfil de índice escalonado. Además, se observó que, aunque estas condiciones de grabado resultan en unas ciertas características satisfactorias, la técnica empleada presenta una mayor pérdida en comparación con otros métodos. Este fenómeno se debe a la naturaleza de la técnica de escritura láser, que, a pesar de sus ventajas, puede introducir pérdidas significativas.
Larios Gonzalez Maria Karime, Universidad de Guadalajara
Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla

ANáLISIS BIBLIOMéTRICO SOBRE LA RELACIóN DE LA HUMEDAD RELATIVA, LA TEMPERATURA Y LAS CONCENTRACIONES DE MATERIAL PARTICULADO (PM) CON BASE EN ESTUDIOS CIENTíFICOS DE LA úLTIMA DéCADA EN DIVERSAS CIUDADES DEL MUNDO.


ANáLISIS BIBLIOMéTRICO SOBRE LA RELACIóN DE LA HUMEDAD RELATIVA, LA TEMPERATURA Y LAS CONCENTRACIONES DE MATERIAL PARTICULADO (PM) CON BASE EN ESTUDIOS CIENTíFICOS DE LA úLTIMA DéCADA EN DIVERSAS CIUDADES DEL MUNDO.

Larios Gonzalez Maria Karime, Universidad de Guadalajara. Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La contaminación por material particulado de diámetros menores a 2.5 micrómetros (PM2.5) es un problema crítico para la salud y el entorno a nivel global. Es esencial investigar como las variables meteorológicas, como la humedad relativa (RH) y la temperatura (T), influyen en las concentraciones de PM2.5.



METODOLOGÍA

En este trabajo se realizó una revisión bibliométrica de 1,381 documentos (artículos; datos, acceso temprano, académicos, conferencias y revisión, material editorial y capítulos de libros) publicados en una la última década (2013-2023), obtenidos de la base de datos Web of Science para investigar la relación entre RH, T y PM2.5 en distintas ciudades del mundo. Se empleo la herramienta Bibliometrix implementada en RStudio para elaborar tablas y gráficas de la actividad científica de los 10 países y autores más activos.


CONCLUSIONES

La mayoría de las investigaciones se realizaron en regiones asiáticas y europeas, resaltando la necesidad de más estudios en Latinoamérica. Así mismo, China lidera la producción científica durante la década analizada con 656 artículos, seguida por Estados Unidos e India, siendo el país más citado con un promedio de 22,559 citas por artículo. En la discusión de los 10 documentos más citados, la humedad relativa y la temperatura tienen relaciones tanto directas como indirectas con PM2.5. En general, se encontró que un aumento en la humedad relativa puede llevar a una reducción de PM2.5. Sin embargo, la temperatura muestra una relación más compleja con las concentraciones de PM2.5 en climas cálidos y fríos. Estos hallazgos subrayan la necesidad de considerar las condiciones meteorológicas al desarrollar estrategias para mejorar y controlar la contaminación del aire.
Lemus Magaña Diego Alejandro, Instituto Tecnológico de Morelia
Asesor: Dr. Irving Josué González Chan, Universidad Autónoma de Yucatán

SíNTESIS VERDE Y CARACTERIZACIóN DE NANOPARTíCULAS DE ZNO DOPADAS CON PLATA


SíNTESIS VERDE Y CARACTERIZACIóN DE NANOPARTíCULAS DE ZNO DOPADAS CON PLATA

Lemus Magaña Diego Alejandro, Instituto Tecnológico de Morelia. Asesor: Dr. Irving Josué González Chan, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, la nanotecnología ha surgido como una alternativa para el tratamiento de aguas. Los problemas de contaminación ambiental requieren innovaciones constantes en la remediación y tratamiento de recursos naturales, siendo el agua uno de los más frágiles. La nanotecnología promete soluciones a largo plazo para la contaminación del agua mediante técnicas como la filtración, el uso de nanopartículas en fotocatálisis y la desalinización. La síntesis de nanomateriales puede realizarse de diversas formas, incluyendo la síntesis verde, que ofrece ventajas como el respeto al medio ambiente, rentabilidad, biocompatibilidad y seguridad. El ZnO, un semiconductor con amplia banda prohibida puede actuar como catalizador en la descomposición de contaminantes en agua y aire. Este estudio investiga el efecto del dopaje con plata en las nanopartículas de ZnO obtenidas a través de extractos de naranja agria, analizando las modificaciones en sus propiedades estructurales, ópticas y químicas para su aplicación en filtración fotocatalítica.



METODOLOGÍA

Obtención y preparación de las naranjas Se lavaron las naranjas con agua destilada, se cortó la cáscara (exocarpo) y se secó. Una vez secas y quebradizas, se trituraron hasta obtener un polvo fino.   Extracción asistida por ultrasonido Se pesaron 3 g de polvo de cáscara de naranja en un vaso de precipitados con 50 mL de una solución de metanol-agua al 50%. La mezcla se sometió a ultrasonido a 20 kHz por 15 min, y se filtró con bomba de vacío y embudo Buchner con filtro Whatman #2..   Reducción de la sal El extracto se calentó con agitación magnética a 60 °C, se añadieron 25 mL de jugo de naranja y 2.5 g de acetato de zinc, cambiando la solución a un color amarillo claro.   Dopado Se añadió nitrato de plata como dopante al 10% de la masa de acetato de zinc, cambiando la solución a negro. La mezcla se calentó a 60 °C por una hora con agitación magnética, se filtró y se obtuvo un precipitado denso de nanopartículas.   Recuperación de las nanopartículas (secado y descomposición térmica) Los precipitados se secaron a 105 °C por una hora, luego se calcinó a 800 °C por otra hora. El polvo resultante, de color grisáceo y textura ultrafina, se almacenó para análisis posterior. Caracterización por Difracción de Rayos X (XRD) Se realizó con un difractómetro Bruker D8 ADVANCE, irradiando con 40 kV utilizando un tubo de cobre Kα1.   Caracterización por Espectroscopía de Ultravioleta   Visible (UV-Vis) Se analizó la absorción de las nanopartículas de ZnO dopadas y sin dopar, usando un espectrofotómetro Jasco 750 en un rango de 190 a 900 nm.   Caracterización por espectroscopía fotoelectrónica de rayos X (XPS) Se utilizó un equipo K-alpha Thermo Scientific para analizar la composición a profundidades de 5-10 nm. Se realizó una erosión de 15 segundos para eliminar contaminación superficial y un barrido de alta resolución con una fuente de aluminio Kα entre 0 y 1350 eV.


CONCLUSIONES

La síntesis verde demostró ser una alternativa ambientalmente amigable para producir nanopartículas de ZnO dopadas con plata. Los análisis mostraron que el dopaje con plata afecta la intensidad de los picos en el XRD, indicando una alta cristalinidad y la formación de ZnO en forma de zincita. La espectroscopía UV-Vis reveló una fuerte absorbancia cerca de 420 nm en las muestras sin dopar y un desplazamiento a 390 nm en las dopadas, confirmando la síntesis correcta y un pequeño cambio en la pendiente de la curva. El XPS mostró oxígeno presente como óxido metálico y fosfato, siendo más abundante el óxido metálico (ZnO). La señal de la plata alrededor de 368 eV sugirió su presencia como metal en un 1.19%, confirmando el dopaje. A pesar de que queda pendiente evaluar su efecto en pruebas de limpieza de aguas, se espera que el comportamiento bajo luz UV sea similar al de las nanopartículas sin dopar, con posibilidades de variar el dopaje para analizar cambios en la eficiencia.
Leon Higuera Carlos Adrian, Universidad Autónoma de Baja California
Asesor: Dr. Julio César López Domínguez, Universidad Autónoma de Zacatecas

PROPUESTA DE UN MODELO COSMOLóGICO BASADO EN LA GRAVEDAD ENTRóPICA: ANáLISIS DINáMICO Y COMPARACIóN CON EL MODELO COSMOLóGICO ESTáNDAR


PROPUESTA DE UN MODELO COSMOLóGICO BASADO EN LA GRAVEDAD ENTRóPICA: ANáLISIS DINáMICO Y COMPARACIóN CON EL MODELO COSMOLóGICO ESTáNDAR

Leon Higuera Carlos Adrian, Universidad Autónoma de Baja California. Asesor: Dr. Julio César López Domínguez, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Este trabajo aborda la necesidad de explorar alternativas al modelo cosmológico estándar, específicamente en relación con la constante cosmológica. En este contexto, se propone un modelo cosmológico basado en la gravedad entrópica, que busca explicar la expansión acelerada del universo sin la necesidad de una constante cosmológica explícita. La pregunta central que guía esta investigación es: ¿puede un enfoque basado en la gravedad entrópica ofrecer una descripción completa y consistente del universo, comparable o superior al modelo estándar en cuanto a su capacidad para describir la dinámica del cosmos?



METODOLOGÍA

Primero se estudiaron los conceptos básicos de cosmología, como lo son el principio cosmológico, el fondo cósmico de microondas, el corrimiento al rojo de las galaxias, entre otros. Se realizó una revisión exhaustiva de la métrica de Friedman-Robertson-Walker (FRW), que es fundamental en el modelo cosmológico estándar. Esta métrica describe un universo homogéneo e isótropo y se utilizó como punto de partida para comparar las predicciones del modelo estándar con las del nuevo modelo propuesto basado en la gravedad entrópica. A continuación, se procedió a derivar las ecuaciones de Friedmann, que son las ecuaciones fundamentales que gobiernan la dinámica del universo en expansión.  Al obtener las ecuaciones de Friedmann, se solucionaro primero para casos partículares de manera analítica, hasta finalmente utilizar las herramientas de sistemas dinámicos, para solucionar e interpretar el modelo cosmológico estándar. Luego, se incorporaron conceptos clave de la gravedad entrópica, en particular la propuesta de Verlinde, que sugiere que la gravedad no es una fuerza fundamental sino una manifestación entrópica. En esta parte de la investigación, se utilizó una nueva ecuación Friedmann modificada proveniente de este modelo y se analizó cómo este enfoque modifica la relación entre el corrimiento al rojo y los parámetros cosmológicos. Después, se modeló el contenido de materia del universo bajo este nuevo enfoque. Esto implicó definir los parámetros de densidad de materia y estudiar su evolución en el tiempo. Para evaluar la viabilidad del modelo entrópico, se compararon estos resultados con los del modelo estándar, identificando diferencias significativas en cómo cada modelo describe la historia y la estructura del universo. Finalmente, se desarrolló un análisis de sistemas dinámicos para el nuevo modelo propuesto. Se estableció un conjunto de ecuaciones diferenciales acopladas que describen la evolución temporal de las densidades de materia y energía en el universo. A través de este análisis, se identificaron soluciones y atractores en el espacio fase, que permiten predecir el comportamiento a largo plazo del universo según la teoría de la gravedad entrópica.


CONCLUSIONES

El estudio sugiere que el modelo cosmológico entrópico utilizado es una alternativa viable al modelo estándar, al menos en un contexto teórico. Este modelo elimina la necesidad de una constante cosmológica, explicando la expansión acelerada del universo a partir de principios entrópicos. Se observan algunas similitudes con el modelo cosmológico estándar, explicando como la interpretación de la energía oscura, puede deberse a un origen diferente al que se ha propuesto antes. Sin embargo, se reconoce que se requieren estudios adicionales para refinar el modelo y contrastarlo más exhaustivamente con datos observacionales.
Leon Navarrete Fabiola Dahalay, Universidad Politécnica de Sinaloa
Asesor: Dra. Karol Yesenia Hernández Giottonini, Universidad de Sonora

INVESTIGACIóN EN EL DESARROLLO DE NANOMATERIALES Y SUS APLICACIONES BIOMéDICAS EN ENFERMEDADES RECURRENTES.


INVESTIGACIóN EN EL DESARROLLO DE NANOMATERIALES Y SUS APLICACIONES BIOMéDICAS EN ENFERMEDADES RECURRENTES.

Leon Navarrete Fabiola Dahalay, Universidad Politécnica de Sinaloa. Asesor: Dra. Karol Yesenia Hernández Giottonini, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Las enfermedades recurrentes representan un desafío significativo para la salud pública, ya que afectan a un gran número de personas y, a menudo, requieren tratamientos prolongados y complejos. La búsqueda de soluciones innovadoras ha llevado al interés en los nanomateriales, que pueden ofrecer nuevas estrategias terapéuticas y mejorar la eficacia de los tratamientos existentes. Sin embargo, la investigación sobre las aplicaciones biomédicas de estos materiales aún está en desarrollo, y es fundamental comprender su potencial y las barreras que pueden existir en su implementación.



METODOLOGÍA

• Análisis de los conceptos fundamentales en nanociencias y su relevancia en el campo biomédico.   • Investigación de diversos métodos de síntesis de nanomateriales, así como las técnicas de caracterización utilizadas para evaluar sus propiedades.   • Se vio la aplicaciones de nanomateriales en el tratamiento de enfermedades recurrentes, enfocándose en su funcionalidad y eficacia.   • Visualización de diversos equipos de laboratorio utilizados para realizar síntesis o caracterización de nanomateriales.


CONCLUSIONES

Durante esta fase de investigación, se adquirieron conocimientos fundamentales sobre los principios de la nanotecnología y la nanomedicina, así como sobre la relevancia y el ámbito de aplicación de los nanomateriales. Además, se trabajó en la investigación de síntesis de nanomateriales y sus usos biomédicos en enfermedades recurrentes. A lo largo del verano, también se desarrollaron habilidades en el análisis de literatura científica, desarrollo de hipótesis y otros aspectos esenciales del proceso científico.
León Rocha José Mauricio, Benemérita Universidad Autónoma de Puebla
Asesor: Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz

SISTEMAS CIRCUMBINARIOS Y EL PROBLEMA DE 3 CUERPOS


SISTEMAS CIRCUMBINARIOS Y EL PROBLEMA DE 3 CUERPOS

García Chávez Emilio Gael, Universidad de Guadalajara. León Rocha José Mauricio, Benemérita Universidad Autónoma de Puebla. Asesor: Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

A partir del tratamiento matematico para el problema de 3 cuerpos, se buscó conocer a profundidad a los sistemas solares de dos estrellas y un exoplaneta.



METODOLOGÍA

Se realizó una investigación rigurosa de los sistemas de estrellas binarias eclipsantes con el uso de herramientas como arxiv e inteligencia artificial para la obtención de articulos referentes al tema tratado. Además con el uso de python y mathlab se realizaron modelos que contrastaran con la información obtenida de los sistemas circumbinarios mediante la observación de misiones como la de GAIA y Kepler.


CONCLUSIONES

Desde el descubrimiento de los sistemas circumbinarios hasta la actualidad, estos han demostrado ser grandes manantiales de informaci ́on para la astronom ́ıa, en cuanto a medici ́on se refiere nos otorgan la posibilidad de una gran presici ́on sobre el tama ̃no y peso, tanto de estrellas como de exoplanetas. Al mismo tiempo se ha observado que los planetas circumbinarios son excelentes candidatos para encontrar vida m ́as all ́a de nuestro sistema solar debido a su esta- bilidad orbital, su flojo estellar y la luminocidad de las estrellas binarias.  
Loera Lafont Serrano Ana Lucía, Universidad Autónoma de Baja California
Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla

DESARROLLO METODOLóGICO DE UN ANáLISIS FíSICO-SOCIAL Y CLIMáTICO DE MUNICIPIOS VULNERABLES ANTE ALGúN RIESGO EN EL ESTADO DE PUEBLA (CASO DE ESTUDIO SIERRA NORTE Y VOLCáN POPOCATéPETL)


DESARROLLO METODOLóGICO DE UN ANáLISIS FíSICO-SOCIAL Y CLIMáTICO DE MUNICIPIOS VULNERABLES ANTE ALGúN RIESGO EN EL ESTADO DE PUEBLA (CASO DE ESTUDIO SIERRA NORTE Y VOLCáN POPOCATéPETL)

Loera Lafont Serrano Ana Lucía, Universidad Autónoma de Baja California. Mazorra Renza Mariana, Universidad de Caldas. Millan Salgado Ariadna Carmin, Universidad Autónoma de Guerrero. Villalobos Vazquez Consuelo, Universidad Autónoma de Baja California. Zarza Vilchis Miriam Paola, Universidad Autónoma del Estado de México. Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El riesgo, mide que tan probable es que se presente un suceso o evento en un lugar específico. Este suele poner en peligro la condición de los habitantes, lo que los convierte en una población vulnerable. El Estado de Puebla, según la Secretaría de Medio Ambiente, Desarrollo Sustentable y Ordenamiento Territorial (2019-2024), nos dice que el Estado de Puebla se ha visto muy afectado por la actividad sísmica y volcánica, en donde la actividad sísmica se vuelve constante y que cada 3 o 5 años genera daños catastróficos. De igual forma se presentan deslizamientos de laderas, incendios e inundaciones provocando así pérdidas tanto económicas como humanas. Esta problemática se presenta en la Sierra Norte y en el Volcán Popocatépetl, en donde en este verano de investigación se obtienen y procesan datos que nos permitan entender el comportamiento del medio con la sociedad, y con ello poder determinar posibles riesgos para que las autoridades correspondientes puedan tomar decisiones a futuro.



METODOLOGÍA

Se llevó a cabo la delimitación del volcán Popocatépetl, para eso se hizo uso del software libre Google Earth Pro, en el cual se delimitaron 40 km de radio a partir del cráter y se guardó como archivo kml, mismo que nos permite visualizar información en un contexto geográfico, ya que puede contener datos de entidades de diferentes tipos de geometría y puede ser en formato vectorial y ráster. En el software libre QGIS, se obtuvo el polígono del cráter del volcán a partir del archivo kml, el cual se reproyecto considerando el correspondiente al Estado de Puebla (EPSG: 32614-WGS 84 / UTM zona 14N). A través del Continuo de Elevaciones Mexicano (INEGI), se obtuvieron los DEM de los cinco Estados (Estado de México, Ciudad de México, Puebla, Tlaxcala y Morelos) que conforman el radio de interés. En el software de QGIS se reproyectaron y se agregaron al software de ArcMap, en el cual se realizó la unión de estos a un archivo ráster y con la capa del polígono se hizo un corte para obtener solo el radio de interés. Derivado de lo anterior se obtuvieron las curvas de nivel, las cuales nos permiten visualizar como se encuentra la superficie, es decir si es una zona plana o inclinada, al igual que las diferentes alturas y geoformas como valles, entre otros, para así poder entender el comportamiento de cierto espacio. También se calculó el área y perímetro, con la finalidad de saber que tanto espacio abarca la zona de estudio. Por medio del uso de un TIN (Triangular Irregular Network), el cual es un medio digital usado para poder representar la morfología de la superficie, se obtuvo el volumen a partir de un punto de referencia, que en este caso fue la cota de los 2000 msnm. Se llevó a cabo la obtención de pendientes, tanto en grados como en porcentaje por medio del DEM del área de estudio, esto para saber la inclinación que tiene la superficie. Se obtuvieron datos de la página del Censo de Población y Vivienda, 2020 del Instituto Nacional de Estadística y Geografía (INEGI), esto para saber que tanta población podrían encontrarse en una condición vulnerable ante algún riesgo, ya sea natural o antrópico en el Estado de Puebla. Los datos que se utilizaron son: Total de población. Total de población femenina y masculina. Total de población con discapacidades. Total de población que cuentan y no con servicios de salud Total de viviendas. Total de viviendas particulares habitadas con o sin modos de transporte. Total de viviendas particulares habitadas que disponen y no de energía eléctrica. Total de viviendas particulares habitadas que disponen de algún bien. En el software de QGIS se realizó la unión de la base de datos con el shape de los municipios del Estado, el cual se obtuvo del Marco Geoestadístico de INEGI. Dentro del radio de los 40 km, se seleccionaron los municipios de interés y se exportó esa información como capa shape y se reproyecto. Por medio de la Red Nacional de Caminos del Instituto Mexicano del Transporte, el cual se procesó en QGIS, se obtuvieron las vías de comunicación del Estado y de los municipios de interés, con la finalidad de conocer la superficie de rodamiento, es decir, si estas se encuentran pavimentadas, sin pavimento o si es diferente a una carretera o camino. Derivado de lo anterior, se procedió a realizar la cartografía correspondiente para un análisis de contexto social de los municipios de interés, esto para poder entender por medio de mapas el comportamiento de la población ante diferente variable.


CONCLUSIONES

Por medio de este estudio, se espera poder comprender y realizar un análisis de la condición física, social y climática en la que se encuentran ciertos municipios, considerando las diferentes zonas de estudio y junto con ello poder brindar la información necesaria ante posibles riesgos que presenta el medio y la sociedad a las autoridades correspondientes y a la misma población, para que en futuras tomas de decisiones el bien de la población sea lo primordial en el Estado.
Lopez Cesareo Carlos Eduardo, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Ma. Estela Calixto Rodríguez, Benemérita Universidad Autónoma de Puebla

DEPóSITO DE CUINSE2 EN PELíCULAS DELGADAS


DEPóSITO DE CUINSE2 EN PELíCULAS DELGADAS

Lopez Cesareo Carlos Eduardo, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Ma. Estela Calixto Rodríguez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Estudiar péliculas de CIGS es relevante para la fabricación de páneles solares de segunda generación pues en esta capa se produce la absorción óptica útil, un elemento interesante perteneciente al CIGS según la formula CuIn_{1-x}Ga_xSe2 es cuando x = 0, el CuInSe2. En este trabajo se hizo una disolución conteniendo LiCl, CuCl2, InCl3 y H2SeO3 para poder depositar CuInSe2 sobre un sustrato hecho de vidrio de soda-lima y recubierto con FTO, se usó el electrodepósito como método para depositar el material preparado en la disolución mencionada, así se obtendrán 9 placas a distintos tiempos de depósito que nos servirán de material de estudio.



METODOLOGÍA

Se utilizó el electrodeposito para formar la pelicula de CuInSe2 sobre nuestros sustratos, que son rectángulos de vidrio de soda-lima de 2cm x 1cm con una cara recubierta con FTO, estos sustratos fueron lavados con jabón neutro y enjuagados con agua desionizada para después ser secados con nitrógeno. Se usó una celda de tres electrodos y conectamos el ánodo a la malla de platino, el cátodo al sustrato y en el tercer contacto se usó para poner un electrodo de referencia de Ag/AgCl para después sumergir el sistema en el electrolito. El electrolito utilizado contiene 236 mM LiCl, 2.5mM CuCl2, 2.4 mM InCl3 y 4.5 mM H2SeO3, así procedimos a realizar dos voltametrías cíclicas de dos ciclos en el intervalo de -1 V a 0V vs Ag/AgCl para saber a qué potencial debíamos depositar nuestro material, luego en el voltaje en donde se encuentra el pico de reducción se realizó el depósito para los tiempos de 1, 5, 10, 15, 20, 25, 30, 40 y 50 minutos a una temperatura de 25°C para después ser secados con nitrógeno y guardados en pomaderas. Posteriormente se analizaron las películas, se midieron las transmitancias, se midieron los espesores de las películas, se analizaron con la prueba de Raman, se obtuvieron imágenes con un microscopio óptico de 50 aumentos.


CONCLUSIONES

El depósito de material fue exitoso sin embargo no lo identificamos como válido debido a los resultados mostrados por la prueba de Raman y debido a que se obtuvieron superficies porosas, polvosas y no cristalinas lo que choca con el ideal de una superficie lisa y homogénea, para futuros intentos de depósito del CuInSe2 se recomienda cambiar la concentración molar, se propone 9 mM InCl3 para obtener una capa compacta y reflejante.
Lopez Cisneros Samantha, Universidad de Guadalajara
Asesor: Dr. Manuel Alfonso Camargo Chaparro, Universidad Antonio Nariño

DESARROLLO Y APLICACIóN DE MODELOS COMPUTACIONALES EN DINáMICA MOLECULAR.


DESARROLLO Y APLICACIóN DE MODELOS COMPUTACIONALES EN DINáMICA MOLECULAR.

Lopez Cisneros Samantha, Universidad de Guadalajara. Asesor: Dr. Manuel Alfonso Camargo Chaparro, Universidad Antonio Nariño



PLANTEAMIENTO DEL PROBLEMA

En la investigación y desarrollo de nuevos materiales y sistemas moleculares complejos, surgen desafíos significativos en la predicción y análisis de comportamientos a escala atómica y molecular. Las herramientas computacionales como las simulaciones de dinámica molecular son esenciales para explorar propiedades inaccesibles a través de experimentos físicos tradicionales. Estas simulaciones son particularmente valiosas para estudiar propiedades dinámicas bajo condiciones extremas y en sistemas con una gran cantidad de componentes interactuantes donde las variables experimentales son difíciles de controlar.



METODOLOGÍA

La dinámica molecular (MD) es una técnica computacional utilizada para estudiar el comportamiento físico de sistemas de múltiples partículas, como moléculas y átomos, en función del tiempo. Esta técnica se basa en las leyes de la mecánica clásica, específicamente las leyes de Newton, para simular el movimiento de las partículas. En el verano de investigación, nos enfocamos inicialmente en el análisis de un sistema unidimensional de dos partículas usando el algoritmo de Euler, lo cual sirvió de introducción al estudio de trayectorias y energía. La investigación evolucionó hacia sistemas de tres y múltiples partículas utilizando el algoritmo de Verlet, que integra ecuaciones de movimiento y es eficiente para grandes sistemas de partículas, manteniendo una precisa conservación de la energía. El estudio progresó a sistemas bidimensionales, usando un modelo de partículas suaves en una caja con paredes reflectivas, donde interactúan mediante un potencial repulsivo: V(rji ) = ε(σ/rij)12 donde ε y σ son parámetros que caracterizan la intensidad y el alcance efectivo de la interacción, respectivamente, y rij es la distancia entre partículas. Este potencial evita la superposición de partículas incrementando la energía potencial cuando se acercan. Así mismo, incorporamos condiciones de frontera reflectivas para emular colisiones elásticas en paredes, asegurando que las partículas permanezcan dentro del sistema. Esto nos permitió estudiar la dinámica de las partículas y propiedades como temperatura y presión. Utilizamos diagramas de fase isotérmicos para observar cómo la presión variaba con la densidad bajo temperaturas controladas (1.0, 2.0, 3.0 unidades de LJ) en diversas densidades (0.05, 0.1, 0.2, 0.3, 0.4). LAMMPS (Large-scale Atomic/Molecular Massively Parallel Simulator) fue crucial para simular sistemas más grandes usando el potencial de Lennard-Jones. Por otra parte, esto facilitó estudiar sistemas bidimensionales de micelas y, posteriormente, su adaptación a configuraciones tridimensionales para examinar la formación y estructura de micelas bajo variaciones de temperatura. Para análisis, usamos OVITO (Open Visualization Tool), que permitió visualizar datos estructurales en tiempo real y aplicar análisis de clúster para estudiar la organización de partículas y la estructura local bajo diferentes condiciones.


CONCLUSIONES

Durante este verano de investigación, hemos realizado una exploración sistemática de la dinámica molecular en una variedad de sistemas, desde simples pares de partículas hasta complejas formaciones de micelas. Esta investigación nos ha permitido obtener una comprensión detallada de cómo las variaciones en factores ambientales, especialmente la temperatura, influyen significativamente en la formación y estabilidad de los sistemas de partículas. La investigación sobre la curva isotérmica reveló que, a todas las temperaturas evaluadas (1.0, 2.0 y 3.0), la presión aumenta con el incremento de la densidad. Este comportamiento es coherente con lo esperado en muchos sistemas físicos, donde un aumento en la densidad lleva a una mayor presión debido al incremento del número de partículas en un volumen fijo. Este fenómeno se puede interpretar como una manifestación de la ecuación de estado de un gas ideal, expresada como PV = nRT, donde un aumento en la temperatura  T  a una densidad fija resulta en un aumento de la presión P. Adicionalmente, la integración del software OVITO ha enriquecido significativamente nuestra capacidad de análisis, permitiéndonos visualizar y examinar de manera intuitiva la configuración atómica y las dinámicas internas de las partículas. En conclusión, este proyecto no solo ha profundizado mi entendimiento teórico y práctico de los principios de la dinámica molecular, sino que también ha sentado una base sólida para futuras investigaciones.    
López Díaz Brandon Miguel, Universidad Autónoma de Chiapas
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

DINáMICA COSMOLóGICA: ECUACIONES DE MOVIMIENTO EN EL MODELO FRW Y BORN-INFELD.


DINáMICA COSMOLóGICA: ECUACIONES DE MOVIMIENTO EN EL MODELO FRW Y BORN-INFELD.

Diaz Hernandez Miguel Angel, Universidad Autónoma de Baja California. González Domínguez Annalucia, Universidad Autónoma de Chiapas. López Díaz Brandon Miguel, Universidad Autónoma de Chiapas. Rodríguez Sánchez Stephanie, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La cosmología moderna se fundamenta en el modelo de Friedmann-Lemaître-Robertson-Walker (FRW), el cual describe un universo homogéneo e isotrópico. Este modelo es esencial para derivar las ecuaciones de movimiento que rigen la dinámica del universo y ofrece una comprensión detallada de su evolución, desde el Big Bang hasta la expansión acelerada que observamos en la actualidad. Sin embargo, a pesar de su éxito en la descripción general del universo, el modelo FRW tiene limitaciones cuando se enfrenta a fenómenos extremos o a nuevas teorías en física. En este contexto, el campo escalar de Born-Infeld emerge como una extensión significativa de las teorías de campo escalar tradicionales. Originado en el marco de la teoría de cuerdas y otras áreas de la física teórica, el formalismo de Born-Infeld fue inicialmente introducido para regular singularidades en la electrodinámica no lineal. No obstante, sus aplicaciones se han expandido, incluyendo interesantes implicaciones cosmológicas. El interés en el escalar de Born-Infeld radica en su capacidad para evitar singularidades y generar comportamientos dinámicos únicos que no se encuentran en las teorías de campo escalar convencionales. En particular, este escalar ofrece nuevos mecanismos inflacionarios que podrían superar las limitaciones de los modelos tradicionales de inflación. Así, la inclusión del escalar de Born-Infeld en el modelo FRW proporciona una oportunidad valiosa para abordar problemas no resueltos en la cosmología estándar y realizar predicciones observacionales que podrían ser verificadas con futuros datos cosmológicos.



METODOLOGÍA

En primer lugar, dedujimos los símbolos de Christoffel para un espacio-tiempo descrito por la métrica de Friedmann-Lemaître-Robertson-Walker (FRW). Posteriormente, procedimos a obtener el tensor de Ricci R_{mu nu} contrayendo las derivadas de los símbolos de Christoffel. A continuación, calculamos el escalar de curvatura R contrayendo el tensor de Ricci. Con estos elementos, procedimos al cálculo de la acción agregando la acción del modelo FRW. Donde S_{phi} es la acción del campo escalar. El siguiente paso fue obtener el lagrangiano a partir de la densidad lagrangiana integrando la acción. Para campos escalares, el lagrangiano se expresa como: L=-frac{3adot{a}}{c^{2}N}+3kaN+kappa^{2}a^{3}(frac{1}{2c^{2}N}dot{phi}^{2}-NV(phi)) donde V(ϕ)V(phi)V(ϕ) es el potencial del campo escalar. Luego, procedimos a obtener el hamiltoniano a partir de la densidad lagrangiana. Las ecuaciones de movimiento para el campo escalar se derivaron del principio de acción. La solución de estas ecuaciones nos permitió entender cómo el campo escalar influye en la expansión del universo. Para encontrar parámetros que generen inflación, buscamos un potencial V(ϕ)V(phi)V(ϕ) y condiciones iniciales para ϕphiϕ y ϕ˙dot{phi}ϕ˙​ que satisficieran el criterio de inflación, donde la segunda derivada del factor de escala a(t)a(t)a(t) fuera positiva (a¨>0ddot{a} > 0a¨>0). Esto implica que el universo se está expandiendo aceleradamente. A continuación, repetimos el proceso, pero ahora con el campo escalar de Born-Infeld. El lagrangiano de Born-Infeld, que introduce una no linealidad, se expresa como: S_phi=-intsqrt{-g}alpha_T^2V(phi)sqrt{1+alpha_T^{-2}g^{mu u}partial_mupartial_ uphi}d^4x. Así obtuvimos la acción total agregando el campo escalar. Una vez obtenido esto , procedimos de igual manera a obtener el lagrangiano Born-Infeld, el cual esta dado como: L=-frac{3adot{a}^2}{c^2N}+3kaN-kappa^2alpha_T^2Na^3V(phi)sqrt{1-alpha_T^{-2}c^{-2}N^{-2}dot{phi}^2}. El hamiltoniano para el escalar de Born-Infeld se obtuvo de manera similar al caso del campo escalar homogéneo, teniendo en cuenta la no linealidad. Las ecuaciones de movimiento para el escalar de Born-Infeld derivadas de la acción modificada, se resolvieron numéricamente para obtener la evolución dinámica del campo y del universo.Finalmente, buscamos parámetros que, al ser aplicados al escalar de Born-Infeld, pudieran generar un período de inflación cósmica, ajustando las condiciones iniciales adecuadamente. Una vez obtenidas y resueltas las ecuaciones de movimiento para ambos campos escalares, realizamos un análisis comparativo para identificar las diferencias en la dinámica resultante. Esto incluyó cómo cada campo afectó la expansión del universo y los parámetros necesarios para generar inflación. Además, a partir de los resultados obtenidos anteriormente, pudimos realizar aproximaciones en los Hamiltonianos. Esto nos permitió derivar las ecuaciones de Wheeler-DeWitt. Por último, observamos  las diferencias entre los dos sistemas calculados, comparando la eficiencia de cada campo en generar inflación, la estabilidad de las soluciones y las predicciones observacionales resultantes. Este análisis proporcionó una comprensión más profunda de las implicaciones teóricas y prácticas de incluir el escalar de Born-Infeld en el modelo FRW.


CONCLUSIONES

Este trabajo abordó de manera exhaustiva la inclusión del escalar de Born-Infeld en el modelo FRW y sus implicaciones para la dinámica del universo y la generación de inflación. A través de un análisis detallado y comparativo, logramos obtener una comprensión más profunda de los mecanismos que gobiernan la evolución cosmológica. Esta investigación no solo clarificó las diferencias entre ambos enfoques, sino que también destacó las posibles aplicaciones observacionales del escalar de Born-Infeld, abriendo nuevas perspectivas en el estudio de la inflación y la expansión del universo.
Lopez Jimenez Marla Sofia, Universidad Politécnica de Sinaloa
Asesor: Dra. Magdalena Elizabeth Bergés Tiznado, Universidad Politécnica de Sinaloa

PREPARACIóN DE MUESTRAS DE SUELO Y PLANTAS PARA DETERMINAR PARáMETROS FíSICOS Y ELEMENTOS POTENCIALMENTE TóXICOS EN SITIOS IMPACTADOS POR ZONAS MINERAS DEL SUR DE SINALOA


PREPARACIóN DE MUESTRAS DE SUELO Y PLANTAS PARA DETERMINAR PARáMETROS FíSICOS Y ELEMENTOS POTENCIALMENTE TóXICOS EN SITIOS IMPACTADOS POR ZONAS MINERAS DEL SUR DE SINALOA

Aramburo Rodriguez Paloma Aracely, Universidad Politécnica de Sinaloa. Lopez Jimenez Marla Sofia, Universidad Politécnica de Sinaloa. Zamora Espinoza Karolina, Universidad Politécnica de Sinaloa. Asesor: Dra. Magdalena Elizabeth Bergés Tiznado, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En México, el sector minero constituye uno de los pilares fundamentales de la economía, ofreciendo beneficios significativos a las comunidades, tales como la generación de empleo, la obtención de ingresos y el desarrollo de infraestructura. En el estado de Sinaloa, la minería está experimentando un crecimiento económico notable, con indicios de mineralización en prácticamente todo su territorio. Según datos de 2021, Sinaloa se situó en el doceavo lugar a nivel nacional en producción de oro, el onceavo en plata y el décimo en cobre. Por lo tanto, en zonas afectadas por actividades industriales y mineras, es crucial realizar estudios preliminares sobre las propiedades fisicoquímicas de los residuos, en particular su concentración de Elementos Potencialmente Tóxicos (EPTs) y su impacto ambiental. La presencia de EPTs en el ambiente es una preocupación crítica debido a la toxicidad, persistencia, abundancia y biomagnificación de estos en el medio ambiente y su posterior acumulación en el hábitat acuático, sedimentos, suelo y biota (plantas y animales). Estos estudios son fundamentales para evaluar y diseñar procedimientos de remediación o prevención destinados a mitigar los daños ecológicos asociados.



METODOLOGÍA

Para el análisis de la calidad de suelos y la evaluación de metales y metaloides en laboratorio comienza con la preparación del material de laboratorio. Inicialmente, los recipientes de polipropileno y los materiales de vidrio se lavan con agua corriente y jabón para eliminar cualquier residuo visible. Posteriormente, estos recipientes se enjuagan con agua destilada para asegurar que no queden restos de jabón. A continuación, se sumergen en una solución de ácido nítrico 2 M durante tres días para eliminar posibles contaminantes metálicos. Tras este tratamiento, se realiza un nuevo enjuague con agua destilada y agua milli-Q para asegurar la completa eliminación del ácido. Finalmente, los recipientes se secan a temperatura ambiente en un entorno limpio y libre de polvo. En cuanto a la preparación de las muestras de suelo y plantas, el proceso para las muestras de suelo comienza con el secado a temperatura ambiente en una superficie para eliminar la humedad. Una vez secas, las muestras se homogenizan y se tamizan a través de una malla de 2 mm para obtener una muestra uniforme. Para las muestras de plantas, se lleva a cabo una maceración que asegura una consistencia homogénea, seguido de una homogenización adicional para garantizar que el material esté bien distribuido. Tanto las muestras de suelo como las de plantas se pesan con precisión para su posterior tratamiento en las digestiones ácidas. Para determinar las propiedades del suelo, como el pH, la textura y el contenido de materia orgánica o carbono orgánico (NOM-121-RECNAT-2000), se inicia con el tamizado de las muestras a través de una malla de 2 mm. Este tamizado inicial facilita la evaluación del pH y la textura del suelo. Para la determinación de la textura, se elimina la materia orgánica del suelo mediante un tratamiento con peróxido de hidrógeno. Luego, se realiza un tamizado adicional con una malla de 0.5 mm para preparar la muestra para la medición del carbono orgánico. El pH del suelo se determina utilizando el método AS-02, mientras que el contenido de materia orgánica se mide empleando el método AS-07 de Walkley y Black. Finalmente, la textura del suelo se determina mediante el procedimiento de la pipeta (AS-28). En el proceso de digestión ácida de las muestras de plantas y suelos, se añade una mezcla de ácidos fuertes a las muestras para disolver los metales y metaloides presentes. La digestión se realiza bajo condiciones controladas de temperatura y presión para asegurar una disolución completa. Tras la digestión, las muestras se ajustan a un volumen final con agua destilada o milli-Q, lo que permite una concentración adecuada para el análisis posterior.


CONCLUSIONES

El sector minero en Sinaloa, con su creciente actividad y significativa producción de metales preciosos y base, juega un papel esencial en la economía regional. Sin embargo, la expansión de estas actividades presenta riesgos ambientales considerables, especialmente en términos de la posible liberación de elementos potencialmente tóxicos en el suelo y en la vegetación circundante. La metodología propuesta para la preparación y análisis de muestras de suelo y plantas tiene como fin evaluar el impacto ambiental de la minería en el sur de Sinaloa. Al determinar los parámetros físicos del suelo y la concentración de metales y metaloides, se podrá obtener una visión clara del grado de contaminación y de los riesgos asociados. Estos datos son cruciales para diseñar e implementar estrategias eficaces de remediación y prevención, que minimizarán los efectos negativos sobre el medio ambiente y la salud de las comunidades locales. En este estudio, se abordó la evaluación de las propiedades fisicoquímicas de los residuos en zonas afectadas por actividades industriales y mineras en el estado de Sinaloa, México. Se implementó una metodología detallada para el análisis de la calidad de suelos y la evaluación de metales y metaloides en laboratorio. Sin embargo, las investigaciones aún no han concluido y, por lo tanto, no se han obtenido resultados finales. Se continuará trabajando en este proyecto para obtener conclusiones precisas y contribuir al conocimiento sobre el impacto ambiental de la minería en la región.
López Miranda Sandra, Universidad Autónoma del Estado de México
Asesor: Dra. Erika Betzabeth Palafox Juárez, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías

APLICACIóN DE LOS SISTEMAS DE INFORMACIóN GEOGRáFICA PARA LA CARACTERIZACIóN DE UNA CUENCA HIDROGRáFICA Y LA IDENTIFICACIóN DE ZONAS DE MAYOR PERMEABILIDAD


APLICACIóN DE LOS SISTEMAS DE INFORMACIóN GEOGRáFICA PARA LA CARACTERIZACIóN DE UNA CUENCA HIDROGRáFICA Y LA IDENTIFICACIóN DE ZONAS DE MAYOR PERMEABILIDAD

López Miranda Sandra, Universidad Autónoma del Estado de México. Pastrana Quirino Elizandra, Universidad Autónoma de Guerrero. Asesor: Dra. Erika Betzabeth Palafox Juárez, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías



PLANTEAMIENTO DEL PROBLEMA

La principal actividad económica en el estado de Quintana Roo es el turismo, especialmente el turismo de sol y playa, específicamente la laguna de Bacalar, conocida como la "Laguna de los Siete Colores", exhibe una gama de tonalidades que van desde el blanco y el turquesa hasta el azul profundo que atraen a números visitantes, tanto nacionales como internacionales. No obstante, cuando los turistas se encuentran con paisajes contaminados, debido a cambios en los elementos naturales, su experiencia se ve afectada, perjudicando la economía local.  Un ejemplo de esto ocurrió en junio del 2020, cuando por el paso de la tormenta tropical Cristóbal, las lluvias extraordinarias que se mantuvieron constantes durante dos semanas dieron como resultado el cambio de coloración de la laguna, quedando por casi dos años de color verde - marrón. Estos cambios en la laguna evidencian la alta conectividad de los ecosistemas de la cuenca; ya que el cambio de uso de suelo como, la deforestación, ganadería, agricultura, urbanización de las áreas adyacentes a la laguna, afectan directa e indirectamente al cuerpo de agua.



METODOLOGÍA

Con la finalidad de conocer cuáles son las áreas que mayor influyen en el aporte de materiales a la laguna, se implementó un Análisis Multicriterio apoyado en Sistemas de Información Geográfica (SIG), para caracterizar la cuenca hidrográfica y conocer las áreas que más incluyen en la conectividad de la cuenca. Se recopiló información geoespacial del tipo de suelo, cuerpos y flujos de agua, uso de suelo y vegetación, y el modelo digital de elevación para el área de estudio. Se generó una base de datos con los atributos de cada variable, y se analizó la información de cada de ellas y se categorizó en función de su contribución a la identificación de zonas permeables de mayor conectividad dentro de la cuenca. Para el tratamiento de cada capa se empezó con la de suelos, que fue primordial para definir el número de reclasificaciones a mantener para las demás variables. Con ayuda de un especialista en suelos, se definieron 5 categorías con base en la permeabilidad, dando mayor importancia a los suelos más permeables. Para el modelo digital de elevación, se considerando las zonas más bajas y planicies como las de mayor importancia y los de mayor altitud como menos importantes. Para el uso de suelo y vegetación, se consideró como de mayor importancia a las zonas desprovistas de vegetación y con actividad agrícola, y como menor importancia a las áreas con mayor cobertura vegetal. Con respecto a las cuerpos y flujos de agua, se construyeron buffer asignando 10 metros de distancia a los flujos intermitentes y 20 metros a los flujos perennes. Posteriormente se unieron ambas capas y se categorizaron con base en su condición y temporalidad. Para poder implementar el análisis multicriterio todas las capas se llevaron a un formato ráster con tamaño de píxel de 10 m. Se integró un SIG con todas las variables y se le asignó a cada una un porcentaje de importancia, la mayor ponderación se asignó al modelo digital de elevación con un 35%, al suelo con un 30%, al uso de suelo y vegetación con un 20% y finalmente a los cuerpos de agua con un 15%. Finalmente, con ayuda de la herramienta Weighted Overlay del software ArcGIS 10.4 se generó el mapa de las zonas de mayor permeabilidad de la Cuenca de la Bahía de Chetumal.


CONCLUSIONES

El análisis integral de la cuenca permitió detectar las zonas más permeables del área de estudio. La superposición de las diferentes capas permitió visualizar la interacción de los distintos atributos logrando obtener resultados que evidencian la conectividad entre los ecosistemas de esta zona. Se concluyó que en el noroeste y sureste del área de estudio se encuentran las zonas más bajas y con suelos altamente permeables. Asimismo, se observó el tipo de cobertura influye en la permeabilidad y favorece el escurrimiento del agua hacia zonas más bajas; así como que las áreas con vegetación más densa contribuyen a retener el agua reduciendo y el aporte de materiales a la laguna. Finalmente, se considera que los resultados obtenidos pueden contribuir a la planeación territorial, al uso de suelo y actividades en la cuenca, disminuir las consecuencias del cambio de uso de suelo, identificar zonas degradadas que requieran reforestación, así como zonas que se deben conservar más como los humedales y manglares, además de motivar la participación de la población para conservar la salud del ecosistema.  
López Ponce Daniel Arturo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. José Luis León Medina, Centro de Investigación en Matemáticas (CONACYT)

GRUPOS DE TRENZAS PURAS PLANAS COMO GRUPOS FUNDAMENTALES


GRUPOS DE TRENZAS PURAS PLANAS COMO GRUPOS FUNDAMENTALES

López Ponce Daniel Arturo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. José Luis León Medina, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El estudio de arreglos en las matemáticas es de gran interés, sin embargo, trabajar de manera explicita con dichos arreglos es una tarea titánica, por ello se buscan formas de reducir el problema al estudio de ciertas estructuras más simples para poder observar el comportamiento de dichos arreglos. En el articulo "REAL K(π, 1) ARRANGEMENTS FROM FINITE ROOT SYSTEMS" de Khovanov se abordan cierto tipo de arreglos mediante el uso de el grupo de trenzas planas puras (Pure Twin groups) para describir los grupos fundamentales de dichos arreglos.



METODOLOGÍA

Con base en el articulo de Khovanov mencionado en el planteamiento ee tomó un arreglo particular, X_n, descrito en dicho artículo. Tomamos una vía alternativa para construir el grupo de trenzas planas, en vez de usar el espacio de configuraciones de n arcos se optó por una construcción más elemental, la idea de esta construcción es mediante el uso de caminos que empiezan en el punto (1,2,...,n) y terminan en alguna permutacion de este. Para poder describir estos grupos se ocuparon meramente conceptos de grupos y homotopia. Una vez logrado el cometido de poder describir estos grupos de una forma grafica de manera natural podemos relacionar el grupo fundamental de X_n con el Kernel de un morfismo que va del grupo de trenzas planas al grupo de permutaciones de n letras, dicho Kernel es conocido como el grupo de trenzas puras planas.


CONCLUSIONES

Durante la estancia de verano se logró ampliar conocimientos de la topología algebraica, así como ganar un poco más de madurez en cuanto a redacción y creación de trabajos matemáticas, también hubo un desarrollo en cuestión de acercamiento a la investigación matemática ya que se propusieron formas alternativas de abordar grupos fundamentales.
Lopez Silva Evelyn Ximena, Universidad Politécnica de Sinaloa
Asesor: Dra. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa

TECNOLOGíAS EMERGENTES


TECNOLOGíAS EMERGENTES

Lopez Silva Evelyn Ximena, Universidad Politécnica de Sinaloa. Rodriguez Cevallos Elena del Carmen, Universidad Politécnica de Sinaloa. Asesor: Dra. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El rápido avance de la tecnología en las últimas décadas ha dado lugar a una serie de innovaciones conocidas como tecnologías emergentes. Estas tecnologías, incluyen la inteligencia artificial, el Internet de las Cosas (IoT), la computación cuántica, la realidad aumentada (AR) y la realidad virtual (VR), y las criptomonedas, la biotecnología, la robótica avanzada, la nanotecnología y las energías renovables, están transformando profundamente diversas industrias y aspectos de la vida cotidiana. Sin embargo, la adopción y el desarrollo de estas tecnologías presentan varios desafíos significativos. 1. Comprensión y Adaptación: La rápida evolución tecnológica exige una adaptación constante por parte de individuos y organizaciones. 2. Impacto en el Empleo: La automatización y la inteligencia artificial, por ejemplo, están reemplazando tareas rutinarias y trabajos manuales, lo que podría llevar a la pérdida de empleo en ciertos sectores. 3. Seguridad y Privacidad: Con el aumento de dispositivos conectados y el intercambio de grandes de datos existe mayores preocupaciones sobre la seguridad de los datos personales.



METODOLOGÍA

Para abordar estos desafíos, se propone una metodología basada en la investigación, análisis y desarrollo de estrategias que faciliten la comprensión y adopción de tecnologías emergentes. 1. Investigación: Realizar una investigación sobre cada una de las tecnologías emergentes. Esto incluye estudios académicos, informes de la industria y casos de uso exitosos que identifiquen beneficios, riesgos y mejores prácticas. 2. Encuestas y Entrevistas: Realizar encuestas y entrevistas con expertos en tecnología, profesionales de la industria y usuarios finales para obtener una mejor comprensión. 3. Análisis Comparativo: Realizar un análisis comparativo de la adopción y el impacto de las tecnologías emergentes en diferentes regiones y sectores. Esto permitirá identificar patrones, diferencias y factores clave que influyen en el éxito o fracaso de la implementación tecnológica.


CONCLUSIONES

Durante la estancia de verano logramos adquirir una mejor comprensión sobre el desarrollo y la implementación de tecnologías emergentes, las cuales son muy importantes porque mejoran la calidad de vida, y tienen un impacto positivo en diversas áreas de nuestra vida diaria. Sin embargo, puede existir algunas posibles consecuencias como el riesgo de robo de información de los usuarios. Es fundamental abordar estos desafíos para maximizar los beneficios y minimizar los riesgos asociados con estas innovaciones tecnológicas.  
López Villegas Adán, Universidad Autónoma de Sinaloa
Asesor: Dr. José Luis León Medina, Centro de Investigación en Matemáticas (CONACYT)

ANáLISIS TOPOLóGICO DE DATOS CON MACHINE LEARNING: IMPLEMENTACIóN DE UN RED NEURONAL DE TIPO CNN PARA ANALIZAR IMáGENES DE RESONANCIAS MAGNéTICAS DE LOS PULMONES PARA DETECTAR DAñO OCASIONADO POR COVID-19 QUE UTILICE ANáLISIS TOPOLóGICO DE DATOS PARA MEJORAR LOS COEFICIENTES DE PRECISIóN.


ANáLISIS TOPOLóGICO DE DATOS CON MACHINE LEARNING: IMPLEMENTACIóN DE UN RED NEURONAL DE TIPO CNN PARA ANALIZAR IMáGENES DE RESONANCIAS MAGNéTICAS DE LOS PULMONES PARA DETECTAR DAñO OCASIONADO POR COVID-19 QUE UTILICE ANáLISIS TOPOLóGICO DE DATOS PARA MEJORAR LOS COEFICIENTES DE PRECISIóN.

López Villegas Adán, Universidad Autónoma de Sinaloa. Asesor: Dr. José Luis León Medina, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Desde el surgimiento de la topología computacional a finales del siglo XX se preveía que el creciente poder de cómputo eventualmente permitiría poder mejorar nuestra comprensión de ciertos espacios topológicos que modelan fenómenos de nuestra vida diaria. Posteriormente Edelsbrunner et al. (2002) y Zomorodian and Carlsson (2005) propusieron el método de homología persistente que ganó gran popularidad con el artículo de Carlsson (2009). Desde entonces mucho se ha desarrollado en torno a la implementación y mejora de algoritmos para calcular homología persistente de nubes de datos sin embargo paralelamente ha surgido una gran aceptación y desarrollo de métodos de machine learning pues permiten clasificar y predecir variables de interés con una sorprendente precisión, así que era natural suponer que ambas herramientas se unieran para potenciarse mutuamente, la idea es usar la homología persistente como una etapa de filtrado de información que alimentará las entradas de una red neuronal con el objetivo de que los métodos usuales de machine learning usen esa información para poder clasificar con mayor precisión ciertas bases de datos. Por lo que en este verano de investigacion se estudia como hacer una implementacion de los metodos de lo homologia persistente junto con una red neuronal y como estos datos topologicos mejoran la precision de las redes neuronales.



METODOLOGÍA

La implementacion de los metodos de homologia persistente ya se han realizado de manera tecnica en el lenguaje de programación Python con la libreria Giotto-tda. Giotto incorpora los métodos para realizar análisis de homología persistente y provee métodos para conectar esos resultados con el ambiente scikit-learn que se ha convertido en un estándar para el uso de métodos de redes neuronales en Python. La base de datos que se usó se extrajó del proyecto MosMedData (https://mosmed.ai/datasets/covid191110/), un proyecto con el objetivo de compartir imagenes de escaneos de tomografias computacionales con complicaciones relacionadas al COVID-19 con el fin de entrenar redes neuronales. La red neuronal de la que se partio para implementar el analisis topologico de los datos es la del siguiente ejemplo (https://keras.io/examples/vision/3D_image_classification/) de una red nuronal convolucional de 3 dimensiones entrenada para clasificar tomografias de torax. Con las herramientas de giotto-tda se hizo un notebook de google colab donde se analiza las tomografias usando homologia persistente, especificamente el metodo de "persistencia cubica" que sirve especialmente para analizar imagenes y un filtrado de densidad, luego se modifico la red neuronal para agregar una capa en la que se concatena la informacion topologica vectorizada de las tomografias junto con la convolucion de los volumenes aplastada en un solo vector. Luego con todo la anterior, se procedió a entrenar a la inteligencia artificial con los datos topologicos de las tomografias.


CONCLUSIONES

Durante la estancia de verano se logro adquirir conocimientos  teoricos sobre el analisis topologico de datos, la homologia persistente y la implementacion de redes neuronales convolucionales, asi tambien como la aplicacion practica de estos conocimiento utilizando la paqueteria de giotto-tda en python, sin embargo, como el calculo homologico y el entrenamiento de las redes neuronales convolucionales de 3 dimensiones requieren de un poder y tiempo de computo bastante grande los datos todavia no se pueden mostar. Con la alimentacion de datos topologicos a la red neuronal se espera que los coeficientes de precision de la misma aumenten.
Loranca Godinez Pablo Enrique, Instituto Politécnico Nacional
Asesor: Dr. Bernardino Barrientos Garcia, Centro de Investigaciones en Óptica (CONACYT)

DISPOSITIVOS MECATRóNICOS


DISPOSITIVOS MECATRóNICOS

Loranca Godinez Pablo Enrique, Instituto Politécnico Nacional. Asesor: Dr. Bernardino Barrientos Garcia, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Desarrollar un programa que pueda medir la medición de velocidad de fluidos (gas) en el quemador de una estufa de manera precisa y eficiente. La medición de fluidos en un quemador de estufa es crucial para garantizar la seguridad y eficiencia del sistema de combustión Ya que actualmente, la medición de fluidos en un quemador de estufa se realiza manualmente mediante la observación visual de la llama y la medición de la presión del gas, sin embargo, este método es subjetivo y puede ser influenciado por factores como la experiencia del operador y las condiciones ambientales. Requisitos principales del Programa son: Medición precisa:El programa debe ser capaz de medir la medición de partículas de fluido Eficiencia:El programa debe ser capaz de medir la medición de partículas de fluidos en tiempo real y de manera continua. Flexibilidad:El programa debe ser capaz de adaptarse a diferentes tipos de estufas y quemadores. Interfaz de usuario:El programa debe tener una interfaz de usuario fácil de usar y comprender. Variables Que Medir: Velocidad Análisis de imagen: Lenguaje de Programación: Matlab: Utilizar Librerías: Utilizar para el análisis de datos y la visualización. Hardware: laptop hp Cámara: Utilizar una cámara rápida a color con resolución de 1Megapixel



METODOLOGÍA

En México, la óptica se enfoca en el diseño, construcción y evaluación de sistemas ópticos y dispositivos, utilizando herramientas y técnicas avanzadas. Los académicos e investigadores en México trabajan en estrecha colaboración para desarrollar nuevas aplicaciones y tecnologías ópticas, abordando problemas prácticos y novedosos en áreas como la salud, la energía y la seguridad humana. En particular, se enfocan en la metrología óptica, que implica la medición de variables físicas utilizando luz y técnicas ópticas. Esto incluye la medición de superficies ópticas convencionales y no convencionales, como lentes, espejos y concentradores solares. Algunas de las técnicas y herramientas utilizadas en la metodología óptica en México incluyen: Interferometría holográfica digital Interferometría de patrones de moteado Holografía digital interferometría en tiempo promediado Interferometría holográfica de alta velocidad Holografía digital pulsada Optoelectrónicas metodologías Los laboratorios y centros de investigación en México cuentan con equipo y tecnología de última generación, incluyendo láseres, cámaras, sensores y software especializado. En resumen, la metodología en óptica en México se caracteriza por su enfoque en la innovación y la colaboración, utilizando técnicas y herramientas avanzadas para abordar problemas prácticos y desarrollar nuevas aplicaciones y tecnologías ópticas. Comprender los conceptos fundamentales de la óptica, incluyendo la naturaleza de la luz, la reflexión, la refracción, la difracción y la interferencia. Analizar y describir Aplicar los principios de la óptica para resolver problemas y diseñar sistemas ópticos. Investigar y evaluar las aplicaciones de la óptica en diferentes campos, incluyendo la medicina, la comunicación, la energía y la industria. Metodología Revisión Experimentación: Realizar experimento Un diseño y construcción:Diseñar y construir sistemas ópticos y dispositivos, utilizando materiales y tecnologías adecuadas


CONCLUSIONES

Las técnicas de óptica en el uso de arreglos experimentales han demostrado ser fundamentales en la investigación y el desarrollo de nuevas tecnologías en diversas áreas, como la física, la ingeniería, la biología y la medicina. A través de la aplicación de técnicas ópticas avanzadas, como la interferometría, la holografía y la espectroscopía, se han podido diseñar y construir arreglos experimentales que permiten la medición y el análisis de variables físicas con alta precisión y resolución.
Luviano Hernández Isaac Jared, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Carlos Alberto Ochoa Ortíz, Universidad Autónoma de Ciudad Juárez

ANáLISIS METAHEURíSTICO DE LA EFICIENCIA DE UN INTERCAMBIADOR DE CALOR DE TUBOS CONCéNTRICOS A ESCALA LABORATORIO UTILIZANDO ALGORITMOS DE OPTIMIZACIóN PSO Y BAT ALGORITHM


ANáLISIS METAHEURíSTICO DE LA EFICIENCIA DE UN INTERCAMBIADOR DE CALOR DE TUBOS CONCéNTRICOS A ESCALA LABORATORIO UTILIZANDO ALGORITMOS DE OPTIMIZACIóN PSO Y BAT ALGORITHM

Luviano Hernández Isaac Jared, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Carlos Alberto Ochoa Ortíz, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Los intercambiadores de calor son dispositivos esenciales en la transferencia térmica de energía, buscando equilibrar la temperatura entre fluidos en diversos sistemas industriales como plantas químicas y de refrigeración. Entre los distintos tipos, los intercambiadores de calor de tubos concéntricos son los más simples, consistiendo en dos tubos de diámetros diferentes donde los fluidos se mueven en configuraciones de flujo paralelo o contraflujo. Estos dispositivos son fundamentales para el ahorro de recursos energéticos y económicos. Sin embargo, evaluar su rendimiento es complejo debido a la variabilidad de las condiciones operativas. Para optimizar su eficiencia, se han propuesto diversos métodos de inteligencia artificial y algoritmos metaheurísticos que pueden manejar las complejidades del sistema y mejorar las tasas de transferencia de calor.



METODOLOGÍA

El estudio se centra en un intercambiador de calor de tubos concéntricos a escala laboratorio, con configuraciones de flujo en paralelo y contraflujo. El sistema incluye un tanque de agua fría y caliente, bombas, electroválvulas, caudalímetros y sensores de temperatura. Se realizaron experimentos calibrando los sensores de temperatura y midiendo las variables de proceso, como los flujos de agua fría y caliente y las temperaturas de entrada y salida. Los experimentos se diseñaron para variar las tasas de flujo y la configuración del flujo (paralelo o contraflujo), registrando los resultados en diferentes niveles. Se utilizaron algoritmos de optimización PSO (Particle Swarm Optimization) y Bat Algorithm para analizar y optimizar las variables de proceso, buscando la configuración más eficiente del intercambiador de calor. Estos algoritmos se utilizan para explorar y explotar el espacio de posibles configuraciones del sistema, con el objetivo de maximizar la eficiencia de la transferencia térmica. PSO se basa en el comportamiento de enjambre para encontrar soluciones óptimas, mientras que el Bat Algorithm imita el comportamiento de ecolocación de los murciélagos.


CONCLUSIONES

Se espera que la aplicación de los algoritmos PSO y Bat Algorithm permita identificar las condiciones óptimas de operación del intercambiador de calor, mejorando la eficiencia de la transferencia térmica. Los resultados esperados incluyen una mejor comprensión de cómo las variables de flujo y temperatura afectan el rendimiento del sistema y la identificación de las configuraciones que maximicen la eficiencia del intercambio de calor. La optimización metaheurística debe proporcionar un enfoque robusto para manejar las complejidades del diseño y operación del intercambiador, demostrando la eficacia de los algoritmos en la mejora de procesos industriales. El estudio busca la demostración acerca de la eficiencia de los métodos de optimización metaheurísticos en la capacidad para ofrecer soluciones óptimas en la búsqueda de maximizar la eficacia de los intercambiadores de calor de tubos concéntricos, contribuyendo al desarrollo de tecnologías sostenibles y más rentables en la industria.
Macias Magallanes Lucia de Jesús, Universidad de Guadalajara
Asesor: Dr. Daniel Ignacio Salgado Blanco, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)

SIMULACIóN DE LA LISOZIMA EN SOLUCIóN ACUOSA: ANáLISIS DE DES-AMBER Y AMBER03 CON MODELOS TIP4P-D Y TIP3P


SIMULACIóN DE LA LISOZIMA EN SOLUCIóN ACUOSA: ANáLISIS DE DES-AMBER Y AMBER03 CON MODELOS TIP4P-D Y TIP3P

Gutiérrez Castillo Raúl Emilio, Universidad Autónoma de Baja California. Macias Magallanes Lucia de Jesús, Universidad de Guadalajara. Torres Tejeda Efren Said, Universidad de Guadalajara. Asesor: Dr. Daniel Ignacio Salgado Blanco, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La lisozima es una enzima con una estructura bien definida y un papel crucial en la defensa del organismo. Este proceso es vital para proteger contra infecciones bacterianas, lo que hace de la lisozima un modelo ideal para estudiar las interacciones proteína-agua. En este proyecto, utilizamos la dinámica molecular para observar las interacciones dinámicas y estructurales en un sistema de lisozima-agua. La dinámica molecular es una técnica computacional que permite simular el movimiento de átomos y moléculas a lo largo del tiempo, proporcionando una visión detallada de las interacciones a nivel atómico. En este proyecto simulamos la dinámica molecular de un sistema compuesto por lisozima y agua, y los resultados obtenidos  se comparararon posteriormente con los resultados reportados en un artículo del año 2012, en el cual NA Ping estudia dos sistemas de lisozima-agua.



METODOLOGÍA

Se partió de la estructura cristalina de la lisozima obtenida del Protein Data Bank , utilizando específicamente el modelo 1AKI para las simulaciones. Las simulaciones se realizaron utilizando unidades de procesamiento gráfico para acelerar los cálculos. Se llevaron a cabo dos simulaciones independientes con diferentes campos de fuerza y modelos de agua. La primera simulación utilizó el campo de fuerza AMBER03 junto con el modelo de agua TIP3-D. La segunda simulación empleó el campo de fuerza DES-Amber y el modelo de agua TIP4P-D. En ambas simulaciones, se añadieron iones CL para equilibrar las cargas del sistema. La simulación con DES-Amber y TIP4P-D incluyó 25 ns de relajación seguidos de 5 ns de producción, sumando un total de 30 ns. La simulación con AMBER 03 y TIP3-D consistió en 20 ns de relajación y 5 ns adicionales de producción, alcanzando un total de 25 ns. Finalmente, se realizó una comparación con el estudio de NA Ping , para lo cual se llevaron a cabo cálculos adicionales siguiendo los mismos parámetros temporales que en la primera simulación con el campo de fuerza AMBER03 . Solamente que en esta ocasión, se empleó el campo de fuerza DES-Amber junto con el modelo de agua TIP3-D. Esta comparación permitió evaluar las diferencias en las fluctuaciones y la estabilidad estructural de la lisozima entre los dos conjuntos de simulaciones, proporcionando una comprensión más profunda sobre cuál de los enfoques resulta ser más adecuado para describir el comportamiento de la proteína en su entorno acuoso.


CONCLUSIONES

Se analizaron los datos y se construyeron curvas, en las cuales obtenemos una media de las temperaturas configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. La gráfica mostró que, en ambas simulaciones, las curvas de temperatura se mantienen consistentemente cerca de la línea de referencia de 300 K. Posteriormente se analizaron los datos y se construyeron curvas, en las cuales obtenemos una media de las presiones configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. La gráfica mostró que, en ambas simulaciones, las curvas de temperatura se mantienen consistentemente cerca de la línea de referencia de 1 bar. Se analizaron los datos y se construyeron curvas que promedian la desviación cuadrática media configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. Los resultados apuntaron a que la desviación cuadrática media es mayor en el sistema con el FF1, en este caso se espera que el RMSD sea lo más pequeño posible, por lo que en este caso la menor RMSD la obtuvo el sistema con el FF2. Se analizaron los datos y se construyeron curvas que promedian el radio de giro configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. En las gráficas pudimos observar que el sistema con el FF2, contaba con un radio de giro menor al que se obtiene en el sistema con FF1. En este caso se analizaron los resultados, pero no se calcularon promedio, ambas gráficas son consistentes, ya que comienza a contar una gran cantidad de moléculas, esto quiere decir que la proteína se envuelve y por eso las moléculas están más cerca. los resultados que se obtuvieron con los cálculos producidos en el campo FF1 y FF2, se hicieron promedios en ambos campos y estos nos dieron resultados en donde el FF1 nos dio un valor inicial de aproximadamente 277 y fue subiendo hasta llegar a un valor final de aproximadamente a 284 mientras el FF2 nos dio un valor inicial de aproximadamente 295 y fue escalando hasta llegar a un valor final de aproximadamente de 290 lo que nos quiere decir que al haber más átomos en el FF2 este tiene mayor interacción de puentes de hidrógeno por lo que el FF1 como tiene menor numero de atomos este no tiene muchas interacciones de puente de hidrógeno. Se analizaron los datos y se construyeron curvas que promedian el SASA configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. En las gráficas pudimos observar que el sistema con el FF2 tiene un área de superficie menor que la que se mide en el sistema con el FF1, podemos decir que una se envuelve más que otra. Se encontraron diferencias notables en ambos sistemas, sin embargo también hay que aclarar que también contaban con un modelo de agua distinto, por lo que las diferencias en los resultados no sólo se deben a que se usó un campo de fuerzas distinto. Conclusion: Estos resultados destacan como la elección del campo de fuerza y el modelo del agua impacta las propiedades del sistema en simulaciones de dinámica molecular. Las diferencias observadas en densidad, estabilidad estructural, compactación de la proteína, interacción de puentes de hidrógeno y exposición al solvente muestra que en el sistema FF2 no afecta negativamente la estabilidad proteica, ya que exhibe características más estables en comparación a sistema FF1, y con esto subrayamos la importancia de considerar estos factores para obtener una representación precisa de los sistemas biomoleculares en simulaciones.
Madrigal Ojeda Jesús Adrián, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Luis Armando Diaz Torres, Centro de Investigaciones en Óptica (CONACYT)

SíNTESIS DE LINI₀.₄FE₀.₁MN₁.₅O₄ Y LINI₀.5MN₁.₅O₄ POR MEDIO DE COMBUSTIóN CON UREA Y SU EVALUACIóN EN MEDIAS BATERíAS.


SíNTESIS DE LINI₀.₄FE₀.₁MN₁.₅O₄ Y LINI₀.5MN₁.₅O₄ POR MEDIO DE COMBUSTIóN CON UREA Y SU EVALUACIóN EN MEDIAS BATERíAS.

Madrigal Ojeda Jesús Adrián, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Luis Armando Diaz Torres, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El presente trabajo tuvocomo objetivo desarrollar materiales catódicos de LiNi0.4Fe0.1Mn1.5O4 y LiNi0.5Mn1.5O4 para baterías de litio, utilizando el método de combustión usando como combustible urea. Este método se basa en su capacidad para producir materiales homogéneos y de alta pureza mediante una síntesis rápida y eficiente. Se plantea que, al dopar con hierro, se pueden mejorar las propiedades electroquímicas del material catódico, tales como la capacidad específica, la estabilidad ciclable y la cinética de intercalación de iones litio de la misma forma se van a comparar resultados de los diferentes cátodos para corroborar y estudiar  tanto el efecto como el comportamiento que tiene el hierro en medias baterías de litio.



METODOLOGÍA

Se sintetizarán LiNi0.4Fe0.1Mn1.5O4 y LiNi0.5Mn1.5O4  la disolución de precursores metálicos en una solución acuosa con urea, seguida de una combustión controlada en un horno a cierta temperatura para obtener un polvo precursor del material catódico. Este polvo se someterá a un tratamiento térmico adicional para asegurar una estructura cristalina óptima. La caracterización del material se realizará utilizando técnicas como difracción de rayos X (XRD), microscopía electrónica de barrido (SEM), y espectroscopía de energía dispersiva de rayos X (EDS), entre otras como lo son espectroscopía Uv-Vis y FT-IR. Asimismo, se evaluarán las propiedades electroquímicas del material a través de pruebas en medias celdas realizadas en atmósferas inhertes, utilizando ciclado galvanostático, voltametría cíclica y espectroscopia de impedancia electroquímica (EIS) y curvas de carga y descarga para poder obtener los comportamientos de carga y descarga de las medias baterías.


CONCLUSIONES

  Se obtuvieron polvos de LiNi0.4Fe0.1Mn1.5O4 y LiNi0.5Mn1.5O4   utilizando combustión con urea respectivamente fueron caracterizados por las técnicas de XRD, SEM, Uv-Vis, FT-IR para la parte electroquímica, se armaron las baterias de litio con dichos cátodos y se evaluaron las propiedades electroquímicas de cada batería, por último se puede mencionar que el hierro al ser dopado en estos materiales presenta una gran estabilidad para lograr la fase deseada a bajas temperaturas lo que puede permitir un ahorro energético y económico a la hora de realizar baterías con este tipo de cátodos. Sin embargo todavía queda mucho por realizar como lo es la correcta homogenización del material con el aglutinante y el estabilizante para permitir el correcto paso de los electrones a travéz de estos materiales y evitar picos de corriente, también la correcta identificación de la fase obtenida utilizando técnicas de identificación de materiales conocida como Riedveld y la perfección de los materiales utilizando este método de síntesis.
Maldonado Hernandez Edwin Aldair, Instituto Tecnológico de Matamoros
Asesor: Dr. Ismael Santos Ramos, Benemérita Universidad Autónoma de Puebla

SíNTESIS Y CARACTERIZACIóN DE PELíCULAS DE TIO2 COMO DEGRADANTE DE 4-NITROFENOL EN MEDIO ACUOSO


SíNTESIS Y CARACTERIZACIóN DE PELíCULAS DE TIO2 COMO DEGRADANTE DE 4-NITROFENOL EN MEDIO ACUOSO

Maldonado Hernandez Edwin Aldair, Instituto Tecnológico de Matamoros. Asesor: Dr. Ismael Santos Ramos, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua debida a las diversas actividades antropogénicas es una preocupación mundial por causar problemas ambientales, sociales, económicos y especialmente de salud pública. Debido a la escaez del hídrico, se está recurriendo al uso de los procesos de oxidación avanzada como tratamiento alternativo. 4-nitrofenol es utilizado en fabricación de fármacos, tintes, insecticidas, etc. La fotocatálisis heterogénea es un proceso que se basa en la absorción de energía radiante, visible o UV, por un sólido denominado fotocatalizador, que normalmente es un semiconductor de banda ancha. Los fotocatalizadores más investigados, hasta el momento, son los óxidos metálicos semiconductores de banda ancha y, particularmente, el TiO2 (Dióxido de titanio) el cual presenta una elevada estabilidad química.  



METODOLOGÍA

El diseño de experimentos se logra a partir de Efecto de los parámetros experimentales en las propiedades ópticas, estructurales y fotocatalíticas de películas de óxidos metálicos, obtenidas por la técnica de sol-gel. Lavado: Lavar y enjuagar los substratos con jabón libre de sulfatos y agua purificada, con el fin de retirar sedimentos, grasa, etc. Arreglo y baño de mezcla crómica: Acomodar los substratos en forma estratégica en un vaso de precipitado y dejarlos sumergidos 24 horas en mezcla crómica. Limpieza final: Retirar la mezcla crómica con agua desionizada, enseguida retirar restos de agua con etanol. Almacenamiento de substrato: Una vez seco el substrato, guardarlo en un vaso de precipitado limpio, para su debido uso. Las relaciones molares usadas en la preparación de la solución precursora para la obtención de TiO2, son las siguientes: 1. Isopropóxido de titanio: 1 mol. 2. Etanol: 36.46 mol 3. Ácido nítrico: 0.4692 mol 4. Agua: 3 mol Preparación de solución precursora Solución 1: Agregamos ½ etanol + agua + ácido nítrico, con agitación de 300rpm. Solución 2: Agregamos isopropóxido de titanio + ½ etanol, con agitación de 300rpm. Solución precursora de TiO2: A partir de esta solución se crean las películas en un equipo de inmersión. Este proceso se realizó en una atmósfera ambiente, con la intención de lograr la preparación sin atmósfera inerte de N2. Preparación de películas de TiO2 A partir del proceso de inmersión. El equipo en curso está compuesto por un horno, su sistema de inmersión y una base para colocar las muestras correspondientes de substrato y solución precursora. Equipo de inmersión: Las películas fueron hechas en el equipo de inmersión del laboratorio de química del Instituto de Física BUAP. Fijación del substrato: Acomodar el substrato a la base del inmersor, con ayuda de un destornillador (asegurando que el substrato no se contamine o fisure). Inmersión del substrato a la solución: El substrato es sumergido 30 segundos en la solución. Calentamiento de substrato: Una vez retirado el substrato, se concentra en un horno a 250°C durante 120 s. Secado de substrato: Una vez que el substrato sale del horno, se ventila durante un minuto. Este proceso permite dar una sola capa al substrato, por lo que se requiere realizar el proceso según las capas deseadas.


CONCLUSIONES

Espectro de absorción Se tomaron muestras de películas de TiO2 de 1, 2, 3 y 5 capas. Se observa que las bandas de absorbancia tienden a disminuir a medida que aumenta el grosor (número de capas). Espectro de transmitancia Con las muestras presentes se tomaron muestras de porcentaje de transmitancia. La turbidez o desfase de bandas se debe al tratamiento y las condiciones donde se sometió la película, además del número de capas. Band gap de TiO2 A partir de las bandas de absorción de espectros se determina la energía del TiO2 para el salto de banda prohibida, se ha reportado para el cálculo de band gap, que el número de capas del TiO2 se encuentra en rangos de 3.7-3.9 eV. Microscopía electrónica de barrido de película de TiO2 La morfología de la película de TiO2 de 1, 2, 3 y capas, se trataron térmicamente a una temperatura de 100 y enseguida se le dieron 450°C durante 1 y 4 h, respectivamente. 1. Capa 1: En ella se observa una estructura lisa con formas irregulares a 350x. 2. 2 capas: En ella se observa una estructura lisa con formas irregulares e impuresas a 350x. 3. 3 capas: En ella se observa una estructura definida con formar irregulares en 350x. 4. 5 capas: En ella se observa una estructura lisa con formas irregulares a 350x. Fotocatalisis del 4-nitrofenol Las bandas de la composición se encontraba en 318 nm donde se ubicaba la banda del 4-nitrofenol. Al darse el tratamiento con la película de TiO2. Comienza a crecer una banda en los 401 nm, lo cual se da ya que se produce un subproducto llamado 4-nitrofenolato, este componente se degrada de forma natural y eventual por lo que son resultados buenos. Las bandas de 4-NP comienza a bajar gradualmente. Se necesitan películas con mayor porosidad para que crezca el área de contacto con el componente a degradar. Por lo que las velocidades de inmersión deben variarse para tener películas con diferentes propiedades. La solución se degrado con resultados prometedores.
Maliachi Von Der Rosen Isaac, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Maria Morin Castillo, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE SEñALES SINTéTICAS DE ELECTROENCEFALOGRAMAS (EEG) PARA LA DETECCIóN DE FOCOS EPILéPTICOS REPRESENTADAS POR SERIES DE FOURIER.


ANáLISIS DE SEñALES SINTéTICAS DE ELECTROENCEFALOGRAMAS (EEG) PARA LA DETECCIóN DE FOCOS EPILéPTICOS REPRESENTADAS POR SERIES DE FOURIER.

Maliachi Von Der Rosen Isaac, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Maria Morin Castillo, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La epilepsia es un trastorno neurológico crónico caracterizado por la presencia recurrente de actividad eléctrica anormal en el cerebro. Estos episodios pueden manifestarse de diversas maneras, como convulsiones, pérdida de conciencia, comportamientos inusuales o sensaciones anormales. Es uno de los trastornos neurológicos más prevalentes en todo el mundo. Se estima que afecta a aproximadamente 50 millones de personas a nivel global, lo que representa alrededor del 1% de la población mundial. Este alto número lo convierte en uno de los trastornos neurológicos más comunes, superado solo por condiciones como la migraña y la enfermedad de Alzheimer. La epilepsia se clasifica en varios tipos, incluyendo epilepsias focales, generalizadas y epilepsias desconocidas. En este trabajo, nos enfocaremos en las epilepsias focales, que se originan en áreas específicas del cerebro y pueden presentar diversos síntomas dependiendo de la región afectada. Los focos epilépticos, también conocidos como focos de epilepsia o zonas epileptogénicas, son áreas específicas del cerebro donde se origina la actividad eléctrica anormal que desencadena las crisis epilépticas. Estas áreas pueden ser pequeñas regiones localizadas o extenderse a lo largo de áreas más amplias del cerebro. Estas regiones generan oscilaciones y ondas anormales que pueden ser detectadas mediante electroencefalogramas (EEG). Las características de estas oscilaciones pueden proporcionar información sobre la localización del foco, la amplitud de las ondas epilépticas se refiere a la magnitud de la desviación del potencial eléctrico del cerebro respecto a su línea base, puede variar ampliamente, típicamente entre 50 y 300 microvoltios (µV), aunque en algunos casos pueden superar los 500 µV, hay diferentes tipos de ondas durante los focos pero usualmente la duración de estos son entre 20 y 70 milisegundos, cuando la onda tiene forma de espiga, mientras que las ondas agudas y complejos espiga-onda pueden durar varios segundos. La prevalencia de la epilepsia en México se estima en alrededor de 1.5 millones de personas, y un gran porcentaje de estos casos corresponde a epilepsia focal. Factores como la falta de acceso a atención médica adecuada, el estigma social y la insuficiencia de recursos para diagnóstico y tratamiento han exacerbado la situación, convirtiendo la epilepsia en una carga sustancial tanto para los individuos afectados como para el sistema de salud en general. Las series de Fourier permiten descomponer señales complejas, como los electroencefalogramas (EEG), en sus componentes de frecuencia. Esta descomposición ayuda a identificar patrones anómalos que pueden indicar la presencia de actividad epiléptica.



METODOLOGÍA

Se realizó una representación de un pico epiléptico utilizando una función gaussiana. La función gaussiana se elige debido a su continuidad y simetría, lo cual la hace adecuada para modelar picos epileptiformes con precisión. Los parámetros de la función gaussiana, como la desviación estándar (σ) y la media (t_0), permiten controlar la anchura y la altura del pico. La función gaussiana tiene la forma de una curva en campana que depende de una amplitud A, de la desviación estándar σ que representa la duración del foco epiléptico, y de la media t_0​ que indica la ubicación del foco en el tiempo. La expresión general de la función gaussiana es una exponencial que decrece a medida que se aleja del tiempo t_0​. Para representar esta función gaussiana a través de una serie de Fourier, utilizamos una serie que se expresa como una suma de términos de coseno y seno. En esta serie, la función se descompone en una suma infinita de estas funciones base multiplicadas por coeficientes que representan la amplitud de cada término. La serie de Fourier se utiliza para aproximar funciones periódicas, y se calcula mediante la suma de términos donde cada término está asociado con una frecuencia particular. Los coeficientes a_0, a_n y b_n​, ​ son fundamentales en esta descomposición. El coeficiente a_0 representa el valor promedio de la función a lo largo del intervalo, mientras que los coeficientes a_n​ y b_n determinan las amplitudes de las componentes de coseno y seno a diferentes frecuencias. Estos coeficientes se obtienen a través de integrales de la función gaussiana multiplicada por cosenos y senos. Coeficiente a_0: Se obtiene integrando la función gaussiana a lo largo del intervalo definido. Este coeficiente representa la media de la función en el intervalo y se calcula como la integral de la función gaussiana dividida por el intervalo total. Coeficientes a_n y b_n​: Estos coeficientes se calculan integrando la función gaussiana multiplicada por cosenos y senos, respectivamente, a diferentes frecuencias. Estos valores reflejan cuánto contribuye cada frecuencia a la forma general de la función. Para aproximar la función gaussiana, se adaptaron estas ecuaciones. Se calcularon los coeficientes utilizando integrales y desarrollos en serie.  Las señales sintéticas de EEG se generaron utilizando Python, lo que permitió un control preciso sobre características como la frecuencia, la amplitud y la forma de onda. Se simularon picos epilépticos con valores idealizados para la amplitud A, la desviación estándar σ y la media t_0. La función gaussiana se aproximó mediante la serie de Fourier hasta el noveno orden para modelar y analizar los picos epilépticos en las señales sintéticas.  


CONCLUSIONES

En esta estancia se adquirieron conocimientos teóricos sobre el modelamiento matemático y se obtuvo una perspectiva más aplicada de las series de Fourier en problemas reales. A pesar de las limitaciones temporales, se propuso una función que, aunque no es la más adecuada para representar señales EEG, proporciona información valiosa en los picos. Sin embargo, en el resto de la señal, esta función no se adapta de manera óptima. A pesar de estas limitaciones, las series de Fourier demostraron ser herramientas eficaces para el análisis de señales, permitiendo una descomposición detallada y un análisis más preciso de las características de las señales.
Mancillas Betancourt Zitlhaly Esmeralda, Universidad Autónoma de Tamaulipas
Asesor: Prfnal. Cristhian Iván Bucheli Viteri, Instituto de Educación Técnica Profesional de Roldanillo Valle - INTEP

EVALUACIóN DE LA CALIDAD Y CANTIDAD HíDRICA DE LA PARTE ALTA DE LA MICROCUENCA PLATANARES


EVALUACIóN DE LA CALIDAD Y CANTIDAD HíDRICA DE LA PARTE ALTA DE LA MICROCUENCA PLATANARES

Mancillas Betancourt Zitlhaly Esmeralda, Universidad Autónoma de Tamaulipas. Asesor: Prfnal. Cristhian Iván Bucheli Viteri, Instituto de Educación Técnica Profesional de Roldanillo Valle - INTEP



PLANTEAMIENTO DEL PROBLEMA

En la microcuenca Platanares, ubicada en el Valle del Cauca, la calidad del agua está siendo afectada por diversas actividades antrópicas y naturales, lo que compromete tanto su pureza como su disponibilidad. Las principales causas de la contaminación hídrica en esta área incluyen la disposición inadecuada de residuos sólidos y vertimientos de aguas residuales. Estas actividades están exacerbadas por el aumento de cultivos de aguacate y plantaciones de eucalipto, especialmente en zonas altas y puntos de recarga, generando problemas debido a las características invasivas del eucalipto. Además, las prácticas agrícolas inadecuadas contribuyen a la erosión y sedimentación, y la falta de sistemas adecuados de tratamiento de aguas residuales incrementa los niveles de contaminación en los cuerpos de agua. El informe nacional sobre la gestión del agua en Colombia, respaldado por la Asociación Mundial del Agua y la Cepal, señala que los sectores agropecuarios, industriales y domésticos son los principales responsables del deterioro de la calidad del agua en el país, generando cerca de 9 mil toneladas de materia orgánica contaminante. A partir de esta problemática, surge la siguiente pregunta de investigación: ¿Cuál es la calidad del agua en la zona alta de la microcuenca Platanares y cuál es su cantidad hídrica?



METODOLOGÍA

La metodología para evaluar la calidad del agua en la microcuenca Platanares incluye un enfoque sistemático que abarca selección de sitios de muestreo, recolección, análisis de datos y análisis de caudales utilizando el método de flotador, con interpretación de resultados según las condiciones específicas de la microcuenca. Planificación y Preparación Identificación de Parámetros: Se determinan los parámetros a evaluar, tales como nitratos, nitritos, pH y amoniaco. Selección de Sitios de Muestreo: Se eligen sitios representativos en la zona alta de la microcuenca. Preparación del Equipo: Preparación de recipientes e instrumentos de medición para la recolección de muestras. Toma de Muestras: Recolección en puntos seleccionados, etiquetado y almacenamiento refrigerado de las muestras. Medición del Caudal por el Método de Flotador Preparación y Selección del Sitio: Selección de un tramo recto y de flujo uniforme del río o arroyo. Medición de una distancia conocida (10-20 metros). Preparación del equipo necesario: flotador, cronómetro, cinta métrica y marcadores. Procedimiento de Medición del Caudal: Marcado del tramo: Medición y marcación de la distancia entre los puntos de inicio y fin. Colocación del flotador en el centro del flujo y medición del tiempo de recorrido. Repetición del procedimiento al menos tres veces y cálculo del tiempo promedio. Cálculo del Caudal: Cálculo de la velocidad del flujo (V) usando la fórmula: V=DistanciaTiempoV = frac{Distancia}{Tiempo}V=TiempoDistancia​. Medición del área transversal del flujo (A) mediante la profundidad en varios puntos y cálculo del área promedio. Cálculo del caudal (Q) usando la fórmula: Q=A×VQ = A imes VQ=A×V. Documentación y Reporte Registro de Datos: Documentación de todos los datos de campo y laboratorio en formularios estandarizados, incluyendo detalles del sitio de muestreo, condiciones ambientales y observaciones relevantes. Análisis de Resultados: Comparación de los resultados con los estándares de calidad del agua establecidos por normativas locales e internacionales. Elaboración de Informes: Presentación de los resultados en informes detallados con gráficos, tablas y mapas de ubicación.


CONCLUSIONES

La comparación de la calidad del agua entre las vertientes izquierda y derecha de la microcuenca Platanares revela que la vertiente izquierda presenta una mejor calidad del agua. Sin embargo, la vertiente derecha muestra una mayor biodiversidad, con una notable abundancia de alevinos, de zavaletas, sardinas y algunos macroinvertebrados, mientras que en la vertiente izquierda se identificaron principalmente macroinvertebrados como coleópteros. El análisis histórico del caudal del río Platanares evidencia una disminución significativa en los últimos 13 años, pasando de 256 litros por segundo en 2011 a 68 litros por segundo en 2024, lo que representa una pérdida de 173 litros por segundo y una reducción del 73% en el caudal. Esta disminución drástica subraya la urgente necesidad de implementar estrategias de conservación y gestión sostenible del recurso hídrico en la región para preservar tanto la calidad como la cantidad del agua disponible.
Manzanares Balmaceda Ariel Ignacio, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Mg. Hector Garcia Arana, Universidad del Valle

APLICACIONES DE LAS MATEMáTICAS EN CONTEXTO CASO: “ESTUDIO DEL CONCEPTO DE ANáLISIS MARGINAL UTILIZANDO LA HERRAMIENTA GEOGEBRA”


APLICACIONES DE LAS MATEMáTICAS EN CONTEXTO CASO: “ESTUDIO DEL CONCEPTO DE ANáLISIS MARGINAL UTILIZANDO LA HERRAMIENTA GEOGEBRA”

Castro Solis Carolina Elizabeth, Universidad Politécnica de Victoria. Manzanares Balmaceda Ariel Ignacio, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Mg. Hector Garcia Arana, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

La enseñanza y el aprendizaje de conceptos matemáticos, han sido un desafío constante en el campo de la educación. Uno de las alternativas que ha ganado la atención de lo educadores, ha sido la implementación de softwares que permitan una mejor demostración y aplicabilidad de los procesos plasmados por los docentes. En educación superior los estudiantes en general presentan dificultades al enfrentar aplicaciones de la matemática. Un caso a estudiar en esta estancia de investigación es el de los estudiantes de programas del área de economía que enfrentan dificultades para comprender y aplicar el concepto de análisis marginal. El Análisis Marginal, como temática que involucra ampliamente las nociones matemáticas como lo es el cálculo, específicamente la aplicación de la derivada, conlleva a ser poco comprendido por estudiantes con poca competencia matemática tanto conceptual, operativa y de aplicaciones, no obstante, se encuentra alternativas para mejorar estos aspectos. Por lo tanto, se plantea la siguiente pregunta ¿Cómo podemos utilizar GeoGebra como herramienta para construir conocimiento y mejorar la comprensión del análisis marginal?



METODOLOGÍA

La presente investigación, plantea un método constructivista debido a las capacidades que se presentaron al momento de comenzar con la investigación, donde los miembros del equipo de trabajo contaban con los conocimientos básicos presentados por el asesor en las distintas reuniones, para posteriormente crear los materiales y herramientas necesarias para la implementación del trabajo de investigación planteado. Además, la implementación de las TIC a esta metodología, logró una mejor compresión, motivación y experiencia al momento de realizar el trabajo. Con la implementación de esta metodología se logra interesar y captar más la atención de los estudiantes creando una propuesta de trabajo con  material innovador y a la vez de acorde a la temática, donde no se redunde de información y tenga relación a la temática. Para el desarrollo de esta metodología se llevaron a cabo ciertos procesos que permitieron realizarlo con éxito: 1. Exploración: se plantea la exploración de las funciones de costo, ingresos y utilidad, además, del beneficio al utilizar la herramienta GeoGebra, identificando patrones y relaciones. Por lo tanto, de esta forma, se logra conocer una nueva alternativa para la compresión de la temática, a través de las herramientas que brinda el software, y se logran aprender de forma fácil. 2. Construcción: con la construcción de su propio conocimiento (apropiación de conocimiento) se logra un mejor aprendizaje, ya que, con la realización de gráficas propias facilita mejor un análisis marginal. Utilizando GeoGebra como herramienta para visualizar y comprender las relaciones, se puede conseguir un aprendizaje que este al alcance de entender la temática de una forma práctica. 3. Reflexión: se reflexiona sobre los hallazgos, identificando conexiones con conceptos económicos y tomando decisiones informadas. 4. Comunicación: se presentan los resultados y conclusiones, compartiendo la comprensión del análisis marginal. Esto se realiza con una propuesta de guía de aprendizaje la cual fue aprobada por el investigador. Guía de Trabajo para Enseñanza y Aprendizaje: Sesión 1: Introducción al Análisis Marginal - Presentación del concepto de análisis marginal - Exploración de funciones de costo y beneficio en GeoGebra Sesión 2: Construcción de Gráficas y Análisis Marginal - Construcción de gráficas de costo y beneficio en GeoGebra - Análisis marginal utilizando GeoGebra Sesión 3: Reflexión y Comunicación - Reflexión sobre hallazgos y conexiones con conceptos económicos - Presentación de resultados y conclusiones Sesión 4: Aplicación del Análisis Marginal - Aplicación del análisis marginal a casos prácticos - Discusión y reflexión sobre resultados Una vez realizada la guía, se procedió a realizar una propuesta de artículo de revisión bibliográfica, donde se trata de recaudar información de la aplicación de GeoGebra para el estudio del análisis marginal. Cabe mencionar que, este artículo, lleva implícito lo creado en la guía, esto con el fin de reforzar de forma bibliográfica los conocimientos que adquirimos durante la estancia y poder brindar un aporte al área de investigación y brindar el material necesario para futuras investigaciones.


CONCLUSIONES

- GeoGebra es una herramienta efectiva para construir conocimiento en análisis marginal, permitiendo a los estudiantes explorar, construir y reflexionar sobre conceptos económicos. Debido a su fácil manejo y amplias herramientas, el programa permite resolver dudas y dar demostraciones sobre la temática. Esta herramienta tecnológica toma el aprendizaje teórico y lo transforma en una experiencia práctica, manipulable y dinámica, proporcionando una base concreta para la adquisición del análisis marginal y de conocimientos necesarios para enfrentar desafíos académicos y profesionales. - El enfoque constructivista con GeoGebra mejora la comprensión y aplicación del análisis marginal, permitiendo a los estudiantes tomar decisiones informadas. Además, su aplicabilidad en la educación facilita a los docentes transmitir sus conocimientos de una forma innovadora y estar al alcance de las características que presenten los estudiantes. - La implementación de GeoGebra permite el desarrollo de habilidades primordiales en los estudiantes fomentando el aprendizaje activo en el cual los estudiantes son los protagonistas en la creación de su propio conocimiento en el cual alcanzan un aprendizaje significativo lo cual fortalece su motivación e interés. -Para la realización de este trabajo de investigación se debe contar con una buena disposición de parte de los estudiantes y el asesor. Este trabajo en grupo permite trabajar con equidad e igual de género.
Marcial Manzano Diego Javier, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE UN PROTOTIPO DE MáQUINA DE PRUEBAS UNIVERSALES.


DESARROLLO DE UN PROTOTIPO DE MáQUINA DE PRUEBAS UNIVERSALES.

Marcial Manzano Diego Javier, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El uso de máquinas de ensayo para realizar pruebas de resistencia mecánica es bastante útil, ya que nos permite calcular el módulo de elasticidad y la tensión de ruptura del material sometido a la prueba. Estos datos son muy relevantes, ya que nos permiten determinar la resistencia y calidad de diversos materiales. Sin embargo, el precio de estas máquinas es bastante elevado, lo que dificulta su adquisición. Teniendo esto en cuenta, se propone el desarrollo de un prototipo que pueda realizar dichas pruebas con un costo más accesible en comparación con los modelos disponibles en el mercado. Esto se logrará aprovechando las posibilidades que ofrecen las tecnologías de diseño e impresión 3D.



METODOLOGÍA

Para el desarrollo de este prototipo, se propuso el uso de un controlador lineal que funcionara como pistón para realizar las pruebas necesarias. Para detectar la fuerza aplicada, se utilizó una celda de carga tipo S. Para controlar los componentes del prototipo, se optó por una placa Arduino Mega 2560. Una vez obtenidos los componentes necesarios, se probaron cada uno por separado para comprobar su correcto funcionamiento antes del ensamblaje del prototipo. En el caso de la celda de carga, se tuvo que realizar un código separado en el que se estableció el valor de detección del sensor en 0. Posteriormente, se colocó un objeto de peso conocido sobre el sensor y este imprimió el promedio de las lecturas del sensor. Con la ayuda de este código y el peso conocido del objeto, se pudo calcular el factor de escala de la celda de carga, dividiendo el valor obtenido por la celda entre el valor real del objeto. Una vez realizada esta calibración, el factor obtenido será vital para el buen funcionamiento del prototipo final. Por otro lado, debido a que el controlador lineal no funciona con un motor a pasos, se optó por controlarlo mediante duraciones de pulsos. Inicialmente, se envía la instrucción de encender el controlador lineal por un tiempo determinado, luego se mide la distancia recorrida para obtener el valor de su velocidad. Con este valor, se puede estimar la duración del pulso para mover el controlador lineal a una distancia dada. Con este método, y debido a sus limitaciones, se obtuvieron pasos de 0.3 mm con una varianza de 0.1 mm. Con los dos componentes principales calibrados, se procedió al diseño del prototipo, que consiste en una estructura de aluminio similar a las de las impresoras 3D. En la parte superior se encuentra la celda de carga y en la parte inferior el controlador lineal, ambas piezas centradas en el mismo eje. Con esta idea en mente, se diseñaron las mordazas que se adaptan al sistema, además de una pieza de soporte para el controlador lineal, finalizando el diseño del prototipo. Con el diseño del prototipo terminado, se procedió a imprimir las piezas faltantes con la ayuda de las impresoras 3D del laboratorio de impresión 3D de la Facultad de Ciencias Físico Matemáticas de la BUAP. Una vez impresas las piezas necesarias, se montó el prototipo y se programó el código final. Además, se diseñó una interfaz con la cual el usuario pueda: Utilizar las funciones básicas; encender y apagar el sistema. Ajustar la altura del controlador para el material de estudio. Inicial la prueba. Reiniciar la prueba para otro material. Con el prototipo montado y una interfaz básica hecha, se realizaron pruebas y test del prototipo con trozos de filamento PLA para impresoras 3D, con la intención de verificar su correcto funcionamiento.


CONCLUSIONES

Durante la estancia de verano, se adquirieron diversos conocimientos en el uso y programación de sensores, los cuales se aplicaron en el desarrollo de este proyecto. También se pusieron en práctica mis conocimientos en diseño e impresión 3D. Aunque el proyecto alcanzó etapas muy avanzadas y las pruebas realizadas mostraron resultados significativos, aún es necesario mejorar la precisión de los pasos del controlador lineal. Actualmente, se logró un paso de 0.3 mm, lo cual es aceptable, pero lo ideal sería alcanzar un paso de 0.1 mm para obtener una mayor cantidad de datos durante las pruebas. Además, el prototipo tiene el potencial de ser adaptado para realizar pruebas de compresión, además de las pruebas de estiramiento inicialmente previstas.
Mares Solorzano Fernanda Yazmin, Universidad Autónoma de Ciudad Juárez
Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla

ANáLISIS DEL DECAIMIENTO DE EVENTOS ZMUMU, JPSI, YMUMU EN DIMUONES A PARTIR DE COLISIONES PROTóN - PROTóN


ANáLISIS DEL DECAIMIENTO DE EVENTOS ZMUMU, JPSI, YMUMU EN DIMUONES A PARTIR DE COLISIONES PROTóN - PROTóN

Mares Solorzano Fernanda Yazmin, Universidad Autónoma de Ciudad Juárez. Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La física de partículas es la rama de la física que estudia la materia y sus interacciones a la escala más pequeña conocida. Se enfoca en los bloques fundamentales de la naturaleza, que son las partículas elementales y las interacciones entre ellas. Los conocimientos en este campo se obtienen a través de métodos como la medición y la experimentación. Muchas de estas experimentaciones tienen lugar en el Gran Colisionador de Hadrones (LHC), donde se hacen colisionar protones en cuatro puntos específicos a lo largo del colisionador. En cada uno de estos puntos, un detector registra los resultados de cada interacción. En el presente análisis de los eventos de decaimiento Zmumu, Jpsi y Ymumu en dimuones resultantes de colisiones protón-protón, se detallan los procesos de selección de datos y los criterios para identificar candidatos a decaimiento de acuerdo a estándares conocidos.



METODOLOGÍA

Los datos para el análisis se obtuvieron mediante experimentos registrados en 2011 en el detector CMS del LHC. Estos datos se utilizaron posteriormente en búsquedas experimentales posteriores. El conjunto de datos, conocido como Sample1, contiene 100.000 datos CSV agrupados en 12 variables, de las cuales 6 se utilizan para clasificar cada desintegración en uno de tres eventos en función de criterios específicos. Los eventos incluyen Zmumu, que es la desintegración de un bosón Z en dos muones, Jpsi, que es una partícula mesónica compuesta por un quark charm y un antiquark charm, e Ymumu, que es la desintegración de partículas Y en dos muones. Dimuon se refiere a cualquier suceso en el que se detectan dos muones, que pueden ser producto de diversas desintegraciones y procesos. Candidatos a Zmumu: Un evento fue seleccionado si había 2 muones en el, ambos con un momento transversal (pT) mayor a 20 GeV y pseudorapidez (eta) menor a 2.4, la masa invariante (M) de los dos muones debía estar en el rango de 80 GeV y a 100 GeV. Candidatos a Jpsi: Un evento fue seleccionado si había dos muones en el evento, ambos con una pseudorapidez (eta) menor a 2.4, al menos uno de los muones era un Global muon, el rango de la masa invariante (M) de ambos va desde los 3.070 GeV y hasta los 3.098 GeV, deben poseer una carga de signo opuesto. Candidatos a Ymumu: Un evento fue seleccionado si había dos muones en él, ambos con una pseudorapidez (eta) menor a 2.4, al menos uno de los muones involucrados era un Global muon, el rango de la masa invariante (M) va de 9.350 GeV y hasta 9.56 GeV,los muones deben poseer una carga de signo opuesto. El análisis se llevo a cabo con ayuda de un algoritmo en el software Python. Su función era mostrar tanto en histogramas como de manera textual, la clasificación de todos aquellos eventos de la muestra que pertenecieran a cada posible categoría, esto a partir de el cumplimiento de cada criterio de evaluación. Un medio de referencia de estos resultados, es la gráfica del espectro de masa invariante de dimuones y de las partículas en la que estos se desintegran que presenta la colaboración del CMS en el articulo denominado Rendimiento de la reconstrucción de muones CMS en eventos de colisión PP a 7TeV, un dibujo muy similar en el histograma de cada partícula indicaría que, efectivamente, podríamos considerar estos eventos como un mesón Y, un mesón Jepsi o un bosón Z Selección de candidatos Zmumu Los muones de el decaimiento de un bosón Z son identificados principalmente en base a la masa invariante de estos. La masa invariante del boson Z es 91.1876±0.0021 GeV, por lo tanto aquellos eventos que cumplan con una masa invariante en el rango de 80-100 GeV son considerados y mostrados en los resultados. De la muestra total, obtenemos que alrededor del 4.7% eventos son candidatos a un decaimiento del boson Z. Jpsi Los muones candidatos a ser un decaimiento de el mesón Jpsi fueron identificados en base a la masa invariante, la carga con signos opuestos entre ambos muones, la pseudo rapidez de estos y la característica de que al menos uno, de los dos muones debía pertenecer a un Global Muon. La masa invariante del Jpsi se establece en 3.096±0.006 GeV, son candidatos aquellos eventos donde la masa pertenezca al rango de 3.070 hasta 3.098 GeV, un margen de error en la masa de .19%. La pseudorapidez, eta, es considerada en un valor máximo de 2.4, para que la detección de la posición de la partícula en el detector sea mas acertada, sera reducido hasta 2.1, asi, aquellos eventos que cumplan con los criterios de evaluación serán candidatos a pertenecer a la categoría de Jpsi. Como resultado obtenemos un 2.4% del total de la muestra, lo que se traduce a 2399 candidatos a este evento. Ymumu Los muones candidatos a la desintegración de un mesón Y fueron elegidos en base a la masa invariante, la carga con signos opuestos entre ambos muones, la pseudo rapidez de estos y la característica de que al menos uno, de los dos muones debía pertenecer a un Global Muon. La masa invariante de Y se establece en 9.46±0.09 GeV, por lo cual, son candidatos aquellos eventos donde la masa pertenezca al rango de 9.350 hasta 9.56 GeV, un margen de error en la masa de 0.95% . La pseudorapidez, eta, tambien se encuentra reducida hasta 2.1, de esta forma se aisla más la señal detectada y se reduce el margen de error. Aquellos eventos que cumplan con estos criterios, serán candidatos a pertenecer a la categoría de Y. Como resultado obtenemos un 1.07% del total de la muestra, lo que se traduce a 1070 candidatos.


CONCLUSIONES

Se analizaron los eventos de colisiones protón-protón registradas en el LHC para identificar y clasificar los decaimientos de partículas específicas: el bosón Z, el mesón J y el mesón Y. Utilizando un algoritmo desarrollado en Python, se clasificaron los eventos en base a criterios bien definidos, como la masa invariante y la pseudorapidez de los muones resultantes. Confirmando la validez del método utilizado, se pueden observar claras similitudes entre el articulo utilizado como referencia y los resultados obtenidos en este estudio. La coincidencia entre los picos de los histogramas obtenidos y los esperados sugiere que los eventos seleccionados son efectivamente decaimientos de las partículas estudiadas. Este trabajo contribuye a la comprensión de la física de partículas y a la validación de modelos teóricos mediante datos experimentales.
Márquez Gallegos Gil Ezra, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Claudia Moreno González, Universidad de Guadalajara

DETECCIóN Y CARACTERIZACIóN DE ONDAS GRAVITACIONALES PRODUCIDAS POR COALESCENCIA DE SISTEMAS BINARIOS COMPACTOS.


DETECCIóN Y CARACTERIZACIóN DE ONDAS GRAVITACIONALES PRODUCIDAS POR COALESCENCIA DE SISTEMAS BINARIOS COMPACTOS.

Márquez Gallegos Gil Ezra, Universidad Michoacana de San Nicolás de Hidalgo. Rivera Ortiz Carlos Eduardo, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Claudia Moreno González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las ondas gravitacionales son perturbaciones del espaciotiempo provocadas por eventos astronómicos altamente violentos y energéticos, y surgen como soluciones de tipo onda a las Ecuaciones de Campo de Einstein, donde, el mismo las predijo en 1916. En 1974 Hulse y Taylor observaron al pulsar binario B1913+16, notando que el sistema se comportaba como uno que radiaba ondas gravitacionales, valiéndoles el premio Nobel de 1993. La asociación LIGO construyó un interferómetro de Michelson especializado en la detección de ondas gravitacionales; detectando a la primera onda gravitacional el 14 de septiembre del 2015, con el evento GW150914. Actualmente, se han confirmado alrededor de 90 eventos de ondas gravitacionales a través de los detectores de LIGO-VIRGO-KAGRA; sin embargo, se requiere de un estudio y análisis de datos para confirmar un evento de onda gravitacional. Este estudio y análisis de datos de ondas gravitacionales producidas por coalescencia de sistemas binarios compactos fue el objetivo de este proyecto.



METODOLOGÍA

Para poder realizar un modelo computacional que permita predecir la forma que tendría una señal de una onda gravitacional producida por una coalescencia de objetos compactos (estrellas de neutrones o agujeros negros), fue necesario comenzar por entender la definición de ondas gravitacionales; por lo que, se realizó un desglose matemático a través de la aproximación cuadrupolar y cambio de sistemas de coordenadas (entre observador y del objeto) para llegar a la obtención de la ecuación de onda, sus soluciones en el vacío, con fuentes, y finalmente se obtuvieron los dos estados de polarización (cruz y suma) que puede tener una onda gravitacional. Posteriormente, se realizó un análisis del detector LIGO, que se compone de un interferómetro tipo Michelson con brazos de 4 km de longitud y ubicado de manera estratégica para comprobar las detecciones.  Este proceso involucró conocer las características generales con las que cuenta el detector para que sea lo suficientemente sensible para detectar las pequeñas perturbaciones que producen las ondas gravitacionales (conociendo la forma física de medirlas y su orden de magnitud); por tanto, eliminar el ruido en la señal generado por distintas fuentes propias del detector es crucial para el descubrimiento de eventos astronómicos a través de esta herramienta.  Una vez comprendido cómo es que se realizan las detecciones en el instrumento, se procedió con la búsqueda de información acerca de sus limitaciones, es decir, qué tan sensible es el detector y a qué frecuencias es posible detectar ondas gravitacionales procedentes de alguna colisión entre objetos compactos. Con esta información, fue posible reconocer la factibilidad del detector para encontrar ondas gravitacionales producidas por este tipo de colisiones entre objetos compactos. A través de las librerías en Python PyCBC diseñadas por la colaboración LIGO-VIRGO-KAGRA se puede simular la forma y magnitud de una señal utilizando los parámetros estimados para el evento (masa de cada objeto, distancia luminosa, spin y razón entre las masas de ambos objetos). Esta simulación se adapta a las características frecuenciales de las señales a analizar (obtenidas a través del cálculo de su densidad de potencia espectral de las mismas); por lo que, una vez adaptada la simulación; por lo general, se utiliza un filtro adaptado para calcular la razón señal a ruido (SNR)  y determinar si el máximo es estadísticamente significativo para considerarse como una detección; esto último se realiza utilizando pruebas estadísticas como pruebas de hipótesis nulas, cálculo de valores p y chi cuadrada.  Se realizó un ejercicio  de cómo se simula una señal real de colisión de objetos compactos (estrellas de neutrones y agujeros negros) a través de los parámetros estimamos para los eventos, se adapta y se busca en los datos del interferómetro (previamente procesados para amortiguar el ruido). Adicionalmente, se realizó una clasificación de los eventos de coalescencia de objetos compactos previamente reportados por la colaboración LIGO-VIRGO-KAGRA a través de una revisión de los artículos que fueron publicados con ese propósito a lo largo de los años. 


CONCLUSIONES

La colaboración LIGO-VIRGO-KAGRA ha contribuido al desarrollo del estudio de ondas gravitacionales como una ciencia experimental que necesita tanto del desarrollo tecnológico en los detectores como de la parte del análisis de datos computacional. Para poder realizar una detección de ondas gravitacionales  generadas por objetos compactos, se necesita realizar simulaciones numéricas avanzadas y procesamiento de señales utilizando lenguajes de programación como Python y Fortran.    Para comprobar una detección se realizaron pruebas estadísticas y se verificó que se haya detectado la misma señal en al menos dos detectores. Este análisis de datos es comparado con una señal previamente detectada, para comprobar los resultados. Finalmente, se espera que en los próximos años, el estudio de las ondas gravitacionales se dé a conocer al público general como una nueva forma de realizar astronomía y la formación de recursos humanos en el área contribuya a la mejora de la educación de calidad en nuestro país. 
Marquez Moreno Sarahi, Instituto Tecnológico Superior de Huauchinango
Asesor: Dra. Georgina Beltrán Pérez, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE SENSORES BASADOS EN FIBRA óPTICA PARA LA DETECCIóN DE ETANOL, METANOL Y ACETONA.


DESARROLLO DE SENSORES BASADOS EN FIBRA óPTICA PARA LA DETECCIóN DE ETANOL, METANOL Y ACETONA.

Díaz Solís Rossuany Margareth, Universidad Autónoma de Chiapas. Marquez Moreno Sarahi, Instituto Tecnológico Superior de Huauchinango. Asesor: Dra. Georgina Beltrán Pérez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de sistemas de análisis capaces de detectar compuestos orgánicos volátiles (VOCs) en el aliento representa una herramienta prometedora para la detección de enfermedades en México. La presencia de VOCs en el aliento y su correlación con diversas patologías como diferentes tipos de cáncer (pulmonar, prostático y de mama), diabetes, enfermedades gástricas, asma, entre otras; debido al desbalance metabólico que generan, representa grandes posibilidades para el pre-diagnóstico y monitoreo de estas. Este nuevo método ofrece como ventajas evitar los riesgos e incomodidades que implican las técnicas tradicionales, los cuales son invasivos para los pacientes, además de ofrecer un diagnóstico más rápido, temprano e incluso más accesible. Los sensores de fibra óptica a través de sus diferentes configuraciones buscan ser una alternativa eficaz para estos nuevos métodos de detección, se han construido sensores para la detección de diferentes VOCs como amonio, propanol, benceno, etanol, metanol y acetona a partir de fibras adelgazadas, rejillas de periodo largo e interferómetros de Mach-Zehnder (MZI). Este trabajo propone el estudio experimental de sensores MZI basados en fibra óptica adicionados con polidimetilsiloxano (PDMS) y polimetilmetacrilato (PMMA) como películas sensibles, para la detección de etanol, metanol y acetona, los cuales son de los VOCs más presentes en el aliento, a través de la aplicación de la técnica de análisis multivariable PCA (Análisis de componentes principales).



METODOLOGÍA

Se utilizó un carrete de fibra óptica estándar monomodo SMF-28e+ del cual se cortaron secciones de 80 cm de largo a las cuales en el centro a lo largo de 5 cm se les retiró el recubrimiento (zona efectiva del sensor). Con ayuda de una empalmadora FITEL S176 en su modo manual se procedió a realizar el grabado del sensor en la zona efectiva antes mencionada, basándonos en el método de arco eléctrico descrito por G. Rego en 2007 [1]. El interferómetro consta de dos rejillas de periodo largo (LPFG) con un periodo de 515 um, cada una con 20 puntos y un 1 cm de separación entre ellas. Una vez grabados los MZI, tres de ellos fueron depositados con PDMS y otros tres con PMMA. El PDMS fue depositado directamente sobre la fibra usando el método de drop-casting y se dejó curando por 24 horas a temperatura ambiente. Para el depósito de PMMA fue necesario diluirlo en cloroformo, para esto se preparó una disolución compuesta por 50 mg de PMMA y 50 ml de cloroformo, se vertió en una caja Petri donde se sumergió la zona efectiva del sensor durante 24 horas. Para el proceso de inyección, un par de sensores (uno con PDMS y otro con PMMA) serán inyectados con un alcohol diferente. El primer alcohol inyectado fue el etanol, después el metanol y finalizamos con la acetona. Se colocó el sensor dentro de una cámara de teflón para después empalmar un extremo de la fibra a un diodo láser superluminiscente cuya longitud de onda se encuentra en un rango de 1400 a 1550 nm, y el otro extremo a un analizador de espectros ópticos (OSA). A través de un compartimiento de la cámara de teflón, utilizando una jeringa con resolución de 1 ul se procedió a inyectar 0.1 ul del alcohol a medir cada 10 minutos hasta alcanzar un volumen de inyección de 1 ul, al llegar a este valor se abre la cámara y se conecta una bomba para purgar la cámara durante 10 minutos, posterior a este tiempo se repite el proceso de inyección dos veces más y así para cada sensor con su alcohol y película correspondiente a analizar. Finalmente, habiendo inyectado todos los sensores, comenzamos el proceso de análisis de los resultados experimentales obtenidos. Debido a que el análisis de estos sensores es a través de las variaciones en los espectros medidos, los cuales contienen 751 datos por espectro, se optó por procesar toda nuestra información con ayuda del método multivariable y de reducción de dimensionalidad PCA. Para poder visualizar el comportamiento de los sensores consideramos únicamente tres componentes principales (los componentes principales, PC, son las nuevas variables que se obtienen del PCA a partir de las variables originales de entrada), y se graficó PC1 vs concentración, PC1 vs PC2 y PC1 vs PC2 vs PC3.


CONCLUSIONES

Como primer resultado relevante, obtenemos que, de los tres alcoholes, la acetona es el compuesto mas agresivo, debido a que, tanto en el caso de el PDMS como en el del PMMA este logro corroer la pelicula sensora de una manera mas rapida y con concentraciones menores que los otros dos. De manera general el comportamiento del sensor se ve afectado por la interacción del sensor con las particulas del compuesto utilizado desde la primera inyección, ya que, apesar de contar con un sistema de purga nuestro sensor nunca regresa a su estado inicial, sin embargo, aún sigue funcionando y detectando el compuesto en la segunda y tercera inyección. También se pudo observar que ambos polimeros (PDMS y PMMA) presentan una buena reacción a los tres alcoholes, sin embargo, de manera especial, el etanol provoca grandes variaciones en el espectro del sensor al interactual con PMMA, y el metanol con el PDMS. Finalmente, a partir de PCA, pudimos observar que cada alcohol tiene un comportamiento caracteristico, lo cual abre la posibilidad de poder diferenciar entre los diferentes compuestos utilizados.
Martinez de la Cruz Ambar Abigail, Universidad de Guadalajara
Asesor: Dra. Erika Cervantes Juárez, Instituto Politécnico Nacional

BIOPLáSTICOS SEMICONDUCTORES


BIOPLáSTICOS SEMICONDUCTORES

Martinez de la Cruz Ambar Abigail, Universidad de Guadalajara. Asesor: Dra. Erika Cervantes Juárez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los plásticos convencionales provienen de recursos no renovables como el petróleo y el gas natural. Además, requieren de cien a mil años para degradarse completamente, y pese a que parte de ellos pueden ser reciclados o reutilizados, el Programa de las Naciones Unidas para el Medio Ambiente (UNEP) señala que a nivel global solo se ha reciclado en promedio el nueve por ciento de los residuos plásticos producidos. Por lo que gran parte del porcentaje restante se encuentra en vertederos y dispersos en el ambiente ocasionando daño a los ecosistemas. Además, se ha comprobado que la ingesta de microplásticos puede ocasionar problemas de salud tanto en los animales como en el ser humano. En respuesta a esta problemática han surgido los bioplásticos que pueden provenir de recursos renovables, ser biodegradables e incluso biocompostables. Por tal motivo es que durante el verano de investigación se sintetizaron y caracterizaron variedad de bioplásticos. Algunos de los cuales mostraron propiedades tales como: conductividad eléctrica y fluorescencia, que se obtuvieron mediante su dopaje con estaño, erbio y grafeno, con el propósito de que puedan ser utilizados principalmente en el área electrónica.



METODOLOGÍA

Para la síntesis de los bioplásticos se utilizó fécula de maíz, grenetina de origen animal, cascarón de huevo, glicerina, vinagre blanco, alginato de sodio, estaño, erbio, grafeno en etanol y agua destilada. Se realizo una variación sistemática y controlada de las porciones de cada elemento mencionado para la matriz del bioplástico, de tal manera que se lograra identificar la propiedad que cada uno de ellos aporta al compuesto final. Para la medición y pesaje de cada componente se utilizó una balanza analítica, vasos de precipitado y pipetas Pasteur. Una vez pesados y medidos, los componentes fueron vertidos en una cacerola de metal, sobre una parrilla de calentamiento a temperatura baja y agitación constante, hasta obtener una mezcla pastosa, para después moldearla en cajas de Petri y papel encerado, esto para la síntesis de los bioplásticos con fécula de maíz. Para la síntesis de los bioplásticos con grenetina se calentó el agua antes de ebullición, se integró cada componente y se dejó hidratar la grenetina. Una vez hidratada la grenetina, la mezcla se colocolo sobre la parrilla de calentamiento a temperatura baja y agitación constante, hasta obtener una mezcla viscosa, para después moldearla en cajas de Petri y papel encerado. Para la síntesis de los bioplásticos con cascarón de huevo y alginato de sodio, se disolvió el alginato de sodio en agua con un agitador eléctrico, para después integrar el cascarón de huevo previamente triturado en un mortero y moldear en cajas de Petri. Una vez sintetizados los bioplásticos se evaluaron sus siguientes propiedades respecto al tiempo: transparencia, rigidez, flexibilidad, color, textura, brillo, olor, humedad, conductividad, elasticidad y capacidad de ser vestibles. Además, al secarse se evaluó su termoplasticidad. Una vez identificados los bioplásticos con propiedades similares a los plásticos convencionales, se procedió a doparlos con grafeno, estaño y erbio. Sin embargo, en los bioplásticos con estaño y erbio también se evaluó su resistencia, corriente, voltaje y fluorescencia, mientras que en los bioplásticos con grafeno solo se evaluó su fluorescencia. La medición de la resistencia, corriente y voltaje se hizo en un multímetro y un osciloscopio. Para una adecuada medición fue necesario cortarlos en fragmentos de un centímetro de ancho y uno, dos, tres y cuatro centímetros de largo. Mientras que la emisión por fluorescencia fue evaluada empíricamente utilizando una lampara de luz UV. Por último, la termoplasticidad se evaluó al colocar los bioplásticos sobre la parrilla de calentamiento y observar si estos tendían a derretirse o a quemarse, de modo que los que se derritieron se clasificaron como termoplásticos y los que se quemaron como termoestables.


CONCLUSIONES

De acuerdo con la bibliografía consultada, se tenía una idea de la influencia de cada componente en las propiedades de los bioplásticos. Pero hasta el desarrollo de este proyecto, se demostró que la que la incorporación de agua sirve para disolver e integrar los componentes de la mezcla. Por otro lado, la glicerina aporta flexibilidad y elasticidad, mientras que el vinagre blanco aporta rigidez, un color amarillento, disminuye la rugosidad y al tener propiedades antimicrobianas evita que se contaminen. En los bioplásticos a base de fécula de maíz su rigidez está determinada por la concentración de fécula de maíz, y entre menor es esta concentración su rigidez también lo es, al igual que su color blanco. Además, son casi mates, rugosos y su aroma es casi imperceptible. Por otra parte, los bioplásticos a base de grenetina tienen un tono amarillento, su olor es fuerte, son brillantes, transparentes, poco rígidos, muy flexibles, suelen tener muchas burbujas y una textura lisa. Los bioplásticos a base de cascarón de huevo, fueron quebradizos, rugosos y se contaminaron pese a que tenían vinagre blanco. Además, son mate, de color blanco y su olor es casi imperceptible. Por otro lado, el estaño les dio un color grisáceo, que se intensifico a medida que su concentración fue mayor, incremento su rigidez y disminuyo su resistencia eléctrica, por lo que fue capaz de convertir a los bioplásticos que son aislantes en semiconductores. Por otra parte, la incorporación de erbio les dio un color durazno y también disminuyo su resistencia eléctrica. En cuento al grafeno, este solo se añadió en un bioplástico de grenetina y le aporto fluorescencia. Además, se pudo clasificar a los bioplásticos a base de fécula de maíz como termoestables y a los bioplásticos a base de grenetina como termoplásticos.  En resumen, las propiedades observadas en los bioplásticos superaron las expectativas que se tenían en un inicio, lo que da lugar a el mejoramiento de las fórmulas y síntesis de nuevos bioplásticos con alto potencial para áreas como la electrónica.
Martínez García Guadalupe Joselin, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Edgar Alejandro León Espinoza, Universidad Autónoma de Sinaloa

RELATIVIDAD GENERAL, COSMOLOGíA Y TEORíAS ALTERNATIVA DE GRAVEDAD


RELATIVIDAD GENERAL, COSMOLOGíA Y TEORíAS ALTERNATIVA DE GRAVEDAD

Martínez García Guadalupe Joselin, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Edgar Alejandro León Espinoza, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Durante este trabajo de investigación, se llevó a cabo una revisión exhaustiva de la bibliografía y libros esenciales para adquirir los conocimientos básicos y especializados necesarios en cálculo tensorial y relatividad especial. Posteriormente, se profundizó en temas avanzados de relatividad general, incluyendo variedades, la ecuación de campo de Einstein y soluciones analíticas como la solución de Schwarzschild. Además, se aseguró de que todos los miembros del equipo tuvieran un conocimiento uniforme mediante el análisis de posibles teorías alternativas de gravitación, tales como las teorías escalar-tensor. A continuación, se investigaron y recolectaron datos sobre varias teorías alternativas, incluyendo Campos gravitacionales escalares, Dimensiones extra espaciales, Término de alto orden y Conexiones no Christoffel".



METODOLOGÍA

Metodología del Proyecto de Investigación: Cálculo Tensorial y Relatividad Especial 1. Introducción a los Tensores Se abordó el concepto de tensores, comenzando con la notación básica utilizada para representar diferentes tipos de tensores. Se diferenciaron los escalares, vectores y los elementos de matrices, destacando que los índices en las notaciones no deben confundirse con exponentes. La representación de los vectores se realizó mediante la notación de suma, estableciendo la relación entre las componentes y la base del espacio vectorial. 2. Análisis de Vectores Se examinó la base del espacio vectorial y los vectores como combinaciones lineales de estas bases. Se discutieron los conceptos de producto escalar en diferentes bases y se analizó cómo se calcula la norma de un vector en función de la base utilizada. 3. Estudio de la Matriz Métrica Se definió el tensor métrico como una herramienta esencial para calcular el producto entre vectores. Se exploró cómo la métrica permite transformar y comparar vectores en diferentes bases. En el caso de una base ortonormal, se consideró la métrica como la identidad, simplificando así las operaciones matemáticas. 4. Definición y Obtención de la Base Dual Se presentó la base dual como una extensión de la base original, explicando cómo se obtienen las componentes contravariantes y covariantes. Se utilizaron métodos como el sistema de ecuaciones y la inversión de la métrica para obtener la base dual, facilitando así la manipulación de tensores en diferentes contextos. 5. Identificación de Objetos Invariantes Se identificaron y analizaron objetos que mantienen su valor invariable al cambiar la base, con especial énfasis en los vectores. Se demostró la invarianza de ciertos objetos matemáticos para asegurar su estabilidad a través de transformaciones de base. 6. Cambio de Base y Métrica Invariante Se estudió cómo el cambio de base afecta la métrica, utilizando la métrica de Minkowski como ejemplo para ilustrar la invarianza de la métrica. Este análisis es fundamental para entender cómo se preservan las propiedades geométricas en diferentes sistemas de referencia. 7. Matriz de Cambio de Base en una Métrica Invariante Se describió la matriz de transformación de Lorentz y su aplicación en la transformación inversa. Este aspecto del estudio permite comprender cómo las métricas invarianetes se mantienen bajo diferentes transformaciones, proporcionando una base sólida para el análisis relativista. 8. Definición y Aplicación de Tensores Se amplió la definición de tensor, destacando su papel como generalización de escalares, vectores y matrices. Se estableció que un tensor de rango es una aplicación multilineal, y se especificó que los vectores son tensores de rango (1,0). Este marco teórico facilita la comprensión de cómo los tensores interactúan en diferentes contextos matemáticos y físicos. 9. Producto Tensorial Se definió el producto tensorial entre tensores de rango (1,0) y se proporcionaron ejemplos de cómo calcular este producto. Este análisis permite la combinación y manipulación de tensores en investigaciones avanzadas. 10. Relatividad Especial Se abordaron los postulados fundamentales de la relatividad especial, incluyendo el principio de relatividad y la constancia de la velocidad de la luz. Se analizaron las transformaciones de Lorentz y su impacto en la dilatación del tiempo y la contracción de longitud. Se estudió el intervalo espacio-temporal y las ecuaciones relativistas de movimiento para entender la relación entre energía y momento. 11. Relatividad General Se exploró la relatividad general como una descripción de la gravitación a través de la curvatura del espacio-tiempo causada por la masa y la energía. Se revisaron las ecuaciones de campo de Einstein y se discutieron las soluciones analíticas, como las métricas de Schwarzschild, Kerr y Friedmann-Lemaître-Robertson-Walker (FLRW), para comprender cómo se modela la gravitación en diferentes escenarios.


CONCLUSIONES

Este aprendizaje me proporcionó una comprensión sólida de la estructura y operación de los tensores, así como su aplicación en la relatividad general y especial, brindándome una base sólida para el estudio avanzado en estos campos.
Martinez Herrera Axel Eduardo, Instituto Tecnológico Superior de Xalapa
Asesor: Mg. Vilma Viviana Ojeda Caicedo, Universidad Tecnológica De Bolívar

ANáLISIS DE LAS TENDENCIAS DE LA ALTURA SUPERFICIAL DEL MAR Y REVISIóN DE DATOS DE SALINIDAD, TEMPERATURA Y VELOCIDADES EN PROFUNDIDAD EN LA COSTA NORTE COLOMBIANA


ANáLISIS DE LAS TENDENCIAS DE LA ALTURA SUPERFICIAL DEL MAR Y REVISIóN DE DATOS DE SALINIDAD, TEMPERATURA Y VELOCIDADES EN PROFUNDIDAD EN LA COSTA NORTE COLOMBIANA

Inzunza Bejarano Roberto Carlo, Universidad de Guadalajara. Martinez Herrera Axel Eduardo, Instituto Tecnológico Superior de Xalapa. Asesor: Mg. Vilma Viviana Ojeda Caicedo, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

La principal problemática en el análisis de datos oceanográficos es la falta de datos, para este trabajo se quiere analizar la tendencia de la altura superficial del mar en la costa norte colombiana y relacionarla con efectos globales climáticos, como el ENSO(El Niño-Southern Oscillation) que permitan evaluar medidas, a tomar en zonas costeras por posibles inundaciones o perdida de costa. Para lo anterior se recurrió a los datos libres de HYCOM(HYbrid Coordinate Ocean Model) para el estudio se organizó una base de datos de altura superficial del mar en el periodo de 1993 a 2023. También se obtuvieron los datos de las variables salinidad, temperatura y velocidades para 2023 con el fin de poder evaluar en próximos trabajos estas variables. Realizar este tipo de estudios puede contribuir a una mejor comprensión de las dinámicas oceánicas y su impacto en el ecosistema y el clima regional.   El modelo HYCOM (HYbrid Coordinate Ocean Model) es una herramienta avanzada para la simulación y análisis de procesos oceánicos, utilizando una combinación de coordenadas sigma y zeta para proporcionar datos precisos sobre las variables oceanográficas en diferentes profundidades.  Para abordar el procesamiento de los datos, se utilizará el lenguaje matemático MATLAB para desarrollar herramientas gráficas y estadísticas, que faciliten la visualización de promedios mensuales y multianuales. Este lenguaje permitirá crear representaciones gráficas detalladas y dinámicas que mostrarán las variaciones de altura superficial del mar, facilitando así la identificación de tendencias y patrones significativos. Esta capacidad de visualización es crucial para evaluar los fenómenos oceánicos en la ecología y el clima regional de la costa norte de Colombia, mejorando la capacidad para realizar análisis profundos y tomar decisiones informadas basadas en las variaciones históricas de las condiciones oceánicas 



METODOLOGÍA

1. Acceso y Selección de Datos  1.Acceso a la Plataforma HYCOM:     - Iniciar el proceso accediendo a la página oficial del modelo HYCOM.     - Asegurarse de que la página proporcione acceso a las herramientas y funciones necesarias para obtener los datos de forma relevante y precisa.  2. Selección del Data Server:     - Seleccionar la opción Data Server en la página de HYCOM.     - En el servidor de datos, buscar los experimentos que contengan marcas de tiempo correspondientes al período de interés (1990-2023).  3. Descarga de Datos:     - Una vez seleccionado el experimento adecuado, elegir la opción Access Data Here para obtener la información necesaria.     - Seleccionar la base de datos de preferencia para la extracción de datos, utilizando el acceso a través de NetcdfSubset.     - Priorizar la descarga de archivos en formato netcdf.  2. Preparación y Procesamiento de Datos  1. Importación de Datos a MATLAB:     - Configurar el entorno de MATLAB para manejar archivos netcdf.     - Importar los archivos netcdf descargados al entorno de MATLAB.  2. Revisión y Preprocesamiento de Datos:     - Realizar una revisión inicial de los datos para garantizar su calidad e integridad.     - Asignar rangos de valores para las variables de salinidad, temperatura y velocidad del agua.     - Calcular los promedios mensuales y anuales de las variables de interés.  3. Desarrollo de Scripts y Visualización  1. Creación de Scripts en MATLAB:     - Desarrollar scripts en MATLAB para generar gráficas de las variables seleccionadas.     - Los scripts deben permitir la visualización de las variaciones mensuales y anuales.  2. Generación de Gráficas:     - Crear figuras que presenten los datos promedio mensuales y anuales.     - Desarrollar figuras que muestren las variaciones de salinidad, temperatura y velocidad del agua a lo largo de los años.  3. Visualización de Datos Promediados:     - Generar gráficos que muestren los datos promedio para cada mes del año.     - Crear figuras que presenten los 12 meses del año en una sola gráfica para facilitar la comparación.  4. Validación y Ajuste de Scripts  1. Revisión de Resultados Visuales:     - Revisar los resultados visuales para identificar posibles anomalías o errores.     - Realizar ajustes necesarios en los scripts para corregir cualquier inconsistencia.  2. Pruebas de Visualización:     - Probar las herramientas gráficas desarrolladas con datos de diferentes períodos para asegurar su funcionalidad.     - Asegurarse de que las gráficas son precisas y representan correctamente las variaciones en las variables oceánicas.  5. Análisis de Resultados  1. Identificación de Patrones y Tendencias:     - Utilizar las herramientas gráficas y estadísticas, para identificar patrones y tendencias en las variaciones de salinidad, temperatura y velocidad del agua.     - Analizar cómo estos patrones pueden afectar el ecosistema y el clima regional.  2. Documentación de Hallazgos:     - Documentar los hallazgos y conclusiones basadas en las visualizaciones y análisis de datos.     - Preparar informes que resuman las tendencias observadas y su posible impacto. 


CONCLUSIONES

La metodología desarrollada permite visualizar de manera efectiva las variaciones mensuales, anuales y multianuales de la altura superficial del mar utilizando datos de HYCOM y herramientas gráficas en MATLAB a través de un proceso estructurado de acceso, selección, descarga y procesamiento de datos, se garantiza la calidad de la información.  Los scripts en MATLAB facilitan la identificación de patrones y tendencias en las variables oceanográficas, asegurando visualizaciones precisas y relevantes. Esto mejora la comprensión de las dinámicas oceánicas y su impacto en el ecosistema y clima regional.  Documentar los hallazgos proporciona una base sólida para futuras investigaciones y decisiones informadas sobre la gestión sostenible de los recursos marinos y la mitigación del cambio climático en la región. 
Martínez Martínez Karla Dayanne, Benemérita Universidad Autónoma de Puebla
Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla

INTELIGENCIA ARTIFICIAL EN CLASIFICACIóN DE IMáGENES PARA EL CONTROL DE CALIDAD UTILIZANDO TENSOR FLOW Y KERAS


INTELIGENCIA ARTIFICIAL EN CLASIFICACIóN DE IMáGENES PARA EL CONTROL DE CALIDAD UTILIZANDO TENSOR FLOW Y KERAS

Bello Sánchez Pamela Dennys, Benemérita Universidad Autónoma de Puebla. Martínez Martínez Karla Dayanne, Benemérita Universidad Autónoma de Puebla. Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la industria manufacturera y de producción, el control de calidad es un proceso crucial que asegura que los productos cumplen con los estándares y especificaciones establecidas. Existen empresas en que este proceso ha sido realizado manualmente por inspectores, lo que puede ser costoso, lento y propenso a errores. La implementación de Inteligencia Artificial (IA) para la clasificación de imágenes surge como una solución potencial para mejorar la eficiencia y precisión del control de calidad. Sin embargo, el uso de la inteligencia artificial en la clasificación de imágenes para el control de calidad necesita grandes cantidades de datos etiquetados para entrenarse de manera efectiva se debe contar con un equipo informático con alto rendimiento, capacidad de procesamiento y almacenamiento para poder procesar las grandes cantidades de datos, además la IA debe ser entrenada para reconocer una amplia variedad de defectos que pueden presentarse en los productos, esto incluye desde pequeñas imperfecciones hasta fallos críticos.



METODOLOGÍA

Durante esta estancia de verano de investigación, nos enfocamos en el uso de la Inteligencia Artificial (IA), específicamente a través de las librerías de TensorFlow y Keras, para desarrollar un sistema automatizado de clasificación de imágenes con el objetivo de mejorar el control de calidad en la industria manufacturera. El propósito principal fue crear un sistema eficiente y preciso capaz de identificar y clasificar defectos en productos manufacturados mediante el análisis automatizado de imágenes. Para llevar a cabo este proyecto, utilizamos un conjunto de herramientas y recursos como: Librerías de IA: TensorFlow y Keras  para el desarrollo de modelos de aprendizaje profundo. Datos: Fotografias de rondanas con cierto tipo de daño El desarrollo del código comenzó con la recopilación y preprocesamiento de los datos de imágenes. Esto incluyó la normalización y la segmentación de las imágenes para garantizar que estuvieran en un formato adecuado para el entrenamiento del modelo. Posteriormente, se implementaron modelos de redes neuronales convolucionales (CNN) utilizando TensorFlow y Keras. Para mejorar el rendimiento del modelo y abordar los desafíos específicos del proyecto, realizamos varias adaptaciones clave: Dropout: Implementamos la técnica de dropout en nuestras redes neuronales para prevenir el sobreajuste. Esta técnica consiste en desactivar aleatoriamente un porcentaje de neuronas durante el entrenamiento, lo que ayuda a mejorar la generalización del modelo. Regularización de Datos: Utilizamos técnicas de regularización de datos para asegurar que las clases estuvieran equilibradas. Esto incluyó la aplicación de transformaciones como rotaciones, traslaciones y cambios de escala a las imágenes existentes, lo que permitió al modelo aprender a reconocer defectos en diversas condiciones y equilibrar la distribución de datos entre las diferentes clases. ResNet18: Implementamos una versión personalizada de ResNet18. Esta arquitectura es conocida por su capacidad para manejar problemas de profundidad en redes neuronales al utilizar conexiones residuales. La implementamos con una capa adicional de dropout para mejorar la generalización. DenseNet121: Esta arquitectura conecta cada capa a todas las capas anteriores, lo que facilita el flujo de gradientes y mejora la eficiencia del modelo. ResNet50: Similar a ResNet18 pero más profunda, esta arquitectura utiliza bloques residuales para facilitar el entrenamiento de redes muy profundas. InceptionV3: Esta arquitectura utiliza múltiples tamaños de filtro en una misma capa, lo que le permite capturar información a diferentes escalas. VGG16: Conocida por su simplicidad y efectividad, VGG16 utiliza una serie de capas convolucionales y de pooling de tamaño fijo, seguida de capas densas. MobileNet: Diseñada para dispositivos móviles y aplicaciones de baja potencia, esta arquitectura es eficiente en términos de computación y memoria.


CONCLUSIONES

Durante esta estancia de verano de investigación, se ha trabajado intensamente en el uso de la Inteligencia Artificial, específicamente a través de las librerías de TensorFlow y Keras, en la clasificación de imágenes para el control de calidad. El objetivo principal de este proyecto fue desarrollar un sistema eficiente y preciso capaz de identificar y clasificar defectos en productos de manufactura mediante el análisis automatizado de imágenes. A pesar de los esfuerzos dedicados, los resultados obtenidos no han alcanzado los niveles de precisión y eficiencia esperados, sin embargo, demuestran el gran potencial de las redes neuronales convolucionales, del aprendizaje profundo, así como de las diferentes arquitecturas aplicadas al código para la tarea de clasificación de imágenes en el contexto del control de calidad. Se continuará trabajando en este proyecto para mejorar el código y corregir las deficiencias identificadas para que pueda ser implementada de manera efectiva en el control de calidad industrial. Sin duda, esta estancia de investigación ha proporcionado una comprensión más profunda de los desafíos y oportunidades en el uso de la inteligencia artificial en diferentes campos y nos ha abierto un nuevo panorama para seguir y desarrollar futuras investigaciones.
Martinez Martinez Karla Lilian, Instituto Politécnico Nacional
Asesor: Dr. José Reyes Gasga, Universidad Nacional Autónoma de México

ESTRUCTURA Y COMPOSICIóN QUíMICA DEL DIENTE HUMANO: MORFOLOGíA Y TAMAñO DE LOS CONDUCTOS DENTINARIOS EN LA UNIóN AMELODENTINARIA DE LA DENTINA DENTAL HUMANA


ESTRUCTURA Y COMPOSICIóN QUíMICA DEL DIENTE HUMANO: MORFOLOGíA Y TAMAñO DE LOS CONDUCTOS DENTINARIOS EN LA UNIóN AMELODENTINARIA DE LA DENTINA DENTAL HUMANA

Martinez Martinez Karla Lilian, Instituto Politécnico Nacional. Asesor: Dr. José Reyes Gasga, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Resumen: Este estudio investiga la estructura y composición química de la dentina del diente humano, utilizando técnicas de microscopía y análisis químico con un enfoque particular en la morfología y el tamaño de los conductos dentinarios en la unión amelodentinaria (UAD). Objetivo: Determinar el tamaño de los conductos dentinarios en la zona de la unión amelodentinaria (UAD). Hipótesis: El tamaño de los conductos dentinarios en la zona de la UAD está en función del tamaño de los prismas del esmalte dental. Justificación: La UAD es una zona crítica donde el esmalte y la dentina se encuentran y se unen para formar una estructura dental funcional esencial para la masticación. Conocer cómo los túbulos dentinarios de la dentina se acoplan con los prismas del esmalte dental es fundamental para comprender el desempeño y la funcionalidad del diente.



METODOLOGÍA

Selección de Muestras: Se seleccionaron dientes humanos de tercera molares extraídos para asegurar homogeneidad en el estudio. Preparación y Análisis: Las muestras fueron preparadas utilizando técnicas de pulido y tinción para permitir una visualización clara de los túbulos dentinarios . Se realizaron observaciones y mediciones utilizando microscopía electrónica de barrido (SEM) y microscopía óptica para capturar imágenes detalladas de la JAD, en este caso en SEM fueron 3 mediciones  diametro tubular,diametro peritubular,distancia entre tubulos vecinos, por otro lado en ML se hicieron 2 medidas de diametro tubular y distancia entre tubulos vecinos . Medición: Los diámetros de los túbulos dentinarios  fueron medidos usando el software ImageJ. Se realizó un análisis estadístico de las mediciones para determinar la distribución y tamaño de las estructuras sacando promedio,desviación estándar,minimo y maximo. Análisis Estadístico: Se emplearon métodos estadísticos para evaluar la relación entre el tamaño de los túbulos dentinarios y el tamaño de los prismas de esmalte, incluyendo correlaciones y regresiones.


CONCLUSIONES

Hallazgos Principales: El análisis estadístico reveló que no existe una correlación significativa entre el tamaño de los túbulos dentinarios y el tamaño de los prismas de esmalte en la unión amelodentinaria. Los datos obtenidos no apoyaron la hipótesis inicial. Implicaciones: Estos resultados sugieren que la estructura de los túbulos dentinarios y los prismas de esmalte puede estar influenciada por factores independientes, y no necesariamente relacionados directamente en términos de tamaño. Limitaciones y Recomendaciones: Las limitaciones del estudio incluyen la variabilidad biológica entre los dientes y el tamaño de la muestra. Se recomienda realizar estudios adicionales con un tamaño de muestra mayor y técnicas complementarias para explorar otras posibles relaciones estructurales. Contribuciones al Conocimiento: Este estudio proporciona una nueva perspectiva sobre la morfología dental y subraya la necesidad de investigaciones más profundas para comprender mejor las interrelaciones en la estructura dental.
Martinez Matamoros Darío, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Mtro. Francisco Ayungua Ramírez, Instituto Tecnológico de Estudios Superiores de Zamora

EVALUACIÓN CUANTITATIVA Y CUALITATIVA DE LOS ESTILOS DE APRENDIZAJE EN ALUMNOS DE PRIMER SEMESTRE DE INGENIERÍA INDUSTRIAL DEL ITESZ


EVALUACIÓN CUANTITATIVA Y CUALITATIVA DE LOS ESTILOS DE APRENDIZAJE EN ALUMNOS DE PRIMER SEMESTRE DE INGENIERÍA INDUSTRIAL DEL ITESZ

Martinez Matamoros Darío, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Mtro. Francisco Ayungua Ramírez, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

Durante la vida estudiantil el alumnado del Instituto de Estudios Superiores de Zamora (ITESZ) es acoplado a un estilo de enseñanza dependiendo de la asignatura y el profesor encargado de impartirla, el cual busca generalizar y homogeneizar los métodos prácticos para la adquisición del conocimiento. No obstante, en los entornos académicos prevalece la enseñanza tradicional, lo que lleva a un rol pasivo del estudiante, a la creación de estereotipos, a la masificación en la creación del conocimiento y a la falta de reconocimiento de que los alumnos no aprenden de la misma manera.  Esta insuficiente atención a la diversidad de métodos de aprendizaje y a los recursos que los estudiantes emplean para aprender, conocidos como estilos de aprendizaje, impacta negativamente en el rendimiento académico de aquellos que no se adaptan a la metodología tradicional del docente. Además, la falta de conocimiento o la omisión por parte de los docentes en el Programa Educativo de la carrera de Ingeniería Industrial ha provocado que no se ajusten las estrategias de enseñanza a las diferencias individuales de los estudiantes en cuanto a su manera de aprender. Como resultado, se limita la formación de profesionales autónomos en su desempeño académico. Es en este punto, que el siguiente Trabajo se encarga de responder la interrogante ¿Qué tipo de aprendizaje, predomina en los alumnos de la carrera en ingeniería Industrial del ITESZ?, esta pregunta esta guiada por la hipótesis en la que un espacio adecuado a las necesidades de aprendizaje de los alumnos, beneficie su aprendizaje y desarrollo profesional.



METODOLOGÍA

La investigación se realizó en primera instancia con un enfoque didáctico en que se realizaron sesiones de asesorías donde se resolvieron expresiones y operaciones básicas de física y matemáticas, de forma práctica y con recortes de cartón reutilizado para manipular las constantes, literales, signos, exponentes, paréntesis pertenecientes a temas como con los materiales de cartón, preparados para el desarrollo de temas específicos, tales como la recta numérica, plano cartesiano, ecuaciones de primer grado y despejes de fórmulas. Para el trabajo cuantitativo, con un enfoque descriptivo, se encuestaron a un total de 50 estudiantes (24 mujeres y 26 hombres) de los grupos "A" y "B" del primer semestre del ITESZ y del grupo del módulo "Vista Hermosa", en la modalidad sabatina. Las encuestas se diseñaron siguiendo el modelo de Programación Neurolingüística de Bandler y Grinder, también conocido como el modelo visual-auditivo-kinestésico (VAK), que considera tres sistemas principales para representar mentalmente la información: visual, auditivo y kinestésico. La escala de respuestas se modificó a una escala Likert de tres puntos: 0 = Muy rara vez, 1 = Algunas veces y 2 = Siempre, lo que permitió el conteo de respuestas mediante métodos matemáticos. La encuesta consistió en un total de 30 preguntas, divididas en tres bloques de 10 preguntas, cada uno correspondiente a un estilo de aprendizaje.  En un entorno ideal, se considera dominante cualquier bloque que alcanzara los 10 puntos, permitiendo también situaciones en las que dos estilos de aprendizaje obtuvieran puntuaciones superiores a 10, lo que favorece el uso múltiple de estilos de aprendizaje. En términos generales, el estudiante con un estilo de aprendizaje visual aprende a través de lo que ve. Necesita una visión detallada y claridad sobre la dirección que debe tomar. Le resulta difícil recordar lo que escucha, por lo que necesita apoyarse en carteles, diagramas, fotos y diapositivas. Por otro lado, el estudiante auditivo aprende mejor a través de lo que oye, repitiéndose a sí mismo cada paso del proceso. Si olvida un solo paso, se pierde y no tiene una visión global. Este estudiante necesita debates, discusiones, lecturas y oportunidades para hablar en público. En contraste, el estudiante con un estilo de aprendizaje kinestésico aprende a través de la experiencia directa y el movimiento. Le cuesta entender lo que no puede poner en práctica, por lo que necesita trabajo de campo, trabajo de laboratorio y actividades prácticas como hacer y reparar cosas.


CONCLUSIONES

Para la parte cualitativa se encontró una amplia disponibilidad de los alumnos por incluir en sus hábitos de estudio y formas de aprendizaje, la preparación y aprovechamiento de material interactivo a base de Residuos Sólidos Urbanos (RSU), comprendiendo que al manipular elementos físicos implicaba el uso el pensamiento lógico y la coordinación óculo-manual con el conocimiento teórico físico-matemático. En los resultados del análisis cuantitativo, se encontró en el conteo general, que el 40% de los alumnos poseen el estilo de aprendizaje kinestésico, siendo el segundo el aprendizaje visual con un 34% y quedando el aprendizaje auditivo con un 20%, posterior a ello se encontró que tres alumnos (2 mujeres y 1 hombre), ocupando un 6% del alumnado, presentaron valores altos de puntaje en los bloques de aprendizaje visual y kinestésico. Lo que indica que poseen un aprendizaje del tipo visual - kinestésico, esto debe interpretarse como un grupo de alumnos que pueden aprender eficazmente por múltiples métodos, a comparación en los que se vio dominante uno solo de estos. Al efectuar el desglose de resultados por sexo, se encontró que ambos estilos, visual y kinestésico fueron seleccionados por un 33% de las mujeres encuestadas y el estilo auditivo con un 25%, lo cual proporciona una visión general en la que el grupo de mujeres posee un balance de estilos de aprendizaje, comparado con los hombres en el que predomino el estilo kinestésico con un 46%, dejando al estilo visual con un 35% y auditivo con un 15%.   Los resultados presentados favorecen la idea de crear un espacio de aprendizaje interactivo dentro del ITESZ, que cuente con herramientas y ejercicios de material reciclado, considerando las ventajas medioambientales que este conlleva, donde los estilos de aprendizaje puedan explotarse representando una ventaja más que un problema a la hora de adquirir el conocimiento.
Martinez Parra José Alejandro, Universidad Autónoma de Sinaloa
Asesor: Dr. Oscar Gilberto Cárdenas Hernández, Universidad de Guadalajara

MAPA DE RIESGOS PARA EL MUNICIPIO DE AUTLÁN DE NAVARRO, JALISCO. METODOLOGÍAS Y APLICACIONES PARA LA GESTIÓN DEL TERRITORIO


MAPA DE RIESGOS PARA EL MUNICIPIO DE AUTLÁN DE NAVARRO, JALISCO. METODOLOGÍAS Y APLICACIONES PARA LA GESTIÓN DEL TERRITORIO

Ibarra Moroyoqui Jiovanny Manuel, Universidad Autónoma de Sinaloa. Martinez Parra José Alejandro, Universidad Autónoma de Sinaloa. Vilchis Dávila Luis Ángel, Universidad Autónoma del Estado de México. Asesor: Dr. Oscar Gilberto Cárdenas Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La gestión de riesgos es esencial para el desarrollo sostenible de los municipios. En el municipio de Autlán de Navarro, Jalisco, existen diversos riesgos naturales y antrópicos que requieren una evaluación y manejo adecuados para salvaguardar tanto a la población como al medio ambiente. Un mapa de riesgos es una herramienta esencial para identificar, evaluar y reducir los riesgos potenciales, lo que facilita la toma de decisiones y la implementación de estrategias de prevención y respuesta. El estudio busca desarrollar un mapa de riesgos detallado para el municipio de Autlán de Navarro, Jalisco. Este mapa servirá como una herramienta fundamental para identificar las zonas más propensas a sufrir desastres naturales y antrópicos, como deslizamientos de tierra. A través de la recopilación y análisis de datos geográficos, se pretende evaluar la susceptibilidad y vulnerabilidad de cada localidad. El objetivo final es contribuir a una mejor gestión de riesgos y a la planificación territorial del municipio, promoviendo así un desarrollo más seguro y sostenible. La metodología empleada incluye el uso de sistemas de información geográfica (SIG) y otras técnicas de análisis espacial. Este tipo de estudios son cruciales para fortalecer la resiliencia de las comunidades ante eventos adversos y pueden servir como modelo para otros municipios con características similares. El proyecto sigue en vigencia, analizando la vulnerabilidad de cada localidad para presentar un mapa que represente el riesgo a deslizamientos.



METODOLOGÍA

Cuando mencionamos deslizamientos, hacemos referencia a los desplazamientos de rocas, suelos, materiales artificiales o una mezcla de estos, que ocurren a lo largo de una superficie inclinada (Hernández Sánchez et al. 1998). La aparición de deslizamientos temporales está vinculada a momentos de intensa acumulación de agua, que se producen debido a lluvias prolongadas o aguaceros torrenciales (Reisenbach et al., 2018). Los deslizamientos son provocados por varios factores, incluyendo las características del material y del terreno, la resistencia al movimiento, la gravedad, la presión hidrostática, sismos y la actividad humana (Cordero, 2000). Estos eventos están estrechamente relacionados con lluvias intensas, la cobertura del suelo, la geología y la inclinación del terreno. Los terrenos deforestados y con pendientes pronunciadas son especialmente propensos a sufrir deslizamientos o erosión (Cordero, 2000). La magnitud del peligro de un evento específico en una zona está determinada por la combinación de estos factores, los cuales pueden ser analizados por separado para entender mejor las características que influyen en la inestabilidad de los taludes. Para este análisis, se utilizaron como datos base los siguientes mapas temáticos: Geología Tipos de suelo Pendientes del terreno Uso de suelo y vegetación. Las capas de información utilizadas como base para el análisis fueron editadas en el software QGIS, utilizando datos proporcionados por fuentes como el Instituto de Información Estadística y Geográfica de Jalisco, GeoInfoMex, el Banco de Datos del Servicio Geológico Mexicano y el INEGI. Cada una de las unidades presentes en los mapas fue analizada de forma individual, considerando su influencia en la generación o desencadenamiento de deslizamientos. De esta manera, se estudió la relación entre las características y condiciones del terreno, y el potencial de ocurrencia de derrumbes. Para ello, se asignaron valores de peso (del 1 al 5) a cada una de las unidades contenidas en los diferentes mapas temáticos utilizados, transformando los mapas de clases en mapas de valores mediante un proceso de reclasificación. Posteriormente, estos mapas fueron integrados a través de un proceso de adición, dando como resultado final el mapa de amenazas por deslizamientos, clasificado en 5 categorías: Muy baja, Baja, Moderada, Alta y Muy alta. En cuanto a los valores de peso asignados a los mapas, los valores más altos corresponden a la mayor influencia que puedan ejercer en la aceleración del mecanismo de disparo del deslizamiento.


CONCLUSIONES

Durante la estancia de verano pudimos generar un mapa con una representación aproximada de la susceptibilidad a deslizamientos en el municipio de Autlán de Navarro. Esta información resulta crucial para la gestión del riesgo geológico, la planificación territorial y la toma de decisiones en materia de protección civil. La susceptibilidad a deslizamientos no se distribuye de manera homogénea en el territorio municipal. Se observan concentraciones de zonas de alta y muy alta susceptibilidad en las áreas montañosas y con pendientes pronunciadas, lo cual es coherente con los factores geomorfológicos que condicionan este tipo de procesos. Las localidades de Autlán de Navarro y Mezquitan se encuentran asentadas en zonas con niveles variables de susceptibilidad, lo que implica un riesgo diferencial para estas comunidades. Es necesario considerar la susceptibilidad a deslizamientos en la planificación de nuevos desarrollos urbanos, evitando la ocupación de zonas de alto riesgo y promoviendo prácticas de construcción seguras. La población debe ser informada sobre los riesgos asociados a los deslizamientos y capacitada para actuar de manera adecuada ante eventos de este tipo. El mapa de susceptibilidad a deslizamientos constituye una herramienta valiosa para la gestión del riesgo geológico en esta región. Sin embargo, es importante complementar esta información con otros estudios y análisis para tomar decisiones informadas y efectivas. La identificación de las zonas de mayor peligro permite priorizar las acciones de prevención y mitigación, contribuyendo a reducir la vulnerabilidad de la población y los bienes ante este tipo de eventos naturales. Se requieren investigaciones adicionales para profundizar en el conocimiento de los factores que controlan la susceptibilidad a deslizamientos en la región y evaluar la eficacia de las medidas de mitigación implementadas.
Martínez Peña Montserrat, Universidad Autónoma del Estado de México
Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara

EVALUACIóN DEL IMPACTO DE LOS CICLONES TROPICALES EN LA CUENCA PITILLAL-CUALE Y SU RELACIóN CON EL DESARROLLO URBANO EN PUERTO VALLARTA


EVALUACIóN DEL IMPACTO DE LOS CICLONES TROPICALES EN LA CUENCA PITILLAL-CUALE Y SU RELACIóN CON EL DESARROLLO URBANO EN PUERTO VALLARTA

Martínez Peña Montserrat, Universidad Autónoma del Estado de México. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La cuenca del río Pitillal, ubicada en Puerto Vallarta, Jalisco, enfrenta desafíos significativos debido a la expansión urbana y el incremento de fenómenos hidrometeorológicos, como los ciclones tropicales. Este estudio se centra en analizar cómo el crecimiento demográfico y urbano ha exacerbado los problemas ambientales en esta región, con un enfoque especial en la vulnerabilidad y riesgos asociados a los eventos climáticos extremos. La rápida urbanización en Puerto Vallarta ha generado una serie de impactos negativos en la cuenca del río Pitillal, incluyendo la pérdida de áreas de infiltración natural y el aumento de la escorrentía superficial. Estos cambios han contribuido a la erosión del suelo, la sedimentación del cauce y una mayor susceptibilidad a las inundaciones, especialmente durante la temporada de lluvias. Además, la expansión urbana no planificada ha permitido el desarrollo en zonas propensas a desastres, exponiendo a las comunidades locales a riesgos significativos durante eventos hidrometeorológicos como ciclones y tormentas tropicales. Los ciclones tropicales, en particular, representan una amenaza creciente para la región, debido a su capacidad de provocar precipitaciones intensas y súbitas crecidas de los ríos. Esto se ve agravado por la deforestación y la alteración del cauce natural del río, que disminuyen la capacidad de la cuenca para regular el flujo de agua. La falta de infraestructura adecuada, como sistemas de alerta temprana y refugios, junto con problemas legales relacionados con la urbanización en áreas no aptas, complica aún más la gestión de riesgos en la cuenca. El análisis del impacto de los ciclones tropicales en áreas urbanas es de gran relevancia, tanto a nivel local como global, dado que estos fenómenos pueden causar daños significativos a la infraestructura, la economía y la vida de las personas. En el contexto de Puerto Vallarta, una ciudad turística en constante crecimiento, la gestión adecuada de los recursos hídricos y la planificación urbana sostenible son cruciales para asegurar el bienestar de sus habitantes y la conservación de su entorno natural. El presente estudio contribuye al cumplimiento de los Objetivos de Desarrollo Sostenible (ODS) de la ONU, específicamente el ODS 11: Ciudades y Comunidades Sostenibles y el ODS 13: Acción por el Clima. El ODS 11 busca hacer que las ciudades y los asentamientos humanos sean inclusivos, seguros, resilientes y sostenibles, mientras que el ODS 13 se centra en tomar medidas urgentes para combatir el cambio climático y sus impactos.



METODOLOGÍA

La metodología de la investigación incluyó una combinación de métodos cualitativos y cuantitativos. Se llevó a cabo una revisión bibliográfica exhaustiva para contextualizar el estudio y analizar antecedentes de urbanización y vulnerabilidad a ciclones. Posteriormente, se realizó un análisis de datos históricos de ciclones que afectaron la región entre 1990 y 2023, utilizando Sistemas de Información Geográfica (SIG) para mapear trayectorias y evaluar la incidencia temporal y espacial de estos fenómenos. Se identificaron patrones significativos que muestran una tendencia creciente en la incidencia de ciclones en la región, con efectos más pronunciados en la zona alta del río Pitillal. Las encuestas realizadas a la población local revelaron una alta percepción de riesgo, con preocupaciones sobre la falta de infraestructura adecuada, como sistemas de alerta temprana y refugios, y problemas legales relacionados con la urbanización en áreas no aptas. Además, las observaciones de campo destacaron problemas como la erosión del suelo, la susceptibilidad a derrumbes y la contaminación del agua debido a la escorrentía superficial aumentada. La falta de áreas de infiltración natural, causada por la expansión urbana, ha exacerbado estos problemas, aumentando el riesgo de inundaciones y poniendo en peligro tanto a la población como a los ecosistemas locales.


CONCLUSIONES

Este estudio subraya la necesidad urgente de implementar estrategias de mitigación y adaptación para enfrentar los riesgos asociados a los ciclones tropicales y el crecimiento urbano en Puerto Vallarta. Se recomienda fortalecer la planificación urbana sostenible, con énfasis en la protección de las áreas verdes y la restauración de zonas de infiltración natural. Además, es crucial desarrollar sistemas de alerta temprana y mejorar la infraestructura de drenaje para reducir la vulnerabilidad de la población y proteger los recursos hídricos. La investigación aporta una base sólida para la formulación de políticas públicas orientadas a la gestión integral de la cuenca del río Pitillal, alineadas con los objetivos de desarrollo sostenible. La conservación y gestión adecuada de este recurso natural es esencial para garantizar un futuro seguro y sostenible para Puerto Vallarta y sus habitantes.
Martinez Ramos Marco Antonio, Universidad Autónoma de Guerrero
Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua

CARACTERIZACIóN HIDROGEOLóGICA DEL ACUíFERO DE LA PENíNSULA DE YUCATáN.


CARACTERIZACIóN HIDROGEOLóGICA DEL ACUíFERO DE LA PENíNSULA DE YUCATáN.

Fernández Pellón Pérez Rubén, Universidad Autónoma de Guerrero. Martinez Ramos Marco Antonio, Universidad Autónoma de Guerrero. Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

La Península de Yucatán alberga uno de los acuíferos más importantes y vulnerables de México debido a la compleja hidrogeología. El acuífero predominantemente kárstico se compone de un sistema de formación rocosa en la que existe una red de cuevas y ríos subterráneos, lo que ha sido aprovechado por la población durante siglos como la principal fuente de agua dulce. Su recarga depende de la precipitación que infiltra el suelo y de la conexión con cuerpos de agua superficiales y áreas forestales.



METODOLOGÍA

Durante el transcurso de un año, 2023-2024, se llevó a cabo un análisis hidrogeológico para evaluar la influencia del proyecto del Tren Maya sobre el acuífero de la Península de Yucatán. El análisis se centró en el indicador clave: la elevación del nivel estático del agua, ya que refleja el estado del acuífero y cómo responde a cambios externos. Se instalaron estaciones de monitoreo en varios puntos del trazado del Tren Maya para medir la elevación del nivel estático del agua de manera continua; además, se recopilaron datos mensuales para observar la dinámica estacional y las tendencias a largo plazo. También se realizó un análisis adicional de la geología y la estratigrafía para comprender mejor la naturaleza del acuífero. Se consultaron mapas detallados de las formaciones geológicas de la región, identificando las capas de roca y sus características hidrogeológicas. Los perfiles estratigráficos con la descripción de la disposición y el espesor de las capas de roca y su relación con la permeabilidad y porosidad. Finalmente, se prestó especial atención a la característica del terreno kárstico dado que la Península de Yucatán es conocida por este tipo de terreno.   Después de hacerse una idea de la naturaleza del acuífero, se llevó a cabo el análisis de la calidad del agua en la zona de influencia geográfica del Tren Maya. El estudio se propuso verificar si el proyecto estaba influyendo en los parámetros de calidad del agua o si las desviaciones observadas se debían a las singularidades de la zona o a la influencia de la urbanización. Se llevaron a cabo varias campañas de muestreo mensual de agua subterránea en diferentes ubicaciones en el trazo del Tren Maya y en varias temporadas del año para abarcar las variaciones estacionales. Los parámetros evaluados incluyeron el pH, la conductividad, los sólidos totales disueltos, los iones mayoritarios como el calcio, el magnesio, el sodio, el potasio, los bicarbonatos, el sulfato y el cloro, así como metales pesados y contaminantes orgánicos. Los análisis se realizaron de acuerdo con los niveles establecidos en la NOM-127-SSA1-2021, que establece los límites permisibles de la calidad del agua para consumo humano. Para comprender mejor las características hidrogeoquímicas del agua subterránea, se caracterizaron las diferentes familias de agua presentes en la zona y las causas de su formación, utilizando The Geochemist’s Workbench para interpretar los datos de calidad del agua. Algunas de las principales familias de agua incluyen: agua bicarbonatada cálcica, agua bicarbonatada magnésica y agua clorurada.     Los parámetros hidrogeoquímicos presentan variaciones originadas por: la interacción roca-agua, la influencia de actividades humanas, la disolución de minerales en el material de suelo y subsuelo. Para que se mejore la interpretación de los datos hidrogeoquímicos y así se conozcan mejor los procesos que afectan la calidad del agua se realizaron cinco tipos de diagramas:   Diagrama de Piper: Clasificó y visualizó los diferentes tipos de agua subterránea en función de su composición iónica. Diagrama de Schoeller: Este diagrama comparó las concentraciones de iones principales para encontrar patrones de mezcla o de contaminación. Diagrama de Stiff: Presentó una parcela de representación gráfica de la composición química del agua. Se utilizó para comparar y encontrar similitudes y diferencias entre las muestras. Diagrama de Mifflin: Se utilizó para conocer que procesos geológicos influyen en la calidad de agua subterránea. Diagrama de Gibbs: Este diagrama se determinó los procesos dominantes que controlan la química del agua.


CONCLUSIONES

Las variaciones en la elevación del nivel estático del agua se deben a la variación estacional, es decir, un incremento en los niveles estáticos en periodo de lluvias, y una disminución de este en temporada de estiaje. Los parámetros de calidad del agua no mostraron cambios significativos que puedan ser atribuidos al proyecto Tren Maya. Sin embargo, algunas zonas urbanas cercanas si influyeron. La composición química del agua subterránea intentó identificar diferentes familias de agua influenciadas por factores naturales y las actividades humanas.
Martínez Rojas Fernanda Ximena, Instituto Politécnico Nacional
Asesor: Dr. Juan Pablo González Galvis, Universidad Cooperativa de Colombia

OCURRENCIA DE CLOROFORMO COMO SUBPRODUCTO DE LA DESINFECCIÓN EN CUATRO DIFERENTES PLANTAS DE TRATAMIENTO DE AGUA POTABLE Y SU CORRESPONDIENTE RED DE DISTRIBUCIÓN EN COLOMBIA


OCURRENCIA DE CLOROFORMO COMO SUBPRODUCTO DE LA DESINFECCIÓN EN CUATRO DIFERENTES PLANTAS DE TRATAMIENTO DE AGUA POTABLE Y SU CORRESPONDIENTE RED DE DISTRIBUCIÓN EN COLOMBIA

Martínez Rojas Fernanda Ximena, Instituto Politécnico Nacional. Asesor: Dr. Juan Pablo González Galvis, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

Los subproductos de la desinfección (SPD) presentes en agua para consumo humano, han sido regulados en base a dos grandes grupos a nivel internacional: 1) Trihalometanos y 2) Ácidos Aloaceticos. Sin embargo, la normatividad colombiana a través de la resolución 2115 de 2007 ha adoptado el monitoreo del primer grupo de compuestos es decir los THMs, como parámetro de referencia de calidad de agua potable. Sin embargo, el alto costo del procesamiento de estas muestras en laboratorios especializados siguiendo procedimientos estándar (EPA 5030C, EPA 8260C), hacen que los THMs no sean monitoreados con frecuencia a la salida de las plantas de tratamiento de agua potable (PTAP), y su correspondiente red de distribución. Esto conlleva a que se desconozca el comportamiento de las concentraciones de THMs en diferentes épocas del año en ciudades y poblaciones de Colombia. Por lo tanto, el principal objetivo de este proyecto de investigación es el de identificar la formación de cloroformo como indicador de la formación de THMs en cuatro diferentes plantas de tratamiento de agua potable y su correspondiente red de distribución en Colombia usando un método colorimétrico de bajo costo desarrollado por la compañía HACH ¨Trihalomethane Formation Potential (THMFP) Method 10224¨. 



METODOLOGÍA

Muestreo de Agua Se realizaron muestreos en diferentes puntos de la red de distribución de agua potable en cuatro ciudades con características climatológicas y fuentes de suministro diversas, las ciudades seleccionadas fueron Montería, Cereté, Tunja y Soracá. En cada una de estas ciudades se identificaron diversos puntos de muestreo en diferentes ubicaciones de la red de distribución para asegurar su representatividad. Parámetros Analizados En cada punto de muestreo, se obtuvieron valores de los siguientes parámetros:pH, Temperatura, Turbiedad, Conductividad, UV-254, Cloro Residual y Cloroformo Análisis de Datos Con los datos obtenidos se realizaron diferentes tipos de graficas para poder realizar un análisis detallado de los datos obtenidos  A. Cinética de Desinfección Lo primero que se realizo es una cinética de desinfección donde se ordenaron los datos de las tablas de acuerdo con la distancia de los puntos de muestreo a la planta de tratamiento de agua potable, con el objetivo de poder realizar la cinética de desinfección utilizando los diferentes métodos de integración para el análisis de datos cinéticos experimentales, estas cinéticas serán de orden cero, primer orden, segundo orden y n orden. También se descartaron datos que no se consideraban representativos y afectaban las cinéticas de desinfección, esto es esencial para asegurar la precisión y fiabilidad del análisis cinético.  B. Factores en la formación de subproductos de la desinfección. Posteriormente se realizará un análisis donde se explicarán las correlaciones existentes entre los diferentes factores involucrados en la formación de subproductos de la desinfección esto utilizando una gráfica que relaciona estos factores de forma más específica.  C. Distribución de datos Mediante el uso de graficas de Boxplot se realizará una comparación de los datos obtenidos de cada una de las ciudades para cada uno de los parámetros medidos. Esto es importante ya que con estas graficas se podrá observar las diferencias y similitudes en la formación de cloroformo para cada una de las ciudades estudiadas, así como el comportamiento de diversos parámetros fisicoquímicos que pueden tener un impacto en la formación de subproductos de la desinfección.  D. Histogramas de Distribución de Parámetros Medidos en Redes de Distribución de Agua Potable Se realizaron histogramas de distribución para cada parámetro medido, utilizando todos los datos recopilados de las redes de distribución de agua potable en las cuatro ciudades estudiadas: Cereté, Montería, Soracá y Tunja. Estos histogramas permiten visualizar la distribución y variabilidad de los valores de cada parámetro, para así poder identificar tendencias y patrones específicos en la calidad del agua potable. E. Correlación de Parámetros para la Formación de Subproductos de la Desinfección  Se elaboraron gráficos para observar la relación entre cada uno de los parámetros medidos y la formación de cloroformo en el agua potable. Estos gráficos permiten identificar cómo variables como la temperatura, la turbiedad, la conductividad, el UV-254, el cloro residual y otros factores influyen en la producción de subproductos de desinfección, específicamente el cloroformo, proporcionando una visión detallada de las interacciones que afectan la calidad del agua en las redes de distribución de las cuatro ciudades estudiadas esto contemplando las características particulares de cada una de estas ciudades. 


CONCLUSIONES

Durante la estancia de investigación, se adquirieron conocimientos teóricos sobre la formación de subproductos de desinfección en el tratamiento de agua potable, donde se observó que este proceso sigue un comportamiento diferente en cada una de las ciudades analizadas. Las características climatológicas, la densidad de población y las diversas fuentes de agua y su correspondiente red de distribución de Cereté, Montería, Soracá y Tunja influyen significativamente en la formación de cloroformo como subproducto de la desinfección. Parámetros como el cloro residual y el UV-254 demostraron ser cruciales, ya que muestran una tendencia importante que determina los niveles de subproductos de desinfección formados. Estos hallazgos nos muestran la necesidad de un enfoque más específico en el tratamiento y desinfección del agua potable, considerando las particularidades de cada ciudad para así mejorar y optimizar los métodos de tratamiento, para asegurar la calidad del agua necesaria y minimizar la formación de subproductos de la desinfección.
Mazorra Renza Mariana, Universidad de Caldas
Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla

DESARROLLO METODOLóGICO DE UN ANáLISIS FíSICO-SOCIAL Y CLIMáTICO DE MUNICIPIOS VULNERABLES ANTE ALGúN RIESGO EN EL ESTADO DE PUEBLA (CASO DE ESTUDIO SIERRA NORTE Y VOLCáN POPOCATéPETL)


DESARROLLO METODOLóGICO DE UN ANáLISIS FíSICO-SOCIAL Y CLIMáTICO DE MUNICIPIOS VULNERABLES ANTE ALGúN RIESGO EN EL ESTADO DE PUEBLA (CASO DE ESTUDIO SIERRA NORTE Y VOLCáN POPOCATéPETL)

Loera Lafont Serrano Ana Lucía, Universidad Autónoma de Baja California. Mazorra Renza Mariana, Universidad de Caldas. Millan Salgado Ariadna Carmin, Universidad Autónoma de Guerrero. Villalobos Vazquez Consuelo, Universidad Autónoma de Baja California. Zarza Vilchis Miriam Paola, Universidad Autónoma del Estado de México. Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El riesgo, mide que tan probable es que se presente un suceso o evento en un lugar específico. Este suele poner en peligro la condición de los habitantes, lo que los convierte en una población vulnerable. El Estado de Puebla, según la Secretaría de Medio Ambiente, Desarrollo Sustentable y Ordenamiento Territorial (2019-2024), nos dice que el Estado de Puebla se ha visto muy afectado por la actividad sísmica y volcánica, en donde la actividad sísmica se vuelve constante y que cada 3 o 5 años genera daños catastróficos. De igual forma se presentan deslizamientos de laderas, incendios e inundaciones provocando así pérdidas tanto económicas como humanas. Esta problemática se presenta en la Sierra Norte y en el Volcán Popocatépetl, en donde en este verano de investigación se obtienen y procesan datos que nos permitan entender el comportamiento del medio con la sociedad, y con ello poder determinar posibles riesgos para que las autoridades correspondientes puedan tomar decisiones a futuro.



METODOLOGÍA

Se llevó a cabo la delimitación del volcán Popocatépetl, para eso se hizo uso del software libre Google Earth Pro, en el cual se delimitaron 40 km de radio a partir del cráter y se guardó como archivo kml, mismo que nos permite visualizar información en un contexto geográfico, ya que puede contener datos de entidades de diferentes tipos de geometría y puede ser en formato vectorial y ráster. En el software libre QGIS, se obtuvo el polígono del cráter del volcán a partir del archivo kml, el cual se reproyecto considerando el correspondiente al Estado de Puebla (EPSG: 32614-WGS 84 / UTM zona 14N). A través del Continuo de Elevaciones Mexicano (INEGI), se obtuvieron los DEM de los cinco Estados (Estado de México, Ciudad de México, Puebla, Tlaxcala y Morelos) que conforman el radio de interés. En el software de QGIS se reproyectaron y se agregaron al software de ArcMap, en el cual se realizó la unión de estos a un archivo ráster y con la capa del polígono se hizo un corte para obtener solo el radio de interés. Derivado de lo anterior se obtuvieron las curvas de nivel, las cuales nos permiten visualizar como se encuentra la superficie, es decir si es una zona plana o inclinada, al igual que las diferentes alturas y geoformas como valles, entre otros, para así poder entender el comportamiento de cierto espacio. También se calculó el área y perímetro, con la finalidad de saber que tanto espacio abarca la zona de estudio. Por medio del uso de un TIN (Triangular Irregular Network), el cual es un medio digital usado para poder representar la morfología de la superficie, se obtuvo el volumen a partir de un punto de referencia, que en este caso fue la cota de los 2000 msnm. Se llevó a cabo la obtención de pendientes, tanto en grados como en porcentaje por medio del DEM del área de estudio, esto para saber la inclinación que tiene la superficie. Se obtuvieron datos de la página del Censo de Población y Vivienda, 2020 del Instituto Nacional de Estadística y Geografía (INEGI), esto para saber que tanta población podrían encontrarse en una condición vulnerable ante algún riesgo, ya sea natural o antrópico en el Estado de Puebla. Los datos que se utilizaron son: Total de población. Total de población femenina y masculina. Total de población con discapacidades. Total de población que cuentan y no con servicios de salud Total de viviendas. Total de viviendas particulares habitadas con o sin modos de transporte. Total de viviendas particulares habitadas que disponen y no de energía eléctrica. Total de viviendas particulares habitadas que disponen de algún bien. En el software de QGIS se realizó la unión de la base de datos con el shape de los municipios del Estado, el cual se obtuvo del Marco Geoestadístico de INEGI. Dentro del radio de los 40 km, se seleccionaron los municipios de interés y se exportó esa información como capa shape y se reproyecto. Por medio de la Red Nacional de Caminos del Instituto Mexicano del Transporte, el cual se procesó en QGIS, se obtuvieron las vías de comunicación del Estado y de los municipios de interés, con la finalidad de conocer la superficie de rodamiento, es decir, si estas se encuentran pavimentadas, sin pavimento o si es diferente a una carretera o camino. Derivado de lo anterior, se procedió a realizar la cartografía correspondiente para un análisis de contexto social de los municipios de interés, esto para poder entender por medio de mapas el comportamiento de la población ante diferente variable.


CONCLUSIONES

Por medio de este estudio, se espera poder comprender y realizar un análisis de la condición física, social y climática en la que se encuentran ciertos municipios, considerando las diferentes zonas de estudio y junto con ello poder brindar la información necesaria ante posibles riesgos que presenta el medio y la sociedad a las autoridades correspondientes y a la misma población, para que en futuras tomas de decisiones el bien de la población sea lo primordial en el Estado.
Medellín Macías Perla Selene, Universidad Autónoma de Zacatecas
Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara

SíNTESIS Y CARACTERIZACIóN DE PELíCULAS DE CDS DECORADAS CON NPS AU EN SOLUCIóN DE BAñO QUíMICO Y DEGRADACIóN DE AZUL DE METILENO POR FOTOCATáLISIS HETEROGéNEA


SíNTESIS Y CARACTERIZACIóN DE PELíCULAS DE CDS DECORADAS CON NPS AU EN SOLUCIóN DE BAñO QUíMICO Y DEGRADACIóN DE AZUL DE METILENO POR FOTOCATáLISIS HETEROGéNEA

Medellín Macías Perla Selene, Universidad Autónoma de Zacatecas. Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Debido a la crisis energética mundial provocada por el agotamiento de las reservas de petróleo, el aumento en la demanda de energía y por la falta de inversión, en las últimas décadas se ha observado un notable interés por buscar, desarrollar y aprovechar fuentes alternativas de energía renovables como lo es la energía solar. La conversión directa de energía solar a eléctrica se lleva a cabo mediante dispositivos fotovoltaicos o celdas solares, para que esta tecnología sea viable y económicamente rentable a gran escala, se requiere de un aumento en la eficiencia de conversión y una reducción del costo de producción. Con este fin, las líneas de investigación en los últimos años se han centrado en reducir el costo de las celdas solares, esto mediante la utilización de métodos y materiales de fabricación sencillos y eficientes en cuanto a consumo energético que conllevaría a costos de producción menores; así como la mejora en el rendimiento de las mismas a través el desarrollo y optimización de las estructuras fotovoltaicas para alcanzar una alta eficiencia de conversión de energía solar a eléctrica. El desarrollo de celdas solares de películas delgadas es una alternativa viable. Para esto se estudian los compuestos del grupo II-IV que corresponde a semiconductores con aplicaciones científicas y tecnológicas gracias a su banda prohibida directa y estrecha, además de que presentan gran absorción óptica y alta afinidad electrónica.



METODOLOGÍA

Para depositar las películas delgadas, se emplearon dos técnicas de depósito en baño químico (CBD): ultrasónico y asistido con microondas. Para ello, se utilizó Tiourea (SC(NH2)2) y Cloruro de Cadmio (CdCl2). El depósito en baño químico se llevó a cabo de la siguiente manera: 10 mL de CdCl2 0.025 M, 10 mL de NH4Cl 0.1 M y 5 mL de NH4OH en un vaso de precipitado con 50 mL de agua destilada a 50°C para la película delgada de CdS y 60°C para las películas decoradas con NPs de Au. Mientras que el depósito en baño químico asistido con microondas se realizó empleando la solución anterior y un tratamiento térmico de 1 minuto en intervalos de 5 s. Se utilizaron sustratos de vidrio, se limpiaron por medio de enjuague ultrasónico. Después de la limpieza, se sumergió un sustrato y finalmente se vertieron 5 mL de SC(NH2)2 0.05 M en el vaso de precipitado para iniciar la formación de CdS en un volumen total de 85 mL. Para el depósito en baño químico, se mantuvo agitación magnética durante 60 min, mientras que para el depósito asistido con microondas se realizó un tratamiento térmico de 1 min en intervalos de 5 s. Una vez terminado el depósito, las películas se enjuagaron ultrasónicamente en agua destilada para eliminar residuos de las mismas. Finalmente, las películas fueron secadas con aire comprimido. Previo al depósito de películas decoradas, se sintetizaron nanopartículas de oro coloidal mediante ablación láser de sólidos en líquidos (ALSL). Para ello se empleó un láser, el rayo láser fue dirigido a un recipiente de vidrio que contenía un blanco de Au de alta pureza con diferentes tiempos de ablación. Para obtener los polvos, se centrifugó la solución que contenía los sustratos por 30 min para después retirar el líquido y realizar el secado de los mismos en una estufa a 50 °C. La caracterización óptica se midió mediante espectroscopía UV-Vis, mientras que la caracterización estructural se realizó mediante difracción de Rayos X (DRX). Para la degradación de colorantes mediante fotocatálisis heterogénea se utilizó el colorante azul de metileno. Como catalizador se emplearon los polvos recuperados de las soluciones de CdS de referencia y las decoradas con NPs de Au. Las muestras fueron expuestas a radiación UV en tiempos de 15, 45 y 90 min.


CONCLUSIONES

A las películas delgadas y a los polvos recuperados se les realizó caracterización óptica mediante espectroscopía UV-Vis-IRcercano para obtener los espectros de absorción y transmisión y así analizar las propiedades optoeléctricas, la caracterización estructural de las muestras se realizó por medio de mediciones de difracción de rayos X para comprobar o descartar la presencia de CdS y NPs-Au en las muestras. Para cuantificar los valores del bandgap de las películas delgadas, se graficó (D.O. x hu)2 vs. hu para cada una. Utilizando el modelo de Tauc, la parte recta en cada uno de los gráficos se extrapoló linealmente al eje x obteniendo los valores del bandgap. Para las películas de CdS se obtuvieron valores de 2,44 eV empleando la técnica CBD asistido por microondas y un valor de 2,34 eV para el CBD ultrasónico, este último concuerda exactamente con los valores en la literatura. Respecto al CBD ultrasónico, se estimó un valor de 2.17 eV para la película con NPs-Au. Al medir la transmitancia óptica en el rango visible, se observó un aumento en el porcentaje de transmitancia a longitudes de onda superiores a 470 nm del 84% en la película CdS de referencia al 93%. Para evaluar el porcentaje de degradación del colorante utilizado (azul de metileno) con los polvos de CdS y NPs-Au/CdS como catalizador, se empleó espectroscopía de absorción. Al analizar los porcentajes de degradación, se observa que éste aumenta con la concentración de NPs-Au, aunque también se observa que la incorporación de las mismas no mejora la degradación del colorante respecto a la muestra que no contiene NPs-Au. El estudio de la incorporación de NPs-Au en matrices de CdS explora cómo éstas pueden mejorar el rendimiento de las celdas solares. La incorporación de las NPs metálicas aumenta la transmitancia óptica en el rango visible, promueve la absorción en el rango UV seguida de una emisión visible que podría ser absorbida por la capa fotovoltaica mejorando la eficiencia de la celda.
Medina Cuen Valeria, Universidad Autónoma de Sinaloa
Asesor: Dr. Pablo Gerardo Rojas Hernandez, Universidad Politécnica de Sinaloa

CARACTERIZACIóN DE NANOENCAPSULADOS DE ALIMENTO PARA POST-LARVAS DE CAMARóN


CARACTERIZACIóN DE NANOENCAPSULADOS DE ALIMENTO PARA POST-LARVAS DE CAMARóN

Medina Cuen Valeria, Universidad Autónoma de Sinaloa. Asesor: Dr. Pablo Gerardo Rojas Hernandez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

De los propósitos más comunes para usar la nanoencapsulación en alimentos es para mejorar la solubilidad, estabilidad y biodisponibilidad de los compuestos bioactivos en estos, dándoles así una mayor protección en una variedad de condiciones de procesamiento. Mientras que el propósito de usar un Microscopio de Fuerza Atómica (AFM por sus siglas en inglés) para analizar los nanoencapsulados es para evaluar el tamaño y forma de las nanopartículas, aunque la visualización en 3D ofrecida por el AFM se le considera superior a otros métodos de visualización, nos encontramos con ciertas desventajas, ya que la muestra tiene que ser adherida a una superficie de soporte para ser estudiada, este proceso puede alterar las características de las nanopartículas que se buscan analizar, a su vez, la punta de la viga suele ser más grande que las partículas, lo que lleva a errores topológicos. Así, estas serían las principales problemáticas a las que nos enfrentamos al llevar a cabo caracterizaciones de este tipo.



METODOLOGÍA

En este proyecto se analizaron dos tipos de nanoencapsulados para alimento de la post-larva de camarón blanco (Penaeus vannamei). El primer nanoencapsulado fue elaborado con proteína concentrada de pescado, compuesta a base de péptidos y aminoácidos de bajo peso molecular, mientras que el segundo fue fabricado a base de la macroalga marina Padina durvillaei. La misma metodología fue usada para estudiar ambos nanoencapsulados. Antes de empezar con el análisis de los encapsulados, se tomaron fotografías de los portamuestras a utilizar para evitar cualquier posible confusión a la hora de seleccionar la zona a estudiar a base la imagen conseguida con el microscopio óptico de vídeo. Se usaron dos métodos para el tratamiento de las muestras: En el primer método, se tomó 0.2 miligramos del encapsulado a analizar sobre el portamuestras, se tomaron varias fotografías de la muestra seca con el propósito de documentar su estado, posteriormente, a la muestra seca se le agregó alrededor de 0.5 mililitros de agua ultrapura, después de que el encapsulado se disolviera en el agua ultrapura, se dejó secar al ambiente, una vez que la muestra se encuentra completamente seca se colocó en el AFM para ser analizada. En el segundo método, se tomaron 0.5 miligramos de la muestra los cuales fueron disueltos en 2 mililitros de isopropanol para después ser sometidos a un minuto de baño de ultrasonido a temperatura ambiente, una vez finalizado este, inmediatamente se colocó en el portamuestras alrededor de 0.5 mililitros de la solución donde se dejaron secar al ambiente y finalmente, una vez que la solución se secó completamente, el portamuestras es colocado en el AFM. El AFM usado en este proyecto tiene dos modos de escaneo: vibratorio y no vibratorio, en este proyecto se usó solamente el modo no vibratorio. Para llevar a cabo el análisis en el AFM, primero se analiza la superficie con el microscopio óptico de vídeo para así determinar una zona adecuada en la cual llevar a cabo el estudio, una vez seleccionada se seleccionan los parámetros correspondientes y se deja en operación el tiempo requerido. El parámetro "gain" fue fijado a 4.000 mediante la iterada variación de este para determinar el que generaba una imagen más legible. El análisis del AFM fue llevado a cabo en etapas, en la primera etapa se determina la zona de estudio y tenía la siguiente configuración de escaneo:  Type: 3D Scan Rate: 2 Hz Scan Lines: 128 Scan Size: 50 μm Ya que se determinó una zona adecuada, pasamos a la segunda etapa, donde se llevan a cabo varios escaneos de la zona seleccionada con la siguiente configuración: Type: 3D Scan Rate: 0.5 Hz Scan Lines: 256 Scan Size: - μm El parámetro Scan Size el cual corresponde al área del escaneo se deja en blanco, ya que esta puede variar desde 25 μm hasta 0.5 μm dependiendo de lo encontrado en la primera etapa.


CONCLUSIONES

Durante la estadía del verano se logró adquirir conocimientos teóricos y prácticos acerca del uso y aplicaciones del AFM en la identificación de nanoparticulas; sin embargo, se encontraron problemáticas más allá de las previstas originalmente, en específico la sobre saturación del detector ocasiono que no se pudieran conseguir mediciones específicas de las partículas encontradas, a pesar de esto, se pudo confirmar que se trataban de nanopartículas y se obtuvieron varias imágenes donde se puede observar su topología y debido al tamaño tan pequeño que presentaban estas nanoparticulas se observó la nucleación y creación de películas delgadas. Al tratarse un proyecto extenso, los resultados obtenidos solo representan las primeras muestras de caracterización de los nanoencapsulados, y, dependiendo del tamaño de los siguientes nanoencapsulados producidos, el proceso de caracterización evolucionará acordemente.
Medina Languren Alison Lisbeth, Universidad de Guadalajara
Asesor: Dr. Víctor José Sosa Villanueva, Instituto Politécnico Nacional

PROPIEDADES MAGNéTICAS EN MATERIALES SUPERCONDUCTORES


PROPIEDADES MAGNéTICAS EN MATERIALES SUPERCONDUCTORES

González Hernández Jocelin Areli, Universidad de Guadalajara. Medina Languren Alison Lisbeth, Universidad de Guadalajara. Rodríguez Navarro Nicole Guadalupe, Universidad de Guadalajara. Asesor: Dr. Víctor José Sosa Villanueva, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los materiales superconductores, como el óxido de itrio-bario-cobre (YBCO) expulsan completamente los campos magnéticos internos al entrar en su estado superconductor, lo que se conoce como el efecto Meissner. Esto permite que los superconductores leviten sobre un imán debido a la repulsión magnética. En el estado superconductor, el YBCO puede atrapar líneas de flujo magnético, donde esta capacidad de retener campos magnéticos se utiliza en aplicaciones como la levitación magnética y la construcción de imanes superconductores.



METODOLOGÍA

Con el fin de estudiar el comportamiento de los materiales superconductores con campos magnéticos retenidos, se realizó un escaneo en tres dimesiones para observar el comportaminto del flujo magnético y analizar las líneas de flujo. El material de YBCO primero debera mantenerse en su estado superconductor a traves de nitrogeno líquido, donde se sometera a la presencia de un iman y se producira el efecto Meissner. Posterior a esto, aun siguiendo en su temperatura critica, el iman superconductor sera colocado en un soporte diseñado en SolidWorks e impreso en 3D y posteriormente traves de un sensor de medicion en tres dimensiones sera escaneado y los resultados seran obtenidos en el programa LABView.  Para completar el analisis de los datos obtenidos es necesario configurar el programa de medicion con los variables del entorno como voltaje y temperatura para tener un escaneo mas preciso.


CONCLUSIONES

A partir de los graficos generados se puede considerar que las lineas de flujo siguen un comportamiento que respeta la geometria del material superconductor, de igual manera que el campo magnético retenido es mayor en el centro y en las zonas donde haya imperfecciones estructurales. En conclusión, la investigación sobre las propiedades magnéticas en materiales superconductores demostró que el método elegido para medir el campo magnético fue altamente efectivo. La utilización de una impresora 3D para fabricar un dispositivo que permitía la inmersión continua de los superconductores en nitrógeno líquido garantizó una medición precisa y consistente del campo magnético. Este enfoque innovador no solo facilitó la estabilidad térmica necesaria para mantener los superconductores en su estado óptimo, sino que también proporcionó un entorno controlado que mejoró la exactitud de los resultados obtenidos. Así, el método empleado probó ser una herramienta eficaz y confiable para la investigación en propiedades magnéticas de superconductores.
Medina Lugo Fausto Misael, Universidad de Sonora
Asesor: Dr. Miguel Angel Uh Zapata, Centro de Investigación en Matemáticas (CONACYT)

DESARROLLO DE UNA INTERFAZ PARA LA SIMULACIóN DE FLUJOS EN AGUAS SOMERAS


DESARROLLO DE UNA INTERFAZ PARA LA SIMULACIóN DE FLUJOS EN AGUAS SOMERAS

Camacho Ortiz Hannia Berenice, Universidad de Sonora. Gortarez Blanco Manuel Eduardo, Universidad de Sonora. Medina Lugo Fausto Misael, Universidad de Sonora. Michel Pinto Bruno Santiago, Universidad Autónoma de Baja California. Asesor: Dr. Miguel Angel Uh Zapata, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Un fluido se define como un medio continuo y fácilmente deformable que puede ser líquido o gaseoso. El estudio de los gases comenzó con los trabajos de Bernhard Riemann sobre las ondas de choque en 1876, consolidándose en el siglo XX debido al interés en la aeronáutica generado por las guerras mundiales. En comparación, el estudio de los líquidos tiene una historia mucho más antigua, con los primeros sistemas de riego que datan de hace 30,000 años. El enfoque inicial sobre los líquidos fue la hidráulica, que era práctico y experimental, permitiendo la construcción de sistemas de riego, cisternas y acueductos. No fue hasta el siglo XVIII que matemáticos como Euler, Clairaut, d’Alambert y Bernoulli desarrollaron la hidrodinámica, el estudio analítico del agua. En 1904, la teoría de la capa límite de Ludwig Prandtl unificó los enfoques experimental y analítico en la Mecánica de Fluidos. Destacan las contribuciones de Navier y Stokes, quienes formularon las ecuaciones diferenciales parciales que gobiernan el movimiento de los fluidos, conocidas como ecuaciones de Navier-Stokes. Estas ecuaciones representan el comportamiento general de un fluido en tres dimensiones. Sin embargo, para flujos en aguas poco profundas, se simplifican en las ecuaciones de Saint-Venant. Encontrar soluciones analíticas a estas ecuaciones no siempre es posible o práctico, por lo que se han desarrollado métodos numéricos para aproximar soluciones precisas. El objetivo de este trabajo es desarrollar una interfaz que permita al usuario crear simulaciones de flujos de aguas poco profundas. En esta interfaz, el usuario podrá añadir obstáculos en un dominio rectangular de 4x2 metros y, al estar satisfecho con el diseño, iniciar la simulación con un solo clic. El sistema resolverá automáticamente las ecuaciones de Saint-Venant para varios pasos de tiempo, mostrando las soluciones en pantalla en tiempo real, permitiendo observaciones rápidas e intuitivas sobre cómo el flujo de agua se ve afectado por los obstáculos añadidos.



METODOLOGÍA

**Interfaz** Se desarrolló un Paint dónde el usuario pueda dibujar los obstáculos. El display del canvas para dibujar la figura a mallar es un programa elaborado en Python utilizando la librería Tkinter. Este programa ofrece una variedad de brochas para generar figuras y la opción de realizar trazos a mano alzada, asegurando que no haya cruces ni intersecciones entre figuras. Al finalizar el dibujo, el botón de simular genera los archivos necesarios y comienza la simulación en tiempo real. La malla se puede modificar durante la simulación y ésta se adaptará a los cambios. Si se borra el dibujo, la simulación se detiene. La malla se realiza con Gmsh en cuatro etapas: definición de geometría, establecimiento del dominio computacional, etiquetado y especificación del tipo de mallado. **Simulación** Para simular el fluido, se resuelven numéricamente las ecuaciones de Saint-Venant, derivadas de las ecuaciones de Navier-Stokes. Estas ecuaciones de advección-difusión describen el flujo del agua, considerando las componentes horizontales de la velocidad y otros parámetros físicos. También se incluye una ecuación tipo Poisson para determinar el nivel del agua. La solución numérica se obtiene utilizando el método de volúmenes finitos, que integra las ecuaciones en cada elemento triangular de la malla y aproxima las integrales resultantes. Este método fue implementado en el programa RTSUFVM escrito en Fortran 90 por el Dr. Miguel Angel Uh Zapata, que toma los archivos generados por el Paint y realiza la simulación del fluido. **Visualización** Los datos generados por el simulador en Fortran 90 se grafican utilizando ParaView, una aplicación de código abierto para la visualización y análisis de datos científicos. ParaView maneja grandes conjuntos de datos y se usa en diversas disciplinas científicas e ingenierías. **Ensamble** Para integrar simulaciones en tiempo real con ParaView y un Paint desarrollado en Python, se sigue un proceso estructurado. El Paint permite dibujar figuras que se convierten en un archivo .geo para que Gmsh genere la malla en un archivo .vtk. Este archivo es procesado por mesh-5.0 para generar un archivo .txt con los detalles del dominio. Este archivo es usado por el programa de simulación RTSUFVM, que genera múltiples archivos .vtk para visualización en ParaView. Un script automatiza todo el proceso, asegurando la correcta ejecución de Gmsh, mesh-5.0 y RTSUFVM, transfiriendo los archivos necesarios entre cada paso. Un archivo Python, ejecutado por pvpython, configura la visualización en ParaView, ajustando colores, zoom y velocidad de animación para mostrar los resultados en tiempo real. Para simplificar la ejecución y compilación del proyecto, un script principal (run.sh) automatiza todo el proceso, permitiendo a los usuarios modificar parámetros clave para personalizar la simulación y visualización sin realizar compilaciones manuales cada vez que se realiza un cambio.


CONCLUSIONES

En este trabajo, se ha desarrollado una interfaz interactiva para la simulación de flujos en aguas someras. Esta interfaz permite a los usuarios diseñar y modificar dominios con obstáculos, observando los efectos en tiempo real. La combinación de herramientas como Python, Tkinter, Gmsh, Fortran 90 y ParaView ha permitido crear una solución eficiente y práctica. Esta herramienta ofrece una forma interactiva y atractiva de aprender sobre la simulación de fluidos, siendo útil para la divulgación científica y educativa.
Medina Peralta Maria Jimena, Universidad Autónoma de Sinaloa
Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara

ESTUDIOS SISMOTECTóNICOS EN EL OCCIDENTE DE MéXICO A PARTIR DEL ANáLISIS DE DATOS DE LIBRE ACCESO


ESTUDIOS SISMOTECTóNICOS EN EL OCCIDENTE DE MéXICO A PARTIR DEL ANáLISIS DE DATOS DE LIBRE ACCESO

Colosio Olagues María José, Universidad de Sonora. Cota Cristobal Alethse Paulie, Universidad Autónoma de Sinaloa. Garcia Villavicencio Maria Fernanda, Benemérita Universidad Autónoma de Puebla. Medina Peralta Maria Jimena, Universidad Autónoma de Sinaloa. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Planteamiento: El occidente de México tiene una configuración tectónica donde la microplaca Rivera y la placa de Cocos subducen bajo la Placa de Norte América. Este proceso produce la deformación y fragmentación de la placa continental. Esta actividad tectónica produce una gran cantidad de sismos. De tal manera que experimentos sísmicos se han llevado a cabo cuyos datos son de libre acceso. En particular el experimento MARS fue implementado para estudiar la litosfera continental. El objetivo general de este proyecto es implementar técnicas de análisis para obtener resultados que nos permitan entender los procesos sísmicos y tectónicos presentes en el Occidente de México.



METODOLOGÍA

Metodología: Durante el verano de investigación se analizaron datos sísmicos para la identificación de fases sísmicas de las ondas P y S, así como la asignación de incertidumbres. Este procedimiento se realizó analizando archivos SAC con un código de PYTHON que implementa librerías de OBSPY.  


CONCLUSIONES

Conclusiones: El análisis realizado permitió mejorar el catálogo sísmico del occidente de México el cual se utilizará para estudios sísmicos como tomografía. Otras actividades realizadas durante el verano de investigación incluyeron asistencia a mini taller de escritura científico y a ponencias diversas, encuestas remotas y presenciales para el estudio del riesgo sísmico y la participación en ensayos geofísicos de sísmica activa y pasiva.
Melendez Hernandez Iran Melani, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE EVENTOS PRODUCIDOS POR W → Lν EN EL CMS DE COLISIONES PROTóN-PROTóN


ANáLISIS DE EVENTOS PRODUCIDOS POR W → Lν EN EL CMS DE COLISIONES PROTóN-PROTóN

Melendez Hernandez Iran Melani, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El resultado de diversas teorías y descubrimientos en la física han llevado a una comprensión profunda de la materia, la cual está compuesta por diminutos bloques gobernados por cuatro fuerzas fundamentales, llamados partículas. Las partículas de nuestro interés incluyen los bosones, que son partículas fundamentales, en particular, los bosones Z y W son responsables de mediar la fuerza débil, cuando dos protones colisionan, pueden descomponerse en partículas subatómicas como los neutrinos (ν), electrones (e), y muones (µ), cada uno de los cuales puede tener una carga de +1 o −1. En nuestro caso de estudio, estos bosones son relevantes ya que constituyen pilares fundamentales del Modelo Estándar.  



METODOLOGÍA

Con las variables obtenidas podemos implementar criterios para una mejor comprensión y limpieza de datos, ya que no sabemos los eventos correspondientes al decaimiento W → eν o W → µν. Para el decaimiento de W → eν los criterios correspondientes son ET > 25 GeV, pT > 20 GeV, χ 2 < 10, dxy < 0.02, y η < 2.5. Por otro lado, para W → µν los criterios comparten la energía transversal faltante, el momento transversal, la chi  cuadrada y el parámetro de impacto, mientras que lq combinación del aislamiento es iso < 0.2 y η < 2.4. De acuerdo con los criterios anteriores los 100000 eventos presentados que decayeron en muon o electrón se estimaron:5388 eventos que decaen en muon y 22995 eventos que decaen en electrón.


CONCLUSIONES

La partícula que se puede observar debido con las variables cinemáticas obtenidas, la construcción de la masa transversal y la identificación de muones o electrones que cumplen con los criterios seleccionados de acuerdo a esas mismas variables dan como resultado el análisis e identificación del bosón W.
Méndez Velarde Jessica Michelle, Universidad Autónoma de Baja California
Asesor: Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla

MACHINE LEARNING PARA EL ESTUDIO DE RAYOS CóSMICOS


MACHINE LEARNING PARA EL ESTUDIO DE RAYOS CóSMICOS

González Daniel Isaac, Benemérita Universidad Autónoma de Puebla. Méndez Velarde Jessica Michelle, Universidad Autónoma de Baja California. Morales Moro María Guadalupe, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Planteamiento Los rayos cósmicos son partículas con masa y carga que provienen de diversas regiones del espacio y bombardean continuamente la Tierra. La energía de estos rayos varía desde los 108eV hasta los 1020 eV, siendo las partículas con energías cercanas a 1020 eV (conocidas también como rayos cósmicos ultra-energéticos) las más raras de encontrar. Se estima que solo 3 o 4 partículas de esta magnitud impactan con la Tierra por kilómetro cuadrado alrededor de cada siglo. Por otro lado; actualmente nos encontramos frente un avance significativo en el campo de la inteligencia artificial, pues usando técnicas de aprendizaje automático basadas en redes neuronales artificiales podemos obtener resultados muy favorables para la resolución de problemas, por lo que resulta interesante trabajar en la capacidad de predicción e inferencia de las redes neuronales artificiales, para predecir características de rayos cósmicos que nos hablen de estos orígenes que desconocemos y nos brinden información sobre el universo en el que vivimos. El parámetro Xmax y su importancia Cuando el rayo proveniente del espacio choca con la Tierra, interactúa con la atmósfera, lo que provoca la creación de partículas secundarias, que a su vez interactúan entre ellas para producir más partículas, este proceso se repite reiteradas ocasiones hasta que la energía lo permite. La sucesiva creación de partículas desde que el rayo se descompone en la atmósfera terrestre se conoce como lluvia de partículas. La cascada (o lluvia) de partículas crece a medida que desciende hacia la Tierra hasta alcanzar un punto máximo que es precisamente el lugar en el cual se genera la mayor cantidad de partículas, llegado a este punto, la producción de partículas empieza a disminuir hasta agotar (o disipar) la energía. El punto máximo de producción de partículas se denomina Xmax, cuyas unidades son [g/cm2]. Este parámetro es sensible a la composición, es decir, su magnitud permite inferir el tipo de partícula que impactó la atmósfera terrestre inicialmente antes de descomponerse en la lluvia de partículas de la que obtenemos datos.



METODOLOGÍA

Simulaciones Se ha descubierto que el parámetro Xmax sigue una cierta tendencia lineal cuando se compara con el logaritmo de la energía, sin embargo, se observa un cierto valor de la energía a partir del cual la tendencia se altera. Aquí es donde surge el interés de aplicar algoritmos de machine learning para los datos de simulaciones realizadas por la supercomputadora. Se necesita de una gran cantidad de datos que contenga el comportamiento de estas lluvias para poder entrenar la red neuronal. Con la suficiente cantidad de datos y un modelo suficientemente flexible que permita interpretar la información, sería posible predecir estos puntos de quiebre sin la necesidad de esperar que los rayos ultra-energéticos golpeen alguno de los diferentes detectores alrededor del planeta. Papel de la supercomputadora Para el desarrollo de un algoritmo de aprendizaje supervisado, requerimos de realizar simulaciones de lluvias de partículas, mismas que se realizaron mediante el uso de la supercomputadora con el uso  de software desarrollado por el CERN. Es importante señalar que debido a que el tiempo que le tomó a la supercomputadora procesar los datos requeridos fue muy elevado, se optó por trabajar con datos anteriormente registrados mientras las simulaciones seguían cargando para un análisis posterior. Los datos en cuestión son pertenecientes a núcleos de Hierro y protones que simularon una lluvia de partículas de 1,000,000 y 70,000 datos respectivamente. Una vez obtenidos los datos se procedió a elaborar un algoritmo de regresión lineal para cada tipo de partícula en cuestión. El total de datos se dividió en dos subconjuntos: uno de entrenamiento y otro de prueba. Estos subconjuntos se suelen dividir en una relación 75%-25% respectivamente pues el subconjunto de entrenamiento debe ser lo suficientemente grande para poder predecir la tendencia de los datos; por otro lado, el subconjunto de prueba se utiliza para medir el desempeño del modelo.


CONCLUSIONES

Resultados: Modelos desarrollados Para el presente trabajo se utilizó un total de 1100000 datos, cuyas características fueron las siguientes: Número de eventos: 2 Energía inicial: 1016 Energía final: 1019 Número de lluvias por evento: 550,000   Primario: Hierro (Fe) Modelo hadrónico: EPOS - LHC   Para el manejo y análisis de estos datos se procedió a realizar una red neuronal basada en un modelo de regresión lineal de la librería de Scikit - learn. La función "LinearRegression" ajusta un modelo lineal con coeficientes w = (w1, ..., wp) para minimizar la suma residual de cuadrados entre los objetivos observados en el conjunto de datos y los objetivos predichos por la aproximación lineal. De los datos utilizados, estos se partieron en dos grupos: uno para el entrenamiento de la red neuronal y otro para su evaluación, para lo cual fue utilizada la función predeterminada "train\_test\_split" de la misma librería. Mediante los métodos mencionados, se encontró un training score de 0.81 en tanto que un test score de 0.81 por igual.   Conclusiones Durante la estancia de investigación del programa delfín 2024 se adquirieron nuevos conocimientos sobre los rayos cósmicos y su importancia para futuras investigaciones. Se estudiaron modelos de aprendizaje automático supervisado y no supervisado, sus ventajas, desventajas, así como también los diversos contextos en donde se utilizan actualmente. Se realizaron simulaciones de lluvias de partículas y se desarrollaron algoritmos de aprendizaje supervisado dando como resultado modelos simples que facilitan la aplicación de dichos algoritmos a conjuntos de datos más extensos. Este ejercicio permite comprender la importancia e influencia que tienen los datos para cada situación en la que se requiera aplicar este tipo de modelos.
Mendivil Valdez Paul, Universidad de Sonora
Asesor: Dr. Juan Andrés Castillo Valenzuela, Universidad de Sonora

BIFURCACIóN EN SISTEMAS DE ECUACIONES DIFERENCIALES LINEALES.


BIFURCACIóN EN SISTEMAS DE ECUACIONES DIFERENCIALES LINEALES.

Mendivil Valdez Paul, Universidad de Sonora. Asesor: Dr. Juan Andrés Castillo Valenzuela, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Las ecuaciones diferenciales constituyen una herramienta matemática fundamental que, a lo largo de los años, ha permitido establecer modelos en diversas áreas, como la biología y la ingeniería. En biología, por ejemplo, estos modelos matemáticos facilitan la predicción del crecimiento de una especie considerando múltiples factores. En ingeniería, permiten el diseño de tanques de mezclado y reactores químicos. No obstante, la formulación de estos modelos no siempre conduce a soluciones analíticas viables, especialmente cuando se obtienen ecuaciones de órdenes superiores. Una herramienta ampliamente reconocida para abordar este desafío es la conversión de dichas ecuaciones en sistemas de ecuaciones diferenciales lineales, las cuales resultan más fáciles de estudiar. Además, es posible analizar estos sistemas de manera segmentada, proponiendo un intervalo que delimite el funcionamiento del sistema en un rango específico de valores. En los sistemas anteriormente mencionados, se puede identificar el concepto de bifurcación. Una bifurcación ocurre cuando una variación en los valores de ciertos parámetros del sistema provoca cambios drásticos en su comportamiento y estructura. Por lo tanto, esta investigación se enfoca en realizar un análisis matemático del comportamiento de las bifurcaciones, con el objetivo de proporcionar una interpretación aplicada en las áreas donde se han formulado dichos sistemas.



METODOLOGÍA

Primero, es importante resaltar que el área en la que se realizó la investigación es principalmente matemática. Como estudiante de ingeniería química, el asesor entendió la necesidad de reforzar y adquirir nuevos conocimientos en esta área. Por ello, con la ayuda de los libros: Matemáticas avanzadas para ingeniería, Vol. 1: Ecuaciones diferenciales de Zill y Cullen y Ecuaciones diferenciales y problemas con valores en la frontera de Edwards y Penney, el estudiante, junto con el asesor, comenzó a estudiar los conceptos usualmente vistos en cursos avanzados de ecuaciones diferenciales. Durante las primeras semanas, se estudiaron los sistemas de ecuaciones diferenciales, los conceptos básicos de estos y cómo podían construirse a partir de ecuaciones diferenciales de órdenes superiores, así como los métodos para llegar a una solución analítica de estos sistemas. Para aprender los métodos iniciales de resolución, el estudiante aprendió a construir sistemas de ecuaciones diferenciales lineales en su forma matricial, comprendiendo los conceptos de valores y vectores propios de una matriz. Con esto, pudo llegar a soluciones para matrices de sistemas de ecuaciones diferenciales lineales con valores propios repetidos, valores propios distintos y valores propios complejos. En este punto, el estudiante ya tenía los conceptos iniciales y estudió los diferentes métodos para sistemas lineales no homogéneos. Con los conceptos teóricos establecidos, el estudiante, con ayuda del asesor, comenzó a aplicar dichos conocimientos agilizando la resolución de problemas con el software Wolfram Mathematica. Esto permitió no solo llegar a las soluciones en menor tiempo, sino también comprender los métodos gráficos o cualitativos para resolver los problemas. Una vez comprendidos los sistemas de ecuaciones diferenciales lineales, se estudió el concepto de bifurcación en sistemas lineales por pedazos discontinuos, estableciendo conceptos como los segmentos deslizantes atractivos y repulsivos, el segmento de cruce, los puntos de tangencia y los puntos de equilibrio admisibles o virtuales. Todo esto se realizó con la ayuda de la tesis Formas Normales y Bifurcaciones de Ciclos Límite en Sistemas Lineales por Pedazos Discontinuos. Uno de los primeros trabajos realizados fue el de interpretar una bifurcación utilizando una ecuación algebraica de tercer grado. Con la herramienta Wolfram Mathematica, el estudiante buscaba obtener ciertas características descritas por el asesor, modificando los parámetros de dicha función cúbica. El asesor explicó cómo, en estos casos, al variar los parámetros de la ecuación, se podía provocar una bifurcación. El segundo trabajo fue el análisis y revisión del artículo Bifurcation analysis of a conceptual model for vertical mixing in the North Atlantic por John Bailie y Bernd Krauskopf. En este artículo se plantea un sistema de dos ecuaciones diferenciales lineales de transferencia de calor y masa, utilizando modelos como la ley de enfriamiento de Newton, la ley de Fick y sus correspondientes términos convectivos. Durante el análisis de este artículo, el alumno y el asesor se percataron de un error en los cálculos, obteniendo un resultado distinto en el segmento deslizante. Finalmente, el estudiante, con los conocimientos adquiridos, comenzó a desarrollar un programa en el software mencionado previamente para el análisis de SLPPD (sistemas lineales por pedazos discontinuos). Sin embargo, debido a la limitación de tiempo y a la asistencia a la sesión especial Sistemas dinámicos, bifurcaciones y sistemas no suaves dentro del marco del congreso "VI Encuentro Conjunto RSME-SMM" en nombre de la Real Sociedad Matemática Española (RSME) y la Sociedad Matemática Mexicana (SMM), este trabajo no pudo ser concluido y revisado.


CONCLUSIONES

Durante mi participación en el programa de verano Delfín como estudiante de ingeniería química, amplié significativamente mis conocimientos en matemáticas, especialmente en ecuaciones diferenciales. Aprendí a usar herramientas avanzadas como Wolfram Mathematica, lo que mejoró mi comprensión de sistemas matemáticos complejos y agilizó la resolución de problemas. Además, me sumergí en el ámbito de la investigación científica, apreciando el rigor y la metodología del entorno académico.
Mendoza Huerta Daniel Aaron, Universidad de Guadalajara
Asesor: Dr. Elder de la Rosa Cruz, Universidad La Salle Bajío

SíNTESIS DE NANOPARTíCULAS FLUORADAS DOPADAS CON LANTáNIDOS (NANOPARTíCULAS DE UPCONVERSION)


SíNTESIS DE NANOPARTíCULAS FLUORADAS DOPADAS CON LANTáNIDOS (NANOPARTíCULAS DE UPCONVERSION)

Mendoza Huerta Daniel Aaron, Universidad de Guadalajara. Asesor: Dr. Elder de la Rosa Cruz, Universidad La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

El estudio de las propiedades de interacción de la luz con la materia a escalas nanometricas (nanofotónica) han permitido el análisis de los procesos biológicos, permitiendo su aplicación en todas las áreas, como es el caso de la biomedicina. Lo que ha contribuido en la creación de biosensores, utilizados para la detección, obtención de imágenes y terapia. Es muy común el uso de puntos cuánticos (QDs) para la generación de estos biosensores, sin embargo, existe otra alternativa para sustituir estos compuestos, y son las nanopartículas (NP) dopadas con lantánidos que nos ofrecen mejores cualidades. Este material son nanopartículas de óxidos, oxisulfuro, oxifloruros o fluoruros que son dopadas con lantánidos (Ln3+). Gracias a que los lantanidos no presentan efecto de confinamiento cuántico en comparación de los QDs. Esto se debe a que estos elementos contienen niveles discretos de energía, además de que la estructura de soporte para estos elementos requiere tamaños menores a 1 nm para que se presente. El tamaño y el área superficial de las NP pueden alterar la interacción entre los lantánidos y la energía fononica de la red cristalina del soporte, ocasionando que existan relajaciones del ion dopante que típicamente no ocurren en otras condiciones. Este tipo de NP experimentan el efecto de conversión ascendente (upconversion), que es fenómeno fotónico cooperativo que consiste en la absorción de dos o más fotones de menor energía para emitir otro fotón con mayor energía.  Una de las propiedades de estás NP, es que la longitud de onda de emisión, se manipula con emplear diferentes combinaciones y concentraciones de lantánidos, con esto es posible obtener emisión en todo el rango visible del espectro.  Nuestro interés es optimizar la síntesis de estas NP fluoradas dopadas con Iterbio y Erbio mediante el método solvotermal, para la aplicación en el diseño de biosensores de detección de ARN/ADN por medio de la técnica de trasferencia de energía con nanobarras de oro.



METODOLOGÍA

Se preparó una solución de 250 mg, del siguiente compuesto NaY(1-x-y)F4:xYb-yEr Para la síntesis, se utilizaron como reactivos precursores el NaCl, Y(NO3)3, Yb(NO3)3, ErCl3, NH4F, Polietilenimina (PEI), Etilenglicol (EG), además de NaOH, HF, HCl y H2O e instrumentos del laboratorio de la Universidad de la Salle Bajío como en el Centro de Investigación de Óptica (CIO). En un recipiente se agregaron pequeñas cantidades de sales (NaCl, NaCl+NaOH, NaOH) junto con EG en distintas cantidades (6.5 mL, 10 mL), y se agitó hasta disolverse. Se añadieron los lantanidos (Y(NO3)3, Yb(NO3)3, ErCl3) en esa misma solución con diferentes concentraciones, para luego incorporar el PEI en distintas proporciones (0 μmL, 46.2 μmL, 185 μmL) y después se agitó hasta conseguir una solución transparente y no tan viscosa. Mientras que en otro recipiente se colocan 198 mg de fluoruro de amonio junto con el EG (7.7 mL, 9.5 mL) y para agitarse hasta obtener una solución transparente. Se juntaron las dos soluciones en un solo recipiente, y se agitó hasta disolverse. Se sintetizaron varias soluciones con distintos niveles de pH (3, 4, 5, 6, 7, 9, 10, 11), dependido de la acidez o base de la solución, fueron empleados pequeñas cantidades de NaOH, HCl, HF. Las soluciones fueron colocadas en un teflón dentro de un reactor autoclave y fueron sometidas a temperaturas de 200°C a diferentes intervalos de tiempo (2h, 12h, 16h), con ayuda de un horno. Para después pasar al proceso de lavado de las NP del exceso de EG, utilizando acetona y etanol mediante la decantación de las partículas. Y para eliminar el exceso de etanol y se realizó el secado en la campana con ayuda de una plancha. Quedando solamente nuestras NP dopadas como en forma de polvo.  Fueron sintetizadas varias muestras, con el fin analizar las diferentes emisiones cambiando las concentraciones de los lantánidos y PEI. 


CONCLUSIONES

Para conocer la longitud de onda de emisión de estas NP dopadas, se disparaban en ellas un rayo infrarrojo de baja potencia y se observan distintas tonalidades. Con ayuda de un fluorométro analizó los espectros de emisión de cada muestra sintetizada. Obteniendo señales o picos de emisión más intensos entre los 650-680 nm que corresponden a las tonalidades rojas, y entre los 520-560 nm pertenecientes al verde. De modo de que se consiguió que el espectro de emisión de las NP dopadas pudiese acoplar con el espectro de absorción de las nanobarras de oro, ideal para que pueda ocurrir la trasferencia de energía y poder juntar ambos compuestos para síntesis de los biosensores.
Mendoza Torres José Alejandro, Universidad Autónoma de Baja California
Asesor: Dr. Carlos Castaño Bernard, Universidad de Colima

CURVAS MODULARES


CURVAS MODULARES

Mendoza Torres José Alejandro, Universidad Autónoma de Baja California. Vazquez Marin Alexander Guadalupe, Universidad Autónoma de Baja California. Asesor: Dr. Carlos Castaño Bernard, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

El estudio de campos finitos provenientes de soluciones a curvas elípticas es un problema fundamental en el área de la criptografía. Algoritmos criptográficos que emplean campos finitos sobre curvas elípticas, como el Elliptic Curve Digital Signature Algorithm (ECDSA), ofrecen un nivel de seguridad mayor al de algoritmos tradicionales, y son utilizados por compañías e instituciones para cifrar información privada, y así prevenir que terceros puedan acceder a ella. Por lo anterior, las curvas elípticas son un objeto matemático cuyo estudio tiene relevancia en la sociedad. Sin embargo, las curvas elípticas resultan ser también un nexo entre diversos ámbitos dentro de las propias matemáticas, como análisis, teoría de números, álgebra, y topología. Las curvas elípticas pueden ser parametrizadas por funciones llamadas formas modulares, lo cual facilita su estudio, pero son las formas modulares en particular las que ilustran las inesperadas conexiones entre las áreas mencionadas. El objetivo de esta investigación es el estudio de estas formas modulares, y los conceptos matemáticos que tienen a estas como base. Como preliminar, se hará un estudio de la función P de Weierstrass, las series de Eisenstein, la Ley de Reciprocidad Cuadrática de Gauss, y las unidades modulares, para motivar lo anterior.



METODOLOGÍA

Se estudió la función P de Weierstrass, y su derivada P', y se utilizó para parametrizar curvas elípticas en el plano complejo. Dicha función P de Weierstrass tiene una expansión de Laurent alrededor del 0 cuyos coeficientes están dados por las series de Eisenstein, ejemplos fundamentales de la teoría de formas modulares. Se estudió también la función Eta de Dedekind, el cual da a pie a las sumas de Dedekind. Se estudiaron dos funciones: la función discriminante, y la función j de Klein. Se observó la conexión de la función discriminante con las curvas elípticas en el plano complejo, y se notó las propiedades de congruencia de los coeficientes de las expansiones de Fourier de cada función. Con esto se motivan los operadores de Hecke. Se reveló la estructura algebraica de las soluciones racionales de una curva elíptica, dándole la estructura de un grupo abeliano por medio de una construcción geométrica que involucra la intersección de rectas con la curva elíptica en específico. De ello, se abordó la cuestión de puntos con orden finito sobre la curva elíptica. Se expuso la Ley de Reciprocidad Cuadrática de Gauss, así como la generalización de este por parte de Ernst Schering, y dos demostraciones de este, una por medio de sumas de Gauss, y otra por medio del argumento de Schering. El método que utiliza Schering para extender dicha ley tiene relevancia en la siguiente sección. Se estudia la parte básica de la teoría de unidades modulares, partiendo de funciones similares a la función de P de Weierstrass, como las funciones zeta y sigma, también de Weierstrass. Dentro de esta teoría se estudia la función f de Ogg y Ligozat, y, en base al método de Schering antes mecionado, se le da significado a este como una unidad modular asociada a cualquier campo cuadrático real. Finalmente, se estudiará una curva elíptica de Shimura sobre K, donde K es el campo cuadrático real generado por la raiz cuadrada de 6 sobre el campo de los números racionales. Se describirá una parametrización explícita, basada en la unidad modular asociada a dicho campo cuadrático.


CONCLUSIONES

Desafortunadamente no se consiguió completar la investigación dentro del periodo del programa, por lo que no se llegó a la parte final de la metodología en donde se parametriza una curva de Shimura. Sin embargo, el investigador seguirá trabajando con alumnos de la Universidad de Colima para desarrollar la investigación.
Mercado Luquin Cesar Yosgart, Universidad de Guadalajara
Asesor: Dr. José Luis León Medina, Centro de Investigación en Matemáticas (CONACYT)

ESTUDIO TOPOLOGíCO DE LAS REDES NEURONALES DEL TIPO FEEDFORWARD CON ACTIVACIóN RELU MEDIANTE COMPLEJOS POLIéDRICOS.


ESTUDIO TOPOLOGíCO DE LAS REDES NEURONALES DEL TIPO FEEDFORWARD CON ACTIVACIóN RELU MEDIANTE COMPLEJOS POLIéDRICOS.

Mercado Luquin Cesar Yosgart, Universidad de Guadalajara. Asesor: Dr. José Luis León Medina, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se buscó estudiar las redes neuronales Feedforward (FFNN) con la ayuda de la topología. Para esto, es posible obtener un complejo poliédrico canónico asociado a una red neuronal, a partir del cual se puede extraer información topológica, así como estudiar cómo este complejo evoluciona cuando la red neuronal es entrenada.



METODOLOGÍA

Como fuentes bibliográficas principales fueron utilizados el trabajo de J. Elisenda Grigsby y Kathryn Lindsey "On Transversality of Bent Hyperplane Arrangements and the Topological Expressiveness of ReLU Neural Networks" y la tesis doctoral de Marissa Masden "Accessing the Topological Properties of Neural Network Functions". De estos trabajos, donde se establecen las bases teóricas para la construcción de complejos poliédricos a partir de redes neuronales Feedforward con activación ReLU, se tomaron las definiciones y teoremas adecuados para hacer una construcción manual de dicho complejo. Se tomó una red neuronal creada con PyTorch y se ajustaron los parámetros manualmente para que los cálculos fueran simplificados. Una vez calculado el complejo, este fue comparado con uno obtenido a partir del código proporcionado por la tesis de Marissa para verificar que estos fueran similares. A su vez, el código de Marissa fue modificado para entrenar una red neuronal y comparar el complejo obtenido antes de ser entrenada y de manera posterior, para poder analizar los cambios en la estructura y complejidad de este.


CONCLUSIONES

Se logró observar cómo la topología puede modelar de forma satisfactoria las redes neuronales del tipo Feedforward y su evolución al ser entrenadas. Sin embargo, es un área relativamente nueva de la inteligencia artificial y no es posible estudiar aún los grandes modelos con los que convivimos día a día. Para ello, es necesaria una investigación más profunda que generalice estos resultados a más tipos de redes neuronales y/o modelos de inteligencia artificial.
Meza Lamas Erick Naim, Universidad de Guadalajara
Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional

DOSIMETRÍA DE RADIACIONES IONIZANTES EN CÁNCER DE PRÓSTATA


DOSIMETRÍA DE RADIACIONES IONIZANTES EN CÁNCER DE PRÓSTATA

Meza Lamas Erick Naim, Universidad de Guadalajara. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La interacción de la radiación ionizante con los seres vivos abre la puerta a dejar rastro de efectos tanto positivos como negativos. La oncología, rama misma de la medicina, hace uso de este tipo de radiaciones, poniendo en primer lugar la protección y bienestar tanto del paciente como del personal ocupacionalmente expuesto y el público en general. Ciertos materiales con propiedades termoluminiscentes permiten una cuantificación precisa de la dosis de radiación ionizante absorbida. Al exponer estos materiales a radiación ionizante, acumulan energía que luego es emitida en forma de luz cuando son calentados. La intensidad de esta luz es directamente proporcional a la cantidad de radiación ionizante absorbida. Mediante la calibración adecuada de estos dosímetros, es posible establecer una relación clara entre la señal luminosa y la dosis absorbida, permitiéndonos medir la dosis total absorbida en una región. En este trabajo se lleva a cabo el procedimiento de homogeneización de un lote de TLD-100 para tener a la disposición dosímetros útiles para un tratamiento de radioterapia para cáncer de próstata, analizando y estudiando la radiación ionizante dispersa sobre la superficie misma del paciente en el procedimiento médico.



METODOLOGÍA

Los dosímetros se someten a un tratamiento térmico de borrado: el lote completo con 110 TLD se ingresa al horno tipo mufla a 400 ºC durante una hora, y una vez transcurrido ese tiempo se dejan dentro del horno apagado durante 24 horas. Los TLD son acomodados en una placa de agua solida a 1.5 centímetros de profundidad y, haciendo uso de la técnica SSD de la mano del acelerador lineal Elekta Synergy, se irradían a una dosis única de 50 centigrays (cGy). Una vez realizado esto, los dosímetros son leídos con la ayuda del lector termoluminiscente Harshaw 3500, obteniendo una curva de brillo. Interpretando los datos obtenidos se obtiene el área bajo la curva de todos los TLD irradiados. Teniendo el conjunto de TLD leídos, se hace un procedimiento estadístico identificando dosímetros con sensibilidades similares para formar sublotes: a cada uno de estos grupos se les hace un promedio, y solo deberán quedar disponibles a utilizar aquellos TLD que en los límites inferiores y superiores de sus valores tengan un margen de error del 5\% sobre la media del conjunto. De esta manera, para el procedimiento de radioterapia de cáncer de próstata se busca formar un sublote con 10 dosímetros TLD-100. Todos los dosímetros seleccionados en los sublotes se someten de nuevo al mismo tratamiento térmico de borrado, mismo realizado al inicio. Otro procedimiento de irradiación se aplica a cada sublote obtenido, seccionando primero a cada sublote obtenido: para nuestro grupo de 10 TLD-100 se retiran 2 dosímetros, y los TLD-100 separados de este proceso de irradiación se utilizan más adelante para otras mediciones. Los 8 dosímetros restantes del sublote se dividen en 3, y se colocan en la superficie de una placa de agua sólida (recibiendo una dosis máxima en el isocentro del haz, a 1.5 cm de profundidad), y de nuevo se irradían, haciendo uso de la técnica SSD de la mano del acelerador lineal Elekta Synergy, a 100, 200 y 300 cGy cada sección, respectivamente, del sublote de 8 TLD-100. De nuevo, los dosímetros son leídos con el lector termoluminiscente Harshaw 3500:  ya con los datos obtenidos se obtiene el área bajo la curva de todos los TLD irradiados, promediando los valores de las intensidades asociadas a cada dosis absorbida conocida. Por una ultima vez, los TLD-100 del sublote se someten al tratamiento térmico de borrado, mismo que se realizó al inicio. Con todo estos datos obtenidos se busca obtener, para el sublote de 10 TLD-100, la ecuación de la respuesta termoluminiscente del TLD-100 en función de la dosis absorbida en superficie, o bien, su ecuación característica. Entrando al procedimiento de radioterapia, los dosímetros en superficie del fantoma se colocan en pares dentro de una cápsula: identificando el cuerpo y la tapa, se polarizan los TLD de acuerdo a cada parte de la cápsula, colocando alguna fibra textil entre los dosímetros para evitar que cambien de lugar una vez la cápsula esté cerrada. Para el procedimiento de radioterapia en cáncer de próstata, la distribución de cápsulas sobre la superficie del fantoma se realiza colocando solamente una cápsula por ubicación: ara este procedimiento, se utilizan 8 TLD; los 2 dosímetros restantes se colocan dentro de un portadosímetro, y es portado en el pecho por el encargado del procedimiento. Las cápsulas se colocan en el centro del haz (normal de la próstata a superficie), ombligo, mama derecha y mama izquierda, y las distancias entre el centro del haz y el centro de cada cápsula son: al ombligo 18.5 cm; a ambas mamas 41.28 cm. La persona encargada del procedimiento de radioterapia deberá utilizar un portadosímetro, cada uno con 2 TLD-100 dentro. Se coloca el portadosímetro al nivel del pecho, cargado hacia la izquierda o la derecha. Para el tratamiento se planifica un trabajo con una energía de 10 MeV; se calcula cierta dosis que deben de recibir los tejidos involucrados, y esta información es asociada a la energía y calibración del LINAC para cada tratamiento: esto debido a la radiosensibilidad de los distintos órganos y tejidos que se encuentran involucrados. Con los TLD ya distribuidos en la superficie de fantoma, además de las energías establecidas, se hacen los disparos de rayos X del acelerador lineal para el procedimiento médico. Al igual que en el procedimiento de calibración de los TLD-100, los dosímetros irradiados durante los procedimientos de radioterapia son leídos de la misma manera al finalizar. Para esta segunda etapa, el tratamiento de radioterapia, se hacen las lecturas de dos procedimientos, esto en distintas días por logística.


CONCLUSIONES

Se obtiene un mayor enfoque a la radiación dispersa cerca de la próstata (dosis mayores a 100 cGy). Se recomienda calibrar a los TLD-100 a una dosis absorbida más baja para aquellos puntos cada vez más lejos del centro del haz (ubicaciones con menos dosis absorbida). Un decaimiento exponencial es observado para la dosis absorbida en función de la distancia. El porcentaje de radiación dispersa, después de normalizar los datos, es encontrado para cada ubicación de TLD-100.
Michel Pinto Bruno Santiago, Universidad Autónoma de Baja California
Asesor: Dr. Miguel Angel Uh Zapata, Centro de Investigación en Matemáticas (CONACYT)

DESARROLLO DE UNA INTERFAZ PARA LA SIMULACIóN DE FLUJOS EN AGUAS SOMERAS


DESARROLLO DE UNA INTERFAZ PARA LA SIMULACIóN DE FLUJOS EN AGUAS SOMERAS

Camacho Ortiz Hannia Berenice, Universidad de Sonora. Gortarez Blanco Manuel Eduardo, Universidad de Sonora. Medina Lugo Fausto Misael, Universidad de Sonora. Michel Pinto Bruno Santiago, Universidad Autónoma de Baja California. Asesor: Dr. Miguel Angel Uh Zapata, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Un fluido se define como un medio continuo y fácilmente deformable que puede ser líquido o gaseoso. El estudio de los gases comenzó con los trabajos de Bernhard Riemann sobre las ondas de choque en 1876, consolidándose en el siglo XX debido al interés en la aeronáutica generado por las guerras mundiales. En comparación, el estudio de los líquidos tiene una historia mucho más antigua, con los primeros sistemas de riego que datan de hace 30,000 años. El enfoque inicial sobre los líquidos fue la hidráulica, que era práctico y experimental, permitiendo la construcción de sistemas de riego, cisternas y acueductos. No fue hasta el siglo XVIII que matemáticos como Euler, Clairaut, d’Alambert y Bernoulli desarrollaron la hidrodinámica, el estudio analítico del agua. En 1904, la teoría de la capa límite de Ludwig Prandtl unificó los enfoques experimental y analítico en la Mecánica de Fluidos. Destacan las contribuciones de Navier y Stokes, quienes formularon las ecuaciones diferenciales parciales que gobiernan el movimiento de los fluidos, conocidas como ecuaciones de Navier-Stokes. Estas ecuaciones representan el comportamiento general de un fluido en tres dimensiones. Sin embargo, para flujos en aguas poco profundas, se simplifican en las ecuaciones de Saint-Venant. Encontrar soluciones analíticas a estas ecuaciones no siempre es posible o práctico, por lo que se han desarrollado métodos numéricos para aproximar soluciones precisas. El objetivo de este trabajo es desarrollar una interfaz que permita al usuario crear simulaciones de flujos de aguas poco profundas. En esta interfaz, el usuario podrá añadir obstáculos en un dominio rectangular de 4x2 metros y, al estar satisfecho con el diseño, iniciar la simulación con un solo clic. El sistema resolverá automáticamente las ecuaciones de Saint-Venant para varios pasos de tiempo, mostrando las soluciones en pantalla en tiempo real, permitiendo observaciones rápidas e intuitivas sobre cómo el flujo de agua se ve afectado por los obstáculos añadidos.



METODOLOGÍA

**Interfaz** Se desarrolló un Paint dónde el usuario pueda dibujar los obstáculos. El display del canvas para dibujar la figura a mallar es un programa elaborado en Python utilizando la librería Tkinter. Este programa ofrece una variedad de brochas para generar figuras y la opción de realizar trazos a mano alzada, asegurando que no haya cruces ni intersecciones entre figuras. Al finalizar el dibujo, el botón de simular genera los archivos necesarios y comienza la simulación en tiempo real. La malla se puede modificar durante la simulación y ésta se adaptará a los cambios. Si se borra el dibujo, la simulación se detiene. La malla se realiza con Gmsh en cuatro etapas: definición de geometría, establecimiento del dominio computacional, etiquetado y especificación del tipo de mallado. **Simulación** Para simular el fluido, se resuelven numéricamente las ecuaciones de Saint-Venant, derivadas de las ecuaciones de Navier-Stokes. Estas ecuaciones de advección-difusión describen el flujo del agua, considerando las componentes horizontales de la velocidad y otros parámetros físicos. También se incluye una ecuación tipo Poisson para determinar el nivel del agua. La solución numérica se obtiene utilizando el método de volúmenes finitos, que integra las ecuaciones en cada elemento triangular de la malla y aproxima las integrales resultantes. Este método fue implementado en el programa RTSUFVM escrito en Fortran 90 por el Dr. Miguel Angel Uh Zapata, que toma los archivos generados por el Paint y realiza la simulación del fluido. **Visualización** Los datos generados por el simulador en Fortran 90 se grafican utilizando ParaView, una aplicación de código abierto para la visualización y análisis de datos científicos. ParaView maneja grandes conjuntos de datos y se usa en diversas disciplinas científicas e ingenierías. **Ensamble** Para integrar simulaciones en tiempo real con ParaView y un Paint desarrollado en Python, se sigue un proceso estructurado. El Paint permite dibujar figuras que se convierten en un archivo .geo para que Gmsh genere la malla en un archivo .vtk. Este archivo es procesado por mesh-5.0 para generar un archivo .txt con los detalles del dominio. Este archivo es usado por el programa de simulación RTSUFVM, que genera múltiples archivos .vtk para visualización en ParaView. Un script automatiza todo el proceso, asegurando la correcta ejecución de Gmsh, mesh-5.0 y RTSUFVM, transfiriendo los archivos necesarios entre cada paso. Un archivo Python, ejecutado por pvpython, configura la visualización en ParaView, ajustando colores, zoom y velocidad de animación para mostrar los resultados en tiempo real. Para simplificar la ejecución y compilación del proyecto, un script principal (run.sh) automatiza todo el proceso, permitiendo a los usuarios modificar parámetros clave para personalizar la simulación y visualización sin realizar compilaciones manuales cada vez que se realiza un cambio.


CONCLUSIONES

En este trabajo, se ha desarrollado una interfaz interactiva para la simulación de flujos en aguas someras. Esta interfaz permite a los usuarios diseñar y modificar dominios con obstáculos, observando los efectos en tiempo real. La combinación de herramientas como Python, Tkinter, Gmsh, Fortran 90 y ParaView ha permitido crear una solución eficiente y práctica. Esta herramienta ofrece una forma interactiva y atractiva de aprender sobre la simulación de fluidos, siendo útil para la divulgación científica y educativa.
Millan Salgado Ariadna Carmin, Universidad Autónoma de Guerrero
Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla

DESARROLLO METODOLóGICO DE UN ANáLISIS FíSICO-SOCIAL Y CLIMáTICO DE MUNICIPIOS VULNERABLES ANTE ALGúN RIESGO EN EL ESTADO DE PUEBLA (CASO DE ESTUDIO SIERRA NORTE Y VOLCáN POPOCATéPETL)


DESARROLLO METODOLóGICO DE UN ANáLISIS FíSICO-SOCIAL Y CLIMáTICO DE MUNICIPIOS VULNERABLES ANTE ALGúN RIESGO EN EL ESTADO DE PUEBLA (CASO DE ESTUDIO SIERRA NORTE Y VOLCáN POPOCATéPETL)

Loera Lafont Serrano Ana Lucía, Universidad Autónoma de Baja California. Mazorra Renza Mariana, Universidad de Caldas. Millan Salgado Ariadna Carmin, Universidad Autónoma de Guerrero. Villalobos Vazquez Consuelo, Universidad Autónoma de Baja California. Zarza Vilchis Miriam Paola, Universidad Autónoma del Estado de México. Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El riesgo, mide que tan probable es que se presente un suceso o evento en un lugar específico. Este suele poner en peligro la condición de los habitantes, lo que los convierte en una población vulnerable. El Estado de Puebla, según la Secretaría de Medio Ambiente, Desarrollo Sustentable y Ordenamiento Territorial (2019-2024), nos dice que el Estado de Puebla se ha visto muy afectado por la actividad sísmica y volcánica, en donde la actividad sísmica se vuelve constante y que cada 3 o 5 años genera daños catastróficos. De igual forma se presentan deslizamientos de laderas, incendios e inundaciones provocando así pérdidas tanto económicas como humanas. Esta problemática se presenta en la Sierra Norte y en el Volcán Popocatépetl, en donde en este verano de investigación se obtienen y procesan datos que nos permitan entender el comportamiento del medio con la sociedad, y con ello poder determinar posibles riesgos para que las autoridades correspondientes puedan tomar decisiones a futuro.



METODOLOGÍA

Se llevó a cabo la delimitación del volcán Popocatépetl, para eso se hizo uso del software libre Google Earth Pro, en el cual se delimitaron 40 km de radio a partir del cráter y se guardó como archivo kml, mismo que nos permite visualizar información en un contexto geográfico, ya que puede contener datos de entidades de diferentes tipos de geometría y puede ser en formato vectorial y ráster. En el software libre QGIS, se obtuvo el polígono del cráter del volcán a partir del archivo kml, el cual se reproyecto considerando el correspondiente al Estado de Puebla (EPSG: 32614-WGS 84 / UTM zona 14N). A través del Continuo de Elevaciones Mexicano (INEGI), se obtuvieron los DEM de los cinco Estados (Estado de México, Ciudad de México, Puebla, Tlaxcala y Morelos) que conforman el radio de interés. En el software de QGIS se reproyectaron y se agregaron al software de ArcMap, en el cual se realizó la unión de estos a un archivo ráster y con la capa del polígono se hizo un corte para obtener solo el radio de interés. Derivado de lo anterior se obtuvieron las curvas de nivel, las cuales nos permiten visualizar como se encuentra la superficie, es decir si es una zona plana o inclinada, al igual que las diferentes alturas y geoformas como valles, entre otros, para así poder entender el comportamiento de cierto espacio. También se calculó el área y perímetro, con la finalidad de saber que tanto espacio abarca la zona de estudio. Por medio del uso de un TIN (Triangular Irregular Network), el cual es un medio digital usado para poder representar la morfología de la superficie, se obtuvo el volumen a partir de un punto de referencia, que en este caso fue la cota de los 2000 msnm. Se llevó a cabo la obtención de pendientes, tanto en grados como en porcentaje por medio del DEM del área de estudio, esto para saber la inclinación que tiene la superficie. Se obtuvieron datos de la página del Censo de Población y Vivienda, 2020 del Instituto Nacional de Estadística y Geografía (INEGI), esto para saber que tanta población podrían encontrarse en una condición vulnerable ante algún riesgo, ya sea natural o antrópico en el Estado de Puebla. Los datos que se utilizaron son: Total de población. Total de población femenina y masculina. Total de población con discapacidades. Total de población que cuentan y no con servicios de salud Total de viviendas. Total de viviendas particulares habitadas con o sin modos de transporte. Total de viviendas particulares habitadas que disponen y no de energía eléctrica. Total de viviendas particulares habitadas que disponen de algún bien. En el software de QGIS se realizó la unión de la base de datos con el shape de los municipios del Estado, el cual se obtuvo del Marco Geoestadístico de INEGI. Dentro del radio de los 40 km, se seleccionaron los municipios de interés y se exportó esa información como capa shape y se reproyecto. Por medio de la Red Nacional de Caminos del Instituto Mexicano del Transporte, el cual se procesó en QGIS, se obtuvieron las vías de comunicación del Estado y de los municipios de interés, con la finalidad de conocer la superficie de rodamiento, es decir, si estas se encuentran pavimentadas, sin pavimento o si es diferente a una carretera o camino. Derivado de lo anterior, se procedió a realizar la cartografía correspondiente para un análisis de contexto social de los municipios de interés, esto para poder entender por medio de mapas el comportamiento de la población ante diferente variable.


CONCLUSIONES

Por medio de este estudio, se espera poder comprender y realizar un análisis de la condición física, social y climática en la que se encuentran ciertos municipios, considerando las diferentes zonas de estudio y junto con ello poder brindar la información necesaria ante posibles riesgos que presenta el medio y la sociedad a las autoridades correspondientes y a la misma población, para que en futuras tomas de decisiones el bien de la población sea lo primordial en el Estado.
Molina Ramírez Jorge Sebastián Alejandro Chiu, Universidad de Guadalajara
Asesor: Dr. Joel Antonio Trejo Sánchez, Centro de Investigación en Matemáticas (CONACYT)

DISEñO DE ALGORITMOS PARA EL ANáLISIS DE REDES DE MOVILIDAD.


DISEñO DE ALGORITMOS PARA EL ANáLISIS DE REDES DE MOVILIDAD.

Molina Ramírez Jorge Sebastián Alejandro Chiu, Universidad de Guadalajara. Rodríguez Aguilar Gustavo Rafael, Universidad Autónoma de Yucatán. Asesor: Dr. Joel Antonio Trejo Sánchez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La planificación del desarrollo de las ciudades es fundamental para el crecimiento sostenible de las urbes, pues permite aumentar la calidad de vida de las personas que habitan en ellas, lo que genera prosperidad compartida y estabilidad social. Lograr ciudades y comunidades sostenibles es uno de los objetivos de desarrollo sostenible planteados por la ONU, por lo que es fundamental abordar los desafíos relacionados al crecimiento de las ciudades y de las infraestructuras adecuadas para su desarrollo. Un gran reto es la planificación de la movilidad urbana. El crecimiento urbano, la expansión de la infraestructura y el aumento de la población en ciudades como Mérida, requieren soluciones eficientes para gestionar el flujo de personas y vehículos. Sin una planificación adecuada, las ciudades enfrentan problemas de congestión vial, contaminación y desigualdad en el acceso a servicios y oportunidades, lo cual puede comprometer la calidad de vida de sus habitantes y su sostenibilidad. El análisis de la movilidad permite identificar patrones en la red de tránsito que den indicios sobre el comportamiento de los actores involucrados, la manera en que varía el flujo a lo largo de periodos determinados, el vínculo entre distintas zonas de la región y la distribución de los habitantes. Una movilidad urbana eficiente reduce los tiempos de desplazamiento y la congestión vehicular, mejorando la productividad y calidad de vida de los ciudadanos. Por tales motivos, un análisis adecuado y pertinente de patrones de movilidad y del flujo vehicular es de vital importancia para extraer información que sea útil en la planificación y diseño del sistema de tránsito de zonas urbanas.



METODOLOGÍA

Para llevar a cabo el análisis de movilidad y flujo vehicular, fue necesario trabajar con registros que permitieran modelar el tránsito a través de grafos. Con este fin, era fundamental trabajar con gran cantidad de datos de manera eficiente. El proceso de filtrado y limpieza de los registros representó un paso crucial en el proyecto. Para ello, se utilizó la librería DuckDB de Python, que permitió manipular los datos comprimidos en archivos Parquet de manera rápida y eficiente. Los registros utilizados corresponden a datos de dispositivos móviles de todo el país, lo que planteó la posibilidad de optar por un análisis más amplio que involucrara varios estados, haciendo énfasis en Campeche, Yucatán y Quintana Roo, o realizar un análisis más específico, como municipios dentro de un estado o AGEBS dentro de una ciudad. Para extraer los datos deseados según el tamaño de la región y la granularidad, se desarrollaron scripts de Python que permitieron trabajar con movimiento entre zonas geográficas de distinta escala. Además, se consideraron factores importantes como los días a analizar y los intervalos de tiempo para dividir los días seleccionados. Elegir una variedad de días considerando factores como el día de la semana, la época del año, el pago de nómina o la presencia de alguna festividad permite probar hipótesis relacionadas con alteraciones en los patrones de flujo. Una vez filtrados los datos y determinados los días y ventanas de tiempo a considerar, se procedió a tratar los datos de dos maneras distintas con el objetivo de construir grafos pesados utilizando la librería NetworkX. Primero se asignó peso a las aristas de la siguiente manera: dados dos vértices i y j, el peso de la arista con origen en i y destino en j corresponde al cociente de dispositivos que se detectaron movilizándose de i hacia j entre el total de dispositivos registrados en dicho día, multiplicado por 10e6. Esto permitió la construcción de grafos pesados y dirigidos. La segunda manera genera conjuntos de dispositivos registrados en cada zona durante la ventana de tiempo considerada y se asigna el peso de la arista entre pares de nodos correspondiente a los dispositivos pertenecientes a la intersección entre pares de conjuntos. La eficiencia del código fue una preocupación principal, buscando optimizar los tiempos de ejecución lo máximo posible. Se trabajó con consultas SQL eficientes y ciclos optimizados, y se optó por trabajar con conjuntos, una estructura de datos proporcionada por Python que permite operaciones rápidas de intersección y diferencia, minimizando el tiempo para las consultas SQL. Para los grafos pesados no dirigidos, se utilizaron dos métodos de particionamiento de grafos: el método del vector propio principal de la matriz de modularidad y el algoritmo de Leiden, ambos optimizando la modularidad del grafo. El método del Vector Propio Principal aprovecha las propiedades del espectro de matrices derivadas de datos para particionar el grafo, optimizando el valor de una función de calidad determinada (modularidad). La modularidad mide la cantidad de aristas presentes dentro de una comunidad menos las esperadas en una red equivalente con aristas colocadas aleatoriamente. El algoritmo de Leiden es un método heurístico iterativo que consta de tres fases: movimiento local de nodos, refinamiento de la partición y agregación de la red basada en la partición refinada. Este algoritmo garantiza que todos los clústeres sean internamente conectados en cada iteración, asegurando que los nodos y algunas partes estén asignados localmente de manera óptima y que los clústeres estén bien separados.


CONCLUSIONES

Se aplicaron habilidades de análisis de datos y se adquirieron conocimientos en teoría de grafos. El tratamiento y filtrado de datos fue crucial para asegurar resultados útiles en la toma de decisiones. El estudio de métodos para analizar redes de movilidad y el uso de grafos para modelar el tránsito ampliaron la perspectiva sobre cómo las matemáticas aplicadas pueden resolver problemas prácticos. Las actividades ensayaron códigos para extraer datos y generar grafos. Los resultados finales aún están en proceso, pero los scripts desarrollados extraerán información valiosa sobre flujos vehiculares y patrones de movilidad en Mérida y Yucatán, aplicable a otras regiones del país.
Montes Fuentez Victor Emilio, Universidad de Guadalajara
Asesor: Post-doc David Eugenio Andrade Perez, Universidad del Rosario

DESARROLLO DE SOLUCIONES ANALíTICAS DE PRIMER ORDEN DE LA ECUACIóN DE SCHRODINGER NO LINEAL


DESARROLLO DE SOLUCIONES ANALíTICAS DE PRIMER ORDEN DE LA ECUACIóN DE SCHRODINGER NO LINEAL

Montes Fuentez Victor Emilio, Universidad de Guadalajara. Vazquez Ramirez Ramon, Universidad de Guadalajara. Asesor: Post-doc David Eugenio Andrade Perez, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

Partiendo de la ecuación de Schrodinger no lineal se buscó proponer soluciones analíticas, muy diferentes a las soluciones numéricas qué son comunes en este tipo de ecuaciones. 



METODOLOGÍA

Se propuso una solución compleja para la ecuación de Schrodinger no lineal, para después de una serie de cambios de variables llegar a 3 ecuaciones diferenciales ordinarias, las cuales estaban en términos de funciones especiales llamadas "funciones elípticas de Jacobi".


CONCLUSIONES

Al sustituir los resultados de las EDO's en la solución propuesta se obtienen las soluciones exactas y analíticas de la ecuación no lineal de Schrodinger, la cual puede ser modificada según las condiciones iniciales del sistema. Una de las principales aplicaciones es en las ondas oceanicas, ya que se puede explicar la aparición repentina de ciertas olas de gran tamaño. 
Montoya Urzúa Carlos Francisco, Instituto Tecnológico de Ciudad Guzmán
Asesor: Dr. Emmanuel Roberto Estrada Aguayo, Universidad Autónoma de Sinaloa

INVESTIGACIóN Y DISEñO DE SOFTWARE BASADO EN LA TEORíA DE MATROIDES ORIENTADAS


INVESTIGACIóN Y DISEñO DE SOFTWARE BASADO EN LA TEORíA DE MATROIDES ORIENTADAS

Montoya Urzúa Carlos Francisco, Instituto Tecnológico de Ciudad Guzmán. Asesor: Dr. Emmanuel Roberto Estrada Aguayo, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La Teoría de Matroides se basa en la estructura conocida como matroide, que ofrece una generalización del concepto de independencia lineal entre vectores. Por tal motivo, esta encuentra su valor matemático dentro del algebra lineal, pero también dentro de la teoría de grafos; donde permite estudiar los conjuntos de caminos acíclicos (bosques) y cíclicos de un grafo. Una matroide puede ser asociada a un grafo o a una matriz con sus mismas características. Si se puede asociar a un grafo, es una matroide gráfica; si se puede asociar a una matriz, es una matroide repesentable. Todas las matroides gráficas son repesentables; pero existen matroides que no son repesentables.   En años recientes, la teoría de matroides ha encontrado nuevas aplicaciones dentro de la cosmología, la edición genética, y el desarrollo de la Inteligencia Artificial. Por tanto, software que ayude a entender los conceptos básicos de la teoría de matroides, les será altamente beneficioso. Durante la presente investigación se persigue el diseño de software que permita calcular la matriz que represente una matroide orientada (de existir esta), a partir de un mapeo de su función de orientación denominada chirotope.



METODOLOGÍA

Primeramente, se procede a la revisión de conceptos de la teoría de matroides: Una matroide M es un par (E, B), donde E es un conjunto finitono vacío y B es una colección no vacía de subconjuntos de E que satisfacen las siguientes propiedades: El conjunto B incluye al vacío. Ninguna base contiene propiamente a otra base. Si B1 y B2 son bases y si b es cualquier elemento de B1, entonces existe un elemento g de B2 con la propiedad de que (B1 − {b}) ∪ {g} también es una base. El conjunto E se nombra conjunto soporte de la matroide. El conjunto B se nombra como conjunto de bases. Todas las bases de una matroide tienen la misma cardinalidad de conjunto, este es el rango de la matroide. Todo subconjunto de un elemento de B se denomina como conjunto linealmente independiente.   Una matroide orientada M  es un tipo de matroide definida por un par M=(E, χ ), donde E es el conjunto soporte de la matroide (un conjunto de elementos); y χ es su función chirotope. Un chirotope es una estructura algebraica que proporciona una manera de describir la orientación de los elementos en una matroide, lo que permite extender varias propiedades y resultados de la teoría de matroides a una versión orientada. El concepto de chirotope se originó en la teoría de matroides y geometría combinatoria a partir de una abstracción matemática del concepto de quiralidad en química. Dado un conjunto finito E de n elementos, un chirotope es una función que asigna a cada k-tupla ordenada de elementos de E un valor de {+1, −1, 0}, de manera que se cumplen ciertas propiedades que reflejan la orientación de los elementos. Para matroides completos, se asume que k = n. El chirotope no es constantemente 0, sino que solo devuelve dicho valor cuando la k-tupla de elementos no es una base de la matroide. Cada permutación del orden sobre los elementos de la k-tupla cambia de signo el valor del chirotope. Se satisface la propiedad de intercambio de Grassman-Plücker, que generaliza a las funciones determinante. -Se decidió omitir la explicación de esta por su extensión y complejidad.   Posteriormente, a partir de un análisis exhaustivo de diversas investigaciones dentro de la teoría de matroides y del algebra lineal, se identificó una fórmula del Doctor J. A. Nieto que asocia un producto tensorial a la matriz representación de una matroide; la cual permitiría calcular dicha matriz. Finalmente, basándose en esta fórmula y de la propuesta de código para emulación computacional de matroides orientadas del Lic. Aldana Virgen, se procede a la creación del programa en C++ que permita el calculo computarizado de dichas matrices asociadas a matroides orientadas.


CONCLUSIONES

Fue logrado el cometido de generar un programa que permita obtener la matriz que represente a una matroide orientada, algo que facilitará las futuras investigaciones dentro de diversos campos, donde se necesite encontrar dicha matriz de representación de una matroide especifica. Un ejemplo de matriz que representa a una matroide calculada con el software es: Matroide uniforme U(4,8)      8       1       2      -1       4       1       2      -2      1       8       2       1      -2       4      -2      -1      2       2       8       2      -1      -1       4      -2     -1       1       2       8      -1       1       2       4      4      -2      -1      -1       8       1       2       1      1       4      -1       1       1       8      -1       2      2      -2       4       2       2      -1       8       2     -2      -1      -2       4       1       2       2       8 Se espera en el futuro encontrar resultados matemáticos que ayuden a complementar la teoría sobre la representación de matroides y así poder generar un programa mucho más completo, tales como: Poder identificar computacionalmente cuando una matroide no es representable. Encontrar algoritmos para calcular representaciones matriciales de tamaños diversos, no solo con matrices cuadradas.   Con cierto pesar, al final de la investigación se demostró que, si una matroide tiene un rango (cardinalidad de sus bases) r menor o igual a n - 1 (siendo n el número de elementos de la matroide), tendrá al menos un conjunto linealmente dependiente de cardinalidad r + 1. Por tanto, su representación como una matriz sobre el campo de los números reales R, de tamaño n*n debe tener obligatoriamente un determinante igual a 0 (implicación directa de que existe un conjunto linealmente dependiente dentro del conjunto de vectores columna de una matriz). De no ser así, la matriz no es una representación válida de la matroide. Este ultimo hallazgo, a la luz de las pruebas computacionales que corroboran que dicha fórmula no siempre devuelve matrices con determinante nulo, muestra que se requiere de una propiedad emergente para garantizar (o en su caso, descartar) la universalidad de la fórmula del doctor J. A. Nieto; y, por tanto, del software basado en su teoría.
Mora Sinisterra Sofia, Universidad Autónoma de Occidente
Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América

CARACTERIZACIÓN DE ACEITE DE PIRÓLISIS DE RESIDUOS PLÁSTICOS DE UNA SÓLO USO


CARACTERIZACIÓN DE ACEITE DE PIRÓLISIS DE RESIDUOS PLÁSTICOS DE UNA SÓLO USO

Galvis Zarabanda Evelyn Daiana, Universidad Autónoma de Occidente. Mora Sinisterra Sofia, Universidad Autónoma de Occidente. Murillo Guevara Laura, Universidad Autónoma de Occidente. Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Los residuos plásticos representan una gran problemática a nivel mundial. Debido al acogimiento que ha tenido este material en la sociedad por sus ventajas como lo es la flexibilidad, lo fácilmente moldeables y lo económico que son. Entre estos, los plásticos de un solo uso son particularmente problemáticos debido a su corta vida útil y alta generación de residuos. El consumo de plástico se ha multiplicado por veinte desde la década de 1950 y se espera que alcance los 720 millones de toneladas en los próximos 20 años (Estrategia. GmbH, 2020). como medidas de apoyo la problemática se han establecido los principales objetivos para el diseño, la fabricación, el uso, la reutilización y la gestión de fin de vida útil del plástico para 2030 (Comisión Europea, 2018). Por lo anterior, existen numerosos métodos para el reciclaje de residuos plásticos que incluyen métodos como la despolimerización (recuperación de materia prima química), la gasificación por arco de plasma y la pirólisis.



METODOLOGÍA

  2. Metodoogia  2.1 Selección del material y preparación del material   Seleccionar el tipo de plástico que se va a usar, teniendo presente que no todos los plásticos tienen la misma composición  como lo es el PP y el LPED entre otros. Se ha asegurado la limpieza de estos. Cuando se está listo se pasa por el proceso de trituración o molienda, lo que provoca que se aumente la superficie de reacción y mejorar la eficiencia del proceso. 2.2 Condiciones de proceso y Configuración del Pirolizador  Organizar y hacer un uso de un pirolizador adecuado. Establecer una temperatura de pirólisis adecuada en la que oscila entre los 300 y 600 °C, hacer un monitoreo de la tasa de calentamiento esto se debe de hacer por que puede influir en la composición del producto obtenido, determinar el tiempo en el que el material permanezca en el pirolizador, para poder completar la pirólisis. El calor rompe las cadenas de polímeros en monómeros y otros fragmentos más pequeños el cual se presenta con la ausencia de oxígeno para evitar la combustión y maximizar la conversión de los plásticos.   2.3 Recolección del producto   La recolección de los productos líquidos es una de las fases más importantes de la pirólisis, en el cual se usa un  sistema de condensación eficiente para capturar los vapores producidos durante la pirólisis, gracias a la condensación se obtiene el aceite. La etapa de condensación consta de diferentes etapas para enfriar y separar los vapore, en el que se manejan temperaturas  entre los 30 °C y 60 °C; hay diferentes métodos según los artículos buscados. Se debe de aclarar que presenta características diferentes como el Aceite ligero o Aceite pesado, Para la obtención del diesel por medio del aceite se presenta el proceso de destilación, en el que el aceite refinado en diferentes fracciones se lleva a un punto de ebullición. La separación permite llegar a un combustible semejante a él diesel; para que se cumpla con las especificaciones del diesel se deben de presentar ajustes en los que se incluyen aditivos, control de viscosidad y densidad. 2.4 Pruebas Con la recolección del diesel, se hacen pruebas de eficiencia y motores en las cuales se evalúa la calidad del combustible, donde se analiza la composición química de los productos, los residuos que genera y la energía que produce.  


CONCLUSIONES

La pirólisis de plásticos LDPE y PP  representa una solución viable y sostenible para la gestión de residuos plásticos en Latinoamérica. A medida que la región enfrenta crecientes desafíos ambientales, esta tecnología ofrece una oportunidad para transformar los desechos plásticos en recursos valiosos, mitigando la contaminación y promoviendo el desarrollo sostenible. Sin embargo, es necesario superar varios obstáculos para su implementación efectiva, incluyendo la inversión en investigaciones, infraestructura y desarrollo de políticas de apoyo. La pirólisis no solo ofrece una alternativa para la reducción de residuos plásticos, sino que también contribuye a una economía circular al reutilizar materiales que de otro modo serían desechados. Sin embargo, la implementación a gran escala enfrenta desafíos significativos, como la necesidad de mejorar la infraestructura, superar barreras legislativas y desarrollar mercados para los productos generados. Las investigaciones subrayan que la pirólisis catalítica es eficaz para convertir varios tipos de plásticos, incluyendo polipropileno, poliestireno y polietileno, en combustibles líquidos con propiedades comparables a las de los combustibles fósiles. Además, la utilización de modelos matemáticos y herramientas como Aspen Plus para optimizar el proceso permite aumentar tanto el rendimiento como la calidad de los productos obtenidos.  
Morales González Argenis Eduardo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. David Sierra Porta, Universidad Tecnológica De Bolívar

EVALUACIóN Y CARACTERIZACIóN ESPACIAL Y TEMPORAL DE LA CONTAMINACIóN POR MATERIAL PARTICULADO Y SU RELACIóN CON VARIABLES METEOROLóGICAS Y COBERTURA VEGETAL


EVALUACIóN Y CARACTERIZACIóN ESPACIAL Y TEMPORAL DE LA CONTAMINACIóN POR MATERIAL PARTICULADO Y SU RELACIóN CON VARIABLES METEOROLóGICAS Y COBERTURA VEGETAL

Morales González Argenis Eduardo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. David Sierra Porta, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

La contaminación atmosférica se erige como uno de los problemas ambientales más críticos a nivel global, afectando de manera significativa tanto a los ecosistemas naturales como a la salud humana, especialmente en áreas urbanas con alta densidad poblacional. Entre los diversos contaminantes atmosféricos, el material particulado, específicamente las fracciones PM10 (partículas con un diámetro aerodinámico menor a 10 micrómetros) y PM2.5 (partículas con un diámetro aerodinámico menor a 2.5 micrómetros), cobra una importancia particular debido a sus efectos perniciosos. Estas partículas pueden penetrar profundamente en el sistema respiratorio humano, provocando una serie de problemas de salud que van desde irritaciones respiratorias hasta enfermedades cardiovasculares y pulmonares graves. Para ello, se propone un enfoque integrado que combine datos obtenidos de estaciones de monitoreo ambiental con el análisis avanzado de imágenes satelitales. Este enfoque permitirá no solo identificar patrones y tendencias de la contaminación por PM10 y PM2.5, sino también entender su relación con diversas variables meteorológicas (como temperatura, humedad, precipitación) y con la cobertura vegetal. El uso de datos de estaciones de monitoreo proporcionará información precisa y continua sobre las concentraciones de material particulado en diferentes puntos de la ciudad. Por otro lado, el análisis de imágenes satelitales permitirá obtener una visión más amplia y comprehensiva de la distribución espacial de estos contaminantes.



METODOLOGÍA

Para llevar a cabo este estudio, se recopiló una vasta cantidad de información proveniente de diversas instituciones de renombre. En primer lugar, se obtuvieron datos del Instituto de Ecología y Cambio Climático de México y del Servicio Meteorológico Nacional (SMN) de México. Estos datos abarcaban un periodo de cinco años, específicamente desde 2018 hasta 2022, y se recolectaron de manera quincenal. Las variables meteorológicas recolectadas incluyeron precipitación, temperatura máxima, temperatura mínima y humedad relativa, las cuales fueron recuperadas de la estación meteorológica de Cholula, Puebla, México. Paralelamente, se monitorizaron diversos contaminantes atmosféricos, los cuales son de interés particular en este estudio: PM10, PM2.5, SO2, NO2, O3 y CO, estos fueron obtenidos por la estación del benemérito instituto normal del estado, ubicado de igual forma en la ciudad de puebla. Esta información fue esencial para la comprensión de la calidad del aire y su evolución a lo largo del tiempo y en diferentes condiciones meteorológicas. Adicionalmente, se utilizaron imágenes satelitales proporcionadas por el Servicio Geológico de los Estados Unidos (USGS). Las imágenes seleccionadas correspondían al satélite Landsat 8, con un porcentaje de nubosidad máximo de 40%. A partir de estas imágenes, se derivaron varios índices de vegetación, tales como el Índice de Vegetación de Diferencia Normalizada (NDVI), el Índice de Vegetación Ajustado al Suelo (SAVI) y el Índice de Vegetación Mejorado (EVI), las cuales se aplicaron los valores a partir de 0.5, 0.6 y 0.7. La periodicidad ideal para la obtención de estas imágenes fue cada 15 días. Sin embargo, debido a las limitaciones inherentes a la órbita del satélite y a factores como la cobertura de nubes, fue necesario aceptar intervalos de tiempo aproximados en ciertos casos. Para el procesamiento de estas imágenes, se hizo una extracción de un cuadrado, que abarcaba mil metros por lado, siendo el centro, la estación meteorológica de cholula. Con todos estos datos en mano, se procedió a realizar un análisis estadístico. En primer lugar, se realizó una descripción estadística de cada variable para identificar tendencias y patrones generales. Posteriormente, se llevó a cabo un análisis de correlación para determinar la relación entre las variables meteorológicas, los contaminantes atmosféricos y los índices de vegetación. Para este fin, se calculó el coeficiente de correlación de Pearson para evaluar la fuerza y dirección de las relaciones entre las variables estudiadas.


CONCLUSIONES

Durante la estancia de verano, se logró identificar de manera significativa la relación entre los índices de vegetación y la calidad del aire en términos de contaminantes atmosféricos. En particular, se observó que los índices de vegetación como el NDVI) y el SAVI  mostraban una correlación negativa con los contaminantes PM10, PM2.5 y CO. Es decir, cuando los valores de NDVI y SAVI alcanzaban sus picos, típicamente en el tercer trimestre de cada año, las concentraciones de estos contaminantes se encontraban en sus niveles más bajos. Además, se evidenció una relación importante entre estos índices de vegetación y las variables meteorológicas, tales como precipitación, temperatura y humedad. Esto sugiere que durante las épocas con mayores índices de vegetación, posiblemente debido a mejores condiciones meteorológicas, la calidad del aire mejora significativamente debido a la reducción de ciertos contaminantes atmosféricos, reforzando la idea de que las condiciones climáticas favorables y la salud de la vegetación están vinculadas a una mejor calidad del aire. Este hallazgo tiene implicaciones directas para la Agenda 2030 de las Naciones Unidas, particularmente en relación con los Objetivos de Desarrollo Sostenible (ODS). Específicamente, el ODS 3 (Salud y Bienestar) y el ODS 11 (Ciudades y Comunidades Sostenibles) se ven directamente beneficiados por una mejor calidad del aire, la cual puede ser promovida a través del mantenimiento y mejora de la cobertura vegetal en áreas urbanas. La promoción de espacios verdes y la gestión adecuada de los recursos naturales pueden contribuir significativamente a la reducción de la contaminación del aire, mejorando así la salud pública y la sostenibilidad urbana.
Morales González Cerritos Gemma Stephannia, Instituto Politécnico Nacional
Asesor: Dr. Jorge Alberto Borrego Perez, Universidad Michoacana de San Nicolás de Hidalgo

PASTAS DEGRADANTES DE CONTAMINANTES CON ADICIóN DE NANOPARTíCULAS DE TIO2


PASTAS DEGRADANTES DE CONTAMINANTES CON ADICIóN DE NANOPARTíCULAS DE TIO2

Morales González Cerritos Gemma Stephannia, Instituto Politécnico Nacional. Asesor: Dr. Jorge Alberto Borrego Perez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El incremento en los porcentajes de contaminación provenientes de la quema de combustibles fósiles y del desarrollo acelerado de ciudades ha propiciado cada vez más el uso de recursos naturales, como el agua. Esto ha generado mayor cantidad de residuos que contaminan las fuentes principales de abastecimiento y alteran el ciclo natural de purificación del agua. Como resultado, se hace necesario un mayor tratamiento de las aguas residuales, el cual no se realiza en un porcentaje suficiente en muchas ciudades. Parte del proceso de tratamiento de agua residuales se da en las plantas de cada ciudad, pero estos tratamientos no siempre eliminan todos los contaminantes, básicamente se dan tratamiento de cloración y eliminación de partículas de mayor tamaño, microrganismos u organismos; dando la posibilidad de que microorganismos o bacterias continúen desarrollándose en el agua. Uno del proceso que mejor eficiencia ha demostrado para la eliminación de esos microorganismos y bacterias es la fotocatálisis heterogénea con la cual se mineralizan los contaminantes y evitan el crecimiento de nuevas bacterias. Este proceso se lleva a cabo utilizando materiales que aprovechan parte de la luz solar para degradar estos contaminantes uno de los más usados es el TiO2. La adición de nanopartículas de TiO2 a materiales constructivos, en este caso pastas a base de cemento pueden ayudar a reducir los contaminantes en agua o aire con la ayuda de la fotocatálisis heterogénea.



METODOLOGÍA

Obtención de nanopartículas de TiO2 por la técnica de sol-gel. Los reactivos utilizados para la obtención de las nanopartículas fueron los siguiente: Butóxido de Titanio Alcohol etílico absoluto Ácido clorhídrico Agua desionizada. Procedimiento para obtener las nanopartículas: En un matraz se colocó un agitador termo magnético y 20 ml de alcohol etílico, se comenzó la agitación a temperatura ambiente con ayuda de una parrilla. Pasado 5 min se agregaron 7 ml de butóxido de Titanio y se continuo la agitación, se agregaron 10ml de alcohol etílico y posteriormente 1 ml de ácido clorhídrico (HCl), se le agregó a la solución 15ml de alcohol etílico, la solución se mantuvo en agitación x 10min. En un vaso precipitado se mezclaron 10 ml de alcohol etílico con 1ml de agua desionizada, esta solución se incorporó a la mezcla del matraz por medio de goteo con la ayuda de una bureta regulada, al finalizar, el goteo se dejó en agitación constante por 1hr. La solución obtenida se mantuvo en refrigeración por 24 horas posteriormente con la ayuda de una parrilla a una temperatura de 110° por un lapso de 4 horas se evaporaron los solventes hasta eliminar la humedad, el material resultante se trituró con la ayuda de un mortero hasta obtener un polvo fino. El polvo se llevó a tratamiento térmico en una mufla a una temperatura de 500° por una hora el material resultante son un polvo de las nanopartículas de TiO2 en la fase anatasa.            Adición de nanopartículas a las pastas: Se diseñaron las proporciones de las pastas con relación a las dimensiones de los cubos muestras de 2.5 por 2.5 cm. Para las pruebas se realizaron 6 cubos por cada porcentaje de adición, la cantidad de cemento usado para todas las muestras fue de 134g, se adicionó 2% de TiO2 (2.68g). La mezcla se hizo en un recipiente de vidrio en el cual se adiciono el cemento, el TiO2 y el agua. Se obtuvo una mezcla homogénea la cual se vertió en los moldes y se dejó secar 24hrs. Pasado ese tiempo se sumergieron en agua para su etapa de curado.


CONCLUSIONES

La adición de nanopartículas es una alternativa innovadora contra la contaminación ambiental. Estas nanopartículas otorgan al concreto propiedades fotocatalíticas que permiten la degradación de contaminantes orgánicos e inorgánicos presentes en el aire y en el agua. Su implementación permite no sólo la mejora del material, sino también promueve la creación de infraestructura sostenible. Esta investigación es una gran propuesta para construcciones verdes, por lo cual es necesario continuar su investigación para optimizar la eficiencia e impactos que pueda provocar en el medio ambiente y la salud humana. AGRADECIMIENTOS Los autores agradecen el soporte del Programa Delfín con su Programa de la Investigación Científica y Tecnológica del Pacífico; de la Coordinación de la Investigación Científica, CIC, de la Universidad Michoacana de San Nicolás de Hidalgo, UMSNH; del Laboratorio de Materiales de la Facultad de Ingeniería Civil, FIC-UMNSH; del CONAHCYT, Consejo Nacional de Humanidades, Ciencia y Tecnología, con los Proyectos CF-2023-G-985 y CBF2023-2024-1613; del ICTI, Instituto de Ciencia, Tecnología e Innovación del Estado de Michoacán con sus Proyectos Apoyo a la Capacidades Científicas e ICTI-PICIR; del personal del Laboratorio de Materiales.
Morales Medina Fátima Concepción, Universidad Autónoma de Yucatán
Asesor: Dr. Hugo Adrian Ortega Rosales, Universidad de Guadalajara

TOWARDS THE IMPLEMENTATION OF THE QUANTUM HADAMARD WALK IN A QUANTUM CIRCUIT


TOWARDS THE IMPLEMENTATION OF THE QUANTUM HADAMARD WALK IN A QUANTUM CIRCUIT

Morales Medina Fátima Concepción, Universidad Autónoma de Yucatán. Asesor: Dr. Hugo Adrian Ortega Rosales, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Quantum physics has revolutionized the information processing in different fields of study such as computer science and engineering, leading to innovations in hardware and software components.  We can assure that quantum walks is one of the most flourishing developments in quantum information theory due to the fact they bring the basis of new computational models and exploits the superposition of multiple paths leading to the development of a wide variety of quantum algorithms (Grover’s search algorithm).  Quantum walks are the analogues to the classical random walk that defines the movement of a particle, the walker, which can occupy certain position states on a graph.The Hadamard quantum walk is defined on a Hilbert space that includes internal states of the single particle called coin space and position space. The walker’s evolution depends on the quantum coin operator which controls the position shift operator. In the discrete time quantum walk (DTQW) with Hadamard coin, the initial state of a coin determines the movement of the walker at different time steps. To learn more about the details of our work, you can consult the following document through the link, https://bit.ly/3WwQmHr



METODOLOGÍA

Considering the computational basis of the coin space we can describe a generic state of the walker. If we consider t steps of the walk it produces a sequence of  unitary operators that are applied to an initial state so that will take the form of |state(t)>= Ut |state(0)> after t steps.The sequence of applying the evolution operators on each step of the walk is a coin operator followed by a conditional shift operator explained later. To begin with, the coin C used for 1 - D quantum walks is the Hadamard operator that takes a qubit in the ground state |0> and transforms it into an equal superposition of |0> and |1>. We use this coin because one can recover the classical random walk by doing a measurement in each time step. The initial condition used for the coin is |0>, albeit other options are possible. For instance, the eigenstate plus of the Pauli matrix y is a common choice. For the latter case (state |0>), the time evolved probability distribution over the sites is asymmetric, while for the latter the probability distribution is symmetric. Afterwards, we define the right and left shift operators whose conditions moves the coin to the right if the state is |0> and to the left if the state is |1>. The first step of the quantum walk will be the outcome of U applied to the initial state. For the second step, we replicate the process by applying U to the quantum state at t=1, this is |state(2)>=U|state(1)>.  Once applied, the quantum state evolutions into |state(2)>=1/2(-1>|-2>+|1>|0>+|0>|0>+|0>|2>) . For the third step, we repeat the process by applying U to the previous step |state(3)>=U|state(2)> and the quantum state at t=3 evolutions into  |state(3)>=(1/2 sqrt(2)) [-|0>|-1>+|1>|-3>+2(|0>+|1>)|1>+|0>|3>]. The next step is to find the probabilities of the quantum system to be in state n at time t  with the equation p(n, t) =<"state"(t)(|nXn|(X)I)|"state"(t)> . This multiply a projector to the quantum state where |n> refers to the space state. If the sum of the probabilities at some specific sites is equal to 1, we can infer that the rest of the sites will produce a value of zero probability so that we will have a full information about the probability distribution over the sites at a certain time step. For the first step,  the probability of the coin to be located in n=-1 is p=1/2, similarly for n=1 its probability is p=1/2.  For the second step, the probability of the coin to be located at n=0,+2,-2 are 1/2, 1/4, and 1/4 respectively. For the third step, the probability of the coin to be located at n=+1 is 5/8. For the others at n=-1,+3,-3 the probabilities are 1/8  respectively.  It is better at this point as a first approach to the general case to have a numerical program that can compute these quantities for any value of t step and n site we provide.  Numerical calculations were obtained by constructing a Python code with the following characteristics: It operates for any aribitrary number of n sites ad t steps. Definitions of functions such like the initial state condition, calculations for the shift operator, index of the site’s calculations, probability calculation that save all the values in a list, a function for the walker’s evolution depending on the condition given and a function that calculates the standard deviation. With the python code, we studied specifically the initial conditions in the coin |0>, |1>, and its complex superposition proportional to |0> + i |1>. The first two initial conditions generate asymmetrical distributions to the right and to the left, respectively. The last initial condition generates a symmetrical probability distribution and shows a ballistic difference when compared to the standard (diffusive)  classical random walk with Gaussian profile. It numerically graphs the standard deviation of a quantum walk having a good match to the theoretical one (~0.54*t) and shows the difference of a ballistic behavior of the quantum walk in comparison to the diffusive behavior of the classical one.


CONCLUSIONES

During the research stay I managed to acquire the theoretical knowledge of quantum mechanics to be able to apply the analytical calculations and thus obtain the Hadamard quantum walk for the first three-time steps (t=3) mentioned in the methodology. These expressions agree with the literature of the book by Portugal, R. Quantum search algorithms. The main objective was achieved which was to numerically perform the quantum walk for 100 steps (t=100) at 100 sites (n=100) and to obtain the probability values of the coin for each of the sites.The plots can be observed in Section 3.3 of the attached document, Figure (1) refers to the symmetric condition of the coin, which was normalized to ensure that the sum of the probabilities at step 100 is equal to 1. In Figure (2), the behavior is observed considering only the condition |1> that shifts to the left, and Figure (3) with the condition |0> shows a shift to the right.  The last numerical calculation was to obtain the standard deviation for the quantum walk considering the probability values previously gathered for 100 sites (n=100) and it is shown how the standard deviation behaves through time tending to a linear behavior if we compare it with the square root function behavior that the classical random walk presents. Nevertheless, it is planned to go further in the research to describe the Hadamard quantum walk in a quantum circuit and characterize the quality and efficiency of quantum computers. Researchers have already implemented a quantum state matching protocol in a 2-qubit quantum circuit to test quantum computers and decrease the presence of noise that hinders their effective operation so we aim to use the quantum walk in a similar vein.
Morales Moro María Guadalupe, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla

MACHINE LEARNING PARA EL ESTUDIO DE RAYOS CóSMICOS


MACHINE LEARNING PARA EL ESTUDIO DE RAYOS CóSMICOS

González Daniel Isaac, Benemérita Universidad Autónoma de Puebla. Méndez Velarde Jessica Michelle, Universidad Autónoma de Baja California. Morales Moro María Guadalupe, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Planteamiento Los rayos cósmicos son partículas con masa y carga que provienen de diversas regiones del espacio y bombardean continuamente la Tierra. La energía de estos rayos varía desde los 108eV hasta los 1020 eV, siendo las partículas con energías cercanas a 1020 eV (conocidas también como rayos cósmicos ultra-energéticos) las más raras de encontrar. Se estima que solo 3 o 4 partículas de esta magnitud impactan con la Tierra por kilómetro cuadrado alrededor de cada siglo. Por otro lado; actualmente nos encontramos frente un avance significativo en el campo de la inteligencia artificial, pues usando técnicas de aprendizaje automático basadas en redes neuronales artificiales podemos obtener resultados muy favorables para la resolución de problemas, por lo que resulta interesante trabajar en la capacidad de predicción e inferencia de las redes neuronales artificiales, para predecir características de rayos cósmicos que nos hablen de estos orígenes que desconocemos y nos brinden información sobre el universo en el que vivimos. El parámetro Xmax y su importancia Cuando el rayo proveniente del espacio choca con la Tierra, interactúa con la atmósfera, lo que provoca la creación de partículas secundarias, que a su vez interactúan entre ellas para producir más partículas, este proceso se repite reiteradas ocasiones hasta que la energía lo permite. La sucesiva creación de partículas desde que el rayo se descompone en la atmósfera terrestre se conoce como lluvia de partículas. La cascada (o lluvia) de partículas crece a medida que desciende hacia la Tierra hasta alcanzar un punto máximo que es precisamente el lugar en el cual se genera la mayor cantidad de partículas, llegado a este punto, la producción de partículas empieza a disminuir hasta agotar (o disipar) la energía. El punto máximo de producción de partículas se denomina Xmax, cuyas unidades son [g/cm2]. Este parámetro es sensible a la composición, es decir, su magnitud permite inferir el tipo de partícula que impactó la atmósfera terrestre inicialmente antes de descomponerse en la lluvia de partículas de la que obtenemos datos.



METODOLOGÍA

Simulaciones Se ha descubierto que el parámetro Xmax sigue una cierta tendencia lineal cuando se compara con el logaritmo de la energía, sin embargo, se observa un cierto valor de la energía a partir del cual la tendencia se altera. Aquí es donde surge el interés de aplicar algoritmos de machine learning para los datos de simulaciones realizadas por la supercomputadora. Se necesita de una gran cantidad de datos que contenga el comportamiento de estas lluvias para poder entrenar la red neuronal. Con la suficiente cantidad de datos y un modelo suficientemente flexible que permita interpretar la información, sería posible predecir estos puntos de quiebre sin la necesidad de esperar que los rayos ultra-energéticos golpeen alguno de los diferentes detectores alrededor del planeta. Papel de la supercomputadora Para el desarrollo de un algoritmo de aprendizaje supervisado, requerimos de realizar simulaciones de lluvias de partículas, mismas que se realizaron mediante el uso de la supercomputadora con el uso  de software desarrollado por el CERN. Es importante señalar que debido a que el tiempo que le tomó a la supercomputadora procesar los datos requeridos fue muy elevado, se optó por trabajar con datos anteriormente registrados mientras las simulaciones seguían cargando para un análisis posterior. Los datos en cuestión son pertenecientes a núcleos de Hierro y protones que simularon una lluvia de partículas de 1,000,000 y 70,000 datos respectivamente. Una vez obtenidos los datos se procedió a elaborar un algoritmo de regresión lineal para cada tipo de partícula en cuestión. El total de datos se dividió en dos subconjuntos: uno de entrenamiento y otro de prueba. Estos subconjuntos se suelen dividir en una relación 75%-25% respectivamente pues el subconjunto de entrenamiento debe ser lo suficientemente grande para poder predecir la tendencia de los datos; por otro lado, el subconjunto de prueba se utiliza para medir el desempeño del modelo.


CONCLUSIONES

Resultados: Modelos desarrollados Para el presente trabajo se utilizó un total de 1100000 datos, cuyas características fueron las siguientes: Número de eventos: 2 Energía inicial: 1016 Energía final: 1019 Número de lluvias por evento: 550,000   Primario: Hierro (Fe) Modelo hadrónico: EPOS - LHC   Para el manejo y análisis de estos datos se procedió a realizar una red neuronal basada en un modelo de regresión lineal de la librería de Scikit - learn. La función "LinearRegression" ajusta un modelo lineal con coeficientes w = (w1, ..., wp) para minimizar la suma residual de cuadrados entre los objetivos observados en el conjunto de datos y los objetivos predichos por la aproximación lineal. De los datos utilizados, estos se partieron en dos grupos: uno para el entrenamiento de la red neuronal y otro para su evaluación, para lo cual fue utilizada la función predeterminada "train\_test\_split" de la misma librería. Mediante los métodos mencionados, se encontró un training score de 0.81 en tanto que un test score de 0.81 por igual.   Conclusiones Durante la estancia de investigación del programa delfín 2024 se adquirieron nuevos conocimientos sobre los rayos cósmicos y su importancia para futuras investigaciones. Se estudiaron modelos de aprendizaje automático supervisado y no supervisado, sus ventajas, desventajas, así como también los diversos contextos en donde se utilizan actualmente. Se realizaron simulaciones de lluvias de partículas y se desarrollaron algoritmos de aprendizaje supervisado dando como resultado modelos simples que facilitan la aplicación de dichos algoritmos a conjuntos de datos más extensos. Este ejercicio permite comprender la importancia e influencia que tienen los datos para cada situación en la que se requiera aplicar este tipo de modelos.
Morales Sánchez Valentina, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. José de León España, Instituto Tecnológico Superior de Venustiano Carranza

EXPLORACIóN GEOFíSICA EN SITIOS ARQUEOLóGICOS: IDENTIFICACIóN DE VESTIGIOS Y BASAMENTOS


EXPLORACIóN GEOFíSICA EN SITIOS ARQUEOLóGICOS: IDENTIFICACIóN DE VESTIGIOS Y BASAMENTOS

Morales Sánchez Valentina, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. José de León España, Instituto Tecnológico Superior de Venustiano Carranza



PLANTEAMIENTO DEL PROBLEMA

En la frontera de Puebla-Veracreuz, entre los municipios de Coyutla y Zihuateutla, los recientes hallazgos de vestigios y estructuras (que parecen no tener un origen natural) han despertado el interés de los pobladores de la zona. Actualmente, con el desarrollo turístico se ha visto un aumento en el valor que antes se les daba a los sitios arqueológicos, lo que a su vez provocó un interés colectivo por conocer toda la parte cultural que alojan estos lugares, así como por la búsqueda de otros asentamientos antiguos, que tras haber sido abandonados por siglos, hoy en día se encuentran enterrados. La exploración geofísica es justamente una herramienta que permite analizar lo que hay en el subsuelo, esto mediante el estudio de distintas propiedades físicas de los materiales. Con la aplicación de sus diversos métodos se pueden identificar vestigios y delimitar basamentos arqueológicos, lo que facilita la toma de decisiones sobre el posterior trabajo de excavación.



METODOLOGÍA

Se aplicaron 2 métodos de exploración geofísica: Radar de Penetración terrestre (GPR), que mide las anomalías en el suelo que se producen con la transmisión de ondas electromagnéticas; y la Tomografía de Resistividad Eléctrica (TRE), que muestra la distribución de resistividades de los materiales del subsuelo. Una vez que se obtuvieron los permisos por parte de los ejidatarios se realizaron visitas previas al trabajo de prospección, donde se identificaron 3 zonas de interés, en las que se observaron montículos (asociados a posibles estructuras) donde llegaban a aflorar rocas apiladas de forma ordenada y 2 lugares potenciales con vestigios.   Adquisición de datos: Con el método de Tomografía de Resistividad Eléctrica se realizaron 5 tendidos de 72 metros de largo, 3 en la primera zona y 2 en la tercera, utilizando las configuraciones electródicas de Wenner y Dipolo-Dipolo. Se utilizó el resistivímetro Sycal Junior de 2 canales y 24 electrodos. Con el método de Radar de Penetración Terrestre se realizaron 13 líneas: 2 mallas para cubrir las estructuras 2 y 3 (en la primera zona) y una malla en la estructura 6 (segunda zona), sitio que fue asociado a la posible presencia de vestigios arqueológicos. El equipo utilizado fue el MALA GX con antenas de 160 y 450 MHz, las cuales permitieron la obtención de radargramas con distintas resoluciones y profundidades de estudio. Procesado: Para los datos obtenidos con el método de TRE se utilizaron los softwares de Prosys II y RES2DINV, para depurar los datos, modificar el factor de amortiguamiento (con la finalidad de homogeneizar el rango de resistividades de los 5 perfiles), realizar la inversión de datos (que permite pasar de resistividad aparente a resistividad), aplicar una corrección vertical, horizontal y de optimización (reducción del error), aplicar el modelo de discretización (utilizado para acomodar los intervalos de profundidad y visualizar los basamentos sin que el programa los interpole como una sola capa), realizar el interpolado (que genera una imagen de resistividades a partir de datos puntuales) y añadir la topografía. En cuanto al procesamiento de los datos de GPR, se utilizaron los softwares REFLEX y Prism 2.7. El primero para convertir el archivo a la terminación SEGY y el segundo para la aplicación de varios filtros, entre ellos el incremento de ganancia (para recuperar amplitudes), la interpolación en el eje x y el filtro LP, que ayudó a la disminución del ruido. Modelado: En esta última parte se utilizó el software AutoCAD para delimitar las unidades resistivas de los perfiles obtenidos con las TRE, así como para marcar las estructuras e identificar la extención y profundidad de los basamentos. En el caso de los radargramas, únicamente se utilizó una herramienta de dibujo para marcar las anomalías. De esta forma resulta más fácil observar la profundidad y distancia a la que se encuentran.


CONCLUSIONES

En los radargramas se observa que las anomalías asociadas a las estructuras 2 y 3 indican que las mismas están enterradas entre los 0.8 y 1 metros profundidad, mientras que los vestigios se encuentran enterrados más cercanos a la superficie, en los primeros 30 centímetros. Con estos datos se puede concluir que las estructuras tienen mayor antiguedad. La longitud de las zonas resistivas asociadas a estructuras tienen un rango de longitud que va de los 3 a los 48 metros, siendo la de mayor extensión la estructura 1, con 48 metros de largo y 4 metros de profundidad. La unidad resistiva asociada a la estructura 7 a una construcción con distintos niveles, donde la parte más alta está a los 409 metros de elevación y la más baja a los 400 metros.
Moran Alvarado Luis Andrés, Benemérita Universidad Autónoma de Puebla
Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla

PREDICCIóN DE SERIES TEMPORALES DE MANCHAS SOLARES UTILIZANDO REDES NEURONALES.


PREDICCIóN DE SERIES TEMPORALES DE MANCHAS SOLARES UTILIZANDO REDES NEURONALES.

Moran Alvarado Luis Andrés, Benemérita Universidad Autónoma de Puebla. Moreno Santiago Jose Miguel, Benemérita Universidad Autónoma de Puebla. Zamora Flores Guillermo Armando, Benemérita Universidad Autónoma de Puebla. Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El estudio de la actividad solar ha sido crucial para la humanidad desde las primeras civilizaciones, que observaban al astro rey para medir el tiempo y predecir eventos astronómicos. En la actualidad, enfrentamos desafíos que afectan nuestra tecnología y sociedad, ya que la actividad solar juega un papel significativo en la variación del clima espacial. Comprender y predecir estas variaciones nos ayudará a prevenir daños en nuestros satélites y en la infraestructura de comunicación global. A lo largo de los años, se ha trabajado arduamente para entender mejor al Sol. La física solar nos ha proporcionado un punto de partida importante: la relación entre la aparición de manchas solares y la actividad solar. Estas manchas son regiones del Sol con una temperatura más baja que sus alrededores y una intensa actividad magnética. Afectan la cantidad de radiación solar que llega a la Tierra y están vinculadas a fenómenos como las tormentas solares.  Por ello, se han desarrollado diversos métodos matemáticos para contar las manchas solares, basándose en observaciones registradas desde 1610. Estas observaciones describen un patrón regular de fluctuaciones en la actividad solar que se repite aproximadamente cada 11 años, conocido como el ciclo solar. Proponemos: Encontrar un modelo de red neuronal y entrenar con los datos historicos para predecir el número de manchas solares de los proximos 12000 días.



METODOLOGÍA

Recopilación de Datos Comenzamos buscando el conjunto de datos que registra el número de manchas solares a lo largo del tiempo. Estos recuentos existen desde 1610, aunque la numeración no está bien definida durante el mínimo de Maunder (un periodo de 1645 a 1715, cuando las manchas solares prácticamente desaparecieron de la superficie del Sol, tal como lo observaron los astrónomos de la época). Maunder estudió los archivos de esos años, por ello recibe su nombre, y se dice que no es bien definida ya que durante este tiempo se observaron cerca de 50 manchas solares, en contraste con las 40,000 a 50,000 manchas típicas. Hemos encontrado el ISN v2 (International Sunspot Number versión 2), una serie de datos que reemplazó los datos originales del número de manchas solares desde el 1 de julio de 2015. Esta nueva serie de datos ha sido completamente revisada y presenta valores adicionales que no estaban presentes en la serie original. Descargamos la base de datos en formato .csv desde la página https://www.sidc.be/SILSO/datafiles. Es importante mencionar que la base de datos fue proporcionada por "WDC-SILSO, Real Observatorio de Bélgica, Bruselas", y sin su colaboración, esta investigación no habría sido posible. Preprocesamiento de Datos Con nuestra base de datos, fue necesario hacer un preprocesamiento de los datos. Como primer objetivo, escogimos las fechas en que se realizaron las observaciones y el conteo de manchas solares a lo largo de esos días. La base de datos proporciona información adicional como el número de observaciones realizadas para calcular el valor diario, entre otras cosas. Considerando el mínimo de Maunder y que los datos fueron bien revisados hasta cierto año, optamos por recortar los datos inicialmente. Escogimos el periodo de tiempo desde el 1 de enero de 1823 hasta el 31 de mayo de 2024, dando un total de 73,566 datos. Al analizar la base de datos, encontramos que existen 3247 días dispersos en los que no hubo registro alguno de las manchas solares en este periodo de tiempo. Ante este problema, optamos por modificar el conteo de esos días tomando el registro del día anterior o el más cercano del pasado. Elegimos esta estrategia debido a que los días sin registro estaban dispersos y los datos más cercanos seguían la tendencia general de los registros, por lo que no se perdió información al hacer esto, considerando que teníamos 70,319 días con registro de manchas solares. Entrenamiento de Modelos Una vez hecha la limpieza de los datos, optamos por usar una plataforma como servicio (PaaS), específicamente Google Colab, para el entrenamiento de las Redes Neuronales que creamos. Utilizamos diferentes librerías de Python como Numpy, TensorFlow y Optuna, entre otras. Con ayuda de Optuna, un marco de optimización de hiperparámetros de código abierto que automatiza la búsqueda de hiperparámetros utilizando sintaxis, bucles y condicionales en Python, verificamos 30 arquitecturas diferentes de Redes Neuronales. Estos modelos variaban los siguientes hiperparámetros: número de capas, número de neuronas, dropout, optimizador, tasa de aprendizaje, batch size y seq_length. Los tipos de capas que utilizamos fueron LSTM, Dense, Batch Normalization y Flatten. De estos 30 modelos, se escogieron los 15 mejores según su comportamiento en la predicción de casi 3 ciclos (12000 datos) en comparación con los ciclos históricos y aquellos que lograron reducir la función de costo del set de datos para test. Teniendo las 15 arquitecturas diferentes, se entrenaron y posteriormente se escogieron las 4 que tenían mejor comportamiento. Estas 4 arquitecturas se entrenaron haciendo la variación de épocas de entrenamiento con ayuda de más poder computacional, incluyendo tarjetas gráficas T4, L4 y A100. Utilizamos las predicciones del mes de junio de 2024 de todas estas Redes Neuronales y las comparamos con las observaciones del mes de junio publicadas por el Real Observatorio de Bélgica el día 1 de julio de 2024, con la intención de buscar la Red Neuronal que predice mejor.


CONCLUSIONES

Analizando las predicciones del mes de junio del año correspondiente, observamos que las 4 arquitecturas logran predecir de forma cercana las observaciones del Real Observatorio de Bélgica. El porcentaje de precisión de las 4 fue el siguiente: Modelo 4: Precisión = 85.34% Modelo 15: Precisión = 84.76% Modelo 20: Precisión = 81.71% Modelo 30: Precisión = 83.72% Con estos 4 candidatos, pretendemos seguir mejorando la arquitectura para aumentar la precisión de las predicciones.  Debido a la limitación del poder computacional, no pudimos continuar optimizando estos modelos. Sin embargo, tenemos la intención de seguir modificando estas arquitecturas y alcanzar al menos una precisión del 90%. Además, continuaremos verificando su precisión con los datos que publica mensualmente el Real Observatorio de Bélgica.
Moreno Amaro Balam Kaled, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Mario Alberto Yepez Rivera, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

ANáLISIS FOTOMéTRICO DE ESTRELLAS RR LYRAE PARA LA OBTENCIóN DE SUS PARáMETROS FíSICOS


ANáLISIS FOTOMéTRICO DE ESTRELLAS RR LYRAE PARA LA OBTENCIóN DE SUS PARáMETROS FíSICOS

Diaz Arellano Ulises, Universidad Autónoma del Estado de México. Moreno Amaro Balam Kaled, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Mario Alberto Yepez Rivera, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El estudio del universo temprano es una tarea compleja debido a la ausencia de objetos estelares lo suficientemente antiguos en las proximidades del planeta, lo que ha llevado a los astrónomos a buscar sectores donde tales objetos abunden. Esta búsqueda resulto en el hallazgo de regiones vinculadas a la evolución temprana del universo, siendo particularmente significativo el descubrimiento de los Cúmulos Globulares (CGs) los cuales han tenido un papel detonante en el análisis prematuro del cosmos. Los CGs son agrupaciones de estrellas con una simetría esférica ligados al halo galáctico y formados durante el proceso de construcción del sistema galáctico al que orbitan. No obstante, cualquier cúmulo se encuentra lo demasiado lejano para obtener parámetros físicos de forma convencional, es así que se ha recurrido a diversos análisis, siendo uno de ellos el estudio de las curvas de las estrellas RR Lyrae y mediante su fotometría obtener sus parámetros físicos



METODOLOGÍA

Hay dos tipos de estrellas RR Lyrae: Las RRab que tienen periodos de pulsación entre 0.4 y 0.8 días con curvas de luz asimétricas y las RRc con periodos de 0.2 a 0.4 días con curvas de luz de forma sinusoidal. NGC 6656, también conocido como Messier 22 (M22), es considerado como el primer cumulo globular registrado en la historia de la astronomía, dicho título conlleva características notables en la morfología del cumulo. Su cercanía a la Tierra y al bulbo galáctico, además de su intenso brillo, hacen de M22 un objeto observacional relevante para nuestros propósitos de estudio. Por otro lado, NGC 6453 se ubica aproximadamente a 10 kpc de distancia de la Tierra y cuenta con una significativa presencia de estrellas tipo RR Lyrae, lo que permite realizar una estimación de parámetros físicos. Este cúmulo es especialmente relevante para el análisis debido a su antigüedad, siendo uno de los más antiguos de la galaxia, con una edad estimada entre 12 y 13 gigaaños. Los datos de las estrellas RR Lyare fueron descargados del catálogo del Optical Gravitational Lensing Experiment(OGLE) divididos en dos temporadas (OGLE III y OGLE IV), consisten en dos tablas llamadas FullStarTable y Photometry. Para cada región del cúmulo obtuvimos 36 estrellas RRR Lyrae para NGC 6453 y 42 para M22. Las dos tablas de dichas estrellas sirvieron como datos de entrada para el código utilizado para graficar las curvas de luz de todas las estrellas registradas. El programa denominado Fases extrae las variables HJD, Eo y P para ajustar la fase del día juliano. Al convertir al formato estándar de HJD y restarle la época de máximo brillo (Eo), después dividirlo entre el periodo (P) de la estrella, se obtiene la fase al tomar la parte decimal del resultado, produciendo un valor entre 0 y 1 para el eje horizontal.  Usando el método de longitud de la cuerda, mediante la implementación del código Selcurvas ,para obtener un periodo optimo en el que la curva de luz sea lo mas suave y coherente posible. Debido a la importancia en la estructura de la curva de luz en la estimación de parámetros, se creó un programa paraaplicar la descomposición en series de Fourier de sus curvas de luz y emplear amplitudes y corrimientos de fase de cada armónico en la serie. Utilizando los parámetros anterioreslos parámetros de Fourier fueron calculados y registrados en un archivo. El programa cuenta con dos versiones, una de 6 armónicos y una de 4, esto se debe a la diferencia de datos entre el filtro V e I, mientras que el filtro I contenía una cantidad considerable, el V contaba con una ausencia de datos en ciertos sectores, lo que conducía a un ajuste erróneode la curva mostrando comportamientos abruptos. Posteriormente los archivos de salida eran modificados usando el mejor ajuste de los dos. El paso siguiente consistió en la evaluación del ajuste de las estrellas RRab. El programa Dmcalcula la desviación de los parámetros ajustados con los observados en estrellas RRab en las nubes de magallanes, con las cuales fueron hechas las calibraciones para el cálculo de parámetros físicos. En resumen, el código Dm estima la calidad del ajuste de la serie de Fourier mencionada. Finalmente, los archivos de salida de los códigos Selcurvas y el de descomposición en series de Fourier, clasificados conforme al subtipo correspondiente (RRab y RRc), fueron procesados por el programa ParfisRRab. El código Parfis extrajo los valores de la amplitud obtenidos aplicando series de Fourier a la curva de luz en el filtro I, así como los coeficientes de Fourier para el filtro V. Los periodos fueron obtenidos del archivo Selcurvas. Con las variables asignadas a cada estrella, se estimaron la metalicidad, magnitud absoluta, temperatura efectiva, luminosidad, distancia y radio. Los resultados fueron registrados.


CONCLUSIONES

La estancia de verano permitió una introducción a temas básicos de la astrofísica, en especial la rama de la evolución estelar mediante el análisis de estrellas variables.  Se profundizo en la importancia de estas, así como en la práctica mediante el análisis de datos actuales. A pesar de obtener resultados coherentes y satisfactorios en lo que parámetros físicos se refiere, el análisis de estrellas variables puede extenderse, ya sea analizando a profundidad algunas estrellas del cumulo o realizando representaciones de las relaciones en los parámetros, un diagrama HR sería lo óptimo. El cumulo M22, aun siendo de los más viejos descubiertos, posee una pobre cantidad de datos en el filtro V, lo que dificulta la estimación de parámetros físicos y todo lo que conlleva. No obstante, parámetros como la distancia o la luminosidad muestran una buena estimación comparados con datos anteriormente registrados. Para el cúmulo NGC 6453 se pudieron obtener resultados más certeros comparados a los de M22, ya que también pudimos obtener más datos del cúmulo en OGLE III y los pudimos juntar con OGLE IV. A pesar de que se estuvo trabajando con más datos en este cúmulo, aún siguieron faltando datos del filtro V para algunas estrellas RR Lyrae.
Moreno Ortega Angélica, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Mayra Mabel Valerdi Negreros, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

ESTUDIO DE REGIONES H2


ESTUDIO DE REGIONES H2

Moreno Ortega Angélica, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Mayra Mabel Valerdi Negreros, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El estudio de las regiones HII, nos proporciona información valiosa sobre los inicios del universo, ya que al poder calcular la composición química así como las condiciones físicas podemos estimar su evolución en el tiempo e incluso imponer restricciones a modelos como el de la nucleosíntesis.  Para el estudio de estas regiones empleamos la técnica de espectroscopia, en la cual analizamos la radiación emitida en la parte del espectro que corresponde al visible, así mismo para los cálculos utilizamos herramientas digitales como PyNeb.



METODOLOGÍA

Para analizar nuestro espectro de rendija larga comenzamos midiendo las líneas de emisión con ayuda del software IRAF, a pesar de ser un solo espectro en el visible contamos con tres filtros, en función de la longitud de onda; B que abarcaba de los 3500-6000 amstrongs, R que abarcaba de los 5000-7500 amstrongs y finalmente L que abarcaba de los 3500-8500 amstrongs. El software nos proporcionaba un archivo.log que contenía cuatro columnas de las cuales solo empleamos la longitud de onda de la línea del espectro y la del flujo, a la columna de la longitud de onda observada le realizamos una corrección con el redshift. Una vez realizada esta corrección, con ayuda del articulo "Determination of the Primordial Helium Abundance Based on NGC 346, an H II Region of the Small Magellanic Cloud", eliminamos de nuestra lista las que no se ajustaban y aquellas que sí las relacionamos con el elemento al que pertenecían, esto con el fin de generar una nueva tabla que contenía dos columnas, una con un ID conformado por el nombre del elemento junto con una longitud de onda y la otra columna con el flujo normalizado. Por último con varias clases de PyNeb obtuvimos condiciones físicas como la intensidad, temperatura y densidad.


CONCLUSIONES

Con las condiciones físicas previamente obtenidas pudimos determinar la abundancia iónica y la abundancia total de 7 elementos en nuestra región, a futuro se espera realizar análisis de más regiones.
Moreno Pioquinto Roberto Carlos, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo

LA ECUACIóN DE GAP EN EL MODELO NJL 0+1


LA ECUACIóN DE GAP EN EL MODELO NJL 0+1

Moreno Pioquinto Roberto Carlos, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La ecuación de Gap en el modelo NJL (Nambu-Jona-Lasinio) es una ecuación integral que describe la dinámica de la función de distribución de los fermiones en un sistema de fermiones interactuantes. Esta ecuación describe la forma en que la interacción entre fermiones da lugar a una brecha de energía en el espectro de fermiones, lo que es un fenómeno clave en la física. En esta interacción obtenemos una distribución de Fermi-Dirac que describe la probabilidad de ocupación de los estados de energía por los fermiones a temperatura finita, la cual se introduce para tomar en cuenta los efectos térmicos en la brecha de energía y en la dinámica del sistema. Hay varias razones por las cuales estudiar la ecuación de Gap en el modelo NJL con un potencial químico. Una de ellas es entender la dinámica de los fermiones en presencia de interacciones fuertes y temperatura finita. Así mismo nos permite estudiar los fenómenos de fase en sistemas de fermiones como la transición de fase de la quarkionización en la QCD En este proyecto trataremos de abordar la ecuación de Gap en el modelo mencionado para 0+1 dimensiones.  



METODOLOGÍA

Se comenzó tratando las matemáticas necesarias para seguir con el proyecto. Resolución analítica Una vez habiendo estudiado, se resolvió analíticamente la integral que se presenta en la ecuación de Gap Resolución Numérica Se usó el software de Wolfram Mathematica en donde se requería, en particular para resolver para distintos valores del potencial químico, sumatorias relacionadas a la distribución de las partículas, las cuales  siguen una distribución Fermi-Dirac. Posteriormente se graficaron algunos de estos resultados en función de la temperatura.  


CONCLUSIONES

Se encontró lo esperado, que para cada potencial químico se tiene una temperatura con la cual la brecha de energía (el gap) desaparece. En otras palabras, es el punto en el que ocurre una transición de fase de la quarkionización. Este valor de la temperatura se conoce como punto crítico final.  
Moreno Santiago Jose Miguel, Benemérita Universidad Autónoma de Puebla
Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla

PREDICCIóN DE SERIES TEMPORALES DE MANCHAS SOLARES UTILIZANDO REDES NEURONALES.


PREDICCIóN DE SERIES TEMPORALES DE MANCHAS SOLARES UTILIZANDO REDES NEURONALES.

Moran Alvarado Luis Andrés, Benemérita Universidad Autónoma de Puebla. Moreno Santiago Jose Miguel, Benemérita Universidad Autónoma de Puebla. Zamora Flores Guillermo Armando, Benemérita Universidad Autónoma de Puebla. Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El estudio de la actividad solar ha sido crucial para la humanidad desde las primeras civilizaciones, que observaban al astro rey para medir el tiempo y predecir eventos astronómicos. En la actualidad, enfrentamos desafíos que afectan nuestra tecnología y sociedad, ya que la actividad solar juega un papel significativo en la variación del clima espacial. Comprender y predecir estas variaciones nos ayudará a prevenir daños en nuestros satélites y en la infraestructura de comunicación global. A lo largo de los años, se ha trabajado arduamente para entender mejor al Sol. La física solar nos ha proporcionado un punto de partida importante: la relación entre la aparición de manchas solares y la actividad solar. Estas manchas son regiones del Sol con una temperatura más baja que sus alrededores y una intensa actividad magnética. Afectan la cantidad de radiación solar que llega a la Tierra y están vinculadas a fenómenos como las tormentas solares.  Por ello, se han desarrollado diversos métodos matemáticos para contar las manchas solares, basándose en observaciones registradas desde 1610. Estas observaciones describen un patrón regular de fluctuaciones en la actividad solar que se repite aproximadamente cada 11 años, conocido como el ciclo solar. Proponemos: Encontrar un modelo de red neuronal y entrenar con los datos historicos para predecir el número de manchas solares de los proximos 12000 días.



METODOLOGÍA

Recopilación de Datos Comenzamos buscando el conjunto de datos que registra el número de manchas solares a lo largo del tiempo. Estos recuentos existen desde 1610, aunque la numeración no está bien definida durante el mínimo de Maunder (un periodo de 1645 a 1715, cuando las manchas solares prácticamente desaparecieron de la superficie del Sol, tal como lo observaron los astrónomos de la época). Maunder estudió los archivos de esos años, por ello recibe su nombre, y se dice que no es bien definida ya que durante este tiempo se observaron cerca de 50 manchas solares, en contraste con las 40,000 a 50,000 manchas típicas. Hemos encontrado el ISN v2 (International Sunspot Number versión 2), una serie de datos que reemplazó los datos originales del número de manchas solares desde el 1 de julio de 2015. Esta nueva serie de datos ha sido completamente revisada y presenta valores adicionales que no estaban presentes en la serie original. Descargamos la base de datos en formato .csv desde la página https://www.sidc.be/SILSO/datafiles. Es importante mencionar que la base de datos fue proporcionada por "WDC-SILSO, Real Observatorio de Bélgica, Bruselas", y sin su colaboración, esta investigación no habría sido posible. Preprocesamiento de Datos Con nuestra base de datos, fue necesario hacer un preprocesamiento de los datos. Como primer objetivo, escogimos las fechas en que se realizaron las observaciones y el conteo de manchas solares a lo largo de esos días. La base de datos proporciona información adicional como el número de observaciones realizadas para calcular el valor diario, entre otras cosas. Considerando el mínimo de Maunder y que los datos fueron bien revisados hasta cierto año, optamos por recortar los datos inicialmente. Escogimos el periodo de tiempo desde el 1 de enero de 1823 hasta el 31 de mayo de 2024, dando un total de 73,566 datos. Al analizar la base de datos, encontramos que existen 3247 días dispersos en los que no hubo registro alguno de las manchas solares en este periodo de tiempo. Ante este problema, optamos por modificar el conteo de esos días tomando el registro del día anterior o el más cercano del pasado. Elegimos esta estrategia debido a que los días sin registro estaban dispersos y los datos más cercanos seguían la tendencia general de los registros, por lo que no se perdió información al hacer esto, considerando que teníamos 70,319 días con registro de manchas solares. Entrenamiento de Modelos Una vez hecha la limpieza de los datos, optamos por usar una plataforma como servicio (PaaS), específicamente Google Colab, para el entrenamiento de las Redes Neuronales que creamos. Utilizamos diferentes librerías de Python como Numpy, TensorFlow y Optuna, entre otras. Con ayuda de Optuna, un marco de optimización de hiperparámetros de código abierto que automatiza la búsqueda de hiperparámetros utilizando sintaxis, bucles y condicionales en Python, verificamos 30 arquitecturas diferentes de Redes Neuronales. Estos modelos variaban los siguientes hiperparámetros: número de capas, número de neuronas, dropout, optimizador, tasa de aprendizaje, batch size y seq_length. Los tipos de capas que utilizamos fueron LSTM, Dense, Batch Normalization y Flatten. De estos 30 modelos, se escogieron los 15 mejores según su comportamiento en la predicción de casi 3 ciclos (12000 datos) en comparación con los ciclos históricos y aquellos que lograron reducir la función de costo del set de datos para test. Teniendo las 15 arquitecturas diferentes, se entrenaron y posteriormente se escogieron las 4 que tenían mejor comportamiento. Estas 4 arquitecturas se entrenaron haciendo la variación de épocas de entrenamiento con ayuda de más poder computacional, incluyendo tarjetas gráficas T4, L4 y A100. Utilizamos las predicciones del mes de junio de 2024 de todas estas Redes Neuronales y las comparamos con las observaciones del mes de junio publicadas por el Real Observatorio de Bélgica el día 1 de julio de 2024, con la intención de buscar la Red Neuronal que predice mejor.


CONCLUSIONES

Analizando las predicciones del mes de junio del año correspondiente, observamos que las 4 arquitecturas logran predecir de forma cercana las observaciones del Real Observatorio de Bélgica. El porcentaje de precisión de las 4 fue el siguiente: Modelo 4: Precisión = 85.34% Modelo 15: Precisión = 84.76% Modelo 20: Precisión = 81.71% Modelo 30: Precisión = 83.72% Con estos 4 candidatos, pretendemos seguir mejorando la arquitectura para aumentar la precisión de las predicciones.  Debido a la limitación del poder computacional, no pudimos continuar optimizando estos modelos. Sin embargo, tenemos la intención de seguir modificando estas arquitecturas y alcanzar al menos una precisión del 90%. Además, continuaremos verificando su precisión con los datos que publica mensualmente el Real Observatorio de Bélgica.
Mosqueda Prado Jesus Baltazar, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Mauricio Vásquez Rendón, Universidad de Medellín

SíNTESIS DE QUANTUM DOTS A PARTIR DE RESIDUOS DE NOPAL Y SU APLICACIóN EN TEXTILES DERIVADOS -OPTIMIZACIóN DEL PROCESO Y VALORIZACIóN INTEGRAL


SíNTESIS DE QUANTUM DOTS A PARTIR DE RESIDUOS DE NOPAL Y SU APLICACIóN EN TEXTILES DERIVADOS -OPTIMIZACIóN DEL PROCESO Y VALORIZACIóN INTEGRAL

Mosqueda Prado Jesus Baltazar, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Mauricio Vásquez Rendón, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

     Las nanopartículas (NP) son partículas que debido a su tamaño de 1-100 nm, cuentan con propiedades físicas y químicas con una mayor relación superficie/volumen mejorando su reactividad. Dentro de las NP se encuentran los puntos cuánticos (QD) que por su tamaño (2-10 nm, aunque aún está en debate) y forma tienen propiedades ópticas y electrónicas muy peculiares, entre ellas su fotoluminiscencia. Debido a esto se planteó ¿se puede creer QD a partir de residuos de nopal?, ya que, en el municipio de Sonsón. Puesto que son una zona productora de higo y teniendo como desecho las hojas de nopal en gran medida.      En el municipio de Sonsón, Antioquia, Colombia, que es una zona destacada en la producción de higo, se generan grandes cantidades de hojas de nopal como desecho. Este residuo agroindustrial ofrece una oportunidad para la producción sostenible de puntos cuánticos, teniendo como meta el desarrollar y optimizar un proceso de síntesis de QD a partir de estos residuos, y ver su posibilidad de aplicarlos en la modificación de textiles derivados del nopal.      Se opto por un proceso hidrotermal para la síntesis de los ND donde se implica la reacción de precursores en condiciones de alta temperatura y presión en un medio acuoso, ha demostrado ser una técnica versátil y eficaz para la producción de QD puesto que se logra un buen control en cuanto al tamaño y morfología que comparado con otros métodos de síntesis de QD, como la síntesis en fase vapor o sol-gel, el método hidrotermal ha demostrado ser menos costoso y más sencillo en términos de equipo y control de proceso.      La integración de nanopartículas y puntos cuánticos en el sector textil ofrece diversas ventajas innovadoras, como podrían ser, los textiles inteligentes, donde los QD pueden ser utilizados para desarrollar textiles que cambian de color o emiten luz, proporcionando características visuales y funcionales únicas. Pero no solo sería un factor meramente estético, sino que se podría ver la posibilidad de producir tejidos que inhiben el crecimiento de bacterias y hongos.



METODOLOGÍA

Preparación de la muestra Secado: La materia prima utilizada ya fue previamente secada en un horno para eliminar la humedad. Molienda: Introduzca la muestra seca en un molino eléctrico y ajuste los parámetros para obtener una muestra fina. Tamizado: Use una serie de tamices con mallas de 200 y 150 µm Tratamiento Ácido: Se uso HCl al 1M y urea para facilitar el rompimiento de los enlaces en un medio acido. Mezcle la muestra tamizada con la solución ácida somete a baño ultrasónico para homogenizar la muestra. Síntesis de Puntos Cuánticos (QD) Preparación y Proceso Hidrotermal: Disuelva la muestra preparada dentro de una autoclave. Ajuste las condiciones de temperatura cercanas a 200 °C y un tiempo de 12 h donde el medio facilitara la síntesis de QD, ya que la reacción hidrotermal para promover la formación de los puntos cuánticos. Filtrado al Vacío: Una vez completada la síntesis, transfiera la mezcla reactiva a un embudo de filtración equipado con un papel filtro. Realizando el filtrado al vacío para separar los sólidos de los QD suspendidos en el líquido. Variación de pH: Ajuste el pH de la solución filtrada utilizando una solución ácida o básica, según el protocolo de síntesis. Monitoree el pH con un medidor de pH y ajuste gradualmente hasta alcanzar el valor deseado, en este caso los valores trabajados fueron de 2, 4, 6, 9 y 12. Centrifugado: Transfiera la solución ajustada al pH a tubos de centrifugado y centrifugue a alta velocidad 4,000 rpm durante 5 minutos para sedimentar las partículas de mayor masa. Caracterización: las distintas soluciones se pasan a caracterizar, por análisis UV-Vis, FTIR y a observación bajo luz UV Impregnación de Telas       Para la impregnación de telas se evaluó la calidad de impregnación de los QD en una suspensión de alcohol y una impregnación de igual manera en alcohol, pero con QD/TiO2.      Las soluciones se pusieron en atomizadores, donde la aplicación se realizo a sobre las telas de nopal, denominadas Tc, Ta y Tga, y sobre telas comerciales, algodón y poliéster. Tras impregnar por spray se pasa a secar al horno durante una hora y se replica estos dos pasos 6 tiempos, al finalizar se caracterizan las muestras para evaluar las calidad de impregnación.


CONCLUSIONES

     Eficiencia de absorción en UV y cercano UV: Los puntos cuánticos (QD) demostraron una alta eficiencia en la absorción de luz en la región UV y cercana a UV gracias a sus enlaces C=C, los cuales permiten transiciones electrónicas favorables para absorber luz en estas longitudes de onda críticas. Esto los hace ideales para aplicaciones donde se requiere protección contra radiación UV y para la mejora de propiedades ópticas en textiles. La influencia del pH en las propiedades ópticas: La investigación reveló que el pH de la solución de QD afecta directamente la posición de las bandas de absorción de los QD bajo luz UV. Esto indica que, ajustando el pH, se puede modular específicamente la absorción de luz por los QD, permitiendo adaptar las propiedades ópticas de los textiles impregnados a diferentes necesidades de protección o estética.      En resumen, los puntos cuánticos muestran un gran potencial para ser implementados en textiles por impregnación debido a su capacidad para absorber eficientemente luz en regiones críticas del espectro electromagnético, su ajustabilidad mediante el control del pH, y su capacidad para mejorar propiedades visuales y de protección. La caracterización detallada de estos materiales y la optimización de procesos son clave para explorar su aplicación como una posible alternativa en textiles, aprovechando los resultados obtenidos hasta el momento. Por lo que se logró sintetizar QD a partir de residuos de Nopal, un avance que promete mejorar la sostenibilidad de regiones agrícolas abriendo nuevas fronteras al desarrollo de materiales. y los métodos de impregnación aplicados han integraron exitosamente los QD en los textiles, lo que posibilita fabricar textiles inteligentes con un mejorado factor de protección UV.
Muñoz Plascencia Alan David, Universidad de Guadalajara
Asesor: Dr. Jorge Enrique Clavijo Ramírez, Escuela Colombiana de Ingeniería Julio Garavito

LOCALIZACIóN DE MICROFISURAS EN MATERIALES FRáGILES A PARTIR DEL ANáLISIS DE SEñAL DE LAS EMISIONES ACúSTICAS DETECTADAS POR UN SOLO SENSOR.


LOCALIZACIóN DE MICROFISURAS EN MATERIALES FRáGILES A PARTIR DEL ANáLISIS DE SEñAL DE LAS EMISIONES ACúSTICAS DETECTADAS POR UN SOLO SENSOR.

Muñoz Plascencia Alan David, Universidad de Guadalajara. Asesor: Dr. Jorge Enrique Clavijo Ramírez, Escuela Colombiana de Ingeniería Julio Garavito



PLANTEAMIENTO DEL PROBLEMA

La localización de las microfisuras que ocurren en materiales frágiles  permite identificar las zonas donde con mayor probabilidad se desarrollarán las fracturas que conducirán al colapso. Esto es especialmente útil en ensayos bajo esfuerzos cíclicos realizados sobre diferentes tipos de estructuras y donde la iniciación del proceso de fracturamiento no se puede apreciar con el ojo desnudo. Las ondas mecánicas generadas por las micro-fisuras durante su generación y crecimiento, conocidas como emisiones acústicas, se pueden usar como método indirecto para su localización. Generalmente, la ubicación del origen de las emisiones se hace a través de la medición de los diferentes tiempos de llegada de las ondas a un conjunto de sensores, algo similar al proceso de ubicación del hipocentro de los sismos en la corteza terrestre. La localización así determinada requiere de un buen número de sensores, generalmente más de seis, ubicados en una región amplia de la superficie de la muestra. Sin embargo, en muchos casos existen limitantes económicos que impiden la compra de múltiples sensores (y sus licencias de software) y, quizás más importante, no siempre se tiene acceso a toda la superficie de la muestra, algo común en estructuras extensas. En este trabajo presentamos una propuesta de localización de la fuente de emisiones acústicas que usa un sólo sensor. Este método explota el hecho de que un solo sensor detectará tanto la onda directa como las ondas reflejadas en las fronteras de la estructura, la diferencia entre los tiempos de llegada de estos dos tipos de ondas dependerá de la ubicación relativa entre el sensor y el foco de la emisión, permitiendo así localizar el origen de la emisión. Debido a que la llegada de las ondas reflejadas usualmente queda apantallada por la onda directa (y su mayor amplitud), proponemos usar técnicas de aprendizaje automático para entrenar una red neuronal que asocie las formas de onda con el punto de origen de la emisión.



METODOLOGÍA

La propuesta se evaluará de manera sintética en una muestra de madera homogénea donde las emisiones se generarán mediante la prueba de HSU-Nielsen (prueba de la mina rota). Las emisiones serán detectadas por un sensor piezoeléctrico ubicado en un punto específico de la muestra, a una tasa de 5.0 MHz, amplificación de 60 dB y en un rango de 20 kHz a 500 kHz.   La prueba de HSU-Nielsen consiste en el rompimiento de una mina de grafito frágil (2H) de 0.7 mm de diámetro presionando la punta contra la superficie, de esta manera se genera una señal acústica muy similar a la de las fracturas internas en las estructuras. Este método es ampliamente usado para la calibración de sistemas transductores piezoeléctricos pues la señal obtenida se puede registrar con al menos 80 dB.    Como  muestra se usó una tabla de madera (paulownia) con dimensiones 1.00 m por 0.30 m por 0.05 m. Se escogió este material debido a su fácil maniobrabilidad y la baja atenuación que experimenta la onda durante su viaje al sensor.   El equipo de detección se configuró con un umbral de ruido de 40 dB y se garantizó que todos sus parámetros permitieran la detección de la onda directa y las reflejadas por encima del umbral de ruido.    Se implementaron dos arreglos experimentales Centro: Consiste en seccionar la muestra en un mallado de 6 por 12 dando lugar a 72 etiquetas de 5x5 cm por lado divididos en franjas horizontales etiquetadas desde A1 - A6 hasta L1 - L6 y el sensor se posiciona en una linea central y que divide de forma simétrica el área de propagación con izquierda y derecha y de este modo entrenar a la inteligencia artificial sobre materiales heterogéneos, se generarán 13 AE por cuadrante.   Esquina: Este arreglo consiste en el mallado de toda la madera en 9 áreas de un tamaño mayor que en el caso anterior siendo de 33.3 cm x 10 cm y ubicando el sensor en la esquina inferior izquierda a 2cm por lado de ella, la ventaja de este arreglo es que se rompe con la simetría del arreglo y se podría entrenar de forma más precisa el modelo IA y se generarán 30 AE por cuadrante Con el arreglo experimental seleccionado y con el programa configurado se procede a generar las emisiones acústicas por medio del método HSU-Nielsen descrito anteriormente, se generan archivos de cada onda en el cual se tiene 5120 datos de cada muestra con un promedio de 13 ondas por etiqueta lo que nos genera 66,560 datos por etiqueta siendo un gran dataset de estas se utilizaran 80% para entrenar, 10% para entrenar y 10% para validar el modelo  y se debe asegurar de catalogar todas las ondas según la zona donde se generó debido a que se utilizaran técnicas de aprendizaje supervisado y utilizar un balanceo accuraccy, también es importante ser cuidadoso con la ruptura de minas debido a que si estas saltan e impactan la madera en otra posición este golpe será registrado por el sensor.


CONCLUSIONES

Se proyecta que: En una muestra homogénea de madera se logre detectar el origen de una emisión acústica a partir de la forma de onda generada por un solo sensor ubicado en un punto fijo sobre la muestra.   La red neuronal entrenada a partir de las formas de onda generadas por la prueba de la mina rota tenga la capacidad de asociar dicha forma de onda con su punto de origen.   Se explore la posibilidad de escalar este trabajo a muestras de interés en ensayos de diversas estructuras de Ingeniería Civil como lo son entrenar el algoritmo en una estructura con alta componente tridimensional, así como en materiales muy heterogéneos como es el caso del concreto reforzado.   La evaluación de los modelos de redes neuronales simple y convolusional para utilizar el modelo que entregue los mejores resultados en la localización de las AE.  
Murillo Camarena Cristian Eduardo, Universidad de Guadalajara
Asesor: Dra. Claudia Moreno González, Universidad de Guadalajara

SIMULACIóN DE ONDAS GRAVITACIONALES PRODUCIDAS POR COLAPSO DE NúCLEO DE SUPERNOVA USANDO EL SOFTWARE DE PYCBC


SIMULACIóN DE ONDAS GRAVITACIONALES PRODUCIDAS POR COLAPSO DE NúCLEO DE SUPERNOVA USANDO EL SOFTWARE DE PYCBC

Gutierrez Rodriguez Oscar Excell, Universidad Autónoma de Baja California. Murillo Camarena Cristian Eduardo, Universidad de Guadalajara. Asesor: Dra. Claudia Moreno González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La relatividad general, postulada por Einstein, es fundamental para entender fenómenos astrofísicos como las ondas gravitacionales generadas por eventos cósmicos violentos, como las supernovas. Sin embargo, la detección de ondas gravitacionales de supernovas es un desafío significativo debido a su naturaleza estocástica y las complejidades asociadas con el colapso del núcleo estelar. Las supernovas son explosiones estelares extremadamente poderosas que pueden manifestarse de forma muy notable en el espacio, ocurriendo durante las últimas etapas evolutivas de las estrellas masivas. Estas explosiones no solo liberan una inmensa cantidad de energía, (aproximadamente (10^{51}) ergs), sino que también juegan un papel esencial en la distribución de elementos pesados en el universo, contribuyendo a la formación de nuevas estrellas y sistemas planetarios. Estudiar las supernovas es importante porque nos ayuda a comprender mejor los procesos de evolución estelar. Las ondas gravitacionales producidas por el colapso del núcleo de una supernova llevan información única sobre la dinámica interna del colapso. En la actualidad, se han realizado diversas simulaciones de cómo se generan las ondas gravitacionales en supernovas; sin embargo, existen muchas limitaciones. Cuando el núcleo colapsa, se involucra una gran cantidad de procesos físicos complejos, lo que causa variabilidad en los resultados. Además, las simulaciones numéricas requieren una gran cantidad de recursos computacionales. Las condiciones iniciales para las simulaciones, como la composición y estructura del núcleo estelar previo al colapso, pueden variar significativamente entre diferentes estrellas. A pesar de estas limitaciones, las simulaciones siguen siendo una herramienta esencial en el estudio de las ondas gravitacionales de supernovas, un ejemplo es usando señales de memoria, las cuales presentan una caracteristica particular de las ondas gravitacionales de colapso del nucleo de una supernova. Debido a que aún no han sido detectadas, proporcionan un marco para entender los posibles escenarios y guiar la interpretación hacia los futuros datos.



METODOLOGÍA

Para abordar el problema, se realizó una introducción exhaustiva a los fundamentos de la relatividad general, cubriendo temas clave como tensores, métricas, formas diferenciales, conceptos de curvatura, símbolos de Christoffel y geodésicas. Este estudio proporcionó una base sólida para el análisis posterior. Posteriormente, se exploró el tema de la gravitación. Se definió el tensor de energía-momento y se derivaron las ecuaciones correspondientes al tensor de Einstein. Además, se examinó el impacto de la constante cosmológica y se obtuvo la métrica de Schwarzschild. Este análisis incluyó el estudio del teorema de Birkhoff y conceptos clave relacionados con los agujeros negros, aplicando la métrica de Schwarzschild para entender los conos de luz en estas configuraciones. Para completar esta fase, se desarrolló una comprensión de la teoría linealizada de las ecuaciones de Einstein. El siguiente paso fue centrarse en la obtención y comprensión de la ecuación de onda y las polarizaciones características de las ondas gravitacionales. Se revisaron los conceptos fundamentales de la ecuación de onda y se estudió la derivación de esta ecuación a partir de las ecuaciones de Einstein en el régimen linealizado. Además, se realizó una discusión teórica sobre las polarizaciones fundamentales de las ondas gravitacionales. El proyecto avanzó hacia el aprendizaje y uso de Python para modelar ondas gravitacionales utilizando la biblioteca PyCBC. Se analizaron detalladamente los códigos de ejemplo disponibles en la página de PyCBC para entender la función e importancia de cada componente. Este análisis incluyó el estudio de técnicas avanzadas para el análisis de ondas gravitacionales. Posteriormente, se discutieron los aspectos físicos que definen la emisión de ondas gravitacionales producidas por colapsos de supernovas. Este estudio se realizó mediante lecturas introductorias que permitieron entender los mecanismos detrás de la generación de ondas gravitacionales en estos eventos catastróficos.  Finalmente, se diseñó un código en Python para estudiar la señal de memoria asociada a una señal de supernova de colapso del núcleo. Primero, se importaron las librerías necesarias para la manipulación de datos, visualización y creación de señales, así como para la instalación de librerías específicas como pycbc y ligo-common. Generamos dos señales de memoria utilizando funciones coseno con un desfase y una amplitud fija. Estas señales simulan la señal de memoria de las ondas gravitacionales. Luego, generamos componentes de ruido utilizando distribuciones normales con desviación estándar y media específicas. Posteriormente, combinamos las señales de memoria con el ruido para producir señales ruidosas. Aplicamos un ``relleno' (padding) de ceros y unos, así como un padding adicional de ruido, para extender la señal ruidosa con datos aleatorios. Finalmente, usando correlación cruzada (cross-correlation) determinamos la presencia de la señal de memoria en los datos ruidosos. La presencia de un pico en estos gráficos indica que hay una fuerte similitud o repetitividad en la señal, lo cual es una indicación de que la señal de memoria está presente en los datos ruidosos.


CONCLUSIONES

Durante esta estancia de verano, se logró un entendimiento profundo de la relatividad general y la gravitación, así como la habilidad para modelar y detectar ondas gravitacionales utilizando herramientas computacionales. El desarrollo del código para simular y detectar ondas gravitacionales producidas por supernovas marca un avance significativo en la investigación astrofísica. Se espera que estos resultados contribuyan a mejorar las técnicas de detección y comprensión de estos eventos cósmicos, abriendo nuevas posibilidades para futuras investigaciones en el campo de la astrofísica y la cosmología.   
Murillo Guevara Laura, Universidad Autónoma de Occidente
Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América

CARACTERIZACIÓN DE ACEITE DE PIRÓLISIS DE RESIDUOS PLÁSTICOS DE UNA SÓLO USO


CARACTERIZACIÓN DE ACEITE DE PIRÓLISIS DE RESIDUOS PLÁSTICOS DE UNA SÓLO USO

Galvis Zarabanda Evelyn Daiana, Universidad Autónoma de Occidente. Mora Sinisterra Sofia, Universidad Autónoma de Occidente. Murillo Guevara Laura, Universidad Autónoma de Occidente. Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Los residuos plásticos representan una gran problemática a nivel mundial. Debido al acogimiento que ha tenido este material en la sociedad por sus ventajas como lo es la flexibilidad, lo fácilmente moldeables y lo económico que son. Entre estos, los plásticos de un solo uso son particularmente problemáticos debido a su corta vida útil y alta generación de residuos. El consumo de plástico se ha multiplicado por veinte desde la década de 1950 y se espera que alcance los 720 millones de toneladas en los próximos 20 años (Estrategia. GmbH, 2020). como medidas de apoyo la problemática se han establecido los principales objetivos para el diseño, la fabricación, el uso, la reutilización y la gestión de fin de vida útil del plástico para 2030 (Comisión Europea, 2018). Por lo anterior, existen numerosos métodos para el reciclaje de residuos plásticos que incluyen métodos como la despolimerización (recuperación de materia prima química), la gasificación por arco de plasma y la pirólisis.



METODOLOGÍA

  2. Metodoogia  2.1 Selección del material y preparación del material   Seleccionar el tipo de plástico que se va a usar, teniendo presente que no todos los plásticos tienen la misma composición  como lo es el PP y el LPED entre otros. Se ha asegurado la limpieza de estos. Cuando se está listo se pasa por el proceso de trituración o molienda, lo que provoca que se aumente la superficie de reacción y mejorar la eficiencia del proceso. 2.2 Condiciones de proceso y Configuración del Pirolizador  Organizar y hacer un uso de un pirolizador adecuado. Establecer una temperatura de pirólisis adecuada en la que oscila entre los 300 y 600 °C, hacer un monitoreo de la tasa de calentamiento esto se debe de hacer por que puede influir en la composición del producto obtenido, determinar el tiempo en el que el material permanezca en el pirolizador, para poder completar la pirólisis. El calor rompe las cadenas de polímeros en monómeros y otros fragmentos más pequeños el cual se presenta con la ausencia de oxígeno para evitar la combustión y maximizar la conversión de los plásticos.   2.3 Recolección del producto   La recolección de los productos líquidos es una de las fases más importantes de la pirólisis, en el cual se usa un  sistema de condensación eficiente para capturar los vapores producidos durante la pirólisis, gracias a la condensación se obtiene el aceite. La etapa de condensación consta de diferentes etapas para enfriar y separar los vapore, en el que se manejan temperaturas  entre los 30 °C y 60 °C; hay diferentes métodos según los artículos buscados. Se debe de aclarar que presenta características diferentes como el Aceite ligero o Aceite pesado, Para la obtención del diesel por medio del aceite se presenta el proceso de destilación, en el que el aceite refinado en diferentes fracciones se lleva a un punto de ebullición. La separación permite llegar a un combustible semejante a él diesel; para que se cumpla con las especificaciones del diesel se deben de presentar ajustes en los que se incluyen aditivos, control de viscosidad y densidad. 2.4 Pruebas Con la recolección del diesel, se hacen pruebas de eficiencia y motores en las cuales se evalúa la calidad del combustible, donde se analiza la composición química de los productos, los residuos que genera y la energía que produce.  


CONCLUSIONES

La pirólisis de plásticos LDPE y PP  representa una solución viable y sostenible para la gestión de residuos plásticos en Latinoamérica. A medida que la región enfrenta crecientes desafíos ambientales, esta tecnología ofrece una oportunidad para transformar los desechos plásticos en recursos valiosos, mitigando la contaminación y promoviendo el desarrollo sostenible. Sin embargo, es necesario superar varios obstáculos para su implementación efectiva, incluyendo la inversión en investigaciones, infraestructura y desarrollo de políticas de apoyo. La pirólisis no solo ofrece una alternativa para la reducción de residuos plásticos, sino que también contribuye a una economía circular al reutilizar materiales que de otro modo serían desechados. Sin embargo, la implementación a gran escala enfrenta desafíos significativos, como la necesidad de mejorar la infraestructura, superar barreras legislativas y desarrollar mercados para los productos generados. Las investigaciones subrayan que la pirólisis catalítica es eficaz para convertir varios tipos de plásticos, incluyendo polipropileno, poliestireno y polietileno, en combustibles líquidos con propiedades comparables a las de los combustibles fósiles. Además, la utilización de modelos matemáticos y herramientas como Aspen Plus para optimizar el proceso permite aumentar tanto el rendimiento como la calidad de los productos obtenidos.  
Nava Gutiérrez Samuel Yael, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. María Azucena Arellano Avelar, Universidad de Guadalajara

IDENTIFICACIóN Y APLICACIóN DE MéTODOS UTILIZADOS PARA EL MONITOREO AMBIENTAL: UN ABORDAJE HOLíSTICO EN AMBIENTES IN VITRO E IN SITU.


IDENTIFICACIóN Y APLICACIóN DE MéTODOS UTILIZADOS PARA EL MONITOREO AMBIENTAL: UN ABORDAJE HOLíSTICO EN AMBIENTES IN VITRO E IN SITU.

Colmenares Padilla Anahí, Benemérita Universidad Autónoma de Puebla. Nava Gutiérrez Samuel Yael, Benemérita Universidad Autónoma de Puebla. Serrano García Melissa, Instituto Tecnológico Metropolitano. Asesor: Dra. María Azucena Arellano Avelar, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Tras la necesidad de comprender y evaluar el cumplimiento de la normativa ambiental ha propiciado el desarrollo del monitoreo ambiental como una herramienta esencial. Esta permite el seguimiento continuo de las actividades, obras y proyectos implementados, facilitando la identificación de sus impactos. El objetivo es adoptar acciones correctivas o de mitigación que promuevan el uso racional de los recursos naturales, así como la conservación y protección del medio ambiente. De este modo, se asegura que las actividades humanas puedan continuar de manera sostenible, garantizando a las futuras generaciones una calidad de vida adecuada para su desarrollo (Hernández et al., 2018) Los gobiernos de todo el mundo comienzan a implementar estrictas normativas ambientales para asegurar el desarrollo sostenible. En el estado de Jalisco, México, las instituciones gubernamentales han establecido un marco normativo riguroso que exige a las organizaciones cumplir con diversas regulaciones ambientales. Estas normativas buscan minimizar el impacto ambiental negativo y garantizar una óptima calidad del agua, suelo y aire. Se propone describir el monitoreo ambiental como una herramienta clave para el seguimiento previsto en la evaluación de impacto ambiental dentro del contexto del Centro Universitario de Tonalá (UDG) y el Río Santiago (Guadalajara, Jalisco). La importancia de este trabajo radica en la necesidad de contar con métodos de monitoreo ambiental precisos y confiables que permitan no solo cumplir con las normativas vigentes, sino también contribuir de manera efectiva al desarrollo sostenible y a la protección del entorno natural.  



METODOLOGÍA

Se desarrollaron técnicas de muestreo en agua, aire y ruido con un enfoque científico en base a las Normas Oficiales Mexicanas (NOM) y las metodologías encontradas en las Normas Mexicanas (NMX). Para el caso de las muestras de aire y ruido, fueron realizadas en puntos de mayor demanda y ubicación de las Zonas Críticas (ZC, de acuerdo con la NOM-011-STPS-2001) ubicados en el Centro Universitario de Tonalá (CUT) perteneciente a la Universidad de Guadalajara (UDG). Para el uso del método de muestreo de referencia de aire se utilizó un Sonómetro modelo CESVA CS260, del cual partimos en la localización de las ZC del CUT, y del instrumento utilizado para el control del aire fue un Monitor de Calidad de Aire modelo Temtop M2000, haciendo un monitoreo de 5 zonas en total. Para obtener muestras en cuerpos de agua, se utilizó el método de muestreo telescópico, una técnica eficaz para recolectar muestras en lugares de difícil acceso o a diversas profundidades. Este método emplea un muestreador telescópico, que es un polo extensible con un recipiente en su extremo. El operador, desde un lugar seguro como la orilla o un puente, extiende el muestreador hasta la profundidad deseada y activa el mecanismo de recolección mediante un gatillo o un sistema de bombeo. Luego, se retira cuidadosamente el muestreador para evitar la contaminación y se transfiere la muestra a un recipiente etiquetado (Scharlab, 2021).


CONCLUSIONES

Este estudio ha logrado abordar de manera integral los objetivos planteados, proporcionando una visión holística del monitoreo ambiental tanto en ambientes controlados (in vitro) como naturales (in situ). En cuanto a la contaminación acústica, se identificaron variaciones significativas en los niveles de ruido entre los puntos de medición, con el punto P1 presentando los niveles más altos (Leq de 73.1 dB y máximo de 84.1 dB). Estos hallazgos sugieren la necesidad de implementar medidas de mitigación del ruido, especialmente en las áreas más afectadas. El análisis del Río Santiago reveló condiciones preocupantes para la vida acuática. El bajo nivel de oxígeno disuelto (tanto en porcentaje de saturación como en mg/L) y el alto valor de conductividad (1331 µS/cm) indican posible contaminación orgánica y presencia elevada de sales disueltas. Además, el potencial de oxidación-reducción negativo (-310.6 mV) sugiere condiciones reductoras que podrían estar asociadas con la descomposición de materia orgánica. La presencia confirmada de coliformes mediante la técnica de NMP refuerza la preocupación sobre la calidad microbiológica del agua. Por otro lado, la evaluación del biorreactor de digestión anaerobia demostró un proceso eficiente, alcanzando una producción máxima de biogás de 1277 unidades en aproximadamente 41 horas. Este resultado es prometedor para la optimización de procesos de tratamiento de aguas residuales y producción de energía renovable. En conjunto, estos hallazgos subrayan la importancia de un enfoque multidisciplinario en el monitoreo ambiental. La combinación de métodos in vitro e in situ ha permitido una evaluación comprensiva de diversos parámetros ambientales, desde la calidad del aire y el agua hasta la producción de biogás en condiciones controladas.  
Noguera Rodríguez Ana Karina, Universidad de Caldas
Asesor: Dr. Gilbert Francisco Torres Morales, Universidad Veracruzana

ESTUDIO DE UN SISMO DE MAGNITUD 6.5 EN RISARALDA Y CALDAS, COLOMBIA, UTILIZANDO DATOS DE DIEZ ESTACIONES SíSMICAS. ANáLISIS Y ELABORACIóN DE MAPAS DE INTENSIDADES, FRECUENCIAS, PERIODOS Y AMPLITUDES.


ESTUDIO DE UN SISMO DE MAGNITUD 6.5 EN RISARALDA Y CALDAS, COLOMBIA, UTILIZANDO DATOS DE DIEZ ESTACIONES SíSMICAS. ANáLISIS Y ELABORACIóN DE MAPAS DE INTENSIDADES, FRECUENCIAS, PERIODOS Y AMPLITUDES.

Noguera Rodríguez Ana Karina, Universidad de Caldas. Asesor: Dr. Gilbert Francisco Torres Morales, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

Los mapas de intensidades sísmicas y características dinámicas de los suelos son una herramienta importante para la planificación urbana, el diseño estructural y la gestión de emergencias lo que hace crucial el desarrollo de estas herramientas para el desarrollo sostenible de una región. Los departamentos de Caldas y Risaralda se encuentran en una región con una significativa actividad sísmica debido al vulcanismo de la región, la subducción entre las placas nazca y pacífica registrada en la costa de la misma región y en una zona de fallas de tipo regional, asociadas a respuesta de la zona de Benioff; lo cual representa un riesgo considerable para sus habitantes y su infraestructura. Un análisis detallado de los espectros de respuesta obtenidos, a partir de los registros proporcionados por el Servicio Geológico Colombiano (SGC), es de gran utilidad para comprender mejor la distribución espacial del movimiento sísmico y la respuesta dinámica de las estructuras en diferentes ubicaciones.



METODOLOGÍA

Como recuento histórico la zona cafetera está evaluada como una zona de peligro moderado con respecto a su intensidad máxima, la intensidad sísmica esperada es de fuerte a muy fuerte y en algunos sectores del suroccidente pueden llegar a ser severos, su zona de amenaza sísmica según el NSR 10 es alta e incluso intermedia en muy pocas zonas del nororiente. A partir de los datos de aceleración sismológicos proporcionados por el SGC, y la ayuda de softwares como: Degtra de la Universidad Nacional Autónoma de México y Geopsy; se lograron graficar espectros de respuesta, Nakamura (H/V) y Fourier para el análisis sísmico de la región.  La ubicación geográfica a trabajar son los departamentos de Caldas y Risaralda, en la región andina al centro-occidente de Colombia, con un sismo con identificador 19950819214333, su localización entre los límites de Caldas y Risaralda con fecha 1995-08-19 y hora (UTC) 21:43:33, latitud 5.133°, longitud -75.713° y profundidad 120.9 Km. Su magnitud fue de 6.5 en la escala de Richter registrado en 10 estaciones sísmicas del SGC distribuidas en puntos estratégicos. Dichos datos se obtuvieron con acceso libre en la página del SGC. Se trabajó con los 3 componentes en aceleración de cada una de las estaciones, como lo son Este-Oeste (EW), Norte-Sur (NS) y Vertical (VER), aunque, las gráficas sísmicas se obtuvieron de los dos softwares, los espectros de Fourier y de respuesta se trabajaron con Degtra 2007 y los análisis de Nakamura (H/V) con el software Geopsy para una mayor precisión. La elaboración de los mapas se ejecutó en el software QGis versión 3.34, con los límites departamentales de Colombia suministrado por el Instituto Geográfico Agustín Codazzi (IGAC), así mismo se hizo uso de Google maps para la ubicación de las estaciones sísmicas. Los datos trabajados fueron los picos con mayor relevancia registrados en los espectros de Nakamura o también conocidos como H/V, estos se separan en Periodos, Amplitudes y Frecuencias de las ondas registradas en cada estación. La elaboración de los mapas evidencia una concentración de valores cerca del epicentro del sismo el cual está representado con una estrella roja, los periodos cortos indican un tipo de suelo más duro con características de roca mayor a las de sedimentos.  Los datos en aceleraciones máximas obtenidos de los espectros de respuesta corroboran el análisis que antes se mencionó anteriormente, los valores se intensifican en las estaciones sísmicas cerca del epicentro y disminuyen en las estaciones más alejadas del mismo.  Aceleraciones máximas de los espectros sísmicos Estación      EW    VER   NS Andes            66       40    54,4 Anserma        79,8   19,2   109 Bogotá           2,56   0,758   1,4 Floridablanca  3,42   1,67   2,35 Embalse de Betania   2,29  2,92  3,18 Málaga            9,58    4,28   10,5 Playas              43,6    27,8   50,8 Solano               3,2    3,66    3,66 Tado                  6,76   6,58   9,15 Tutunendo          7,09   8,45   11,4 Tabla 1: Registros de aceleración máxima de los espectros sísmicos para cada estación y sus tres componentes.


CONCLUSIONES

Los datos libres de aceleración que permiten adquirir el SGC son de gran importancia ya que se logra hacer diferentes estudios y análisis, en conjunto con los softwares en este caso Degtra 2007 y Geopsy.  Los resultados muestran que los datos no tienen efectos de sitio debido a su pequeño rango de valores. Así mismo los valores tanto de Frecuencia, Periodo y amplitud aumentan al acercarse al epicentro y disminuyen cuando se alejan del mismo. Las estaciones que registraron el sismo se encuentran en terreno firme o rocoso.
Nolazco Lopez Alejandra Aracely, Universidad Autónoma de Occidente
Asesor: Dr. Jeován Alberto Ávila Díaz, Universidad Autónoma de Occidente

EVALUACIÓN DE LA EFICIENCIA DE TECNICAS BIOLOGICAS DE REMEDIACIÓN EN SUELOS CONTAMINADOS ARTIFICIALMENTE POR HIDROCARBUROS TOTALES DE PETROLEO EN BASE A LA NOM138-SEMARNAT/SSA1-2012


EVALUACIÓN DE LA EFICIENCIA DE TECNICAS BIOLOGICAS DE REMEDIACIÓN EN SUELOS CONTAMINADOS ARTIFICIALMENTE POR HIDROCARBUROS TOTALES DE PETROLEO EN BASE A LA NOM138-SEMARNAT/SSA1-2012

Galaviz Pinto Ana Dhaly, Universidad Autónoma de Occidente. Nolazco Lopez Alejandra Aracely, Universidad Autónoma de Occidente. Asesor: Dr. Jeován Alberto Ávila Díaz, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La contaminación del suelo por hidrocarburos en Sinaloa, resultante de la actividad industrial y petrolera, representa un problema crítico tanto para el medio ambiente como para la salud pública. Esta contaminación es particularmente alarmante en una región donde la agricultura es una pieza fundamental de la economía estatal, poniendo en riesgo la producción agrícola y, por ende, la seguridad alimentaria y los ingresos de los agricultores locales. Las técnicas tradicionales de remediación de suelos contaminados, aunque efectivas, suelen ser costosas y disruptivas para el ecosistema. En contraste, las técnicas biológicas de remediación, como la bioestimulación y el bioventeo, ofrecen una alternativa más económica y ecológica, promoviendo la degradación de hidrocarburos a través de la optimización de la actividad microbiana del suelo. Sin embargo, la eficacia de estas técnicas puede verse influenciada significativamente por la textura del suelo y otros factores ambientales. En este contexto, nuestra investigación se enfoca en evaluar la eficiencia de la bioestimulación y el bioventeo en suelos contaminados artificialmente con hidrocarburos de fracción pesada (HTP) en Sinaloa. Se propone el uso del bocashi, un abono orgánico, como componente clave para la bioestimulación, complementado con la aplicación manual de bioventeo. Además, se diseñará una solución nutritiva específica para maximizar la actividad microbiana y, por ende, la eficiencia de la biorremediación. El objetivo principal es cumplir con los límites de contaminación establecidos en la norma NOM-138-SEMARNAT/SS-2012 para suelos agrícolas, garantizando que el suelo tratado no represente riesgos para la salud ni para el medio ambiente, y evitando la necesidad de fases adicionales de validación con plantas.



METODOLOGÍA

Se llevó a cabo un estudio experimental para evaluar la efectividad de diferentes tratamientos de biorremediación en suelos contaminados con hidrocarburos en Sinaloa. Dos muestras de suelo, una de San José, Ahome, y otra de la Universidad Autónoma de Occidente (UAdeO), fueron recolectadas y caracterizadas. Cada muestra pesaba 20 kg y fue utilizada para establecer 20 unidades experimentales de 2 kg de suelo cada una. Las unidades experimentales se colocaron en bolsas de polietileno y se contaminaron artificialmente con hidrocarburos de fracción pesada (HTP) obtenidos del taller mecánico de la UAdeO. La contaminación se realizó para triplicar el límite máximo permisible establecido en la norma NOM-138-SEMARNAT-2012, que es de 3000 mg/kg. Las unidades no contaminadas sirvieron como control y para realizar la caracterización inicial del suelo. Para la caracterización del suelo, se realizó una prueba de textura utilizando el método de Bouyoucos, según la NOM-021-RECNAT-2000. Se pesaron 75 g de suelo y se mezclaron con agua y hexametafosfato, luego se agitaron y se dejaron sedimentar para medir las partículas en suspensión con un hidrómetro. Además, se midió el pH y la conductividad eléctrica de las muestras de suelo, utilizando un medidor de pH calibrado con soluciones reguladoras y siguiendo el método descrito en la misma norma. Se diseñaron seis tratamientos diferentes para evaluar la eficacia de la biorremediación: Tratamiento 1: Bioestimulación y Bioventeo: Aplicación mensual de una solución nutritiva y bioventeo manual semanal. Tratamiento 2: Técnicas Biológicas con Abono Orgánico: Bioestimulación, bioventeo y una única aplicación de abono orgánico (bocashi). Tratamiento 3: Variación del Nutriente: Uso de abono orgánico (bocashi) en lugar de solución nutritiva, manteniendo la misma frecuencia de riego y bioventeo. Tratamiento 4: Bioestimulación con Abono Orgánico: Aplicación única de bocashi y riego periódico, sin aireación del suelo. Tratamiento 5: Bioestimulación con Solución Nutritiva y Riego Periódico: Aplicación de solución nutritiva cada dos semanas, sin aireación del suelo. Tratamiento 6: Suelo Testigo: No recibió ningún tratamiento y sirvió como control. El análisis de los hidrocarburos en el suelo se realizó mediante el método de reflujo con equipo Soxhlet, utilizando hexano como disolvente. El equipo rotoevaporador se empleó para extraer los hidrocarburos y llevar el material a sequedad, recuperando el disolvente. Para determinar la materia orgánica, se utilizó el método AS-07 de Walkley y Black. Esto incluyó la titulación con sulfato ferroso tras una reacción con dicromato de potasio y ácido sulfúrico.


CONCLUSIONES

Los resultados revelan que la estructura del suelo es crucial para la efectividad de los tratamientos de biorremediación. Los suelos arenosos, como el de San José, permiten una remediación más rápida debido a su mayor permeabilidad, facilitando la acción de los microorganismos. En cambio, los suelos franco-arcillosos, como el de UAdeO, tienen una estructura más compacta que dificulta la infiltración de agua y aire, requiriendo más tiempo y estrategias adicionales para la remediación. Resultados específicos: Suelo de San José: Alta efectividad con remociones de HTP superiores al 95%. El tratamiento T4 destacó con una remoción promedio del 99.22%, cumpliendo los límites permisibles. Suelo de UAdeO: Después de un mes adicional, se alcanzaron los límites permisibles de HTP. El análisis ANOVA no mostró diferencias significativas entre las técnicas de remoción. El pH alcalino favoreció la actividad microbiana, crucial para la degradación de HTP. La conductividad eléctrica y la materia orgánica mostraron variabilidad entre tratamientos, afectando la movilidad de contaminantes y la disponibilidad de nutrientes. Estos hallazgos subrayan la importancia de ajustar los parámetros ambientales durante la biorremediación según las características del suelo para optimizar la efectividad y asegurar una recuperación ambiental sostenible.
Nova Guinchin Juan Felipe, Universidad de Caldas
Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México

ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO Y SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS


ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO Y SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS

Amezcua Hernández Daniela, Universidad Autónoma de Baja California. Castro Gonzalez Yuliana Estefanía, Universidad de Sonora. Ku Nah Mariana, Universidad Autónoma de Baja California. Nova Guinchin Juan Felipe, Universidad de Caldas. Velasquez Salinas Mildreth Mariam, Universidad de Sonora. Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La migración magmática durante el Cretácico tardío-Eoceno, en relación con la subducción de la placa oceánica Farallón bajo la placa norteamericana, es un proceso geológico complejo que aún no se comprende completamente. Esta subducción ha generado magmas que, al ascender, se contaminan con los basamentos precámbricos antiguos presentes en el noroeste de México (Baja California, Sonora y Chihuahua) y el suroeste de Estados Unidos (California, Arizona y Nuevo México). Entender este fenómeno es crucial para reconstruir la evolución tectónica y magmática de estas regiones, ya que la interacción entre los magmas y los basamentos antiguos afecta significativamente la composición final de los magmas, influenciando la formación de minerales y la geología regional. Sin embargo, la caracterización detallada de estos procesos y sus implicaciones geológicas no ha sido completamente documentada. Durante la estancia de verano de investigación, se busca abordar este problema mediante una serie de actividades centradas en la recolección y análisis de muestras geológicas, así como en la capacitación en técnicas avanzadas de geoquímica y geocronología. Estos esfuerzos están dirigidos a proporcionar una comprensión más profunda de cómo la subducción y la contaminación magmática han moldeado la estructura geológica del noroeste de México y el suroeste de Estados Unidos, contribuyendo así a un mayor conocimiento de los procesos tectónicos y magmáticos globales.



METODOLOGÍA

Durante la estancia de verano, se han llevado a cabo diversas actividades enfocadas en la separación mineral para determinar la evaluación de la migración magmática y la contaminación de magmas con basamentos precámbricos. Las principales actividades incluyen: Organización y manejo de muestras: Se ha realizado el inventariado y almacenamiento de muestras geológicas, asegurando una correcta catalogación y preservación de cada muestra para su posterior análisis. Preparación de secciones delgadas: Se han preparado secciones delgadas de rocas plutónicas, permitiendo la observación detallada de las texturas y composiciones minerales mediante técnicas de microscopía. Capacitación en separación mineral: Los estudiantes han recibido entrenamiento en técnicas de separación mineral, esenciales para estudios geocronológicos específicos como U-Pb y Ar-Ar. Este conocimiento es crucial para determinar las edades de cristalización y eventos térmicos de las rocas estudiadas. Preparación de muestras: Las muestras previamente recolectadas se han pulverizado, tamizado, etiquetado y almacenado adecuadamente para su análisis geoquímico. Caracterización de circones: Utilizando métodos de microscopía óptica y electrónica (SEM), se han caracterizad circones, lo cual es fundamental para entender los procesos de cristalización y evolución magmática de las rocas. Seminarios semanales: Se han llevado a cabo seminarios semanales en los que se discuten diversas temáticas relacionadas con el proyecto. Estos seminarios incluyen presentaciones de doctores del instituto, estas ayudan a fomentar el intercambio de conocimientos y el desarrollo de habilidades de comunicación científica. Ablación de zircones: Se han llevado a cabo procesos de ablación láser de zircones para análisis de geoquímica isotópica. Esta técnica permite la medición precisa de las concentraciones de elementos traza y las relaciones isotópicas, proporcionando información crucial sobre la edad de las rocas.


CONCLUSIONES

Hasta el momento, las actividades han permitido una mejor comprensión de los procesos de migración magmática y la interacción de los magmas con los basamentos precámbricos. Se espera que los resultados finales contribuyan significativamente a la geocronología y geoquímica regional, proporcionando datos valiosos para futuros estudios tectónicos y magmáticos. Estos hallazgos podrían ofrecer nuevas perspectivas sobre la evolución geológica de la región y ayudar a resolver preguntas clave sobre la dinámica de subducción y la formación de magmas contaminados.
Nuño Rodríguez Jimena Carolina, Universidad Autónoma de Baja California
Asesor: Dr. Eduardo Ortiz Rascón, Universidad de Sonora

TERAPIA FOTOTéRMICA PLASMóNICA MEDIANTE HACES CONVERGENTES EN MANIQUíES óPTICOS EN NORMOTERMIA.


TERAPIA FOTOTéRMICA PLASMóNICA MEDIANTE HACES CONVERGENTES EN MANIQUíES óPTICOS EN NORMOTERMIA.

Nuño Rodríguez Jimena Carolina, Universidad Autónoma de Baja California. Asesor: Dr. Eduardo Ortiz Rascón, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El proyecto "Terapia fototérmica mediante haces convergentes en maniquíes ópticos en normotermia" tiene como objetivo principal evaluar el comportamiento térmico y la distribución del calor focalizado, simulando las condiciones normales del cuerpo humano. Entender esta distribución del calor en el modelo permite optimizar los parámetros de la terapia fototérmica plasmónica, mejorando su eficiencia, eficacia y seguridad para futuras aplicaciones clínicas. El estudio presenta resultados sobre la síntesis y caracterización de nano-cascarones de oro y plata y su uso en terapia fototérmica plasmónica (PPTT) utilizando un arreglo de iluminación con haces convergentes (estereotácticos).



METODOLOGÍA

Este proyecto se basa en datos cuantitativos y un enfoque experimental. Se evaluó la distribución del calor focalizado generado por la irradiación de láseres de 808 nm, junto con la utilización de nanopartículas de oro y plata, sobre un maniquí óptico que simula las propiedades del tejido biológico humano. El maniquí se mantiene a una temperatura corporal promedio de 37°C (normotermia). Se empleó un arreglo estereotáctico para reducir la irradiancia superficial y optimizar el calentamiento en la región de interés. Se analizaron las curvas de calentamiento resultantes de la iluminación estereotáctica a diferentes profundidades en el maniquí óptico.


CONCLUSIONES

Los resultados proporcionan una comprensión detallada y cuantitativa de la distribución del calor generado por los nano-cascarones de oro y plata bajo irradiación en un maniquí óptico que simula las propiedades térmicas y ópticas del cuerpo humano en normotermia. La investigación muestra el comportamiento térmico de las nanopartículas y cómo el calor se distribuye a diferentes profundidades del tejido simulado. Las curvas de calentamiento analizadas permiten evaluar la eficacia del método estereotáctico para el calentamiento en diferentes profundidades. Además, se exploran las posibilidades de trasladar el uso de estos nano-cascarones de oro y plata a la terapia fototérmica plasmónica (PPTT) en aplicaciones médicas.
Obando Rios Madison, Instituto Tecnológico Metropolitano
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

MORTERO CON FIBRAS DE NOPAL Y MUCILAGO DE NOPAL PARA MEJORAR RESISTENCIA DE COMPRESIóN Y DISMINUCIóN EN LA ABSORCIóN


MORTERO CON FIBRAS DE NOPAL Y MUCILAGO DE NOPAL PARA MEJORAR RESISTENCIA DE COMPRESIóN Y DISMINUCIóN EN LA ABSORCIóN

Cordoba Sanchez Yurany Andrea, Instituto Tecnológico Metropolitano. Obando Rios Madison, Instituto Tecnológico Metropolitano. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

Actualmente, se están utilizando cada vez más materiales sostenibles en la construcción para reducir la contaminación y aprovechar los recursos naturales disponibles. Esta tendencia busca minimizar el impacto ambiental y promover prácticas de construcción más ecológicas. Además, se sabe que materiales como los impermeabilizantes tradicionales son altamente contaminantes y perjudiciales para la salud humana, lo que impulsa la búsqueda de alternativas más seguras y sostenibles. La adopción de materiales sostenibles no solo contribuye a la protección del medio ambiente, sino que también mejora la calidad de vida de las personas al reducir la exposición a sustancias tóxicas.



METODOLOGÍA

Metodología Materiales, Equipos y Herramientas Se utilizaron los siguientes materiales para la preparación de las muestras de mortero: Cemento Arena Cal Agua Mucílago de nopal Nopal Madera Palustres Cortadora Prensa Hidráulica Tara Recipientes   Procedimiento: Preparación de Formaletas: -  Marcado de madera 10x10cm - corte de la madera - Se fabricaron manualmente formaletas de 10x10 cm utilizando madera reciclada. -   Extracción del Mucílago de Nopal Corte de nopal y pesado del nopal    Los cladodios de nopal se dejaron en remojo durante 15 días para permitir la extracción adecuada del mucílago.   Preparación de Fibras de Nopal:  El residuo del mucílago se deshidrató en un horno a 180°C durante 8 horas.  Las fibras deshidratadas se trituraron para incorporarlas en la mezcla.   Elaboración de Muestras de Mortero: Se prepararon dos muestras de mortero tipo H tradicional, compuesto de agua, cemento, arena y cal. Tres muestras adicionales se elaboraron con la inclusión de mucílago de nopal en la proporción de agua de la mezcla. Tres muestras se prepararon incorporando tanto mucílago de nopal como fibras de nopal.   Ensayos: Ensayo de Compresión: Se utilizó una prensa hidráulica para medir la resistencia a la compresión de cada muestra. Ensayo de Absorción de Agua:Las muestras se sumergieron en agua durante 21 días  y se midió el aumento de peso para evaluar la capacidad de absorción


CONCLUSIONES

Los resultados de esta investigación pueden llegar a demostrar que el mucílago y las fibras de nopal tienen un gran potencial para ser utilizados como aditivos en la producción de morteros. Estos materiales naturales no solo mejoran las propiedades mecánicas y de impermeabilidad del mortero, sino que también contribuyen a la sostenibilidad ambiental y al desarrollo local.
Ocampo Figueroa Daniela Guadalupe, Universidad de Guadalajara
Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara

SíNTESIS Y CARACTERIZACIóN DE NANOPARTíCULAS DE ZNO MEDIANTE ABLACIóN LáSER DE SóLIDOS EN LíQUIDOS


SíNTESIS Y CARACTERIZACIóN DE NANOPARTíCULAS DE ZNO MEDIANTE ABLACIóN LáSER DE SóLIDOS EN LíQUIDOS

Ocampo Figueroa Daniela Guadalupe, Universidad de Guadalajara. Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En el presente proyecto,  se busca realizar la síntesis de nanopartículas de ZnO mediante un método físico como lo es la ablación láser de sólidos en líquidos, para posteriormente caracterizar está muestra, mediante espectroscopía UV-Vis, espectroscopía Raman, y Difracción de rayos X. El propósito de este enfoque es analizar en detalle las propiedades del material, lo que nos permitirá una mejor comprensión de su comportamiento y sus aplicaciones potenciales. Con base en este análisis, se planea profundizar y estructurar el estudio para convertirlo en un trabajo de tesis. El Zn es un material que se oxida con facilidad, y tiene propiedades eléctricas, ópticas, catalíticas y antibacterianas, con posibles aplicaciones en la industria médica y farmacéutica.  El band gap del ZnO a nivel macroscópico es de 3.4 eV, pero en nanopartículas varía entre 3.17 eV y 3.65 eV, e incluso puede llegar a 4 eV, dependiendo del tamaño y la forma de las partículas. Estos cambios reflejan la adaptabilidad del ZnO a una escala más pequeña.  La espectroscopia UV-Vis mide la cantidad de luz absorbida o transmitida por una muestra. Mientras que La difracción de rayos X es una técnica utilizada para estudiar los efectos físicos de la estructura cristalina en los materiales. Adicionalmente veremos la espectroscopía Raman la cual es  una técnica que  proporciona información detallada sobre un material al estudiar la luz dispersada por el mismo cuando es irradiado con luz monocromática, es decir, un láser. Sus ventajas principales incluyen la capacidad de analizar muestras sin necesidad de preparación previa y ser un proceso no destructivo.  



METODOLOGÍA

Al realizar la síntesis de nanopartículas se colocó como blanco Zn sobre 40ml de agua bidestilada y se dejó ablacionar la muestra durante 1 minuto, irradiando una energía de 520 mJ. Seguido de esto, se dejó oxidar la muestra  durante un día, con el fin de  iniciar con el proceso de caracterización. Para caracterizar la muestra se realizó espectroscopia UV-Vis. La espectroscopia UV-Vis mide la cantidad de luz absorbida o transmitida por una muestra. En este caso se configuró a 2 pasos de 200 nm a 1100 nm, debido a las propiedades del material. Sin embargo, no se encontraron resultados similares a los de la literatura previamente mencionada al tratar de medir su band gap,  mediante el software de Origin lab. Esto debido a la poca concentración de nanopartículas de ZnO, y a la poca duración del pulso con la que se realizó la muestra. Es por ello que se optó por obtener una muestra más concentrada en base a la que se tenía y volver a realizar una prueba de UV-Vis.   Para está muestra centrifugamos las nanopartículas en suspensión coloidal, y las dividimos en 6 tubos con 1.5 ml, durante 10 minutos, para así pues quitar el exceso y dejar 0.5 ml, combinar todas en un sólo tubo y dejar sedimentar la muestra. Después de dejar sedimentar la muestra se procedió a colocar pequeñas gotas con una pipeta en un trozo de  vidrio, el cual estaba calentándose en una parrilla a una temperatura de 60°C. Una vez que el vidrio parecía estar repleto de la muestra y adquiere un tono blanquecino, se colocó en una pequeña bolsa ziploc.  Esto con el propósito de preparar la muestra de repetir espectroscopia UV-Viz, realizar una prueba de difracción de rayos X, y   espectroscopia Raman.  Bajo estás condiciones se buscaba comprobar que efectivamente se encontraban partículas de ZnO en nuestra suspensión coloidal.  Los resultados obtenidos fueron favorables, ya que se encontró una coincidencia en el plano cristalino correspondiente a la línea de difracción del ZnO, con un índice de Miller de (101) a un ángulo de 2θ= 36.4. Esto refleja la naturaleza cristalográfica de este material y por lo tanto su presencia en la muestra de nanopartículas de ZnO.    Respecto a la espectroscopia Raman se tomó la muestra de vidrio que se había realizado previamente centrifugando y dejando sedimentar. Sin embargo debido a que no se tenía el equipo en la institución se mandó a analizar a Querétaro.    Finalmente también se volvió a realizar la prueba de espectroscopía UV-Vis para medir el band gap de la muestra pero ahora en vidrio a 1 paso, de 300 nm a 1100 nm para compararla con el band gap obtenido anteriormente. El band gap fue de 3.17 eV,  el cual fue mucho más favorable y similar al comparado con la literatura encontrada, comprobando que si tenemos nanopartículas de ZnO.


CONCLUSIONES

Para concluir podemos decir que se obtuvo una amplia caracterización de nuestra muestra obtenida, en donde se aprendió tanto experimentalmente como teóricamente conceptos como difracción de rayos X, espectroscopía Raman, y se reforzaron otros como espectroscopia UV-Vis.  Se planea seguir continuando con este proyecto, con el propósito de adquirir un grado más formal, como lo es un proyecto de tésis.   
Ochoa Sierra Juan Pablo, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Andres Manuel Garay Tapia, Centro de Investigación en Materiales Avanzados (CONACYT)

SIMULACION DE TI2-AL-C


SIMULACION DE TI2-AL-C

Ochoa Sierra Juan Pablo, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Andres Manuel Garay Tapia, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La investigación de materiales es un campo de alto enfoque científico, puesto a que una gran cantidad de proyectos realizados por la humanidad exigen herramientas con la cuales se puedan llevar a cabo. Sin embargo, este tipo de investigaciones suelen exigir grandes cantidades de tiempo además de un alto coste económico para el desarrollo de las muestras. Lo cual en muchas ocasiones no da resultados positivos, resultando de tal manera en un derroche de económico y una perdida de tiempo. Debido a esto es necesario determinar la viabilidad de proyectos antes de iniciar cualquier parte experimental. Esto hoy en día se consigo mediante a la simulación a través de medios computacionales. Donde se teoriza si algún proyecto puede llegar a ser viable sin la necesidad de resultar en un derroche económico.



METODOLOGÍA

Para la llevar a cabo la simulación se utiliza un CLUSTER el cual se encuentra localizado en CIMAV el cual ya esta programado para llevar a cabo los diversos cálculos para analizar teóricamente muestras. Para poder llevar a cabo los cálculos se necesitan una variedad de archivos donde su variedad depende de lo que se calcule, pero para el fin de la investigación llevada a cabo los predominantes fueron 3 que brindan información, uno que modifica parámetros y uno para ejecutar los cálculos. Siendo ‘KPOINTS’, ‘POTCAR’, ‘POSCAR’, ‘INCAR’ y ‘va.q’ respectivamente. Todos estos parámetros tienen que ser preparados y modificados cuando se requiera para poder obtener los resultados teóricos de la muestra de estudio y en el caso de existir algún reporte experimental del material, comparar para observar la fiabilidad de estos.   Primero lo que se realizo fueron modificaciones en el parámetro ENCUT el cual se encuentra en el archivo ‘INCAR’ con el cual se realizan cálculos desde un valor bajo (ejem. 300) hasta un valor mas alto (ejem. 700) y se observa en qué punto la energía de la muestra llega a algún punto de estabilidad y de esta forma escoger dicho ENCUT como base de los siguientes cálculos a realizar. Posteriormente se modifica el archivo ‘KPOINTS’ que determina la simetría de la muestra estos son llevados desde un valor mas bajo que el original hasta uno mas alto que el original, esto sin romper la simetría de muestra y se busca encontrar algún punto estable de energía de la muestra según se va modificando. Una vez determinado el punto estable, se utilizan los k-points como base de los siguiente cálculos donde se llevarán a cabo expansiones y contracciones de la muestra tanto en un estado 3D y 2D. Para esto se modifican los archivos ‘POSCAR’ de cada una de las muestras. Aumentando o disminuyendo el volumen en la figura 3D y el área en la figura 2D. Esto para encontrar el estado de mínima energía y usarlo como base de los siguiente cálculos. Ya que se han determinado todos estos parámetros se realizan relajaciones de las muestras modificando el archivo ‘INCAR’ en el parámetro ISIF, cambiando su valor de 2 a 3 y procediendo con el cálculo.  Una vez realizado la información del archivo resultante ‘CONTCAR’ pasa a ser la información del archivo ‘POSCAR’. Con esto se siguen una serie da pasos proporcionados donde se modifican múltiples parámetros del archivo ‘INCAR’ para así realizar el cálculo SCF que servirá para calcular la Densidad de Estados (DOS) y posteriormente el calculo de bandas.   Todos los resultados obtenidos serán graficados con software elegido a voluntad del que desarrolle los cálculos.


CONCLUSIONES

De mi parte, agradezco todo lo que me ensenaron durante este este tiempo. Si bien no puedo ofrecer el mejor análisis teórico de los resultados ya que no conozco del todo la teoría de todo lo realizado durante este tiempo, además de que muchas de la cosas de programación vistas también son en algunos casos bastantes nuevas para mí. Si bien se obtuvieron algunas graficas las cuales llegan a ser similares con las reportadas por la literatura. Otras simplemente no presentan parecido alguno con esta, ni desfase ni nada por el estilo. Demostrando errores por mi parte a la hora de llevar a cabo los cálculos.
Ojeda Barajas Michell Estefanía, Universidad Veracruzana
Asesor: Dra. María Carolina Rodríguez Uribe, Universidad de Guadalajara

SISTEMAS HIDROTERMALES, INFAUNA Y MICRO PLáSTICOS


SISTEMAS HIDROTERMALES, INFAUNA Y MICRO PLáSTICOS

Ojeda Barajas Michell Estefanía, Universidad Veracruzana. Asesor: Dra. María Carolina Rodríguez Uribe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La estancia de investigación durante el verano del Programa Delfín representa una oportunidad única para profundizar en el conocimiento de un campo específico, ampliar la red de contactos profesionales y desarrollar habilidades prácticas en un entorno dinámico. Durante este periodo, tuve la oportunidad de generar experiencias que suelen ser catalizadores tanto en el ámbito académico como personal, ofreciendo nuevas perspectivas y métodos que en un futuro pueda implementar en el ámbito profesional. Trabajar estrechamente con expertos y colegas de diversas disciplinas promueve un enriquecedor intercambio cultural y científico que complementa la formación del investigador. La adaptabilidad y la colaboración son habilidades clave que se fortalecen en estos programas, preparando a los participantes para enfrentar los desafíos multidisciplinarios del mundo actual. Esta estancia no solo impulsa la carrera académica, sino que también transforma la visión y la trayectoria profesional de quienes participamos.



METODOLOGÍA

Mi estancia en el programa Delfín comenzó el 17 de junio. Desde el primer día, junto con la Doctora, empezamos a elaborar un plan de trabajo detallado que abarcaba las actividades que deseaba realizar durante el verano. Esta experiencia no solo me permitió aprender fuera de mi campo específico que son las Ciencias Atmosféricas y expandir mi red de contactos profesionales, sino que también desarrollé habilidades prácticas en un entorno dinámico y colaborativo, adentrándome a nuevos campos de interés mediante un curso de introducción a la producción de textos de investigación, y manejo de la herramienta Scopus, así cómo algunas charlas para conocer el trabajo dentro de la meteorología cómo de otros campos científicos de diferentes investigadores. La interdisciplinariedad en la ciencia es fundamental para el avance del conocimiento. Al estudiar sistemas hidrotermales, se adquiere una comprensión profunda de procesos geológicos y biológicos que pueden aplicarse en otros campos, como la oceanografía y la ecología marina. La infauna, por su parte, ofrece una ventana única a las interacciones ecológicas y la biodiversidad del suelo marino. Asimismo, la investigación sobre microplásticos es vital para entender y mitigar el impacto humano en los ecosistemas acuáticos. Integrar estos temas fortalece no solo la capacidad de trabajo en campos científicos variados, sino que también fomenta una visión holística y sostenible del estudio y conservación del medio ambiente.


CONCLUSIONES

Durante la segunda semana de trabajo de laboratorio, se llevó a cabo la clasificación de la infauna encontrada en las muestras de sedimento del sistema hidrotermal de Mismaloya. Para esto, fue necesario realizar una investigación previa sobre los posibles invertebrados presentes. La clasificación por especies se realizó durante la tercera semana, utilizando un estereoscopio. De esta actividad, lo que más me gustó fue poder apreciar la vida que albergan estos hábitats con condiciones únicas. Este enfoque multidisciplinario es clave durante mi estancia en el programa Delfín, donde colaboré estrechamente con la Doctora para investigar y como meta final redactar un artículo sobre una revisión bibliográfica enfocada a los microplásticos, ampliando así mi comprensión y experiencia en la investigación científica. habilidades esenciales para enfrentar los desafíos multidisciplinarios del mundo moderno.
Ojeda Leon Valeria, Universidad Autónoma de Baja California
Asesor: Dra. Astrid Lorena Giraldo Betancur, Instituto Politécnico Nacional

SíNTESIS Y CARACTERIZACIóN DE NANOPARTíCULAS DE PLATA


SíNTESIS Y CARACTERIZACIóN DE NANOPARTíCULAS DE PLATA

Ojeda Leon Valeria, Universidad Autónoma de Baja California. Asesor: Dra. Astrid Lorena Giraldo Betancur, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Se busca comparar la eficacia de las rutas química y verde para la síntesis de nanopartículas de plata, evaluando tamaño, morfología y microestructura, con el objetivo de encontrar métodos más sostenibles y ecoamigables.



METODOLOGÍA

Se realizó una solución de AgNO3 como precursor de las nanopartículas de plata. -Ruta Química: Se utilizó ácido tánico como reductor de la reacción. A este se le añadió el precursor para la formación de AgNPs. -Ruta verde: Se preparó extracto de cilantro para utilizarlo como reductor de la reacción.  Se propusieron dos métodos para esta vía, caliente y frío. De igual manera que en el método químico, se añadió el precursor en ambos casos, con la diferencia de la aplicación de calentamiento en uno de ellos. Todas las rutas se agitaron hasta mostrar homogeneidad. Después, se purificaron y se realizó una caracterización morfológica, estructural y microestructural de los tres métodos.  


CONCLUSIONES

Se comprobó la formación de nanopartículas de plata, observando una menor escala y la presencia de grupos fenólicos en el método verde sin calentamiento. Esta comparación permite sentar la base de futuras aplicaciones biomédicas que puedan tener las nanopartículas sintetizadas por esta vía, siendo las que se mostraron más pequeñas.
Olivas Rodríguez Frida Samantha, Universidad Autónoma de Sinaloa
Asesor: Dr. Raúl Cuauhtémoc Baptista Rosas, Universidad de Guadalajara

AUTOMATIZACIóN PARA DETECCIóN DE HETEROPLASMIA EN SECUENCIAS MITOCONDRIALES


AUTOMATIZACIóN PARA DETECCIóN DE HETEROPLASMIA EN SECUENCIAS MITOCONDRIALES

Olivas Rodríguez Frida Samantha, Universidad Autónoma de Sinaloa. Asesor: Dr. Raúl Cuauhtémoc Baptista Rosas, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La diabetes tipo 2 es una enfermedad metabólica crónica con una prevalencia creciente en todo el mundo, específicamente en México, donde millones de mexicanos la padecen. Aunque se han identificado numerosos factores de riesgo genéticos y ambientales para la diabetes tipo 2, el papel del ADN mitocondrial (mtDNA) y sus variantes sigue siendo un área activa e innovadora de investigación. En particular, la heteroplasmia (coexistencia de múltiples variantes de mtDNA dentro de una célula) ha sido sugerida como un factor contribuyente en diversas enfermedades, incluida la DT2.  Este proyecto de investigación se centra en la automatización del proceso de detección de heteroplasmia en secuencias mitocondriales, utilizando herramientas bioinformáticas avanzadas y bases de datos genéticas. Al implementar algoritmos de procesamiento y análisis automatizados en R, y al aprovechar recursos como el NCBI y técnicas de búsqueda booleana, buscamos mejorar la eficiencia y precisión en la identificación de variantes de mtDNA relacionadas con la diabetes tipo 2 en la población mexicana para avanzar en la comprensión de cómo estas variantes genéticas pueden influir en la aparición y desarrollo de esta. 



METODOLOGÍA

En mi línea de investigación se llevó a cabo la siguiente metodología: Recolección de Secuencias: Se reunieron secuencias del genoma mitocondrial de pacientes diabéticos (con DT2) y personas sin la enfermedad como controles, creando una base de datos. Las secuencias se obtuvieron de la plataforma de NCBI mediante buscadores booleanos y revisión exhaustiva de literatura científica. Haplotipado: Se realizó un haplotipado utilizando MITOMASTER para identificar las variantes presentes en las secuencias de la cohorte de estudio (pacientes diabéticos y controles). Análisis en R: Recorte de Variantes: Las secuencias se recortaron para enfocarse exclusivamente en la región hipervariable 1 del genoma mitocondrial. Análisis de Variantes y Polimorfismos: Se aplicaron análisis estadísticos cuantitativos y cualitativos, incluyendo pruebas de T-student y chi cuadrada, para determinar si existían diferencias significativas (con un valor de p<0.05) entre las variantes presentes en los pacientes diabéticos y los controles. Visualización de Resultados: Se elaboraron gráficos para demostrar los resultados, utilizando diferentes tipos de visualizaciones como gráficas de barras, gráficos de violín, plots de Manhattan, entre otros.


CONCLUSIONES

Los resultados de este estudio demostraron que existía una diferencia significativa entre las variantes de secuencias mitocondriales provenientes de pacientes diabéticos y controles en la región hipervariable 1 del genoma mitocondrial. Se identificaron polimorfismos cuya presencia era prominente en pacientes diabéticos; algunos de estos polimorfismos ya estaban documentados en la literatura, mientras que otros eran novedosos. El análisis sugiere que estas variantes podrían estar relacionadas con el desarrollo de la diabetes tipo 2, ya que algunas variantes son más frecuentes en pacientes diabéticos, mientras que su ausencia es más común en los controles, lo que también podría tener implicaciones importantes. Estos hallazgos abren la posibilidad de llevar a cabo ensayos más avanzados, aplicando herramientas bioinformáticas como el machine learning para evaluar si estas variantes, ya sea de forma conjunta o individual, están asociadas con la enfermedad. Este enfoque podría mejorar nuestra comprensión de los mecanismos genéticos subyacentes a la diabetes tipo 2 y potencialmente contribuir al desarrollo de estrategias de diagnóstico y tratamiento más precisas, rápidas y tempranas que podrían mejorar la vida de millones de mexicanos que tienen o podrían desarrollar esta enfermedad.
Omaña Sotuyo Emiliano, Instituto Politécnico Nacional
Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional

SOLUCIóN NUMéRICA DEL OSCILADOR ARMóNICO CUáNTICO POR RUNGE-KUTTA DE CUARTO ORDEN Y NUMEROV


SOLUCIóN NUMéRICA DEL OSCILADOR ARMóNICO CUáNTICO POR RUNGE-KUTTA DE CUARTO ORDEN Y NUMEROV

Omaña Sotuyo Emiliano, Instituto Politécnico Nacional. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Un oscilador armónico simple es una partícula o sistema que experimenta un movimiento armónico en torno a una posición de equilibrio. Este es un sistema fundamental en la mecánica cuántica, gracias a su "simplicidad" y capacidad de describir una gran cantidad de fenómenos físicos. La solución analítica de este problema es bien conocida, sin embargo, en muchos planteamientos prácticos estos sistemas no pueden ser solucionados de forma analítica, o encontrar dicha solución tiene un coste de recursos bastante grande, por lo que se opta por emplear métodos numéricos.



METODOLOGÍA

Se empezó con la formulación del problema del oscilador armónico clásico, se estudió su solución y sus limitantes en el modelado de fenómenos físicos, para posteriormente pasar al problema del oscilador armónico cuántico, revisando bibliografía y auxiliándose del investigador para poder entender la teoría, se hizo énfasis en las diferencias que este mantiene con respecto del clásico. Formulamos el problema, partiendo de la ecuación de Schrödinger unidimensional independiente del tiempo para el oscilador armónico cuántico que describe el comportamiento de una partícula de masa m en un potencial armónico usual V(x)=1/2 mw^2x^2. Buscamos, entonces su solución analítica, resolviendo la ecuación diferencial resultante, expresándola en términos de funciones Hermite. Una vez encontrada la solución analítica, se planteó encontrar métodos que pudiesen resolver este problema de forma numérica. Los métodos seleccionados, después de una revisión de la bibliografía sugerida por el investigador fueron el método de Numerov y el método de Runge-Kutta de cuarto orden: El método de Numerov es una técnica numérica utilizada para resolver ecuaciones diferenciales ordinarias de segundo orden. Es particularmente útil para ecuaciones en las que el término de segundo derivado aparece de manera lineal. d^2y/dx^2 = f(x,y) En la que se utiliza la fórmula de Numerov, que emplea, de forma iterativa 3 puntos para poder solucionar la ecuación diferencial. Para la implementación de este método se comenzó discretizando el espacio en una malla uniforme, donde se eligieron tanto los limites inferiores como los superiores lo suficientemente grandes para asegurar que la función evaluada en estos se aproximase a cero, así como un tamaño adecuado del paso de la malla. Usualmente se establecen estas condiciones de contorno para asegurar que la función de onda sea físicamente significativa y normalizable, pues la función de onda debe tender a cero conforme x tiende a infinito (positivo y negativo). Luego, se empleo la fórmula de Numerov para encontrar de forma iterativa los puntos y la solución numérica para el problema del oscilador armónico cuántico, esto conforme a la cantidad de pasos que definimos al empezar con el método, hasta llegar al límite superior. El método de Runge-Kutta de cuarto orden es, también un método numérico empleado para la resolución de ecuaciones diferenciales ordinarias, es bastante empleado gracias a su facilidad de implementación y buena precisión. En este se tendrá que calcular cuatro valores intermedios (con la fórmula general propia del algoritmo) para finalmente combinar estos valores intermedios para poder avanzar al siguiente punto, empleando una combinación ponderada de las pendientes de los puntos intermedios. Similarmente, se comenzó realizando una discretización del espacio, además de una reformulación de la ecuación diferencial en un sistema de primer orden. Luego establecimos las condiciones de contorno para poder dar paso a la implementación del algoritmo de Runge-Kutta de cuarto orden avanzando a lo largo de la malla. Una vez que los algoritmos se habían desarrollado se programaron en Python, para después realizar un análisis de estabilidad numérica para ambos métodos. Para el método de Numerov se encontró que la estabilidad numérica depende del tamaño del paso y de la función de fuerza que aparece en la ecuación de Schrödinger, dicha relación esta dada por: H^2|f(x,E)|<<1 De igual forma, se desarrolló el análisis para el método de Runge-Kutta, encontrando que la estabilidad numérica estaba ligada al tamaño del paso y a que los valores de la energía estén cercanos a los valores propios del sistema. Finalmente, se buscó realizar un conteo de flops para ambos métodos, con la finalidad de tener una idea general de la eficiencia computacional en cada algoritmo. Se encontró que el método de Runge-Kutta de cuarto orden tiene un coste computacional, de al menos 4 veces más que el método de Numerov. Sin embargo, la elección de un método sobre otro puede depender de factores como la facilidad de implementación o la estabilidad del método.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de la resolución de sistemas como el oscilador armónico cuántico, así como técnicas para la implementación algoritmos para encontrar soluciones numéricas a problemas que empleen ecuaciones diferenciales, se realizó una comparación entre dos métodos bastante empleados, sin embargo, al ser un trabajo extenso el análisis y la optimización de programas que empleen dichos algoritmos solo se lograron resultados superficiales. Se encontraron ventajas en la implementación del método de Numerov para la solución de ecuaciones diferenciales de segundo orden, sin embargo, la forma especifica que deben tener las ecuaciones hace que el algoritmo se vea opacado por el método de Runge-Kutta de cuarto orden, pues este ultimo es más general y bastante preciso. Se espera, que para los problemas en que ambos métodos puedan ser empleados, Numerov tenga mayor precisión y un coste computacional menor.
Ordaz Anaya Katherine Gabriela, Universidad de Guadalajara
Asesor: Dr. Javier Alejandro Gonzalez Ortega, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)

SISMOGEODESIA DEL SISMO FERNDALE, MW 6.4 DEL 20 DE DICIEMBRE DEL 2022.


SISMOGEODESIA DEL SISMO FERNDALE, MW 6.4 DEL 20 DE DICIEMBRE DEL 2022.

Ordaz Anaya Katherine Gabriela, Universidad de Guadalajara. Asesor: Dr. Javier Alejandro Gonzalez Ortega, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La sismogeodesia es una rama de la sismología que emplea datos de GPS de alta frecuencia (1hz-10Hz) y es de gran relevancia en la actualidad debido a la información complementaria a la instrumentación sismológica para los sistemas de alertamiento temprano ante la ocurrencia de un evento sísmico. Ello se logra obtener mediante la relación que existe entre los desplazamientos cosísmicos del terreno y la magnitud-momento del sismo. La alerta sísmica temprana (EEW, por sus siglas en inglés) consiste en la rápida detección y caracterización de los terremotos con el objetivo de emitir una alerta para que se puedan tomar medidas de protección civil. Las metodologías de EEW se dividen en tres categorías: modelos de fuentes puntuales, de fallas finitas y de movimientos del terreno. En este trabajo se empleó la metodología del movimiento del terreno caracterizada por el parámetro del Desplazamiento Pico del Terreno (PGD, por sus siglas en ingles).   Para desarrollar métodos confiables de EEW, y para muchos proyectos que apuntan a la preparación para terremotos, es fundamental que cuantifiquemos la relación entre el movimiento del suelo y los parámetros de la fuente del terremoto. En el dominio del tiempo, las métricas típicas del movimiento del suelo incluyen la aceleración máxima del suelo, la aceleración máxima efectiva del suelo, la velocidad máxima del suelo y el desplazamiento máximo del suelo (PGA, EPGA, PGV y PGD, respectivamente). En este proyecto se hizo uso del PGD de los datos obtenidos mediante las estaciones GPS cercanas al sismo Ferndale, para el cálculo de la magnitud-momento a partir de los desplazamientos cosísmicos, además de realizar una comparación entre el desplazamiento máximo del suelo y el modelo de falla finita del sismo.



METODOLOGÍA

Para estimar la magnitud-momento del sismo Ferndale del 20 de diciembre del 2022 por medio de la sismogeodesia se realizó una investigación bibliográfica del evento previa al procesamiento y recopilación de datos de GPS. Posteriormente se hizo uso del software GIPSY-OASIS para el procesamiento de los datos crudos obtenidos de las estaciones GPS cercanas al lugar del sismo (P058, P158, P159, P160, P161, P162, P163, P164, P165, P166, P167, P168, P169, P170, P324, P326, P793 y TRND); en el cual nos permite remover efectos relacionados con la carga oceánica, la troposfera, la ionósfera, entre otros. Con los datos ya procesados se generaron las series de tiempo de cada estación en sus componentes horizontal (norte y este) y vertical para obtener un mapa de desplazamientos cosísmicos. Finalmente se realizaron graficas de PGD en 2D (horizontal), esto debido a que se tuvo que descartar la componente vertical por el ruido que esta generaba.


CONCLUSIONES

Se concluyó que mediante la medición de los desplazamientos cosísmicos por medio de GPS-PGD se puede obtener una buena aproximación de la magnitud-momento de un temblor, en este caso, Mw 6.35. Incluso antes de que el proceso de ruptura del sismo finalice; lo cual es de gran relevancia para la detección temprana de terremotos.  
Ornelas Castañeda César Mariano, Universidad de Guadalajara
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

GALAXY MáQUILA: ESTUDIO DE LAS GALAXIA BRILLANTES DEL CúMULO DE VIRGO EN EL INFRAROJO


GALAXY MáQUILA: ESTUDIO DE LAS GALAXIA BRILLANTES DEL CúMULO DE VIRGO EN EL INFRAROJO

Caamaño García Carolina, Benemérita Universidad Autónoma de Puebla. Correa Arballo Antonio, Universidad Autónoma de Baja California. de Ramon Tadeo Diego, Benemérita Universidad Autónoma de Puebla. Díaz Carriedo Edgar Josuee, Benemérita Universidad Autónoma de Puebla. Ornelas Castañeda César Mariano, Universidad de Guadalajara. Reyes Acosta Miguel Angel, Universidad Tecnológica de Tehuacán. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El Cúmulo de Virgo es una de las concentraciones más grandes de galaxias cercanas a la Vía Láctea, con una gran variedad de tipos morfológicos, incluyendo galaxias elípticas, espirales, barradas y lenticulares. Estudiar estas galaxias en el espectro infrarrojo es esencial para comprender mejor sus características estructurales, ya que este rango de longitud de onda es menos afectado por el polvo interestelar, lo que permite una visión más clara de la distribución de masa estelar. Sin embargo, el análisis detallado de estas estructuras enfrenta desafíos significativos, como la resolución limitada de las imágenes disponibles y la presencia de contaminantes como estrellas brillantes y otras galaxias cercanas en las imágenes. Estos factores pueden complicar la descomposición precisa de las componentes galácticas, como el bulbo, el disco y las barras, dificultando la caracterización de la dinámica interna y la historia de formación de las galaxias. Además, la diversidad de morfologías dentro del cúmulo sugiere procesos evolutivos distintos, lo que plantea la necesidad de un análisis comparativo riguroso para identificar patrones comunes y diferencias clave en la evolución galáctica.



METODOLOGÍA

Este estudio se basó en imágenes infrarrojas obtenidas de los catálogos astronómicos 2MASS y PanStarrs, centradas en galaxias brillantes del Cúmulo de Virgo. La selección de estas imágenes permitió el análisis de estructuras galácticas con una menor interferencia de polvo interestelar, lo que es crucial para una evaluación precisa de las componentes estelares. El software GALFIT fue el principal instrumento utilizado para descomponer las galaxias en sus componentes estructurales: bulbo, disco y barra. Se aplicaron funciones de Sérsic para modelar el bulbo, mientras que las componentes de disco fueron ajustadas utilizando modelos de disco exponencial. Para algunas galaxias, se consideraron funciones gaussianas para representar características adicionales como barras o anillos. Las imágenes se procesaron inicialmente con DS9, un software de visualización que permitió examinar y recortar las imágenes, asegurando un enfoque en la región de interés. A continuación, se crearon máscaras utilizando scripts en Python, específicamente diseñados para eliminar la interferencia de estrellas brillantes y otras galaxias cercanas. Esto ayudó a minimizar la influencia de estos contaminantes en los resultados fotométricos y morfológicos. Ellipsect fue utilizado para extraer perfiles de brillo superficial de las galaxias y de los modelos generados por GALFIT. Esta herramienta permitió comparar los modelos teóricos con las observaciones reales, facilitando la evaluación de la precisión del ajuste. Se prestó especial atención al ajuste de la función de dispersión puntual (PSF), fundamental para el modelado preciso de las características galácticas más finas. Finalmente, se evaluó la calidad del ajuste de los modelos utilizando el valor de Chi²/nu y análisis de residuos, asegurando que las discrepancias entre los modelos y las observaciones fueran mínimas.


CONCLUSIONES

Los análisis realizados sobre las galaxias brillantes del Cúmulo de Virgo han revelado una diversidad estructural significativa, reflejada en los diferentes parámetros obtenidos, como los índices de Sérsic y los radios efectivos. Estos resultados sugieren que las galaxias del cúmulo han experimentado historias evolutivas distintas, posiblemente influenciadas por interacciones galácticas y procesos internos variados. Uno de los hallazgos clave es la variabilidad en la prominencia de componentes como bulbos, discos y barras, lo que indica una diversidad en los procesos de formación y evolución estelar. Sin embargo, se identificaron varios desafíos en el proceso de análisis, como la dificultad para aislar las galaxias objetivo de las interferencias causadas por estrellas cercanas y otras galaxias brillantes, lo que complicó el ajuste de los modelos. El valor de Chi²/nu y el análisis de residuos mostraron que, aunque se lograron ajustes razonables, existen limitaciones en la precisión del modelado, particularmente debido a la calidad de las imágenes y la influencia de contaminantes. Para mejorar estos ajustes, se recomienda considerar el uso de software adicional para la generación de funciones de dispersión puntual (PSF) y explorar la presencia de núcleos activos galácticos (AGNs), que podrían influir en las características observadas de algunas galaxias. Estos resultados iniciales proporcionan una base para futuros estudios, sugiriendo la necesidad de una mayor resolución y una mejor eliminación de contaminantes para comprender completamente la estructura y evolución de las galaxias en entornos de cúmulos densos. 
Orozco Vázquez Paola Lizbeth, Instituto Politécnico Nacional
Asesor: Dra. Rosalva Josefina Rodriguez Córdova, Universidad de Sonora

NANOTECNOLOGíA


NANOTECNOLOGíA

Orozco Vázquez Paola Lizbeth, Instituto Politécnico Nacional. Asesor: Dra. Rosalva Josefina Rodriguez Córdova, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Las enfermedades bacterianas han sido objeto de preocupación para la salud pública, se han registrado como un gran reto en morbilidad y mortalidad para la población mexicana, Enfermedades como Tuberculosis o Brucelosis son enfermedades bacterianas difíciles y (en ocasiones) muy lentas de tratar, con molestias que afectan el ritmo de vida de quien la padece; incluyendo un tratamiento que conlleva una gran cantidad de tiempo, y que en ocasiones dicho tratamiento puede llegar a ser igual de doloroso que los síntomas en sí.  El trabajo presentado está orientado a conocer la aplicación de la nanotecnología, enfocándonos en la administración de fármacos para tratar estas u otro tipo de enfermedades variadas, brindando un tratamiento efectivo y una recuperación más pronta al convencional.



METODOLOGÍA

Durante los primeros días de la estancia se dieron a conocer diversas aplicaciones de la nanotecnología en el área médica, la cual juega un papel importante para diagnosticar, prevenir y tratar enfermedades drásticas o infecciosas. Dentro de sus diversas áreas el enfoque de la estancia fue dirigida hacia la administración de fármacos. Se dio conocimiento para el desarrollo de biomateriales nanoestructurados para transportar y entregar fármacos de manera controlada a los pacientes; manejando un sistema de nanoestructuras orgánicas biodegradables y biocompatibles, las cuales están destinadas a formar nanocápsulas. Para la creación de nanomateriales aplicados a encapsular fármacos se deben considerar ciertos parámetros para garantizar su seguridad y efectividad, pues al ser destinados a introducirse en un organismo vivo se debe tener sumo cuidado con, por ejemplo, su toxicidad, corrosividad, reactividad, etc. Es necesario conocer los distintos métodos de síntesis de nanomateriales, para así ponerlos en práctica y conseguir sistemas adecuados para tratar diversas enfermedades. Por lo tanto, una de las actividades realizadas durante la estancia fue la investigación de una técnica de síntesis de nanomateriales. Se investigó acerca de distintos métodos de sintetización de nanomateriales, en compañía de algunos invitados exponiendo sus trabajos, se hablaron de técnicas como por ejemplo síntesis verde, síntesis por emulsión o nanoprecipitación. En la investigación realizada para la actividad individual se analizó la síntesis por Coalescencia de gotas de Emulsión, con la cual se obtendrán las nanopartículas deseadas, con cierto porcentaje de encapsulación y liberación del fármaco a determinadas horas de ser aplicadas. Se averiguó acerca de diversas técnicas de caracterización para analizar muestras y obtener, por ejemplo, medidas de elasticidad, propiedades dinámicas como fricción, adhesión, propiedades magnéticas e incluso una imagen a escala de la muestra. En las últimas sesiones de la estancia, se realizó una visita a los laboratorios de la Universidad de Sonora, donde la Dra. Karol Yesenia Hernández Giottonini mostró los equipos y un experimento en proceso de un estudiante, se identificaron diversos equipos utilizados en la síntesis y caracterización de nanomateriales, expuso parte de su funcionamiento, diversas áreas del laboratorio y la función que aportaban. Se programó una reunión para mostrar en práctica el funcionamiento del equipo VWR® Double Beam UV-Vis Spectrophotometer el cual tuvo como función mostrar una curva de calibración para determinar la concentración de nanopartículas en las muestras presentadas, dichas nanopartículas tienen como aplicación tratar enfermedades como la tuberculosis. Se hizo una revisión general acerca de la elaboración de materiales para presentar una investigación, por ejemplo, la publicación de un artículo científico.


CONCLUSIONES

Durante la estancia se adquirieron conocimientos teóricos generales acerca de la síntesis y caracterización de nanomateriales para la encapsulación y administración de fármacos aplicados a tratar diversas enfermedades de manera más efectiva y pronta, Se brindó orientación para analizar y estructurar artículos científicos que aportan a nuestra investigación. Se tomó por enfoque a nanoestructuras orgánicas biocompatibles como los dendrímeros y liposomas, por sus propiedades tales como ser biodegradables, portar baja toxicidad y además ser aprobadas por la Administración de Alimentos y Medicamentos (FDA) para aplicaciones médicas. También se puso en práctica el funcionamiento de diversos equipos involucrados en los procesos de síntesis y caracterización de nanopartículas.
Ortega Guzmán Marco Antonio, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Jesús López Hernández, Universidad Autónoma de Sinaloa

ESTIMACIóN DE LA DENSIDAD DEL GAS DE UNA GALAXIA CON AYUDA DE LAS RAZONES DE LíNEA [SII]6717/6731.


ESTIMACIóN DE LA DENSIDAD DEL GAS DE UNA GALAXIA CON AYUDA DE LAS RAZONES DE LíNEA [SII]6717/6731.

Ortega Guzmán Marco Antonio, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Jesús López Hernández, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

 Determinar la densidad electrónica de las líneas de azufre para determinar la densidad del gas medida para hacer otras estimaciones. Hay varios métodos para estimar la densidad del gas de una galaxia, pero el usado en este trabajo fue las razones de línea de azufre [SII]6717/6731. Una de las problemáticas que se presento fue al momento de medir las líneas, ya que hubo varios ceros y valores indefinidos(nan), y al momento de hacer las razones de las líneas hubo indeterminaciones.



METODOLOGÍA

Se empezó el trabajo eligiendo una galaxia desde la página de Marvin y ahí le damos clic en IMAGE ROULLETE y seleccionamos la imagen a estudiar, luego nos vamos a SkyServer y luego le damos clic en Explore para descargar su MaNGA en un formato fits para usarlo en Python y de ahí sacar el espectro de la galaxia a analizar, así como su flujo y otras propiedades de esta, también se ocupó el redshift para poder tomar bien los datos requeridos, el cual sacamos del catálogo de la página sdss.org. Se realiza la corrección por redshift leyendo del catálogo de MaNGA y moviendo las longitudes a su resultado de laboratorio. Después, ya en Python, se abrió el archivo fits, el cual ya se había descargado con anterioridad, para su estudio, así como también el redshif ya descargado como se indicó antes y se pidió que diera imagen del espectro. Una vez corroborado que el espectro dado es correcto, se ocupa la Gaussiana para poder saber el valor de las integrales y así poder estimar el valor de las líneas de emisión requeridas para el trabajo, una vez obtenido esos valores, se creó una matriz de datos para cada una de las líneas a estudiar y para hacer más eficiente su uso se crearon varias imágenes de estas matrices y se guardó en un formato fits. Después, con las imágenes ya guardadas en el formato fits, se llevó a cabo la creación de un diagrama de diagnóstico, el cual consistió en hacer el logaritmo(base 10) de la razón de las sumas de las líneas [OIII]5007 y [Hbeta]4861, y el logaritmo(base 10) de la razón de las sumas de las líneas [NII]6548 y [Halpha]6564, lo cual nos dará una nube de puntos pero se realizó la suma de esos puntos, así como una filtración de aquellos que valieran 0 o nan, para hacer notar si se trata de una estrella, un núcleo activo (AGN) o Compuestos. Se utilizo la ecuación de las líneas de Balmer y Lyman para trazar las líneas azul y negro, también se ocupó datos recopilados de la tabla de galSpecLine de la página de Skyserver DR16 sobre las líneas [OIII]5007, [NII]6548, [Hbeta]4861 y [Halpha]6564 como también sus errores en los flujos. Después, se ocuparon los datos extraídos de las líneas [SII]6717 y [SII]6731, así como la biblioteca de PyNeb para poder obtener el mapa de la densidad de la razón de las líneas mencionadas.


CONCLUSIONES

Los resultados muestran que la densidad del gas en la galaxia es de aproximadamente 720. Estos resultados tienen implicaciones importantes para nuestra comprensión de la formación estelar y la evolución de las galaxias. Este estudio demuestra el potencial de las razones de línea [SII]6717/6731 como herramienta para estimar la densidad del gas en galaxias y abre nuevas perspectivas para futuras investigaciones en este campo.
Ortiz Aviles Luis Angel, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Ismael Santos Ramos, Benemérita Universidad Autónoma de Puebla

SíNTESIS DE ́óPALOS INVERSOS DE ́óXIDOS METáLICOS DECORADOS CON NANOPARTíCULAS Y SU EVALUACIóN FOTOCATALíTICA


SíNTESIS DE ́óPALOS INVERSOS DE ́óXIDOS METáLICOS DECORADOS CON NANOPARTíCULAS Y SU EVALUACIóN FOTOCATALíTICA

Ortiz Aviles Luis Angel, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Ismael Santos Ramos, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua causada por compuestos tóxicos, como el 4-nitrofenol, es un problema ambiental grave debido a su alta estabilidad química y resistencia a la degradación natural. Este compuesto, derivado de actividades industriales como la producción de pesticidas y tintes, representa un riesgo significativo tanto para los ecosistemas acuáticos como para la salud humana.  Para enfrentar este desafío, se propone la utilización de ópalos inversos de óxidos metálicos (TiO2 y ZnO) decorados con nanopartículas de plata (AgNPs) como catalizadores avanzados para la degradación fotocatalítica del 4-nitrofenol. Estos materiales combinan la estructura porosa de los ópalos con la alta actividad catalítica de las nanopartículas de plata, ofreciendo una solución prometedora para la remediación de agua contaminada.



METODOLOGÍA

Síntesis de Microesferas de PMMA: Se emplea la polimerización por emulsión para crear microesferas de polimetilmetacrilato (PMMA), las cuales se utilizan como plantilla para la formación del ópalo polimérico. Formación de Ópalos Inversos: Las microesferas de PMMA se organizan en una estructura tridimensional ordenada. Posteriormente, se infiltran con precursores de óxidos metálicos (TiO₂ y ZnO), formándose los ópalos inversos tras la eliminación del PMMA mediante calcinación. Síntesis de Nanopartículas de Plata (AgNPs): Las AgNPs se sintetizan mediante un proceso de reducción química y se depositan sobre los ópalos inversos, mejorando las propiedades fotocatalíticas de los materiales resultantes. Evaluación Fotocatalítica: Los materiales sintetizados se prueban en un fotoreactor diseñado específicamente para evaluar su capacidad de degradación del 4-nitrofenol bajo irradiación UV. Se monitorea la eficiencia de la degradación mediante espectroscopia UV-Vis.


CONCLUSIONES

Se ha caracterizado la morfología y estructura de los materiales mediante microscopía electrónica de barrido (SEM) y se espera realizar una caracterización adicional utilizando microscopía electrónica de transmisión (TEM), difracción de rayos X (XRD) y FTIR. Además, se han realizado caracterizaciones con técnicas espectroscópicas como DLS, UV-Vis, y Potencial Z. Se espera que el ópalo sea reutilizable, lo que incrementaría su viabilidad y eficiencia en aplicaciones de largo plazo. Los resultados obtenidos en este estudio podrían contribuir al desarrollo de tecnologías para el tratamiento del agua.
Ortiz Cristerna Ian Zuriel, Universidad Autónoma de Zacatecas
Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)

ESTIMACIóN DE PROPIEDADES ELECTRóNICAS Y ESTRUCTURALES DE ALEACIONES BASE FE DOPADAS CON NI Y MO EMPLEANDO CáLCULOS DE PRIMEROS PRINCIPIOS DFT.


ESTIMACIóN DE PROPIEDADES ELECTRóNICAS Y ESTRUCTURALES DE ALEACIONES BASE FE DOPADAS CON NI Y MO EMPLEANDO CáLCULOS DE PRIMEROS PRINCIPIOS DFT.

Ortiz Cristerna Ian Zuriel, Universidad Autónoma de Zacatecas. Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La investigación de materiales y el análisis de las propiedades electrónicas y estructurales de los mismos a nivel teórico es hoy uno de los campos de mayor importancia dentro de la Física de Estado Sólido y la Ingeniería de Materiales y Nanotecnología. Conocer y comprender estas propiedades es lo que ha permitido la fabricación de materiales con objetivos específicos y que sigue abriendo campo al desarrollo de nuevas líneas de investigación que buscan explicar la física y química subyacente a bajas escalas, además de innovadoras técnicas de síntesis y producción. En el caso de este proyecto se busca analizar estas propiedades particularmente en aleaciones de Hierro con Níquel y con Molibdeno, dado que las mismas son de gran interés para la industria metalúrgica en la fabricación de aceros grado herramienta y particularmente la fabricación del acero aleado Maraging C300.



METODOLOGÍA

Se analizaron diagramas de fase para Hierro con el fin de determinar la estructura cristalográfica que adopta el elemento a determinada temperatura obteniendo que para el desarrollo del proyecto resultó conveniente trabajar con estructuras tipo Ferrita α-Fe BCC  y Austenita γ-Fe FCC. De igual modo se analizaron diagramas de fase para aleaciones Fe-Ni y Fe-Mo, los cuales determinan la generación de las celdas cristalográficas a analizar. A partir de estos diagramas se estableció la celda a generar para la simulación y cálculos de propiedades electrónicas para las aleaciones en estudio, obteniendo que el Ni adopta una estructura tipo FCC mientras que el Mo adopta una BCC, esto se verifica al ejecutar la optimización de las estructuras de los dopantes y obteniendo una menor energía en dichas estructuras con respecto a, por ejemplo, Ni BCC o Mo FCC, lo que indica que como es de esperarse, sus formas naturales son más estables.  Se instaló el paquete de cálculo computacional Quantum Espresso BURAI, mediante el cual se diseñaron las celdas cristalográficas puras a analizar. Para realizar el dopaje, se procedió a reemplazar gradualmente los átomos de Fe por las formas binarias con Ni y Mo, y luego en forma ternaria agregando ambos dopantes. Con cada una de las estructuras se realizó el cálculo de optimización en repetidas ocasiones con distinta energía de corte de la función de onda en los archivos de celdas unitarias mediante el cual se determinó el estado estable de las mismas respecto al tamaño de celda y la energía de esta, así como determinar los parámetros óptimos para realizar los cálculos posteriores sobre las superceldas. Posteriormente se procedió a reescribir los archivos script de entrada con las coordenadas atómicas optimizadas y a partir de estas simulaciones hacer el cálculo de las superceldas. De modo similar se realizaron cálculos de campo autoconsistente (SCF) a estas estructuras para obtener los tensores de esfuerzos y presión, analizando la presencia de tensiones por cizallamiento y de tipo normal, así como la energía total de cada uno de los sistemas y determinando las constantes que determinan sus propiedades mecánicas tales como el módulo de Young, de corte o cizallamiento y de volumen. 


CONCLUSIONES

Dentro de las actividades logradas hasta el momento se comprenden las siguientes: Instalación e implementación del programa Quantum Espresso mediante Interfaz Gráfica de Usuario BURAI en la computadora WorkStation Dell T7920 en CIATEQ San Luis Potosí. Ejecución de cálculos de prueba y optimización de parámetros para simulación, obteniendo a su vez que: La energía de corte más eficiente tanto para estructuras FCC y BCC es de 7000 Ry para la función de onda y 6300 Ry para la Energía de Carga considerando celdas unitarias. Para estructuras de celdas unitarias se tienen los siguientes parámetros de red y energías por celda después de optimizarlas por DFT: Elemento  Estructura           E (Ry)   Parámetro de red (Angström) Fe           BCC        -111.60738125   2.850                 FCC        -223.12523182   3.450 Ni           BCC        -171.77795537   2.803                 FCC        -343.58335193   3.523 Mo         BCC        -279.03167613   3.162                 FCC        -557.93998560   3.997 De igual modo se tienen de estas optimizaciones los siguientes datos para el estrés total de la celda: Elemento  Estructura   Estrés total (kbar) Fe           BCC        2.38                 FCC        0.82 Ni           BCC        2.59                 FCC        -0.12 Mo         BCC        0.03                 FCC        10.96 Se han establecido los parámetros principales para las simulaciones en Quantum Espresso para el estudio de las propiedades electrónicas. De manera general para continuación de este trabajo se requieren estos datos para realizar las comparaciones con las aleaciones. Como resultados esperados se tiene que después de realizar los diferentes cálculos mediante DFT, conforme se realiza el dopaje de la estructura de hierro puro, tanto su forma de ferrita como en su forma de austenita, se consigue una reducción de las constantes de red que definen a las celdas unitarias de la estructura cristalina, lo que implica un aumento de las propiedades de resistencia mecánica puesto que las distancias interatómicas, reflejadas en estas constantes de red, afectan la fuerza de enlace entre átomos. De igual modo se espera obtener un alto valor del módulo de Young, indicando que el material es más rígido conforme aumenta el contenido de Ni y Mo y se deforma poco bajo carga, mientras que el módulo de cizallamiento tenderá a reducirse y ello puede indicar una mayor tenacidad, ya que indicará que el material puede absorber más energía sin fracturarse. Así mismo, se obtiene un valor alto para el módulo de volumen, lo que indica que el material se torna más difícil de comprimir al aumentar sus componentes químicos.
Ortiz Paramo Karla, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Araceli Zamora Camacho, Universidad de Guadalajara

MÓDELO ARQUITECTÓNICO A PARTIR DE MÉTODOS GEOFÍSICOS EN ZONA SÍSMICA: TEMPLO CATÓLICO NUESTRA SEÑORA DE LOURDES, PUERTO VALLARTA.


MÓDELO ARQUITECTÓNICO A PARTIR DE MÉTODOS GEOFÍSICOS EN ZONA SÍSMICA: TEMPLO CATÓLICO NUESTRA SEÑORA DE LOURDES, PUERTO VALLARTA.

Ortiz Paramo Karla, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Araceli Zamora Camacho, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

 Templo Nuestra Señora de Loudes, Puertoo Vallarta. Conocer el tipo de suelo del sitio, la forma de vibración del suelo ante un sismo que permitirán una cimentación y una buena estructura del edificio



METODOLOGÍA

Busqueda de bibliografía  Realización de estudios geofisicos  Procesamiento de datos


CONCLUSIONES

Resultados del estudio geofísico Para evitar problemas de licuefacción es recomendable cimentar a profundidades de 9 a 10 m donde el suelo es mas estable. Los primeros 3.7 m presentan suelos son alta humedad. Entre los 3.7 m y 8.9 m el suelo tiene un contenido significativo de agua subterranea  A partr de los 8.9 m el suelo se vuelve mas rigido y estable 
Osuna Murillo Heriberto Jesús Mariano, Instituto Tecnológico de Tepic
Asesor: Dra. María Milagrosa del Carmen Pérez Sánchez, Universidad Autónoma de Yucatán

VIVIENDA ADECUADA, HABITAD SUSTENTABLE Y COHESIóN SOCIAL "JARDINES MULTIPROPóSITO"


VIVIENDA ADECUADA, HABITAD SUSTENTABLE Y COHESIóN SOCIAL "JARDINES MULTIPROPóSITO"

Osuna Murillo Heriberto Jesús Mariano, Instituto Tecnológico de Tepic. Asesor: Dra. María Milagrosa del Carmen Pérez Sánchez, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

La vivienda adecuada, el hábitat sustentable y la cohesión social son tres elementos interrelacionados que presentan desafíos significativos en el contexto urbano y rural contemporáneo. Estos conceptos no solo afectan la calidad de vida de las personas, sino también el desarrollo sostenible de las comunidades y la estabilidad social. En la ciudad de Mérida, Yucatán, se ha registrado un crecimiento considerable en los últimos años. Como consecuencia, la ciudadanía demanda cada vez más viviendas para poder satisfacer sus necesidades. Esta situación ha llevado a la creación de colonias en los límites de la ciudad y dentro de una zona protegida del municipio conocida como Reserva Ecológica Cuxtal. Estas colonias están creciendo de manera descontrolada, lo que dificulta a la ciudad satisfacer adecuadamente las necesidades de sus habitantes. El área en la que hemos estado desarrollando nuestra investigación es una colonia de bajos recursos ubicada en los límites de la ciudad, precisamente en la frontera de la reserva ecológica. Esta situación representa una problemática notable debido al gran impacto que podría generar en el ecosistema de la zona. Entre las carencias identificadas dentro de la colonia se encuentra la falta de áreas verdes para la recreación y socialización de sus habitantes, siendo el punto focal de nuestra investigación de verano.



METODOLOGÍA

El proyecto en el cual estamos trabajando ha evolucionado durante aproximadamente dos años con un enfoque de investigación mixto que combina métodos cuantitativos y cualitativos. Se divide en tres fases: diagnóstico e identificación de la problemática, análisis, e interpretación del proyecto. Actualmente, estamos en la tercera fase. La expansión de esta nueva colonia en Mérida, Yucatán, podría causar daños ecológicos, por lo que buscamos crear un espacio de transición entre lo urbano y lo natural. Ante la falta de áreas verdes, trabajamos en los umbrales de las viviendas de algunos vecinos de la colonia Jacinto Canek. Se seleccionaron 16 familias de manera aleatoria para participar en el proyecto, buscando mejorar equitativamente sus condiciones de vivienda. Para la recolección de datos, se usaron entrevistas semiestructuradas y observación. Las entrevistas indagaron sobre las condiciones de vivienda y percepción de áreas verdes, mientras que la observación ayudó a identificar materiales útiles para el proyecto. Procedimiento: Preparación: Desarrollo y validación de instrumentos de recolección de datos. Recolección de datos: Entrevistas y observación para comprender las condiciones de vida. Análisis de datos: Propuestas específicas para mejorar los umbrales de las viviendas. Revisión de propuestas con las familias: Ajuste de propuestas según necesidades, incluyendo jardines y áreas de cultivo. Interpretación del proyecto: Implementación de propuestas y taller de jardinería para las familias. Revisión de resultados: Evaluación del progreso de las plantaciones tras una semana. Seguimiento del proyecto: Supervisión a cargo de las familias y las coordinadoras, la Dra. Pérez Sánchez María Milagrosa del Carmen y la Dra. Carmen García Gómez.  


CONCLUSIONES

Este proyecto no solo ha mejorado las condiciones de vida de las familias participantes, sino que también ha fomentado una mayor conciencia sobre la importancia de un hábitat sustentable y la cohesión social. La colaboración entre los investigadores, las familias y los expertos en el campo ha sido fundamental para el éxito del proyecto, y su enfoque participativo y adaptativo sirve como modelo para futuras intervenciones en comunidades similares. 
Pachuca López Alondra Lizbeth, Universidad de Guadalajara
Asesor: Dr. Enrique Rosendo Andrés, Benemérita Universidad Autónoma de Puebla

ESTUDIO TEóRICO Y SIMULACIóN DE LA CELDA SOLAR CDS/SB2SE3.


ESTUDIO TEóRICO Y SIMULACIóN DE LA CELDA SOLAR CDS/SB2SE3.

Pachuca López Alondra Lizbeth, Universidad de Guadalajara. Asesor: Dr. Enrique Rosendo Andrés, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El estudio de las celdas solares es crucial para la sostenibilidad ambiental, ya que representan una fuente de energía renovable que convierte la luz solar en electricidad. Esta tecnología es una alternativa para reducir la dependencia de los combustibles fósiles y ofrece una posible solución para promover la sostenibilidad ambiental. Además, impulsa la innovación y el desarrollo tecnológico al aprovechar las propiedades de los materiales utilizados en la fabricación de estas celdas. Por lo tanto, en este trabajo se estudia, simula y optimiza una propuesta variando los parámetros sobre el espesor y band gap de los materiales que conforman la celda solar compuesta por la unión PN de sulfuro de cadmio y seleniuro de antimonio (CdS/ Sb2Se3).



METODOLOGÍA

En este trabajo se utilizó el software SCAPS-1D para simular la heteroestructura de CdS/ Sb2Se3 donde se hizo una previa investigación de las propiedades y características de los materiales propuestos para la celda. Se recabaron valores particulares de cada material como lo es la energía band gap, afinidad electrónica, espesor de la capa, así como la densidad efectiva de los estados de la banda de conducción y de valencia, entre otros. Estos valores fueron utilizados para la simulación de la capa p (Sb2Se3) y capa n (CdS), donde se dio enfoque a la eficiencia de la celda solar, haciendo variaciones en el espesor y band gap. Los datos obtenidos en la simulación fueron graficados donde se hizo un análisis de las curvas obtenidas, para observar el comportamiento en cuanto a la variación de los parámetros y valores en el espesor y band bag de cada capa, donde los valores óptimos fueron elegidos considerando el beneficio-costo del material. Para la capa p la variación en cuanto al espesor fue 0.01 µm a 4.0 µm y bang gap fue 1.0 a 1.22 eV. En la capa n, la variación en el espesor fue de  0.01 µm a 2.0 µm y bang gap fue 2.0 a 3.0 eV.  


CONCLUSIONES

El valor optimo del espesor para nuestra capa p es de 100 nm, se obtuvieron espesores mayores con mejor respuesta, si consideramos el tamaño y la movilidad del electrón, tendrá el suficiente espacio para lograr moverse y reduciendo el riesgo que presente fugas en relación del Jsc y Voc., y es lo suficientemente gruesa para absorber eficientemente la luz solar, particularmente en el rango espectral donde el sol emite la mayor parte de su energía. Además, el band gap propuesto para la capa p es de 1.2 eV, analizando los datos obtenidos en la simulación, fue el valor donde se logro observar un voltaje máximo. Mientras que para nuestra capa el valor propuesto fue de 50 nm, aunque de acuerdo con los datos obtenidos en la gráfica, se observó que el comportamiento en cuanto a los otros espesores, son similares, lo que concluimos que cualquier valor en el espesor de la capa n puede ser considerable. El valor propuesto para el band gap de la capa n fue de 2.4 eV, donde, aunque la variación del Band gap fue la misma respuesta a comparación de los otros valores. Cabe mencionar que en la literatura el band gap es de 2.4 eV, por lo que se concluyo que este valor es apto para nuestra capa n. Por último, en cuanto a la eficiencia de nuestra celda solar es de 4.5%, aunque es un porcentaje un poco bajo, a comparación de otras celdas con diferentes materiales. El grosor optimo de nuestra celda fue elegido considerando otros factores como el beneficio y costo, anteriormente en los datos obtenidos en las gráficas, se obtuvo mejor eficiencia cuando el grosor es mayor, por lo que se decidió considerar que en alguna aplicación industrial los valores optimo elegidos son mejor opción para su producción y ahorro de material.  
Palacios Uribe Itzia Natalia, Universidad de Guadalajara
Asesor: Dr. Roberto Márquez Islas, Hospital General de México

DETECCIóN DE HEMóLISIS EN ERITROCITOS SANOS Y ANéMICOS BAJO ESTRéS TéRMICO UTILIZANDO UN SISTEMA óPTICO


DETECCIóN DE HEMóLISIS EN ERITROCITOS SANOS Y ANéMICOS BAJO ESTRéS TéRMICO UTILIZANDO UN SISTEMA óPTICO

Palacios Uribe Itzia Natalia, Universidad de Guadalajara. Asesor: Dr. Roberto Márquez Islas, Hospital General de México



PLANTEAMIENTO DEL PROBLEMA

La sangre es un tejido conectivo líquido crucial para la supervivencia y el funcionamiento óptimo del organismo humano. Realiza múltiples funciones, incluyendo el transporte de diversas sustancias y células a través del sistema cardiovascular. Compuesta por plasma, una sustancia intercelular líquida, la sangre contiene eritrocitos, leucocitos y plaquetas. No solo es esencial para el transporte de nutrientes, gases y desechos, sino que también regula la temperatura corporal y protege contra patógenos, destacando su importancia en la fisiología humana. En esta investigación, nos enfocamos en los eritrocitos, analizando su estabilidad y comportamiento bajo condiciones específicas. Se investigaron factores mecánicos, químicos y biológicos que afectan la estructura y función de los eritrocitos, con el fin de comprender mejor su dinámica y respuesta en diferentes contextos. Se desarrolló una técnica para medir la hemólisis inducida por cambios de temperatura en medios isotónicos. Este enfoque permitió obtener información valiosa sobre la estabilidad y viabilidad de las membranas celulares bajo estrés térmico.



METODOLOGÍA

Materiales: Mesa óptica, diodo láser, celda contenedora, plataforma, prisma semicircular, sensor, potenciómetro, goniómetro óptico, plataforma XY, soporte del agitador, resistencia y termómetro, regulador de temperatura. Proceso de preparación: El dispositivo óptico mide el índice de refracción (IR) de una disolución sanguínea durante la hemólisis, con un cambio gradual de temperatura de 20°C a 55°C. La medición precisa del índice de refracción es clave en diversas aplicaciones científicas e industriales. Utilizando la ley de Fresnel, el dispositivo mide la intensidad de la luz reflejada por un láser incidido en un prisma que contiene la solución. La señal eléctrica resultante se usa para determinar el IR. El refractómetro, diseñado para medir el índice de refracción de materiales, es crucial para la caracterización de soluciones isotónicas y la calibración del dispositivo. Calibración del dispositivo óptico: El objetivo principal era desarrollar un protocolo de calibración preciso para el arreglo óptico, asegurando exactitud y repetibilidad en las mediciones ópticas. Se probaron cinco mezclas de soluciones salinas, incluyendo una isotónica, ajustando el ángulo de rotación del prisma y midiendo el potencial incidente en el sensor. Esto permitió trazar una curva de calibración precisa, validando la precisión del dispositivo y el alineamiento del ángulo crítico. Preparación de muestras: Se recolectaron 20 muestras de sangre, 10 de individuos sanos y 10 de individuos anémicos. Tras sedimentar las muestras, se seleccionaron 1 ml de eritrocitos y 2.2 ml de matriz isotónica por muestra. Esto permitió obtener muestras homogéneas para medir parámetros ópticos y evaluar la hemólisis inducida en diferentes condiciones experimentales.


CONCLUSIONES

En el análisis de las pruebas, se observó un decaimiento del potencial eléctrico en sangre anémica a temperaturas entre 35°C y 45°C, con curvas prolongadas desde 0.340 mV a 0.200 mV. En sangre sana, el decaimiento comenzó a temperaturas entre 45°C y 60°C, con curvas desde 0.460 mV a 0.200 mV. Estas observaciones muestran que los eritrocitos anémicos son más susceptibles al estrés térmico.
Palma Moran Luis Fernando, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Mtro. Alvaro Antonio Mejía Quiroz, Universidad Nacional Autónoma de Nicaragua, Managua

USO DE APPS PARA EL APRENDIZAJE DEL LENGUAJE DE SEñAS APLICADO A ESTUDIANTES DE LA CARRERA DE COMUNICACIóN PARA EL DESARROLLO Y FíSICA MATEMáTICA EN EL SEGUNDO SEMESTRE ACADéMICO 2024


USO DE APPS PARA EL APRENDIZAJE DEL LENGUAJE DE SEñAS APLICADO A ESTUDIANTES DE LA CARRERA DE COMUNICACIóN PARA EL DESARROLLO Y FíSICA MATEMáTICA EN EL SEGUNDO SEMESTRE ACADéMICO 2024

Cruz Aguilera Arlys Karina, Universidad Nacional Autónoma de Nicaragua, Managua. Palma Moran Luis Fernando, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Mtro. Alvaro Antonio Mejía Quiroz, Universidad Nacional Autónoma de Nicaragua, Managua



PLANTEAMIENTO DEL PROBLEMA

El principal objetivo de la investigación consiste en. Evaluar el impacto del uso de aplicaciones móviles en el aprendizaje del lenguaje de señas para estudiantes de Comunicación para el Desarrollo y Física Matemática durante el segundo semestre académico de 2024. con la finalidad de mejorar el proceso de enseñanza aprendizaje del lenguaje de señas. El aprendizaje del lenguaje de señas es uno de las actividades más importantes que se pueden aprender, las discapacidades auditivas y comunicativas son una de las más comunes en Nicaragua. Aprender este lenguaje ayuda no solo a comunicarse con esas personas, sino que también evita que se sientan excluidas en conversaciones. Se pueden observar en las cadenas de televisión pública y privadas traductores especializados en lenguaje de señas, esto para incluir a las personas en los eventos. De ahí que se debe practicar la inclusión con estas personas. Tanto en primaria, secundaria y en educación superior se presentan estudiantes con capacidades diferentes entre ellas las más comunes son las auditivas y de expresión de palabras, por lo que trabajar con estos jóvenes requiere de conocimientos técnicos en comunicación que muy pocos conocen como el lenguaje de señas, existen manuales que explican como hablar empleando las manos pero no existen aplicaciones que brinden una oportunidad para dar significado con más rapidez a las señas que se hacen. Los jóvenes que pueden comprender el lenguaje son pocos al igual que los maestros. En la actualidad se busca que los maestros aprendan desde sus estudios el lenguaje para poder establecer comunicación con personas con deficiencias en la comunicación o discapacidades de comunicación de nacimiento. Se pretende superar esa barrera comunicativa. El uso de la tecnología aplicada a la educación se ha convertido en un factor decisivo para el aprendizaje de la temática de lenguaje de señas e interpretación de las mismas.



METODOLOGÍA

Se hizo un análisis de las principales problemáticas que sufren las personas sordo mudas y las personas que tienen una discapacidad auditiva, y la principal problemática que se presentó fue el proceso de comunicación, en donde las personas no se pueden comunicar con individuos que poseen este tipo de discapacidad, principalmente porque desconocen el lenguaje de señas el cual es un lenguaje no verbal. Luego de la observación se hizo una búsqueda de aplicaciones virtuales que podrían ayudar a mejorar este problema y se procedió a su análisis cualitativo, destacando su funcionamiento y accesibilidad. Se hicieron entrevistas en línea dirigidas a 40 estudiantes procedentes del Centro Universitario Regional de Estelí, los cuales pertenecen a las carreras de I año de Comunicación para el Desarrollo y III año de Física Matemática, carreras donde la comunicación es una parte fundamental del proceso de enseñanza-aprendizaje. Donde se obtuvo los resultados siguientes: el 100 % de los estudiantes entrevistados conoce que es una enfermedad auditiva y de igual manera saben que es el lenguaje de señas. El 70 % de los entrevistados dijo que descargarían aplicaciones que les permita aprender con facilidad el lenguaje de señas. Además de agregar que Nicaragua presenta las condiciones adecuadas para la implementación y el desarrollo de tecnologías que aporten ayuda a la educación, así como programas de atención a personas con capacidades diferentes. El porcentaje de participación fue el siguiente, el 75 % de participación corresponde a la carrera de Física y el restante 25 % a Comunicación para el Desarrollo. Además de analizar el pensamiento de los estudiantes acerca de las discapacidades auditivas y que piensan de estas. Agregando, la muestra presenta características positivas las cuales son, el deseo de aprender lenguaje de señas para romper la barrera de comunicación con personas con discapacidad auditiva, para entablar conversaciones con ellos y así ayudarlos en situaciones donde se requiera, comunicarse con las personas es un impulso natural y primitivo por lo que se han buscado manera de establecer relaciones y mantenerlas como un símbolo de confianza y apoyo. Se muestra la simpatía de los estudiantes y personas en general al establecer relaciones de amistad con personas sordo mudas. El uso de aplicaciones educativas, ha sido implementado en el transcurso de los años como una forma de acelerar el proceso de adquisición de conocimientos en el aula de clase y como material de apoyo, de acuerdo a esta implementación se han visto grandes resultados en las áreas donde se ha presentado. Es por esto que aplicar tecnologías que porten ayuda al aprendizaje del lenguaje de señas es una buena señal y expresa el acompañamiento que se le debe dar a este proceso donde participan las personas y sus familias que desean aprender este lenguaje como su segunda lengua por así decirlo ya que el lenguaje de señas es un idioma de manera formal ya que posee características que lo hacen serlo. Por eso aprender lenguaje de señas es una manera de apoyar la inclusión de estas personas a la sociedad actual, donde la tecnología se vuelve cada vez más común y la comunicación se vuelve fundamental para expresar ya sea descontento o admiración hacia algo. La investigación tuvo un carácter exploratorio y de corte transversal, además de presentar un paradigma socio crítico y muestra no probabilística. Donde se utilizaron métodos de recolección de datos como la entrevista y la observación y se utilizaron fuentes primarias de datos, como lo son estudiantes y docentes, libros y sitios web gubernamentales que brindan información objetiva.


CONCLUSIONES

Las principales conclusiones a las que se llegaron fueron las siguientes: 1. El uso de tecnología aplicada a la educación es una herramienta de alto valor que debemos aprender a usar y aplicar a los entornos necesarios donde se puedan utilizar, en el lenguaje de señas se puede utilizar como una alternativa para la enseñanza tradicional de ésta. 2. Analizar aplicaciones antes de aplicarlas para confirmar su viabilidad y utilidad dentro del aula de clase y si la información que se presenta es correcta para retomarla, en el desarrollo de la clase.  
Palmeros Palmeros Angel Gabriel, Universidad Veracruzana
Asesor: Dra. Maria Elena Tejeda Yeomans, Universidad de Colima

INVESTIGACIÓN DEL HIPERÓN LAMBDA EN FÍSICA NUCLEAR


INVESTIGACIÓN DEL HIPERÓN LAMBDA EN FÍSICA NUCLEAR

Palmeros Palmeros Angel Gabriel, Universidad Veracruzana. Asesor: Dra. Maria Elena Tejeda Yeomans, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

A lo largo de la historia se han estudiado los fenómenos físicos de la naturaleza. En el siglo XIX hubo grandes avances en la física de partículas y la física nuclear. La física nuclear, como disciplina distinta de la física atómica, se puede decir que se remonta a 1896, cuando Henri Becquerel observó que las placas fotográficas estaban siendo afectadas por una radiación desconocida emanada de los minerales de uranio, descubriendo así la radioactividad. La existencia de isótopos, átomos con núcleos de masas diferentes pero misma carga, fue propuesta por Soddy y su explicación completa llegó con el descubrimiento del neutrón por Chadwick en 1932, cerrando así las bases para la comprensión de los núcleos atómicos. Estas ideas aún constituyen el marco esencial de nuestra comprensión del núcleo hoy en día, donde los núcleos son estados ligados de nucleones mantenidos juntos por una fuerza nuclear fuerte de corto alcance independiente de la carga. Sin embargo, todavía no hay una teoría única capaz de explicar todos los datos de la física nuclear y se utilizan diferentes modelos para interpretar diferentes clases de fenómenos. Entre algunos fenómenos interesantes son los relacionados el hiperón lambda. Estos están caracterizados por la presencia de un quark strange. La idea de este trabajo es investigar acerca de este: qué es, cómo su decaimiento permitió descubrir un fenómeno fundamental de la física de partículas y si es posible crear una "tabla periódica" de la extrañeza (quark strange).



METODOLOGÍA

Lo primero que realizamos es estudiar más acerca del Modelo Estándar de partículas y el Modelo Estándar Cosmológico. Estas sesiones fueron las dos primeras semanas de las estancia, con el objetivo de comprender mejor el formalismo utilizado en estas disciplinas. Posteriormente, ya asignado el proyecto se comenzó a realizar la investigación. Las preguntas más fundamentales serán buscadas en el Particle Data Group (PDG), ya que es la fuente más actualizada que contiene información sobre partículas. Además, al buscar en la página podremos encontrar otras referencias que sean de utilidad.  Una vez tenemos información sobre el qué es, toca investigar sobre su decaimiento. El objetivo es mostrar la violación de la simetrìa CP, conocida en el mundo de la física nuclear y de partículas. Se busca en diferentes fuentes de información, como libros, artículos, notas, etc. Posteriormente, es investigar acerca de si es posible crear núcleos con hiperones para finalmente ver si es posible crear una especie de "tabla periódica" de dichos núcleos. Para ello, buscamos en distintas fuentes de información cómo funciona esto.


CONCLUSIONES

Conforme la investigación fue avanzando, pude ver lo interesante que es esta rama de la física. A pesar de que hubieron distintos contratiempos durante el periodo de la estancia (por problemas personales) y la investigación no fue tan extensa como lo esperaba, pude obtener la información necesaria para comprender un poco más acerca de esta temática, ya que el nivel de esta disciplina es mayor al que tengo actualmente. Se espera que pueda continuar con dicha investigación conforme vaya adquiriendo los conocimientos necesarios y pueda crear una investigación de excelente nivel.
Palomino Alday Adriana Guadalupe, Universidad de Sonora
Asesor: Prfnal. Cristhian Iván Bucheli Viteri, Instituto de Educación Técnica Profesional de Roldanillo Valle - INTEP

IDENTIFICACIóN DE PACIENTE DE LA DIVERSIDAD FLORíSTICA Y FAUNíSTICA DE LAS ZONAS ARBóREAS EN LA QUEBRADA PLATANARES


IDENTIFICACIóN DE PACIENTE DE LA DIVERSIDAD FLORíSTICA Y FAUNíSTICA DE LAS ZONAS ARBóREAS EN LA QUEBRADA PLATANARES

Palomino Alday Adriana Guadalupe, Universidad de Sonora. Asesor: Prfnal. Cristhian Iván Bucheli Viteri, Instituto de Educación Técnica Profesional de Roldanillo Valle - INTEP



PLANTEAMIENTO DEL PROBLEMA

En la cuenca de la Quebrada Platanares, ubicada en Valle del Cauca, Colombia, se encuentra una rica biodiversidad según Bernal y Calderón (2022). Sin embargo, su estado actual es incierto debido a la falta de información completa y actualizada sobre la biodiversidad en Roldanillo. Esto complica las medidas que debiesen tomarse para la conservación y el manejo adecuado del ecosistema, ya que se desconoce la interrelación entre flora y fauna y los factores ambientales que afectan la distribución y abundancia de las especies. Además, la falta de inventarios forestales y evaluaciones de impacto ambiental de actividades humanas, como la deforestación para la agricultura, pone en riesgo la biodiversidad y la población local. Vargas y Gallego (2011) señalan que la deforestación para la producción de aguacate, apoyada por el gobierno, fragmenta el hábitat natural y causa la pérdida de especies representativas. Esta situación aumenta la necesidad de entender mejor cómo la interrelación entre flora y fauna influye en la biodiversidad de la microcuenca Platanares. En la cuenca de la Quebrada Platanares, ubicada en Valle del Cauca, Colombia, se encuentra una rica biodiversidad según Bernal y Calderón (2022). Sin embargo, su estado actual es incierto debido a la falta de información completa y actualizada sobre la biodiversidad en Roldanillo. Esto complica las medidas que debiesen tomarse para la conservación y el manejo adecuado del ecosistema, ya que se desconoce la interrelación entre flora y fauna y los factores ambientales que afectan la distribución y abundancia de las especies. Además, la falta de inventarios forestales y evaluaciones de impacto ambiental de actividades humanas, como la deforestación para la agricultura, pone en riesgo la biodiversidad y la población local. Vargas y Gallego (2011) señalan que la deforestación para la producción de aguacate, apoyada por el gobierno, fragmenta el hábitat natural y causa la pérdida de especies representativas. Esta situación aumenta la necesidad de entender mejor cómo la interrelación entre flora y fauna influye en la biodiversidad de la microcuenca Platanares.



METODOLOGÍA

La investigación para identificar la diversidad florística y faunística de las zonas arbóreas de la quebrada Platanares se clasifica como descriptiva, y existen diferentes métodos para llevarla a cabo. Este tipo de estudio se centra en la observación y descripción detallada de las características de la biodiversidad en la zona, proporcionando una base sólida para futuras investigaciones y estrategias de conservación. Para la recolección de datos, se recurrirá a documentos existentes, siendo la principal fuente el libro KUN: Especies florísticas del Valle del Cauca. Esta obra es fundamental, ya que ofrece una visión exhaustiva de la diversidad florística de la región, permitiendo no solo identificar las especies presentes, sino también comprender su ecología y las interrelaciones que mantienen entre ellas y con el entorno. La información proporcionada por este libro es crucial para establecer una línea base de referencia y guiar las observaciones de campo. En cuanto al estudio de la fauna, se llevará a cabo un meticuloso trabajo de campo. Para capturar imágenes y datos sobre las especies animales presentes en la zona, se utilizarán cámaras trampa Bushnell. Estas cámaras son herramientas eficaces para monitorear la fauna de manera no invasiva, registrando la presencia y actividad de diversas especies en su hábitat natural. La información obtenida a través de estas cámaras permitirá identificar las especies faunísticas y analizar su comportamiento y patrones de movimiento. Una vez recolectados los datos tanto de la flora como de la fauna, se procederá a un análisis detallado de cada una de las especies identificadas. Este análisis incluirá descripciones morfológicas, hábitos ecológicos, y las posibles amenazas que enfrentan en su entorno natural.


CONCLUSIONES

El bosque de la quebrada Platanares muestra una alta coincidencia con las especies documentadas en el libro KUN: Especies florísticas del Valle del Cauca, lo que sugiere un buen estado de conservación de la biodiversidad en la zona. Esta área colinda con la reserva natural Cantarana (El Dovio) y, geográficamente, está conectada con el Chocó biogeográfico, lo que refuerza su importancia ecológica y la riqueza de su biodiversidad. Sin embargo, la influencia de actividades antrópicas, como la agricultura y la ganadería, está provocando un desplazamiento de especies y reduciendo su supervivencia. La expansión de estas actividades degrada el hábitat natural, fragmentando el bosque y afectando la conectividad ecológica necesaria para la dispersión y reproducción de muchas especies. Además, el área de conservación adquirida por el municipio bajo la ley 99, artículo 111, sigue siendo insuficiente. La extensión del terreno protegido es muy pequeña y su ubicación no es estratégicamente óptima para la conservación efectiva de los recursos naturales. Esto limita la capacidad de preservar la biodiversidad y mantener las funciones ecológicas del bosque. Es necesario considerar la expansión de las áreas protegidas y la implementación de estrategias de manejo más efectivas para mitigar los impactos negativos de las actividades humanas y garantizar la conservación a largo plazo del ecosistema de la quebrada Platanares.
Parisheck Salazar Keny, Universidad de Guadalajara
Asesor: Dr. Eber Enrique Orozco Guillen, Universidad Politécnica de Sinaloa

ANALISIS DEL POTENCIAL AGROVOLTAICO DEL ESTADO DE SINALOA


ANALISIS DEL POTENCIAL AGROVOLTAICO DEL ESTADO DE SINALOA

Parisheck Salazar Keny, Universidad de Guadalajara. Asesor: Dr. Eber Enrique Orozco Guillen, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda de alimentos y energía en el contexto de un cambio climático acelerado impone la necesidad de soluciones innovadoras y sostenibles en el sector agrícola. Los sistemas agrovoltaicos, que combinan la producción agrícola con la generación de energía solar fotovoltaica, emergen como una tecnología de vanguardia que permite maximizar el uso de la tierra, promover la sustentabilidad y aumentar la eficiencia energética. El estado de Sinaloa, por su alta producción agrícola es denominado el granero de México, por esta razón se plantea analizar el potencial agrovoltaico en los municipios de Ahome, Culiacán y Escuinapa ubicados al norte centro y sur del estado.  De acuerdo con información generada por el Sistema de Información Agroalimentaria y Pesquera, organismo dependiente de SADER, en el año 2023, Sinaloa cultivó un millón 016 mil 995 hectáreas. En donde el 58.1% lo representa el cultivo de granos y el 25.7% en hortalizas. Entre los beneficios que podrían tener los agricultores con la instalación de sistemas fotovoltaicos, se tiene la disminución de la temperatura y  las necesidades hídricas de la tierra ya que disminuye la evaporación de agua por radiación, además de un incremento en la producción del cultivo también pueden generar energía eléctrica disminuyendo la facturación y las emisiones de CO2  



METODOLOGÍA

Se ha realizado una revisión del estado de arte sobre la sostenibilidad agrícola y los sistemas agrovoltaicos en diferentes fuentes de información, también se ha analizado el área cultivada del estado de sinaloa de acuerdo a los organismos oficiales. Además,  se ha utilizado el software  System Advisor Model (SAM) para llevar a cabo simulaciones de generación de energía eléctrica a partir de sistemas fotovoltaicos en los municipios de Ahome, Culiacán y Escuinapa pertenecientes a la región norte , centro y sur del estado de Sinaloa. La simulación se ha realizado con una propuesta de 360 kWp que requieren de 0.2 hectáreas.   


CONCLUSIONES

El estado de Sinaloa, en el año 2023  cultivó 1 millón 016 mil 995 hectáreas, de las cuales 67,504 corresponden a  hortalizas, que son cultivos que pueden coexistir con los sistemas fotovoltaicos generando beneficios económicos, ambientales y sociales. Las simulaciones realizadas con el SAM, muestran que un parque fotovoltaico de 360 kWp en los municipios indicados pueden generar entre 0.670 GWh y 0.698 GWh al año dejando de emitir entre 295 y 283 toneladas de CO2 al año. En términos económicos, de acuerdo a la tarifa agrícola RABT indicada por la CFE en su esquema tarifario, cuyo costo por kWh es en promedio de 2.31 pesos; un parque fotovoltaico con la potencia indicada permitiría ahorros por concepto de pago de energía al año de aproximadamente 1, 600,000 pesos,  además del beneficio ambiental y social, la inversión requerida para la instalación se podría recuperar entre 4 y 6 años aproximadamente.   
Pastrana Quirino Elizandra, Universidad Autónoma de Guerrero
Asesor: Dra. Erika Betzabeth Palafox Juárez, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías

APLICACIóN DE LOS SISTEMAS DE INFORMACIóN GEOGRáFICA PARA LA CARACTERIZACIóN DE UNA CUENCA HIDROGRáFICA Y LA IDENTIFICACIóN DE ZONAS DE MAYOR PERMEABILIDAD


APLICACIóN DE LOS SISTEMAS DE INFORMACIóN GEOGRáFICA PARA LA CARACTERIZACIóN DE UNA CUENCA HIDROGRáFICA Y LA IDENTIFICACIóN DE ZONAS DE MAYOR PERMEABILIDAD

López Miranda Sandra, Universidad Autónoma del Estado de México. Pastrana Quirino Elizandra, Universidad Autónoma de Guerrero. Asesor: Dra. Erika Betzabeth Palafox Juárez, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías



PLANTEAMIENTO DEL PROBLEMA

La principal actividad económica en el estado de Quintana Roo es el turismo, especialmente el turismo de sol y playa, específicamente la laguna de Bacalar, conocida como la "Laguna de los Siete Colores", exhibe una gama de tonalidades que van desde el blanco y el turquesa hasta el azul profundo que atraen a números visitantes, tanto nacionales como internacionales. No obstante, cuando los turistas se encuentran con paisajes contaminados, debido a cambios en los elementos naturales, su experiencia se ve afectada, perjudicando la economía local.  Un ejemplo de esto ocurrió en junio del 2020, cuando por el paso de la tormenta tropical Cristóbal, las lluvias extraordinarias que se mantuvieron constantes durante dos semanas dieron como resultado el cambio de coloración de la laguna, quedando por casi dos años de color verde - marrón. Estos cambios en la laguna evidencian la alta conectividad de los ecosistemas de la cuenca; ya que el cambio de uso de suelo como, la deforestación, ganadería, agricultura, urbanización de las áreas adyacentes a la laguna, afectan directa e indirectamente al cuerpo de agua.



METODOLOGÍA

Con la finalidad de conocer cuáles son las áreas que mayor influyen en el aporte de materiales a la laguna, se implementó un Análisis Multicriterio apoyado en Sistemas de Información Geográfica (SIG), para caracterizar la cuenca hidrográfica y conocer las áreas que más incluyen en la conectividad de la cuenca. Se recopiló información geoespacial del tipo de suelo, cuerpos y flujos de agua, uso de suelo y vegetación, y el modelo digital de elevación para el área de estudio. Se generó una base de datos con los atributos de cada variable, y se analizó la información de cada de ellas y se categorizó en función de su contribución a la identificación de zonas permeables de mayor conectividad dentro de la cuenca. Para el tratamiento de cada capa se empezó con la de suelos, que fue primordial para definir el número de reclasificaciones a mantener para las demás variables. Con ayuda de un especialista en suelos, se definieron 5 categorías con base en la permeabilidad, dando mayor importancia a los suelos más permeables. Para el modelo digital de elevación, se considerando las zonas más bajas y planicies como las de mayor importancia y los de mayor altitud como menos importantes. Para el uso de suelo y vegetación, se consideró como de mayor importancia a las zonas desprovistas de vegetación y con actividad agrícola, y como menor importancia a las áreas con mayor cobertura vegetal. Con respecto a las cuerpos y flujos de agua, se construyeron buffer asignando 10 metros de distancia a los flujos intermitentes y 20 metros a los flujos perennes. Posteriormente se unieron ambas capas y se categorizaron con base en su condición y temporalidad. Para poder implementar el análisis multicriterio todas las capas se llevaron a un formato ráster con tamaño de píxel de 10 m. Se integró un SIG con todas las variables y se le asignó a cada una un porcentaje de importancia, la mayor ponderación se asignó al modelo digital de elevación con un 35%, al suelo con un 30%, al uso de suelo y vegetación con un 20% y finalmente a los cuerpos de agua con un 15%. Finalmente, con ayuda de la herramienta Weighted Overlay del software ArcGIS 10.4 se generó el mapa de las zonas de mayor permeabilidad de la Cuenca de la Bahía de Chetumal.


CONCLUSIONES

El análisis integral de la cuenca permitió detectar las zonas más permeables del área de estudio. La superposición de las diferentes capas permitió visualizar la interacción de los distintos atributos logrando obtener resultados que evidencian la conectividad entre los ecosistemas de esta zona. Se concluyó que en el noroeste y sureste del área de estudio se encuentran las zonas más bajas y con suelos altamente permeables. Asimismo, se observó el tipo de cobertura influye en la permeabilidad y favorece el escurrimiento del agua hacia zonas más bajas; así como que las áreas con vegetación más densa contribuyen a retener el agua reduciendo y el aporte de materiales a la laguna. Finalmente, se considera que los resultados obtenidos pueden contribuir a la planeación territorial, al uso de suelo y actividades en la cuenca, disminuir las consecuencias del cambio de uso de suelo, identificar zonas degradadas que requieran reforestación, así como zonas que se deben conservar más como los humedales y manglares, además de motivar la participación de la población para conservar la salud del ecosistema.  
Patron Rochin Darren Yitzak, Universidad Autónoma de Baja California
Asesor: Dr. Jaime Hernández Sánchez, Benemérita Universidad Autónoma de Puebla

MODELO ESTÁNDAR EXTENDIDO TRIPLETE-SINGLETE: MATERIA OSCURA.


MODELO ESTÁNDAR EXTENDIDO TRIPLETE-SINGLETE: MATERIA OSCURA.

Patron Rochin Darren Yitzak, Universidad Autónoma de Baja California. Asesor: Dr. Jaime Hernández Sánchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En las fronteras del conocimiento de la física teórica se encuentran aún muchos fenómenos por descubrir, uno de esos fenómenos es la materia oscura. En física de partículas se trabaja con el modelo estándar que describe el comportamiento de las partículas elementales y sus interacciones, mediante las teorías de gauge y de grupos. Pero el modelo estándar aún se encuentra incompleto debido a que la materia oscura, entre otros fenómenos, no han sido del todo comprendidos.  



METODOLOGÍA

Estudiamos el potencial del modelo estándar más un, singlete más un triplete. Estudiamos este potencial mediante el lenguaje de programación Wolfram Mathematica que nos ayuda a calcular la matriz de masa de nuestro modelo y también a su vez calcular su primera y segunda derivada para conocer los máximos y mínimos del potencial.   


CONCLUSIONES

Deseamos obtener candidatos a materia oscura en el sector escalar del modelo estándar, estos candidatos a materia oscura deben por supuesto cumplir todas las propiedades que esta tiene.  Actualmente, en física de partículas se han sido encontrados teóricamente algunos candidatos a materia oscura, pero esto solo podrá ser comprobado el día en que se descubra experimentalmente y ver cuál de todos esos candidatos es correcto o, por el contrario, cuáles son incorrectos.        
Pedro Trujano Daniela Jazjanny, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara

ANáLISIS DE LA RADIACIóN SOLAR EN LOS MESES CáLIDOS- HúMEDOS Y SU IMPACTO EN LA EFICIENCIA ENERGéTICA DE SISTEMAS SOLARES EN BAHíA DE BANDERAS, MéX


ANáLISIS DE LA RADIACIóN SOLAR EN LOS MESES CáLIDOS- HúMEDOS Y SU IMPACTO EN LA EFICIENCIA ENERGéTICA DE SISTEMAS SOLARES EN BAHíA DE BANDERAS, MéX

Echeverri Ospina Cristian Alexis, Instituto de Educación Técnica Profesional de Roldanillo Valle - INTEP. Pedro Trujano Daniela Jazjanny, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La radiación solar es energía emitida por el Sol, fundamental para la vida y la mayoría de los procesos los procesos océano atmosféricos que regulan la vida en el planeta Tierra. Sin embargo no se recibe la misma cantidad de energía en toda la superficie de la Tierra.  Factores como la estación del año, la temperatura, la hora del día, fenómenos atmosféricos, la distancia entre el Sol y la Tierra y por ende la cantidad de radiación solar recibida. Además, la radiación que recibimos varía debido a que existen distintos tipos de radiación solar, que al momento de atravesar la capa de ozono, se debilitada y la irradiancia va disminuyendo.  El cambio de la radiación solar durante el día presenta la problemática de que afecta significativamente en la cantidad de energía que genera, lo cual reduce la eficiencia de los sistemas energéticos solares. 



METODOLOGÍA

Se utilizan bases de datos obtenidas de dos estaciones meteorológicas automáticas, una ubicada en el Centro Universitario de la Costa y otra en la Preparatoria Regional UDG, ambas en Puerto Vallarta Jalisco México. Las bases de datos de la radiación solar cada 30 minutos durante los años 2017 y 2021. El primer proceso por el que pasan los datos, es para una clasificación de los meses más cálidos y los meses más húmedos mediante un análisis de la humedad relativa y la temperatura. Una previa investigación nos indica que, partiendo de una misma temperatura, pero menor humedad relativa es un mes seco y con mayor humedad relativa es un mes húmedo. Se realizan cálculos de los promedios mensuales de la humedad relativa para identificar los meses más cálidos o secos y húmedos del año, de los cuales elegimos tres meses de cada uno.   Una vez identificados los seis meses del año con los que se va a trabajar, se hace el análisis de estos meses por separado, promediando los datos de radiación a lo largo del día. Es decir, se promedia el índice de radiación cada treinta minutos de todos los días del mes y así para cada uno de los seis meses. Se grafica la radiación contra la hora de los seis meses del 2017 y de igual forma para los seis meses del 2021.


CONCLUSIONES

El comportamiento de la radiación solar a lo largo del día, presenta un mayor cambio en las estaciones de la Preparatoria Regional y el CUC del año 2021. En esta última estación, el índice de la radiación registrada aumenta para todos los meses.  El mes de junio es el mes que presenta menor índice de radiación solar en la hora pico, que es entre las 12 y las 2pm, y esto coincide en las dos estaciones y en los dos años que se analizaron.  La variación de la radiación solar captada por las estaciones meteorológicas, afecta el aprovechamiento de sistemas energéticos con fuentes solares y esto influye en la eficiencia de los sistemas que utilizan fuentes solares, afectando el uso eléctrico y fotovoltaico que beneficia a los habitantes de la región de Bahía de Banderas en Puerto Vallarta. 
Pedroza Sierra Angel, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

PREDICCIóN DE SISTEMAS FINANCIEROS MEDIANTE REDES NEURONALES HíBRIDAS


PREDICCIóN DE SISTEMAS FINANCIEROS MEDIANTE REDES NEURONALES HíBRIDAS

Belmont Zúñiga Rubén, Instituto Politécnico Nacional. Gonzalez Linares Christopher, Instituto Tecnológico de La Piedad. Pedroza Sierra Angel, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el modelado de sistemas financieros, las redes neuronales son potentes herramientas para la predicción de datos. Sin embargo, un reto importante es reducir el número de parámetros entrenables. Los modelos con muchos parámetros pueden ofrecer una gran precisión, pero también tienen una mayor complejidad computacional y necesitan más recursos para su entrenamiento. El problema radica en la necesidad de innovar y diseñar arquitecturas de redes neuronales que mantengan un alto rendimiento en el modelado de sistemas financieros, pero que al mismo tiempo requieran un menor número de parámetros entrenables. El objetivo de esta investigación es proponer arquitecturas de redes neuronales hı́bridas que optimicen el equilibrio entre el número de parámetros entrenables y el desempeño predictivo del modelo.



METODOLOGÍA

La metodología de esta investigación se describe a continuación: Recopilar y preparar el conjunto de datos históricos: Obtención de la base de datos: Se utilizaron las páginas de Investing.com y finance.yahoo.com para recopilar datos históricos tanto de acciones individuales como del índice S&P/BMV IPC. La base de datos corresponde al precio de cierre de acciones de Banorte, BBVA, BMV, Inbursa y cierre del índice S&P/BMV IPC en el periodo comprendido de 2010-01-04 a 2024-03-15. Limpieza y preprocesamiento de datos: Los datos recopilados se sometieron a un proceso de limpieza para eliminar datos faltantes y cualquier inconsistencia. Este paso también se incluye un escalamiento de los datos para trabajar con valores entre 0 y 1. División del conjunto de datos: El conjunto de datos fue dividido en conjuntos de entrenamiento (70%) y de prueba (30%). Realizar la programación para obtener el tiempo de retardo: Para determinar un tiempo de retardo adecuado, se utiliza la función de información mutua. Esta función permite cuantificar la cantidad de información entre la serie temporal original y la serie temporal retrasada para diferentes valores del tiempo de retardo. Luego, la Información Mutua Promedio (AMI, por sus siglas en inglés) es utilizada para elegir el tiempo de retardo. Realizar la programación para obtener la dimensión embebida: Se utilizó el algoritmo de falsos vecinos cercanos (FNN, por sus siglas en inglés). Este método identifica aquellos puntos que permanecen cercanos al pasar de una dimensión m a una dimensión m+1. Si los puntos se alejan considerablemente en la nueva dimensión, se consideran falsos vecinos. La distancia entre los puntos se calcula mediante una fórmula específica. La dimensión embebida adecuada se elige como aquella en la que el porcentaje de falsos vecinos es menor al 10%. Realizar la programación de la operación convolucional en una red neuronal híbrida: Se programó la operación convolucional de una red neuronal híbrida. Se utilizó Google Colab como entorno de trabajo, los códigos fueron elaborados en Python utilizando las bibliotecas de TensorFlow y Keras. Realizar la programación de la parte paramétrica para la regularización de datos: Se implementó un codificador variacional para cubrir la parte paramétrica mediante la integración de una regularización del espacio latente bajo una distribución estandar, y la función pérdida KL divergence (divergencia de Kullback-Leibler). Comparar el modelado de las redes propuestas con las propuestas de la literatura actual: Evaluación de las redes neuronales propuestas: Se evaluaron las redes propuestas en términos de desempeño y cantidad de parámetros entrenables. Los modelos fueron entrenados con un número de épocas que varía de 100 a 200, el optimizador que se utilizó fue Estimador de momentos adaptativos (ADAM, por sus siglas del inglés: Adaptive Moment Estimation), se utilizó un factor de aprendizaje de 0.001. Para actualizar los pesos de las redes se utilizó la métrica de error cuadrático sobre dos y para evaluar el desempeño de las redes se utilizó la métrica de raíz del error cuadrático medio. Reportar los resultados obtenidos: Análisis de resultados: Se analizaron los resultados obtenidos, destacando las fortalezas y debilidades de las arquitecturas propuestas. Productos obtenidos: Se realizaron exposiciones para dar a conocer los avances y resultados de la investigación. Así mismo, se está trabajando en la elaboración de artículos para ser presentados en congresos.  


CONCLUSIONES

Durante la estancia se adquirieron conocimientos de ténicas tecnológicas avanzadas e innovadoras, particularmente sobre redes neuronales. Utilizando estos conociemientos, se construyeron seis redes neuronales híbridas con una arquitectura innovadora, los cuales se listan a continuación: Codificador Convolucional combinado con una red neuronal densa (MLP, por las siglas en inglés de Multilayer Perceptron). Codificador Convolucional combinado con una red neuronal recurrente (RNN, por las siglas en inglés de Recurrent Neural Network). Codificador Convolucional combinado con una red neuronal recurrente LSTM (por las siglas en inglés de Long Short-Term Memory). Codificador Variacional combinado con una red neuronal densa (MLP, por las siglas en inglés de Multilayer Perceptron). Codificador Variacional combinado con una red neuronal recurrente (RNN, por las siglas en inglés de Recurrent Neural Network). Codificador Variacional combinado con una red neuronal recurrente LSTM ( por las siglas en inglés de Long Short-Term Memory). Gracias al diseño innovador de las arquitecturas de las redes propuestas, todos nuestros modelos de redes neuronales cuentan con pocos parámetros entrenables (menos de 30 en todos los casos). Además se logró obtener un bajo error de validación y de entrenamiento (menos de 4% en todos los casos), ası́ como reducir ampliamente el costo computacional de entrenamiento los modelos. Se espera continuar con la investigación y la escritura del artı́culo, con el objetivo de publicarlo en revistas y congresos.
Peña Orta Pablo, Universidad Autónoma de Baja California
Asesor: Dr. Diego Muraca Casasola, Universidade Estadual de Campinas

INFLUENCIA DE LA FORMA DE ADICIóN DE SALES DE HIERRO EN LAS PROPIEDADES MAGNéTICAS DE NANOPARTíCULAS MAGNéTICAS RECUBIERTAS CON áCIDO CíTRICO


INFLUENCIA DE LA FORMA DE ADICIóN DE SALES DE HIERRO EN LAS PROPIEDADES MAGNéTICAS DE NANOPARTíCULAS MAGNéTICAS RECUBIERTAS CON áCIDO CíTRICO

Galindo Gonzalez Juan Manuel, Universidad Autónoma de Manizales. Peña Orta Pablo, Universidad Autónoma de Baja California. Asesor: Dr. Diego Muraca Casasola, Universidade Estadual de Campinas



PLANTEAMIENTO DEL PROBLEMA

En las últimas tres décadas ha aumentado vertiginosamente el estudio de materiales en la escala nanométrica. Un material nanométrico debe presentar en algunas de sus dimensiones tamaños nanométricos, por ejemplo: nanopartículas, nanohilos, filmes finos. El interés de estos nuevos materiales o nanomateriales es debido a que presentan propiedades emergentes diferentes de sus contrapartes masivas que posibilitan nueva y diversas aplicaciones.     De entre los sistemas más estudiados, las nanopartículas (NP’s) magnéticas, se destacan por sus propiedades específicas que permiten su utilización en hipertermia magnética, remediación ambiental, imagen por resonancia, terapia génica, suministros de fármacos, fotocatálisis,  etc. Entre las más estudiadas están  las polimorfas de Óxido de Hierro (FexOy), tales como sus fases de goethita (FeO(OH), hematita (α-Fe2O3), maghemita (γ-Fe2O3) y magnetita (Fe3O4). Estas NP’s pueden ser obtenidas por  diversos métodos de síntesis, ya sean con métodos orgánicos e inorgánicos, que permiten obtener características fisicoquímicas únicas dependiendo del método de síntesis. En este trabajo se estudiaron las propiedades magnéticas de nanopartículas magnéticas de óxido de hierro. En particular, se  estudió el efecto de la forma de adición de las sales de hierro en su síntesis en sus propiedades magnéticas y estructurales. Las muestras fueron obtenidas por coprecipitación química de precursores organometálicos. Para esto se realizaron dos muestras variando la forma de la adición de las sales de hierro en la síntesis y posteriormente se recubrieron con ácido cítrico. La estructura cristalina y la morfología de las nanopartículas obtenidas se analizaron por difracción de rayos X (DRX) y microscopía electrónica de transmisión (TEM). Las propiedades magnéticas se analizaron mediante mediciones magnéticas de corriente continúa utilizando magnetometría SQUID.  



METODOLOGÍA

Las nanopartículas de magnetita se sintetizaron por el método químico de coprecipitación de sales férricas y ferrosas utilizando como agente precipitante hidróxido de sodio. NPMs1: se realizó a partir de una disolución de 4.62 g de cloruro de hierro (III) hexahidratado (FeCl3 6H2O) y 1.71 g de cloruro de hierro (II) tetrahidratado (FeCl2 4H2O) en 450 mL de agua destilada. Paralelamente, se preparó una disolución de 4.32 g de NaOH en 240 mL de agua destilada, la cual se calentó a 65 °C. La disolución de NaOH caliente se añadió posteriormente a la disolución de sales de hierro.  NPMs2: las sales se agregaron directamente a la disolución de 4.32 g de NaOH en 240 mL de agua destilada, también calentada a 65 °C.  Ambas síntesis reaccionan durante 30 minutos con agitación magnética continua y a una temperatura constante de 65 °C. Tras la reacción, las nanopartículas se separaron magnéticamente utilizando un imán para eliminar el sobrenadante. Se realizaron lavados sucesivos con agua destilada para eliminar los residuos de NaOH y alcanzar un pH neutro (pH 7). Finalmente, las nanopartículas se secaron en un horno a 50 °C durante 5 horas. De la cantidad final obtenida de nanopartículas en cada muestra, se conservó la mitad para mediciones de caracterización, y la cantidad restante se sometió a un recubrimiento con ácido cítrico. Para el recubrimiento: las nanopartículas (NPMs1 y NPMs2) se expusieron a una disolución de 30 mL de agua destilada con una concentración molar de 0.137 M de ácido cítrico (C6H8O7) y 0.40 M de NaOH, con agitación constante y a una temperatura de 65 °C durante 20 minutos. Finalmente, se eliminó el sobrenadante, separando las nanopartículas recubiertas con ayuda de un imán, y se sometieron al mismo proceso de secado mencionado anteriormente. La estructura cristalina, la composición química y la morfología se estudiaron por difracción de rayos X (DRX) utilizando un difractómetro de rayos X en polvo (DH2 Phaser-Bruker, cuya fuente de rayos X con longitud de onda  1,54 Å / 8,047 keV Cu K-α) y microscopía electrónica de transmisión (TEM) se obtuvieron utilizando un microscopio de transmisión  CNPEM disponible en el  LNNAno. Las imágenes fueron tomadas por el supervisor, pero los análisis fueron realizados en el contexto de este trabajo por los autores. Las distribuciones de tamaño se determinaron mediante la medición manual de las partículas utilizando el software de dominio público ImageJ.  Las propiedades magnéticas fueron analizadas por  magnetometría DC utilizando un SQUID (Superconductivity Quantum Device) Tesla MPMS SQUID7.0 de tercera generación. Las mediciones de magnetización vs. temperatura se realizaron con un campo magnético de 50 Oe aplicado en los protocolos Zero-Field Cooling (ZFC) y Field-Cooling (FC) con el fin de estudiar la distribución de temperaturas de bloqueo (barreras de energía de anisotropía). Fueron realizadas medidas de  magnetización vs campo a diferentes temperaturas entre 2 K y 300 K con el campo aplicado en el rango de -4 T a 4 T para obtener el campo coercitivo (Hc) en función de la temperatura y determinar la magnetización de saturación (Ms) de la muestra.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos teóricos sobre las propiedades magnéticas de los nanomateriales, los cuales se pusieron en práctica utilizando técnicas de análisis de estructura cristalina, composición química y morfología. Estas técnicas complementaron el estudio para comprender el comportamiento magnético resultante de las mediciones de SQUID. Sin embargo, debido a la extensión y complejidad del trabajo, que depende de múltiples mediciones, aún se están esperando los últimos resultados de SQUID, los cuales se obtendrán en la segunda semana de agosto. Esto permitirá culminar los análisis correspondientes y realizar una entrega completa de la investigación.
Perez Cortes Eliseo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional

DISPOSITIVOS SEMICONDUCTORES Y CIRCUITOS INTEGRADOS


DISPOSITIVOS SEMICONDUCTORES Y CIRCUITOS INTEGRADOS

Cortina Barrales Naraai, Universidad de Guadalajara. Garcia Gutierrez Alejandro Ivan, Benemérita Universidad Autónoma de Puebla. Gómez Méndez Alison Zoe, Instituto Politécnico Nacional. Hernandez Ortiz Lizette Ariadna, Universidad Veracruzana. Perez Cortes Eliseo, Benemérita Universidad Autónoma de Puebla. Quintero López Jimena, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Ramirez Beltrán Andrés Alberto, Universidad de Guadalajara. Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los dispositivos semiconductores son componentes electrónicos que se encuentran en el corazón de la tecnología moderna. Estos dispositivos utilizan materiales semiconductores, como el silicio o el germanio, que tienen propiedades eléctricas intermedias, entre los conductores se pueden identificar los metales y en los aislantes el vidrio. Los TFT (Thin-Film Transistor) son transistores de película delgada que se utilizan en pantallas de cristal líquido (LCD) y pantallas de matriz activa como las de los teléfonos inteligentes y televisores. Los TFT permiten un control preciso de cada píxel en la pantalla. Las ventajas de los circuitos integrados flexibles incluyen menor costo de procesamiento, menor huella de carbono, y procesos de fabricación más rápidos comparados con el silicio. Se busca contribuir a una mejor comprensión de la tecnología de TFT flexible para avanzar hacia circuitos integrados fiables y flexibles, además de impulsar la investigación en los campos de la microelectrónica, la nanotecnología, los MEMS, las celdas solares, los dispositivos de película delgada, los sensores y otras áreas que requieren un ambiente libre de partículas.  



METODOLOGÍA

Los pasos para crear un circuito integrado son: simulación, diseño, fabricación y pruebas. Para la simulación de compuertas lógicas a nivel de transistores NMOS se utilizó el software LTspice, teniendo diferente ancho de canal (W) y de largo (L) para observar el comportamiento de los circuitos a este nivel. Además en un software más intuitivo (wokwi) se realizó la simulación a nivel de compuertas para obtener las tablas de verdad esperadas de cada circuito realizado con diferentes combinaciones de compuertas básicas. Posteriormente se hizo uso del software Tanner para realizar el diseño de los siguientes circuitos: MEDIO RESTADOR, RESTADOR COMPLETO, MEDIO SUMADOR, SUMADOR COMPLETO, MULTIPLEXOR, COMPARADOR, FLIP FLOP TIPO D, LATCH TIPO D. tomando como base una serie de compuertas lógicas diseñadas en proyectos previos, como son la compuerta NOT, NAND y NOR. El proceso de fabricación se realizó en el Laboratorio Nacional de Micro y Nanotecnología (LNunT), el cual cuenta con un cuarto limpio tipo 100. Como primera parte de la fabricación se hizo un depósito de cromo y oro con el Evaporador D18. Después, se procedió a fabricar el circuito realizando el proceso de fotolitografía mediante escritura directa utilizando el equipo Heidelberg DWL-66FS, fotoresina S1813 y revelador MF-319. Se prosiguió a realizar otro depósito de HFO₂, con ayuda del equipo ALD 150LE. Posterior a ello con el equipo Sputtering V3 se agregó la capa del Mo. Por último se le colocó el polímero PMMA utilizando el Spinner Laurell 650. Se obtuvieron las señales de transistores, compuertas lógicas y los circuitos diseñados. Para los circuitos integrados y compuertas lógicas se utilizó un osciloscopio, un generador de funciones y una fuente voltaje, utilizando señales de voltaje de corriente continua (DC) y corriente alterna (AC), en el caso de los transistores se utilizó un analizador Keithley 4200A-SCS. Todas las mediciones se llevaron a cabo en condiciones ambientales normales.  


CONCLUSIONES

El trabajo realizado durante la estancia de verano logró reforzar y adquirir nuevos conocimientos sobre el diseño de circuitos integrados digitales en muestras de material flexible partiendo desde transistores. También se comprendió cómo el tamaño y orientación de los transistores afectaba directamente a los circuitos y su funcionalidad en general. Se adquirieron conocimientos de los procesos a seguir para poder trabajar en un cuarto limpio clase 100. Adicionalmente, se aprendió sobre el proceso de fabricación de circuitos integrados. Por último, se reforzaron conocimientos en instrumentación y medición de circuitos integrados.  
Pérez Cruz Erick Yahir, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Gloria Yaneth Flórez Yepes, Universidad Católica de Manizales

ANáLISIS DE EXPERIENCIAS DE INVESTIGACIóN EN MONITOREO PARTICIPATIVO DEL AGUA EN MéXICO Y COLOMBIA


ANáLISIS DE EXPERIENCIAS DE INVESTIGACIóN EN MONITOREO PARTICIPATIVO DEL AGUA EN MéXICO Y COLOMBIA

Pérez Cruz Erick Yahir, Universidad de Ciencias y Artes de Chiapas. Rivera Gonzalez Sheila Estefania, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Gloria Yaneth Flórez Yepes, Universidad Católica de Manizales



PLANTEAMIENTO DEL PROBLEMA

A medida que incrementa la extensión de desarrollo urbano hacia las zonas de humedales, se ponen en peligro sus lugares de desarrollo, ya que además de ser una zona húmeda, también forman parte de un ecosistema que es de gran vitalidad  para las especies que habitan cerca de el. Es necesario contar con la información necesaria para los monitoreos participativos pertinentes que puedan contribuir en su cuidado y preservación. Una forma de llevar esto a cabo es mediante el estudio y análisis de distintos humedales en México y Colombia para conocer la forma en la que se desarrolla cada uno.



METODOLOGÍA

•Definir el objetivo de la investigación •Análisis de revisión de información de bases de datos y selección de datos a comparar •Sistematización y recopilación de datos •Análisis de la metodología prisma •Comparación de resultados •Conclusión y resultados


CONCLUSIONES

El monitoreo participativo del agua en México y Colombia es un testimonio de poder de la colaboración comunitaria y multisectorial en la gestión de los recursos hídricos. Las diferencias en las metodologías y enfoques reflejan la adaptabilidad de los modelos a los contextos específicos de cada país, permitiendo que ambos desarrollen estrategias efectivas. Tanto México como Colombia han adoptado enfoques participativos para el monitoreo del agua, reconociendo la importancia de la inclusión comunitaria y la colaboración multisectorial. Sin embargo, las diferencias en contextos geográficos, desafíos específicos y actores involucrados reflejan las particularidades de cada país en la implementación y sostenibilidad de estos programas. Ambos países enfrentan desafíos significativos, pero el compromiso con la participación comunitaria y la gestión sostenible del agua proporciona una base solida para abordar y enfrentar estos retos.
Perez de Aquino Hilary Michel, Universidad Autónoma de Guerrero
Asesor: Dra. Beatriz Edith Vega Serratos, Universidad Autónoma de Campeche

ANáLISIS DEL PELIGRO Y RIESGO HIDROMETEOROLóGICO EN LA CIUDAD DE CAMPECHE


ANáLISIS DEL PELIGRO Y RIESGO HIDROMETEOROLóGICO EN LA CIUDAD DE CAMPECHE

Perez de Aquino Hilary Michel, Universidad Autónoma de Guerrero. Tapia Gutiérrez Mariana Josefina, Universidad Autónoma del Estado de México. Asesor: Dra. Beatriz Edith Vega Serratos, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

La prevención de desastres es crucial debido a la variedad de fenómenos perturbadores existentes. Los Atlas de Peligros y Riesgos son herramientas esenciales en la gestión del riesgo de desastres y la planificación del desarrollo, proporcionando un sistema integral de información que ayuda a la toma de decisiones, planificación y preparación para posibles desastres. Este trabajo se centra en los riesgos hidrometeorológicos, especialmente las lluvias e inundaciones, principales riesgos en Campeche, y busca aplicar estos atlas en la planificación urbana y rural, la gestión de emergencias y la educación pública, contribuyendo a los Objetivos de Desarrollo Sostenible de las Naciones Unidas.



METODOLOGÍA

Insumos y procedimientos para un atlas de peligros y riesgos: 1. Información cartográfica y geoespacial:    - Mapas topográficos, geológicos, hidrológicos, de uso del suelo, MDT, MDE. 2. Datos históricos y estadísticos:    - Registro de eventos pasados, series de tiempo de precipitaciones, temperaturas, vientos y otros parámetros meteorológicos.    - Modelos climáticos para anticipar cambios futuros y su impacto. 3. Información sobre la población:    - Distribución, densidad y características socioeconómicas. 4. Inventario de infraestructura:    - Datos sobre edificaciones, redes de transporte, servicios públicos y áreas críticas. Análisis de peligro, vulnerabilidad y exposición: - Peligro: Probabilidad de ocurrencia de eventos dañinos. Se identifican mediante estudios geológicos, meteorológicos, inspecciones y registros históricos. Mapas de peligros representan gráficamente las áreas susceptibles. - Vulnerabilidad: Susceptibilidad de comunidades e infraestructuras a sufrir daños. Factores físicos, sociales, económicos y ambientales influyen. - Exposición: Presencia de personas, bienes y servicios en áreas de riesgo. Mayor exposición implica mayores pérdidas potenciales   Actividades complementarias: 1. Levantamiento de canales: Análisis de riesgos de inundación y desarrollo de un modelo numérico de la ciudad. 2. Manejo de dron: Calibración y vuelos de prueba para recopilación de datos en Playa Bonita. 3. Monitoreo en Playa Bonita: Estudio de morfodinámica y cambios en la playa. 4. Oleaje direccional: Identificación de movimiento de boya para conversión de energía del oleaje.


CONCLUSIONES

El análisis de peligro y riesgo hidrometeorológico en Campeche revela que las lluvias e inundaciones son los principales riesgos. La aplicación de Atlas de Peligros y Riesgos proporciona información vital para la planificación urbana y rural, la gestión de emergencias y la educación pública. La integración de datos cartográficos, históricos y socioeconómicos permite una evaluación precisa de la vulnerabilidad y exposición de la comunidad. Las actividades complementarias, como el levantamiento de canales y el manejo de drones, contribuyen a mejorar la precisión y la planificación ante eventos hidrometeorológicos, promoviendo ciudades y comunidades más resilientes y sostenibles como se propone en el Objetivo de Desarrollo Sostenible número 11.
Perez Galaviz Luz Desire, Universidad de Sonora
Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa

OBTENCION DE MEDIDAS DE INTENSIDAD SISMICA EN SUELO BLANDO DE LA CIUDAD DE MEXICO


OBTENCION DE MEDIDAS DE INTENSIDAD SISMICA EN SUELO BLANDO DE LA CIUDAD DE MEXICO

Perez Galaviz Luz Desire, Universidad de Sonora. Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los sismos son fenómenos naturales  impredecibles causados por los movimientos de la tierra debido a la liberación de energía acumulada, en México existen zonas de alta actividad sísmica, donde han ocurrido sismos de  magnitud e intensidad elevada provocando así mismo daños en la sociedad debido a que algunas edificaciones no son lo suficientemente capaces de soportar dichos movimientos y terminan siendo fracturadas o bien en el peor de los casos destruidas completamente, nuestro labor como ingenieros civiles radica en crear para nuestra sociedad espacios seguros y confiables, al igual que garantizar su integridad. Por ello concientizamos la importancia del estudio de los factores adversos que influyen en las edificaciones como lo son los sismos; para así mismo poder mitigar  o reducir los efectos de estos fenómenos naturales, diseñando y calculando estructuralmente de acuerdo a los requerimientos que se necesiten en cada zona del país en base a estudios previos de las medidas de intensidad sísmica, evitando daños estructurales en las edificaciones al igual que salvaguardar la integridad de nuestra sociedad.



METODOLOGÍA

Para el estudio y análisis de las medidas de intensidad sísmica  se utilizó la programación  de vectores, bases de datos de la SCT (Secretaria de Comunicaciones y Transporte) de registros de acelerogramas en la ciudad de México y sus alrededores, al igual que un conocimiento previo respecto a la ejecución del software a manejar, inicialmente utilizamos métodos de programación (destacando método de integrales)  que nos permitieran descifrar las principales medidas de intensidad sísmica, como lo son la aceleración, velocidad e intensidad de arias, utilizando códigos y comandos pudimos graficar dichas medidas y así mismo el análisis y comparación de distintas base de datos de acelerogramas, una vez dominado este punto, seguimos variando distintos factores que intervienen en estos fenómenos como lo puede ser el tiempo, duración, etc. y de este manera obtener los resultados de una manera más amplia y concisa. La programación desarrollada nos permite obtener de cualquier base de datos de la SCT las distintas medidas de intensidad sísmica y espectros de respuesta que son representaciones gráficas de un conjunto de respuestas máximas de diversos osciladores de 1 GDL de masa y amortiguamiento constantes, siendo fundamental el estudio del concepto anterior ya que los edificios y construcciones de una ciudad cualquiera tienen diferentes alturas y centros de masas, esto interfiere en el periodo de vibración ya que son distintos en cada uno de las edificaciones al igual que del suelo. Accediendo a registros de acelerogramas de la Ciudad de México pudimos llegar a la comparación de dichas medidas de intensidad de cada uno, y así mismo el análisis del tipo de suelo, esto nos permite tomar en cuenta las características reales que tenga la  estructura y el tipo de suelo, en mi caso suelo blando que se identifica por su menor nivel de dureza, menor resistencia a  los rozamientos y mayor porosidad  siendo un suelo complejo; asi mismo conociendo los factores que influyen en cada tipo de suelo se cumple el propósito como ingeniero civil, de brindar el conocimiento adecuado para el apto diseño estructural que requiera cada zona. 


CONCLUSIONES

 En el transcurso del verano científico aprendimos a obtener las medidas de intensidad sísmica en base a datos registrados en zonas del estado de México, permitiéndonos el estudio y análisis de dichas zonas, esto con la finalidad de determinar los tipos de suelo y necesidades de diseño estructural, con la programación desarrollada durante la estancia podemos determinar medidas de intensidad sísmica y espectros de respuesta con cualquier base de datos de una manera eficiente, en especifico de la Ciudad de Mexico en suelo blando, cumpliendo con el propósito de ingenieros civiles.  
Pérez Gómez Pablo, Universidad Autónoma de Chiapas
Asesor: Dr. Ricardo Escobedo Alcaraz, Universidad de Guadalajara

ANáLISIS HAMILTONIANO Y TEMAS SELECTOS DE MECáNICA CLáSICA


ANáLISIS HAMILTONIANO Y TEMAS SELECTOS DE MECáNICA CLáSICA

Pérez Gómez Pablo, Universidad Autónoma de Chiapas. Asesor: Dr. Ricardo Escobedo Alcaraz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La mecánica clásica es una rama de la física que se ocupa del estudio del movimiento de los cuerpos y de las fuerzas que actúan sobre ellos. Se basa en las leyes establecidas por Isaac Newton y ha sido fundamental para el desarrollo de la física y la ingeniería. En el ámbito de la mecánica clásica, el formalismo Hamiltoniano representa una reformulación esencial de las leyes del movimiento, ofreciendo un marco teórico robusto para el análisis y la predicción del comportamiento dinámico de sistemas físicos. Este formalismo, desarrollado por William Rowan Hamilton en el siglo XIX, no solo facilita la solución de problemas complejos en mecánica, sino que también establece las bases para el desarrollo de teorías más avanzadas en física teórica y sistemas dinámicos. Sin embargo, a pesar de su importancia y amplia aplicación, la transición del formalismo Lagrangiano al Hamiltoniano puede presentar desafíos significativos. La necesidad de comprender y aplicar las ecuaciones de Hamilton, la interpretación de la función Hamiltoniana, y la manipulación de coordenadas y momentos conjugados son aspectos que requieren una profunda comprensión conceptual y habilidades matemáticas avanzadas. Estos desafíos se ven amplificados en sistemas con múltiples grados de libertad o en aquellos que presentan comportamientos no lineales y caóticos. En este verano de investigación el objetivo de este estudio es explorar y analizar el formalismo Hamiltoniano, identificando sus ventajas y limitaciones en la resolución de problemas dinámicos. Se investigará cómo la formulación Hamiltoniana puede ser aplicada para simplificar y resolver sistemas físicos complejos, así como su integración con otros métodos de análisis.



METODOLOGÍA

Para iniciar con nuestro estudio del formalismo de Hamilton se tomó como preámbulos las ya conocidas Leyes de Newton y el formalismo lagrangiano, y a partir de herramientas del cálculo variacional como lo es el principio de mínima acción, se obtuvieron los resultados más importantes, los cuales fueron la definición del lagrangiano de un sistema (que dependía de sus coordenadas generalizadas, velocidades generalizadas y posiblemente del tiempo) y la ecuación de Euler-Lagrange para un sistema. Posterior a encontrar la ecuación de Euler-Lagrange, definimos el momento generalizado como la derivada parcial del lagrangiano respecto a las velocidades generalizadas y mediante una transformación de Legendre definimos la función hamiltoniana (el hamiltoniano) de un sistema y al mismo tiempo encontramos las ecuaciones de Hamilton que relacionan las derivadas parciales del hamiltoniano con las derivadas temporales de las posiciones y los momentos. De aquí también se desprendió el hecho de que, si el lagrangiano no depende explícitamente del tiempo, entonces el hamiltoniano está asociado a la energía del sistema y además se obtuvo un método para obtener el hamiltoniano a partir de la definición. Se exploró el concepto de lagrangiana regular y singular, y se estudiaron varios sistemas en los cuales se obtuvieron hamiltonianos que eran de estos dos tipos y se analizaron y compararon para comprenderlos mejor. Resultó que para el caso de lagranginas singulares el cálculo de los hamiltonianos es distinto ya que tiene que hacerse uso del formalismo de Dirac. El siguiente paso fue definir el Paréntesis de Poisson, sus propiedades y uso en el formalismo Hamiltoniano. A la par se introdujo el concepto de transformaciones canónicas las cuales resultan ser transformaciones que hacen que las ecuaciones de Hamilton mantengan su forma. aunque el nuevo hamiltoniano asociado a esta transformación sea diferente a la que se tiene en un principio. Encontramos igual que si una transformación es canónica entonces existe una función generatriz que contiene la información de las coordenadas y los momentos antes y después de aplicar la transformación. Se resolvieron una serie de ejercicios los cuales tenían como objetivo mostrar si una transformación dada en verdad era una transformación canónica ya sea mediante resultados derivados de los paréntesis de Poisson o encontrando una función generatriz para la misma. El tema de transformaciones canónicas fue de gran relevancia en nuestro estudio ya que a partir de ellas y de la condición de exigir que el nuevo hamiltoniano sea cero, se introduce un nuevo formalismo, llamado el formalismo de Hamilton-Jacobi y a la función generatriz de esta transformación se le conoce ahora como función principal de Hamilton la cual satisface la ecuación de Hamilton-Jacobi. Mediante este formalismo y las ecuaciones de transformación se estudian los sistemas dinámicos y se obtienen las ecuaciones de movimiento temporales asociadas a las coordenadas del sistema en estudio. Se resolvieron algunos ejercicios usando este formalismo como es el caso de un cuerpo en caída libre, el oscilador armónico simple y anisotrópico, y un cuerpo en tiro parabólico. Llegado hasta este punto, el último tópico de estudio se trató del algoritmo de Dirac, donde se repasaron conceptos como constricciones primarias y secundarias, hamiltoniano canónico, primario, total y extendido, y multiplicadores de Lagrange, herramientas con las cuales se pudieron estudiar y analizar lagrangianos singulares, con los cuales no se habían podido trabajar anteriormente.


CONCLUSIONES

Durante esta estancia de verano se lograron adquirir y aplicar muchos conocimientos teóricos del formalismo de Hamilton y de algunos tópicos extra de la mecánica clásica que para el caso particular del participante que redacta este resumen le serán de gran ayuda para su trabajo de tesis en el área de materia condensada blanda. El estudio de varios sistemas dinámicos tomados como ejemplos en estas semanas, reforzaron todo el conocimiento adquirido y permitió aplicar de una forma mas elegante y justificada las ecuaciones, teoremas, propiedades, etc. Es evidente que quedaron varios temas por abarcar, pero hasta este punto se cuenta con la capacidad de seguir profundizando en estos temas con las bases hasta aquí asimiladas.
Pérez Morán Federico Santiago, Universidad de Guadalajara
Asesor: Dr. Roger Jose Hernandez Pinto, Universidad Autónoma de Sinaloa

ANáLISIS FENOMENOLóGICO DE LA PRODUCCIóN DE 3 JETS A NLO EN QCD PARA EL LHC


ANáLISIS FENOMENOLóGICO DE LA PRODUCCIóN DE 3 JETS A NLO EN QCD PARA EL LHC

Pérez Morán Federico Santiago, Universidad de Guadalajara. Asesor: Dr. Roger Jose Hernandez Pinto, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El Modelo Estándar (SM) es considerado como el marco teórico más exitoso actualmente para la descripción de las partículas elementales. Es regida por dos grandes sectores: interacción electrodébil (EW) y la cromodinámica cuántica (QCD), que aborda las interacciones fuertes entre quarks y gluones. A pesar de su éxito, el SM presenta limitaciones y motivaciones para buscar física más allá de sus predicciones actuales. Un experimento clave en la comprobación del SM y la búsqueda de física más allá del SM es el Gran Colisionador de Hadrones (LHC), que por medio de colisiones protón-protón permite verificar fenómenos predichos por el SM (como la existencia del bosón de Higgs). En estas colisiones, la QCD es fundamental, ya que describe cómo los partones (quarks y gluones), componentes de los protones, se comportan en las interacciones de altas energías. Uno de los fenómenos más comunes en el LHC es la producción de jets, haces de hadrones y otras partículas generadas por la hadronización de quarks y gluones. Para obtener la predicción teórica con precisión de las secciones eficaces (o obtener las observables) de la producción de jets (u otras partículas), es necesario recurrir a la QCD perturbativa, donde las predicciones se expresan como series en potencias de la constante de acoplamiento asociada a la QCD (asumida pequeña). Las predicciones al orden más bajo, leading order (LO) capturan algunas generalidades de los observables, pero las correcciones a orden siguiente (NLO) son esenciales para mejorar la precisión teórica y en algunos casos encontrar nuevas características de los eventos. Los cálculos a NLO permiten reducir las incertidumbres en las predicciones y son cruciales para comparar con los datos experimentales del LHC. Aunado a esto, la creciente demanda de cálculos de alta precisión en física de partículas exige no sólo una comprensión teórica profunda, sino también el desarrollo de métodos computacionales avanzados. La consideración de órdenes mayores (de NLO en adelante) en el ámbito de la QCD perturbativa requiere mayor poder de cómputo con cada orden considerado, para la obtención de predicciones y realización de simulaciones. Por lo que se remarca la importancia de los métodos computacionales en el contexto de la fenomenología de partículas elementales y el cálculo de precisión.



METODOLOGÍA

Se realizó una simulación de 10000 eventos de tipo pp→jjj por medio del software MadGraph5_aMC@NLO (generador Monte Carlo de eventos usado para estudios de colisionadores). MadGraph usa la definición de multipartículas, es decir que se consideran los protones y los jets como una variable en términos de partículas elementales (quarks y gluones). Así, se computa el proceso para todas las combinaciones permisibles por el SM entre quarks: up, down, charm y strange (junto con sus respectivas antipartículas) y el gluón. Asimismo, con MadGraph se calcula la sección eficaz a nivel partónico del proceso a LO y a NLO. Finalmente, el software devuelve un archivo de los eventos simulados para su posterior manipulación y análisis. Por medio de un código en Spyder se procesaron los datos obtenidos de la simulación. El archivo generado para el caso LO y NLO se depuró para considerar únicamente las partículas finales de cada evento y poder extraer el cuadrimomento de cada una de estas.  Por medio de estos valores es posible realizar una plétora de procesos y filtros para el posterior análisis. Bajo el contexto de este trabajo, con la información anterior se realiza la reconstrucción del momento transverso (pt) por evento, se realiza el respectivo histograma de distribución, con el fin de evaluar cualitativamente el valor de la cota máxima de pt y filtrar los eventos no deseados acorde a dicha cota. Posteriormente, se realiza la reconstrucción de la masa invariante con el fin de obtener el histograma correspondiente al espectro de masas del proceso de interés. Esta reconstrucción se lleva a cabo para cuatro combinaciones: para los dos jets más energéticos, los dos menos energéticos, para el más y el menos energético, y los tres jets (3 o más partículas finales) resultantes.


CONCLUSIONES

Los resultados obtenidos para la sección eficaz a LO y NLO fueron: 6.851E7 ± 2.6E5 pb y 4.879E8 ± 3.1E7 pb, respectivamente. Se observa una clara diferencia en la consideración de órdenes mayores. Para la distribución de la masa invariante, la cual se observó decreciente, se obtuvieron la mayor parte de los valores por debajo de 2000 GeV, esto para las selecciones de los jets más energéticos y todas las partículas finales; para la selección de los jets menos energéticos y el de mayor y menor energía, la mayoría de los valores se encontraron por debajo de 1000 GeV (todo para NLO y LO). Respecto a lo anterior, es necesaria la mejora del algoritmo de filtrado acorde al momento transverso. Asimismo, es necesario aún el cálculo del K-factor: la razón entre la sección eficaz de un proceso dado a NLO entre la obtenida a LO. También, es posible repetir la simulación para un número mayor de eventos (100 mil) con lo que se podría visualizar picos en el espectro de masas. En suma, la influencia del cálculo a NLO en la precisión y la corrección a la sección eficaz es evidente. Este proyecto significó un importante acercamiento teórico y práctico a las herramientas computacionales y teóricas de la fenomenología de física de partículas en el marco del cálculo de precisión, que es cada vez más imperativo en el estudio de física de altas energías.
Pérez Ortega Juan Manuel, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla

IDENTIFICACIóN DE LA PRODUCCIóN DE PARTíCULAS UPSILON (S1, S2, S3) EN COLISIONES PROTóN-PROTóN CON EL DETECTOR CMS.


IDENTIFICACIóN DE LA PRODUCCIóN DE PARTíCULAS UPSILON (S1, S2, S3) EN COLISIONES PROTóN-PROTóN CON EL DETECTOR CMS.

Pérez Ortega Juan Manuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

A partir de un archivo seleccionado para el análisis didáctico a cerca de datos obtenidos por colisiones en el CMS, se usarán tecnicas de limpieza para identificar a que partícula pertenecen los decaimientos registrados.



METODOLOGÍA

Se utilizará lo aprendido a cerca del detector CMS, así como de cada una de las magnitudes registradas por el mismo, siendo estas:  Energía total de cada partícula (E). Momento transverso de cada partícula en cada componente (px, py, pz). Pseudo-rapidez. Ángulo azimutal. Típo de Muon (Global o Track). Carga (positiva o negativa Q). Usando conocimientos de python se seleccionaran intervalos de cada una de estas magnitudes basandonos en lo encontrado por el hostograma de la masa invariante de los datos en bruto.


CONCLUSIONES

Se logró clasificar la partícula Upsilon (S1,S2,S3) que se estaba detectando gracias a las cantidades registradas en cada colisión (momentos transversos, energía, pseudo-rapidez, carga, etc.).
Pérez Pozos Jessica Elizabeth, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Nicholas Robert Varley Middle, Universidad de Colima

ANáLISIS DE LOS DATOS SíSMICOS DEL PRIMER SEMESTRE 2013 DE LA ACTIVIDAD DEL VOLCáN DE COLIMA


ANáLISIS DE LOS DATOS SíSMICOS DEL PRIMER SEMESTRE 2013 DE LA ACTIVIDAD DEL VOLCáN DE COLIMA

Pérez Pozos Jessica Elizabeth, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Nicholas Robert Varley Middle, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

El Volcán de Colima, ubicado en los estados de Colima y Jalisco es un estratovolcán andesítico que junto con el Nevado de Colima y el Cántaro forma parte del Complejo Volcánico de Colima. Este Volcán ha tenido actividad los últimos 500 años, lo que ha hecho consciente y responsable a la Universidad de Colima del estudio y monitoreo permanente, además, de la búsqueda del entendimiento con un enfoque multidisciplinar. Uno de los aspectos más importantes para comprender la complejidad del volcán es la sismicidad, la cual consiste en el estudio de terremotos y otros eventos generadores de ondas sísmicas, nos permite conocer el estado del volcán mediante el análisis de señales asociadas a la actividad volcánica para obtener información que permita la toma de decisiones puntual y responsable para con la sociedad; para lo cual, la Universidad de Colima y la Red Sísmica Telemétrica del Estado de Colima (RESCO) implementaron varias estaciones a lo largo del perímetro del volcán, siendo la más cercana SOMA, y otras estaciones de tipo SP (Short Period) y BB (broad-band). La importancia del análisis de datos, conlleva el complejo énfasis en la interpretación de señales que emite el volcán, que pueden representar un peligro para las comunidades cercanas; en el caso de este proyecto, se buscó tener un registro de la actividad del año 2013 para poder proceder a hacer un estudio posterior, que conlleve la comparación de datos, la estadística y promedio de los eventos, etc.



METODOLOGÍA

Mediante los datos obtenidos por RESCO de los primeros 6 meses del año 2013 se hizo el análisis, radicando la importancia de este año en los múltiples eventos y la intensa actividad; la interpretación y compilación de datos se realizó buscando de cada evento la siguiente información: Estación Fecha Hora de inicio y hora en que concluye el evento Señal Duración   El análisis inicia con la selección del archivo GIF de una estación, teniendo los datos de las estaciones EZV4, EZV5 y ESSG, siendo EZV4 la más cercana al volcán. La duración de los eventos se mide tomando en cuenta que la línea horizontal equivale a 15 minutos, las verticales 1 minuto y, a su vez, en la parte inferior se encuentra dividida en 6 partes, cada una equivalente a 10 segundos. Posteriormente, se clasifican los siguientes eventos: Explosión Desgasificación Desprendimiento de roca LP Tremor Fleas Eventos híbridos Eventos tectónicos Ruido Precursores  


CONCLUSIONES

Es de suma importancia comprender que el Volcán de Colima, además de ser sujeto de estudio para los científicos del área de Ciencias de la Tierra y un atractivo turístico, implica un riesgo para todas las poblaciones cercanas, y sin duda, es primordial que con base en los datos en tiempo real se permita la toma de decisiones rápida, la creación de mapas de riesgo y la implementación de medidas de protección civil. La notable importancia de este proyecto es que la interpretación de datos de manera manual es más precisa que cualquier algoritmo de un software, lo que, obviamente, nos da una visión clara y verdadera de la actividad volcánica.  
Pérez Rodríguez Sherlin Cristal, Instituto Politécnico Nacional
Asesor: Dr. Osvaldo Carvente Muñoz, Universidad Autónoma de Yucatán

LA IMPORTANCIA DE LA ENERGíA DE COHESIóN EN LAS ESTRUCTURAS CRISTALINAS.


LA IMPORTANCIA DE LA ENERGíA DE COHESIóN EN LAS ESTRUCTURAS CRISTALINAS.

Pérez Rodríguez Sherlin Cristal, Instituto Politécnico Nacional. Asesor: Dr. Osvaldo Carvente Muñoz, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

El concepto de solido se utiliza frecuentemente en la vida cotidiana, existen múltiples definiciones y clasificaciones de los sólidos; sin embargo, en este estudio analizaremos la categoría de los solidos llamados cristales.  Philip Anderson definió a un cristal como una red regular de átomos que tienen, en buena aproximación, simetría traslacional bajo alguno de los grupos espaciales. La estructura de los sólidos cristalinos esta constituida por n cantidad de átomos del elemento químico principal que a su vez definen las propiedades físicas de este. A su vez estas estructuras cristalinas están formadas por redes que se obtienen de la repetición periódica de la celda unidad en las tres direcciones del espacio. Auguste Bravais definió un conjunto de catorce celdas unitarias tridimensionales posibles; sin embargo, las predominantes en los elementos químicos son las estructuras: BCC, centrada en el cuerpo FCC, centrada en la cara SC, cubica simple Las cuáles serán analizadas durante el verano de investigación para estudiar su comportamiento mediante sistemas granulares y poder definir las variables que describen su origen.



METODOLOGÍA

Se utilizaron los softwares Visual Studio Code y Wolfram Mathematica con el fin de poder diseñar y configurar el modelo de simulación a utilizar, así mismo los parámetros que determinarían la estructura cristalina del sistema granular. Por lo tanto, se realizaron múltiples simulaciones en las que se colocaban dentro de una caja n cantidad de esferas con un determinado radio y variables específicas como: amplitud, frecuencia, volumen, velocidad, etc. Las cuales se someten a una energía vibracional que al momento de disminuir la energía cinética y potencial de las partículas se definirá la deposición de las esferas y por ende su estructura cristalina. La estructura cristalina BCC (centrada en el cuerpo) tiene un átomo en el centro y fracciones de átomos en los vértices, los cuales se tocan mutuamente a lo largo de las diagonales del cubo, mientras que la estructura cristalina FCC (centrada en la cara) tiene ocho átomos en los vértices de un cubo y un átomo en el centro de cada una de las caras de este. La estructura cristalina SC (cubica simple) se caracteriza por tener un punto de red definido en cada uno de sus vértices, por lo que los átomos ocupan los vértices del cubo. Entendido esto, al efectuar las simulaciones logramos observar que, dependiendo de la energía vibracional y el tiempo, las partículas se iban empaquetando de tal modo que originaban alguna de las estructuras cristalinas ya mencionadas. Por ejemplo, con baja energía vibracional se visualizaba una red BCC y al aumentar la energía se formaba una red FCC. A causa de lo que antes se ha dicho la cristalización en los sistemas granulares dependerá del tipo de interacción que se tenga entre sus partículas y se ven afectados de igual manera por una energía de cohesión. Mediante el análisis de las simulaciones logramos identificar que la energía de cohesión es fundamental para entender las estructuras cristalinas puesto que es la energía que hay que suministrar a un cristal para separar sus componentes atómicos con la configuración electrónica del estado fundamental a distancia infinita, para ello mediante el programa Wolfram Mathematica se diseñó un lenguaje en el que nos permitió diseñar las dimensiones de las estructuras cristalinas FCC, BCC y SC, con el fin de primero simular las partículas de manera estática en sus posiciones de equilibrio y observar cuanta energía de vibración se le tenia que suministrar a cada una de estas para alterar los enlaces de cohesión existente y deformar la estructura. Para diseñar las dimensiones se consideraron los siguientes parámetros: Radio de las esferas = 0.00119 m, (constante). Diámetro = 2rad, (constante). Numero de celdas en cada dirección x, y, z, (ncells). Numero de esferas que se van a dibujar, (nspheres). Con estos datos se logra calcular: Volumen de cada esfera. El volumen total de las esferas. Las dimensiones del contenedor. Longitud en cada dirección x, y, z, en m. Volumen total del arreglo en m cúbicos. Las posiciones de las esferas en función del número de celdas. Ya obtenidos las dimensiones para cada caja de cada estructura se buscó una similitud entre estas y así poder hacer una comparación de la diferencia de ncells y nspheres que se necesitan de cada red para tener similitud en la caja. Con base a los resultados, se lograron hacer las simulaciones y observar la variación de la fuerza de cohesión entre las partículas para cada estructura cristalina, utilización de igual manera una energía vibracional para descomponer el empaquetamiento de partículas.    


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos acerca de la importancia del empaquetamiento de las partículas que forman a las estructuras cristalinas de los diversos elementos que constituyen a los materiales que el ser humano utiliza para cubrir sus necesidades, un claro ejemplo son los metales que conforme se organiza su estructura cristalina atómica adquieren propiedades específicas y con base a la variabilidad de energía vibracional  para la deposición de las partículas afectada por una energía cinética o potencial, un cambio de temperatura o presión y la cohesión que existe entre estas permiten a su vez la formación de nuevas características que originan a las aleaciones, las cuales brindan soluciones para cubrir las múltiples necesidades humanas, así como este estudio.
Pérez Romero Katerine, Fundación Universitaria Tecnológico Comfenalco
Asesor: Dr. Gilbert Francisco Torres Morales, Universidad Veracruzana

COMPARACIóN DE ESPECTROS DE RESPUESTA Y DE DISEñO PARA REGISTROS DE LA RED SíSMICA EN COLOMBIA Y ESTIMACIóN DEL EFECTO DE SITIO.


COMPARACIóN DE ESPECTROS DE RESPUESTA Y DE DISEñO PARA REGISTROS DE LA RED SíSMICA EN COLOMBIA Y ESTIMACIóN DEL EFECTO DE SITIO.

Pérez Romero Katerine, Fundación Universitaria Tecnológico Comfenalco. Asesor: Dr. Gilbert Francisco Torres Morales, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

En Colombia, es esencial que los espectros de diseño reflejen las características sísmicas y geológicas locales para asegurar infraestructuras seguras. Sin embargo, la falta de datos geotécnicos detallados y la variabilidad geológica presentan grandes desafíos. El método de Nakamura es útil para caracterizar las peculiaridades dinámicas del suelo, necesita ser complementado con otros enfoques para asegurar su efectividad. Un ejercicio valioso con los datos sísmicos proporcionados por el SGC será el comparar los espectros de respuesta con los espectros de diseño para comparar las aceleraciones máximas de sismos específicos y las aceleraciones de diseño, especialmente en áreas de alta sismicidad, planteando un reto para la ingeniería sísmica.



METODOLOGÍA

Se realizó una selección de información de movimientos sísmicos registrados en estaciones de la red sismológica nacional, ubicadas en áreas de alta sismicidad (SGC). Se utilizaron estos registros de acelerogramas para calcular espectros de respuesta del suelo en estas áreas de estudio. Estos espectros se compararon con los especificados en la norma NSR-10, evaluando las diferencias y la adecuación de estos. Se efectuó un análisis para identificar las discrepancias entre los espectros calculados y los normativos. Además, se aplicó el método de Nakamura para calcular la relación espectral H/V y determinar el período fundamental del suelo en cada sitio. Los resultados se compararán con datos geotécnicos y geofísicos previos, evaluando la coherencia y precisión del método. Finalmente, se realizaron estudios de caso en áreas urbanas para evaluar cómo las características locales del suelo influyen en la respuesta sísmica.


CONCLUSIONES

Las conclusiones preliminares de la investigación en curso evaluarán los resultados de los espectros de respuesta sísmica calculados y los normativos especificados en la NSR-10. Se buscará si existen subestimación de las demandas sísmicas, especialmente en regiones de alta sismicidad como el eje cafetero y las zonas andinas. Esto para corroborar que las estructuras diseñadas según la normativa vigente estén adecuadamente preparadas para resistir movimientos sísmicos máximos. La variabilidad regional también es un factor crítico, ya que la respuesta sísmica del suelo varía significativamente según la geología local, la topografía y las condiciones del suelo. Los espectros normativos no siempre reflejan esta variabilidad, adoptando un enfoque más generalizado. La integración de nuevas tecnologías, como el modelado sísmico avanzado y las simulaciones computacionales, podría mejorar la precisión de los espectros de diseño y facilitar la adaptación a condiciones geológicas y sísmicas cambiantes. La aplicación del método de Nakamura puede guiar decisiones en el diseño sísmico de edificaciones, proporcionando datos críticos sobre las características dinámicas del suelo que influyen en la respuesta estructural. Su integración con modelos geofísicos avanzados puede mejorar la caracterización del suelo y aumentar la precisión de las predicciones del comportamiento sísmico. Utilizar datos precisos sobre los períodos fundamentales del suelo puede conducir a un diseño sismo resistente más efectivo, reduciendo el riesgo de daños estructurales durante terremotos y mejorando la planificación urbana al identificar zonas de riesgo y orientar el desarrollo hacia áreas más seguras. Finalmente, se enfatiza la importancia de establecer un sistema de monitoreo continuo para recopilar datos sísmicos actualizados, revisar y ajustar la normativa periódicamente. También se recomienda fortalecer la capacitación de ingenieros y arquitectos en diseño sismo resistente, así como concienciar a las autoridades sobre la adopción de normativas más rigurosas basadas en evidencia científica. Además, la implementación continua del método de Nakamura para determinar las condiciones locales es crucial para mejorar la precisión y efectividad del diseño estructural en Colombia.
Perfecto Ventura Orlando Iven, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Enrique Rosendo Andrés, Benemérita Universidad Autónoma de Puebla

ESTUDIO TEóRICO, SIMULACIóN Y OPTIMIZACIóN DE UNA CELDA SOLAR DE TIO2/BI2S3.


ESTUDIO TEóRICO, SIMULACIóN Y OPTIMIZACIóN DE UNA CELDA SOLAR DE TIO2/BI2S3.

Perfecto Ventura Orlando Iven, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Enrique Rosendo Andrés, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El estudio de las celdas solares es una de las ramas de investigación mas beneficiosas para el ser humano, ya que busca eliminar el desabasto energético, además de disminuir la contaminación, sustituyendo a energías contaminantes por la energía solar, es por ello, por lo que se esta en la búsqueda continua de nuevos materiales para la creación de celdas solares que sean mucho mas eficientes que las de hoy en día, sustituyendo los materiales tóxicos utilizados actualmente en su creación, por algunos más amigables con el medio ambiente. En este trabajo se estudia, simula y optimizan parámetros de una celda solar propuesta con la unión PN de Dióxido de titanio con Sulfuro de bismuto (III) (Tio2/Bi2S3)



METODOLOGÍA

Se hace una investigación meticulosa sobre las características específicas de los materiales que serán utilizados en la simulación de la celda solar, como lo son la energía de gap, su espesor, su afinad eléctrica, etcétera. Se utiliza el software SCAPS-1D para simular la heteroestructura de Tio2/Bi2S3. Este trabajo se enfocó principalmente en el mejoramiento de la eficiencia de la celda propuesta, variando el espesor y bandgap de las capas tanto p como n de la celda solar, siendo la capa n Tio2 y la capa p Bi2S3. Después de la simulación y variación del espesor y la energía de gap, se graficaron los resultados, para su posterior análisis e interpretación. Para la capa p, se varió el bandgap de 1.2 a 1.7 eV, mientras que para el espesor se varió de 0.01 a 2 µm, para la capa n, se varió el bandgap de 3.0 a 3.3 eV, mientras que para el espesor se varió de 0.01 a 0.05 µm.


CONCLUSIONES

En cuanto al espesor de la capa absorbedora, el valor propuesto para la misma es de 1 µm, puesto que se observa que con la mitad de material (1 µm) solamente se sacrifica un aproximado de 1% de eficiencia, lo que puede ser despreciable, además de que se ahorra gran cantidad de material. En cuanto al band gap de la capa p, el valor propuesto para esta es de 1.4 eV, esto en base a la simulación, debido a que se reporta un pico máximo de eficiencia para ese valor de bandgap. En cuanto al espesor de la capa ventana, el valor propuesto para la misma es de 0.05 µm, debido a que la simulación se corrió desde 0.01 hasta 0.05 µm, concluyendo que no importa la variación del espesor en esta capa por lo que cualquier valor es aceptable, no obstante, es mucho más fácil realizar espesores de 0.05 µm que de 0.01 µm. En cuanto al band gap de la capa n, el valor propuesto para esta es de 3.2 eV, debido a que se reporta en la literatura el bandgap de 3.2, sin embargo, la variación de este no afecta en nada a su eficiencia, por lo que al menos para el rango de simulación propuesto, cualquier valor de bandgap es aceptable. Como conclusión, con los datos propuestos tras realizar la simulación y la variación de algunos parámetros, se obtiene una eficiencia en la celda de aproximadamente 24% lo que es un valor demasiado bueno para una celda solar.
Piedrahita Ospina Michael, Universidad del Quindío
Asesor: Dr. Sergio Alberto Monjardin Armenta, Universidad Autónoma de Sinaloa

ESTUDIOS TERRITORIALES Y AMBIENTALES MEDIANTE TECNOLOGíAS DE LA INFORMACIóN GEOGRáFICA


ESTUDIOS TERRITORIALES Y AMBIENTALES MEDIANTE TECNOLOGíAS DE LA INFORMACIóN GEOGRáFICA

Giraldo Hoyos Esteban, Universidad del Quindío. Piedrahita Ospina Michael, Universidad del Quindío. Asesor: Dr. Sergio Alberto Monjardin Armenta, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los estudios territoriales mediante tecnologías SIG representan un campo de investigación que está en constante crecimiento, puesto que buscan comprender y analizar las relaciones entre los sistemas naturales y sociales. Los estudios realizados a través del uso de herramientas informáticas y bases de datos georreferenciadas permiten el análisis de datos espaciales, modelación de procesos y apoyo en la toma de decisiones.Los estudios realizados, tomando un enfoque específico en temáticas como agricultura de precisión, calidad del agua y planificación urbana; son de gran importancia, ya que en la agricultura de precisión ayuda optimizar la gestión de los cultivos y recursos agrícolas; en el análisis de calidad del agua se pueden visualizar y analizar de manera espacial la distribución de contaminantes e identificación de las fuentes de contaminación. Además, permite la evaluación de algunos parámetros de calidad del agua, lo cual disminuye tiempo y costos. Finalmente, en la planificación urbana, se genera un sistema más eficiente, sostenible y participativo, gracias a los diferentes análisis que se pueden realizar con este tipo de estudios.



METODOLOGÍA

Fotogrametría digital: el estudio se llevó a cabo con el objetivo de realizar un levantamiento fotogramétrico de CU realizando una comparación del uso de una red de puntos de apoyo y sin red de puntos de apoyo utilizando un Dron DJI Phantom 4 RTK. El levantamiento permite obtener información detallada sobre la topografía, incluyendo coordenadas, distancia y áreas. Se delimitó el área de trabajo dentro del campus universitario, estableciendo 12 puntos de control mediante Google Earth Pro y materializándolos en campo con marcas de un triángulo rectángulo. Se diseñó un plan de vuelo a 80 metros de altura, con un traslape longitudinal del 70% y transversal del 65%, capturando un total de 521 imágenes en un vuelo de 40 minutos. Las imágenes fueron procesadas en Agisoft Metashape Professional. Los productos que se generaron son dos DEM y dos orto mosaico. Asimismo, se realizo un análisis de la precisión de los productos. Agricultura de precisión: Se realizo a través de un Vehículo Aéreo No Tripulado (VANT). Para este propósito, se utilizó un dron DJI Phantom 4, al cual se le ajustan dos tipos de cámaras: una cámara multiespectral (MAPIR) y una cámara térmica (FLIR Vue Pro R). El estudio se llevó a cabo en dos zonas de cultivo de tomate Cherry. En la primera, se empleó la cámara MAPIR para capturar imágenes multiespectrales; mientras que en la segunda se utilizó la cámara térmica para obtener datos sobre la temperatura de la superficie. Tras la captura de las imágenes, se generó una nube de puntos densa, que se utilizó para crear un MDE. A partir de este se creó un orto-mosaico del cultivo, permitiendo realizar análisis más detallados, como el cálculo del índice NDVI, un indicador de la salud de la vegetación. El uso de dron permite un monitoreo eficiente y preciso, contribuyendo a mejorar la producción agrícola y la toma de decisiones en la gestión de cultivos. Calidad del agua: el monitoreo de la calidad del agua es crucial para evaluar el impacto de las actividades humanas en el agua. La teledetección se utiliza para reducir costos y tiempos, en esta evaluación se usó la base de datos de CONAGUA de los puntos medidos en la presa de SANALONA, donde se aplicó un análisis de regresión múltiple utilizando datos de reflectancia de imágenes satelitales Sentinel 2 de fechas aproximadas a las que están en la base de datos. La transformación Box-Cox se utilizó para normalizar los datos del Carbono Orgánico Total (COT) y se generó un modelo matemático para evaluar la calidad del agua en función de este parámetro. Con el software QGIS y el complemento "Point Sampling Tool", se extrajeron valores de reflectancia en puntos de muestreo específicos, denominados "Puntos CONAGUA". Los resultados mostraron una relación lineal positiva entre los datos obtenidos y los valores medidos de COT.


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos teóricos sobre el uso de tecnologías SIG para la aplicación en estudios territoriales y ambientales; además de ponerlos en práctica para la evaluación y toma de decisiones. En cuanto a la planificación urbana, podemos determinar la importancia de esta para el desarrollo de salidas cartográficas y la influencia del uso de puntos de control terrestres que permiten obtener mejores precisiones a la hora de llevar a cabo un proyecto fotogramétrico. Este estudió nos arrojó en error medio cuadrático en las coordenadas X, Y, Z en conjunto de 0.04 m, ya que el dron en un momento perdió señal y el resultado se vió afectado en la coordenada Y. El estudio realizado acerca de la temática de agricultura de precisión, permitió obtener resultados óptimos con las cámaras multiespectral y térmica. En el primer caso, se evidenció que el NDVI para el cultivo de tomate Cherry estaba en un promedio de 0.288, lo cual indica que apenas se encuentra en crecimiento y la cobertura verde en esta zona es escasa o media; también se estableció una desviación estándar de 0.034, dejando por visto la homogeneidad del cultivo. Para la cámara térmica, se evidenció que las temperaturas medidas en los píxeles se encontraban dentro del rango de ± 5 °C establecidos por el fabricante, esto en comparación con la temperatura medida en campo. Finalmente, en la práctica de análisis de calidad del agua a través de imágenes satelitales, se pudo validar mediante el Contenido Orgánico Total, que la técnica Box-Cox puede normalizar de manera eficaz los datos de calidad del agua en campo. Además, se puede demostrar que los modelos propuestos resultaron ser aceptables, ya que se obtuvo un coeficiente de determinación (r2) de 76 %. También, mediante el coeficiente de correlación, se puede demostrar la relación es positiva entre las variables estudiadas, demostrando que el modelo es capaz de predecir con precisión los parámetros de calidad del agua.
Piña Chávez Valeria, Instituto Politécnico Nacional
Asesor: Dr. Julio Cesar Cruz Argüello, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías

LA CENIZA DE BAGAZO DE CAñA DE AZúCAR COMO MATERIAL CEMENTANTE SUPLEMENTARIO


LA CENIZA DE BAGAZO DE CAñA DE AZúCAR COMO MATERIAL CEMENTANTE SUPLEMENTARIO

Piña Chávez Valeria, Instituto Politécnico Nacional. Asesor: Dr. Julio Cesar Cruz Argüello, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías



PLANTEAMIENTO DEL PROBLEMA

La producción de cemento es responsable del 8% de las emisiones globales de gases de efecto invernadero (Andrew, 2019). Además, la extracción de piedra caliza para el Clinker y la alta energía necesaria para mantener una temperatura de aproximadamente 1450°C en el proceso de producción hacen del cemento un material costoso (Danish et al., 2021). La industria azucarera en México es fundamental para la economía, con una producción anual de 53,923,151 toneladas de caña de azúcar, que resultan en 6,059,942 toneladas de azúcar. La ceniza de bagazo de caña representa el 0.62% del peso total de la caña, generando 334,323.54 toneladas de ceniza que generalmente son depositadas en vertederos, causando degradación del suelo y contaminación del manto freático (Moretti et al., 2018).



METODOLOGÍA

2.1 Materiales Se utilizó ceniza de bagazo de caña del ingenio azucarero San Rafael de Pucté, Quintana Roo, cribada con malla #325 según la norma ASTM C430 (ASTM C430, 2008). El cemento utilizado fue Portland compuesto (CPC 30R) de Cemex, y el agregado fino fue ajustado mediante la norma ASTM C144 (ASTM C144, 2018). 2.2 Métodos 2.2.1 Método de Chapelle Modificado para la evaluación de actividad puzolánica Este método mide la cantidad de hidróxido de calcio consumido por gramo de ceniza, calculado con la fórmula: Chapelle index = 2 * (V2-V1/V2) * (74/56) * 100 Donde V1 es la cantidad de HCl (ml) usado en la titulación de la solución (CaO + ceniza) y V2 es la cantidad de HCl (ml) usado en la titulación de la solución de control (CaO). Se prepararon soluciones con 1 gramo de ceniza y 2 gramos de CaO en 250 ml de agua destilada a 90°C, mantenidas por 16 horas en un matraz Erlenmeyer con condensadores. Luego se tituló con HCl y fenolftaleína como indicador. 2.2.1.2 Método de Frattini Este método mide la saturación de hidróxido de calcio (portlandita) calculando iones de calcio e hidroxilos, con la ecuación: Max(CaO)= 350/(OH)-15 Se prepararon soluciones con 20 gramos de ceniza en 100 ml de agua destilada y se mantuvieron a 40°C durante 7 días. Luego se filtraron y titularon con HCl y EDTA, usando anaranjado de metilo como indicador. 2.2.2 Resistencia a la Compresión La resistencia a la compresión se determinó según la norma ASTM C109 (ASTM C109, 2013), con cubos de mortero de 5 cm³, sustituyendo 5%, 10%, 15% y 30% de cemento por ceniza de bagazo de caña. Se curaron los especímenes por 7 y 28 días y se realizaron pruebas por triplicado. 2.2.3 Índice de Actividad de Resistencia Este índice se evaluó según la norma ASTM C311 (ASTM C311, 2018), preparando cubos de mortero con parámetros establecidos en la sección 2.2.2.


CONCLUSIONES

Se realizaron pruebas para determinar la actividad puzolánica de la ceniza de bagazo de caña mediante los métodos de Chapelle modificado y Frattini. Los resultados mostraron que la ceniza tiene actividad puzolánica pero no cumple con los límites mínimos para ser considerada un material puzolánico. El índice de Chapelle fue de 299.99 mg Ca(OH)2/g de ceniza, menor al valor establecido de 350 mg Ca(OH)2/g. En la prueba de Frattini, las muestras se encontraron cerca de la curva de saturación de portlandita con reducciones de -0.2% y 1.6%. Se esperan resultados de resistencia a la compresión y del índice de actividad de resistencia a 7 y 28 días de curado. La ceniza de bagazo de caña tiene una alta composición de óxido de silicio, un compuesto necesario para la hidratación del cemento, lo que sugiere que la resistencia a la compresión podría aumentar en comparación con la muestra de control.
Piña Medina Eduardo Tonathiu, Universidad de Guadalajara
Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara

METAHEURíSTICAS PARA LA OPTIMIZACIóN DE HIPERPARáMETROS EN REDES NEURONALES CONVOLUCIONALES PARA LA DETECCIóN DE ONDAS GRAVITACIONALES


METAHEURíSTICAS PARA LA OPTIMIZACIóN DE HIPERPARáMETROS EN REDES NEURONALES CONVOLUCIONALES PARA LA DETECCIóN DE ONDAS GRAVITACIONALES

Piña Medina Eduardo Tonathiu, Universidad de Guadalajara. Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las ondas gravitacionales, predichas por la teoría de la relatividad general de Einstein y detectadas por primera vez en 2015, abren nuevas fronteras en la astronomía y la física. La identificación precisa de estas ondas, especialmente en presencia de ruido, es crucial para el avance de la investigación en este campo. Las Redes Neuronales Convolucionales (CNNs) han demostrado ser herramientas poderosas para la clasificación de imágenes y la detección de patrones complejos en datos ruidosos. Sin embargo, el rendimiento de una CNN depende en gran medida de la correcta configuración de sus hiperparámetros, lo cual es un desafío debido a la alta dimensionalidad y no linealidad del espacio de búsqueda. La selección manual de estos hiperparámetros es un proceso tedioso y propenso a errores. Además, la naturaleza compleja y ruidosa de los datos requiere métodos robustos y eficientes para encontrar combinaciones óptimas de hiperparámetros.   Se espera que el uso de técnicas de metaheurísticas, como los algoritmos evolutivos (EA) y  la optimización por enjambre de partículas (PSO), puede proporcionar una mejora significativa en la selección de hiperparámetros para las CNNs, resultando en un mejor rendimiento en la clasificación de imágenes de ondas gravitacionales.



METODOLOGÍA

Se eligió una arquitectura propia de CNN cuyos hiperparámetros fueron seleccionados manualmente, tomando como referencia diversos artículos similares. Posteriormente, se determinaron los hiperparámetros y el espacio de búsqueda de cada uno. Asimismo, se eligieron las metaheurísticas a trabajar: PSO y EA. Se tomaron datos de ruido del Gravitational Waves Open Science Center y las formas de onda s15.0 y m15fr de los trabajos de Kuroda et al. (2017) y Andresen et al. (2019) para generar los espectrogramas que conformarían el conjunto de datos para los modelos de CNN. Se generaron tres modelos de CNN diferentes: uno sin optimizadores, otro haciendo uso de PSO para optimizarlo y, por último, uno utilizando EA para la optimización de los mismos hiperparámetros. Los hiperparámetros elegidos y el espacio de búsqueda fueron: Número de mapas de características: [20, 100] Tamaño del kernel de convolución: [3, 7] Número de neuronas en capas ocultas: [150, 300] Tasa de aprendizaje: [0.001, 0.01] Tras obtener los mejores hiperparámetros y entrenar los tres modelos, se evaluaron utilizando las siguientes métricas: función de pérdida, exactitud, precisión, recall y F1. Se tomó como referencia las métricas del modelo no optimizado y se calculó la mejora porcentual de cada modelo en las cinco métricas. Además, como una evaluación secundaria, se obtuvo la matriz de confusión de cada modelo con los datos con los que fue entrenado.


CONCLUSIONES

La mejora porcentual de las metricas de evaluación de los modelos optimizados fue la siguente: +-------+----------+----------+----------+--------+----------+ | Meta  | test_loss | test_acc | precision | recall | f1     | |-------+-----------+----------+-----------+--------+--------| | PSO   |  -42.4813 |   0.0548 |    0.0549 | 0.0548 | 0.0548 | | EA    |   64.4068 |   -0.274 |   -0.2735 | -0.274 | -0.274 | +-------+-----------+----------+-----------+--------+--------+   Se puede concluir que el mejor optimizador fue el PSO, ya que el EA presentó resultados peores que el modelo no optimizado. Aun así, de manera global, los tres modelos tuvieron un buen desempeño. Por lo tanto, para clasificadores tan sencillos como el utilizado en este caso, no es recomendable aplicar metaheurísticas, debido a la escasa mejora obtenida y al significativo tiempo de cómputo que implican.
Plata Martinez Danae Latzu, Universidad Tecnológica de Manzanillo
Asesor: Dr. William López Castrillón, Fundación Universidad de América

RESUMEN DE TRABAJO DEL PROGRAMA DELFíN


RESUMEN DE TRABAJO DEL PROGRAMA DELFíN

Plata Martinez Danae Latzu, Universidad Tecnológica de Manzanillo. Asesor: Dr. William López Castrillón, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

¿Como utilizar los recursos del oceano para produccion de electricidad y agua potable? ¿Como funcionan las herramientas computacionales en la modelacion numerica del oceano? ¿Como se aplica el metodo cientifico en una investigacion de energias marinas?  



METODOLOGÍA

La mejor opcion para obtener energia electrica y obtener como subproducto agua es una planta OTEC de sistema abierto que esta utiliza la diferencia de temperaturas para la produccion de energia, dandonos agua dessalinizada, esto fue visto en el curso intesersemstral de hidroenergia impartido en las aulas de la universidad, teniendo diferentes desafios y dinamicas  que nos ayudaban a entender los temas. El  sistema CROCO nos puede ayudar a obtener diferentes aspectos del mar como lo son: mareas, Salinidad , climamatologia, etc. Recibimos un curso intensivo de modelación estuvo dividido en 2 partes, por las mañanas teníamos clase teórica de 9 a 12 y en las tardes regresábamos de 2 a 5 para la clase práctica. Dentro de los conceptos que vimos en la clase teórica vimos los siguientes: • Historia de la modelación • Estructura de croco • Simulaciones climatológicas • Paralelizaciones Y en la parte práctica vimos: • Cambio de dominio • Anidados • Ríos • Simulaciones de mareas • Simulaciones climatológicas Entre otras  lograramos identificar los diferentes proyectos se se estan realiizando, que fuentes de informacion se pueden utilizar y que necesitamos para desarrollar nuestro proyecto y todo esto a partir de un estado del arte.


CONCLUSIONES

Trabajar en diferentes proyectos a lo largo de mi estancia me ha brindado una riqueza de experiencias y aprendizajes invaluables. Cada uno de estos trabajos ha contribuido a desarrollar habilidades específicas y a moldear mi carácter de maneras únicas. He aprendido a adaptarme a diversas situaciones, a trabajar en equipo. Estos trabajos me han permitido descubrir mis fortalezas y áreas de mejora, incrementando mi autoconfianza y resiliencia. Cada experiencia ha sido un peldaño importante en mi crecimiento personal y profesional, equipándome con herramientas y conocimientos que me servirán a lo largo de mi vida.
Platas Matías Anaid, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional

DOSIMETRíA OCUPACIONAL


DOSIMETRíA OCUPACIONAL

Platas Matías Anaid, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La exposición a radiación ionizante tiene efectos negativos para la salud del ser humano, ya que puede afectar el funcionamiento de los órganos y tejidos, incluso llega a dañar el ADN produciendo una ruptura en dicha molécula. Si la ruptura se da en ambas hebras del ADN, se producen mutaciones en el genoma, dando coo resultado, el desarrollo de algún tipo de cáncer.  Los efectos sobre la salud de las radiaciones ionizantes se dividen en efectos estocásticos y en efectos no estocásticos. Los efectos estocásticos son efectos que pueden aparecer pero no lo hacen necesariamente, un ejemplo de ellos es el desarrollo de cáncer y las mutaciones genéticas. Por otro lado, los efectos no estocásticos son aquellos que aparecen inmediatamente después de recibir una dosis alta de radiación, algunos ejemplos son enrojecimiento en la piel, cataratas, etc.  Los efectos producidos por la radiación son de gran importancia, pues llegan a mermar la vida de los individuos que son sometidos a ella con frecuencia, por lo tanto, durante el verano de investigación se analizará el material termoluminiscente más común utilizado en dosimetría ocupacional (TLD-100) para estimar que la dosis de radiación recibida por el personal ocupacionalmente expuesto no tiene efectos biológicos negativos sobre el organismo y que esta dosis no excede el rango establecido por la NOM-012-STPS-2012.   



METODOLOGÍA

Se utilizaron equipos para realizar las lecturas de las respuestas termoluminiscentes de cada uno de los TLD-100 usados para medir y a partir de esto poder hacer una calibración y así obtener la dosis de radiación absorbida.  Para medir la respuesta termoluminiscente se empleó el equipo Harshaw 3500 con número de serie 1406910, un horno de mufla Thermolyne modelo FB1315M, un acelerador lineal marca Elekta y software para análisis de datos. Además se hizo uso de dosímetros TLD-100. Como primer paso se hizo la homogenización del lote de dosímetros TLD-100,  sometiendolos a un tratamiento de borrado en una mufla a 400 °C durante 1 hora, posterior a eso se dejan reposar durante 24 horas. Después de eso, se procedió a irradiarlos a una dosis máxima de 50 cGy a 500 cGy con la técnica SSD (Source Surface Distance), para después medir su respuesta termoluminiscente en el equipo Harshaw 3500 con una rampa de calentamiento de 10 °C/s hasta alcanzar los 350 °C. Posteriormente, se realizó la estadística de los datos obtenidos en la lectura para obtener el promedio, valor mínimo y máximo, distribución normal, intervalos, frecuencia y el error del 5%. La estadística ayudó a seleccionar los dosímetros ideales que se ocuparon en la calibración de los detectores de radiación. Para obtener la curva de calibración de los dosímetros, se volvió a realizar el tratamiento térmico de borrado, pero esta vez solo a los dosímetros seleccionados tras la realización de la estadística. Esta vez fueron irradiados a diferentes dosis, primero a dosis máxima: 50, 100, 200, 300, 400 y 500 cGy; y luego a dosis en superficie: 100, 200 y 300 cGy. Se procedió a hacer la lectura de los dosímetros irradiados en el equipo Harshaw 3500 y después siguió hacer un ajuste lineal para la obtención de la ecuación característica.  Este procedimiento se realizó también para dosis en superficie. Después de obtener la ecuación característica para la dosis máxima y para la dosis en superficie fue posible calcular la dosis de radiación absorbida de cada dosímetro que portaba el personal ocupacional durante varios procedimientos de radioterapia para el tratamiento de cáncer de mama. Los datos de estos dosímetros fueron capturados por los TLD-100 y fueron medidos en el equipo Harshaw 3500, una vez que se contó con estos valores, fueron sustituidos en las ecuaciones características para estimar la dosis de radiación absorbida.   


CONCLUSIONES

Durante el verano se logró adquirir conocimientos teóricos acerca del fenómeno de la termoluminiscencia, la teoría de bandas, sobre tratamientos de radioterapia y protección radiológica; todo esto con el fin de comprender el funcionamiento de los dosímetros ocupacionales.  Asimismo, gracias al arduo trabajo se logó obtener que los dosímetros termoluminiscentes son ideales y funcionan bien para estimar la dosis absorbida por el personal ocupacionalmente expuesto y asi es posible determinar que dicha dosis se encuentra dentro del límite establecido para que no llegue a causar daños biológicos en el personal ocupacional.   
Pomares Valdés Pablo Jibrán, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE COLISIONES PROTóN-PROTóN A SQRT(S)=7TEV


ANáLISIS DE COLISIONES PROTóN-PROTóN A SQRT(S)=7TEV

Pomares Valdés Pablo Jibrán, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En colisoines protón-protón a una energía de sqrt(s)= 7 TeV, se me proporcionaron datos que correspondían a eventos con decaimiento dimuónico, además de que ya estaban pre-procesados para tener características deseables. Se buscó procesar más dichos datos y discernir si se econtraba alguna partícula de decaimiento dimuónico. 



METODOLOGÍA

A través de librerías de Python como Pandas, Matplotlib, Numpy, entre otras. Se filtraron los datos de acuerdo con posibles características discriminables y se compararon los resultados con otros obtenidos en estudios de mayor tamaño. Además, de que se aplicaron técnias modernas para el análisis experimental en física de altas energías.


CONCLUSIONES

Se encontraron tres buenos posibles candidatos a partículas: los mesones J/Psi y Y y el bosón Z. Las masas invariantes de las dos primeras partículas están de acuerdo con los valores actualmente aceptados; sin embargo, la masa obtenida del bosón Z es ligeramente menor que la aceptada.
Pretalia Hernández Silvana Quetzalli, Universidad Autónoma de Occidente
Asesor: Dr. Jeován Alberto Ávila Díaz, Universidad Autónoma de Occidente

BIOFERTILIZANTES LíQUIDOS ELABORADOS A PARTIR DE SUBPRODUCTOS DE PESCADO Y RESTOS VEGETALES COMO ALTERNATIVA SUSTENTABLE EN EL MANEJO INTEGRAL DE RESIDUOS ORGáNICOS.


BIOFERTILIZANTES LíQUIDOS ELABORADOS A PARTIR DE SUBPRODUCTOS DE PESCADO Y RESTOS VEGETALES COMO ALTERNATIVA SUSTENTABLE EN EL MANEJO INTEGRAL DE RESIDUOS ORGáNICOS.

Acosta Basopoli Dora Sofia, Universidad Autónoma de Occidente. Pretalia Hernández Silvana Quetzalli, Universidad Autónoma de Occidente. Asesor: Dr. Jeován Alberto Ávila Díaz, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La principal actividad que desempeña Sinaloa es la pesca y agricultura. En el caso de la pesca, como resultado de una gran demanda de productos derivados de las especies marinas se generan grandes volúmenes de subproductos, los cuales no llegan a ser aprovechados, por lo que terminan siendo un residuo. Estos tienen un mal manejo y son depositados en tiraderos clandestinos, rellenos sanitarios o devueltos en cuerpo de agua, generando un impacto ambiental; dando como resultado problemas indirectos, hacia la salud, estéticos, malos olores, etc. Otro problema que ha enfrentado Sinaloa es el uso excesivo de fertilizantes químicos, estos ayudan a las plantas a desarrollarse adecuadamente y en menor tiempo, logrando una mejor producción, sin embargo, esto mismo ha sido lo que ha deteriorado la estructura de los suelos, debido a la acumulación de sales y la ausencia de la materia orgánica. Por lo tanto, un exceso de fertilizante trae consigo problemas hacia el medio ambiente y a la salud. Esto al ser un problema ambiental significativo, se ha propuesto realizar un biofertilizante a partir de subproductos de pescado, teniendo como objetivo evaluar la calidad de los biofertilizantes líquidos elaborados a partir de subproductos de pescado como alternativa sustentable en el manejo de residuos orgánicos. Esto ofrecerá una alternativa más viable y económica, siendo un producto que aportará los nutrientes esenciales y se reducirá un residuo que se genera en grandes cantidades.



METODOLOGÍA

El trabajo de investigación se realizó durante el mes de junio a agosto del 2024, en la UAdeO UR Los Mochis, en las instalaciones del Laboratorio de Operaciones Unitarias ubicado en el edificio E planta baja. El montaje de los digestores anaeróbicos tuvo una duración de 30 días, durante los cuales ocurrió un proceso de fermentación anaeróbica favorecida por la temperatura ambiente que permitió la generación de un biofertilizante líquido. Se utilizaron los subproductos de pescado (estómago, intestino, hígado, corazón, sangre y gónadas) de importancia comercial para la región norte de Sinaloa. El eviscerado de pescado se obtuvieron de la zona pesquera del Maviri, pescadería ubicada en la calle Agustín Melgar 239 y del mercado Independencia. Estas vísceras se sometieron a un proceso de molienda utilizando una licuadora industrial International LI-5ª. Para la presente investigación se utilizarán 5 tratamientos, con 3 repeticiones cada uno: T1: 25% subproductos de pescado-75% agua T2: 33% subproductos de pescado-67% agua T3: 50% subproductos de pescado-50% agua T4: 66% subproductos de pescado- 34% agua T5: 75% subproductos de pescado-25% agua. A cada unidad experimental se le agrego el volumen de las vísceras de pescado procesadas previamente, correspondiente a cada uno de los tratamientos utilizados. En cada unidad experimental se utilizó un volumen total de 700 ml más la adición de 7 gr de azúcar convencional, en todos los tratamientos. Después del proceso de fermentación anaeróbica, el producto generado en los cinco diferentes tratamientos se llevó a colar y colocar el líquido en una botella de 1 L. Una vez embotellados todos los tratamientos se les realizaron diferentes pruebas de PH, salinidad, nutrientes (P, K y N) y M. O, para determinar cuál tratamiento de diferentes concentraciones proporciona las mejores concentraciones de pH, nutrientes y M.O.


CONCLUSIONES

pH: Las diferencias en el pH de las mezclas de subproductos de pescado son significativas. El Tratamiento 5 destaca por su consistencia y pH ligeramente alcalino, mientras que el Tratamiento 1 tiene mayor variabilidad y un pH más cercano a neutro. Nitrógeno: Los resultados obtenidos indican que los tratamientos con biofertilizantes elaborados a partir de subproductos de pescado presentan variaciones significativas en los niveles de nitrógeno. El tratamiento T5 mostró el mayor contenido de nitrógeno con un promedio de 0.9145%, mientras que el tratamiento T1 tuvo el menor contenido con un promedio de 0.4423%. Fósforo: Al igual que el nitrógeno, el tratamiento T5 mostró el mayor contenido de fósforo con un promedio de 0.4834%, mientras que el tratamiento T2 tuvo el menor contenido con un promedio de 0.3272%.  Potasio: Los resultados sugieren que el Tratamiento 5 es el más efectivo en términos de la cantidad de potasio extraído, mientras que el Tratamiento 2 es el menos efectivo.  M.O: El Tratamiento 5 es el más eficaz en términos de contenido de materia orgánica, lo que sugiere que este tratamiento es el mejor para aumentar la materia orgánica en el biofertilizante. El Tratamiento 1 es el menos eficaz en términos de contenido de materia orgánica.  En conclusión, con base a los resultados obtenidos de NPK en las diferentes lecturas de los tratamientos de biofertilizantes, así como en pH y M.O, se pudieron determinar las diferencias significativas entre estos. Los tratamientos T5 representaron mayor porcentaje de nitrógeno, fósforo y potasio, esto nos indica que, a mayor cantidad de subproductos de pescado, mayor será la disponibilidad de nutrientes en el biofertilizante.
Pulido Rosales Sergio, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla

INSTRUMENTACIóN Y DETECTORES DE PARTíCULAS


INSTRUMENTACIóN Y DETECTORES DE PARTíCULAS

Hernández Reyna Enrique Imanol, Benemérita Universidad Autónoma de Puebla. Pulido Rosales Sergio, Benemérita Universidad Autónoma de Puebla. Ramos Moreno Diego, Benemérita Universidad Autónoma de Puebla. Vázquez Pérez Adriana Sofia, Universidad Autónoma de Chiapas. Asesor: Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los rayos cósmicos son partículas provenientes del universo con energías extremadamente altas, superando ampliamente las alcanzadas por los aceleradores de partículas más potentes creados por la humanidad. Estas partículas ingresan a la atmósfera terrestre desde el espacio exterior, y aunque sus orígenes exactos son inciertos, se cree que podrían provenir de supernovas y otros eventos astronómicos. Cuando estos rayos cósmicos interaccionan con la atmósfera generan una cascada de subproductos entre los que están fotones, electrones, positrones y muones. El estudio experimental de partículas subatómicas es esencial en la física de altas energías, astrofísica y física nuclear. Se suelen utilizar muchos tipos de detectores en conjunto para analizar rayos cósmicos y colisiones energéticas. Este Verano de Investigación estuvo enfocado en uno en específico, la RPC. Una Cámara de Placas Resistivas (RPC, por sus siglas en inglés) es un detector de radiación ionizante que, por su gran resolución temporal, confiabilidad y bajo costo es uno de los detectores que se utilizan actualmente en grandes proyectos científicos como lo son el Observatorio Pierre-Auger en Argentina, ALICE en el CERN o FOPI-GSI en Alemania. Estos dispositivos, integrados en sistemas de detección de partículas, proporcionan información precisa sobre las partículas detectadas, mejorando nuestra comprensión del universo y ofreciendo aplicaciones prácticas en diversos campos. En principio, una RPC se compone de dos placas resistivas sometidas a muy alto voltaje (unos 10-20 kV) que encierran un gas con propiedades específicas. Cuando una partícula ionizante, como el Muón, pasa por la cámara ioniza las moléculas del gas arrancándoles electrones en cadena de modo que se generan avalanchas de iones positivos y electrones cada una viéndose atraídas por el campo eléctrico a una respectiva placa. Cuando se acumulan suficientes cargas, se genera una descarga medible (como la de un capacitor). Dependiendo de la señal de corriente obtenida a la salida se puede determinar la carga, energía y con ello el tipo de partícula. El Objetivo del Programa es la construcción de una RPC de dos gaps (dos espaciamientos para el gas) con una eficiencia mínima de 80%. Para posteriormente caracterizarla y realizar algunas mediciones básicas en conjunto con el equipo del laboratorio de pruebas RPCs ALICE en el Ecocampus, BUAP (Benemérita Universidad Autónoma de Puebla).



METODOLOGÍA

El proyecto se compone de 4 etapas principales: - Preparación de materiales. - Ensamblaje de la RPC. - Medición de la resistividad con gas Argón. - Mediciones con gas Freón. Para las placas de la RPC se utilizan vidrios soda-lime de 20x20 cm^2, que se cortan a las medidas estrictamente exactas con herramientas especiales. Después se limpian meticulosamente (cualquier tipo de suciedad, por pequeña que sea, genera ruido y pueden llegar a reducir el tiempo de vida del detector) y se pintan con una pintura negra resistiva a través del método de aerosol, que garantiza una buena homogeneidad estructural en una capa muy delgada (y por lo tanto homogeneidad en la resistividad). • Para la fabricación de la Caja de Aluminio: Se cortan y ensamblan dos placas de 31x33 cm y cuatro barras de aluminio, dos de 29 cm y dos de 33cm utilizando una sierra caladora y un taladro. Se realizan perforaciones en una de las barras de 29 cm para colocar los conectores de voltaje y gas al igual una perforación para los cabes del canal. • Construcción de la Cámara: Incluye la creación de piezas mediante impresión 3D, que forman parte del marco y los separadores de gas. Se colocan conectores de gas y alambres en el marco, y se aplica resina para sellar, eso evita futuras fugas. Se cortan tapas de acrílico que se ajustan al marco. Se aplican capas de acrílico para sellar los bordes y asegurar las placas de vidrio. Se ensamblan las placas de vidrio pintado dentro de la cámara, utilizando hilo de pescar para mantener la separación entre ellas. Finalmente, hay que soldar los electrodos. • Construcción del pad El pad se construye a partir de una placa de cobre la cual se corta de un tamaño de 20 cm por lado con la ayuda de una sierra. Posteriormente se le realiza un corte para tener un 'canal' de manera que el área efectiva dentro de él sea un cuadrado de 19 cm por lado, esto se hace con la máquina y Mach3 CNC, para mejorar la efectividad de las señales que se pueden recibir. Para la medición de la resistividad del sistema primero es necesario limpiar la cámara con gas Argón, ir administrando diferentes niveles de voltaje a la placa y ver cuál es el consumo de corriente. Finalmente, para la etapa de medición se usa gas Tetrafluoroetano. Se colocan cristales centelladores con PMTs (Tubos fotomultiplicadores) de alta eficiencia funcionando como triggers (activadores) y se cuentan la cantidad relativa de eventos detectados por la RPC frente a los detectados por los triggers obteniendo de esta manera la eficiencia y curva de funcionamiento para hallar el voltaje óptimo. Las mediciones se realizan con ayuda de un Osciloscopio Teledyne LeCroy Wavepro 715Zi-A para la visualización de voltaje y los datos pueden ser guardados en una USB para un análisis más exacto.


CONCLUSIONES

La construcción de un detector RPC de vidrio de dos gaps fue exitosa, logrando los objetivos planteados en cuanto a la funcionalidad del detector. La elección de vidrio soda lime como material de las placas resistivas y el uso de pintura de grafito conductivo proporcionaron una buena resolución en la detección de eventos. Además, las pruebas de adquisición de datos confirmaron la capacidad del detector para capturar y registrar señales de partículas ionizantes. La adquisición de datos mostró señales claras de ionización, permitiendo la identificación de eventos de partículas cargadas.
Quiñones Sánchez Carol Edith, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Mayra Mabel Valerdi Negreros, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

EXPLORANDO LAS REGIONES HII: CONDICIONES FíSICAS, ABUNDANCIAS QUíMICAS Y SU PAPEL EN LA EVOLUCIóN GALáCTICA


EXPLORANDO LAS REGIONES HII: CONDICIONES FíSICAS, ABUNDANCIAS QUíMICAS Y SU PAPEL EN LA EVOLUCIóN GALáCTICA

de Rosas Alvarez Areli, Benemérita Universidad Autónoma de Puebla. Quiñones Sánchez Carol Edith, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Mayra Mabel Valerdi Negreros, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Introducción Las nebulosas gaseosas son brillantes del universo, hay mayor brillo superficial, como la de Orión o la Nube de Magallanes, para clasificarlas se distinguen dos tipos: las regiones H II y las nebulosas planetarias, las diferencias se relacionan con su origen, edad de las estrellas y evolución. En nebulosas foto ionizadas, las abundancias de elementos más pesados que el He clásicamente se han determinado a partir de las brillantes líneas excitadas colisionalmente (LECs). Sin embargo, hace ya más de 20 años que se midió la primera línea de recombinación (LR) pura de elementos pesados y, desde entonces, persiste un gran problema en la comprensión de la física que tiene lugar en el seno de las nebulosas foto ionizadas: las abundancias químicas de un mismo ion obtenidas a partir de LRs suelen ser significativamente mayores a las determinadas a partir de LECs. La determinación de la composición química de regiones HII ha sido primordial para estudiar la evolución de las galaxias y la determinación de la abundancia de Helio; la radiación ultravioleta de cúmulos de estrellas masivas de tipos espectrales O y B temprano se ioniza y calentado el gas. Los fotones (o partículas de luz) de energías sobre los 13.6 eV con capaces de ionizar el hidrógeno atómico (H) circundante generando un volumen que contiene principalmente hidrogeno ionizado (H+ o H II), la mayoría de los elementos existen en forma de iones (C+, N+, O+, y estados de ionización superiores), y en donde todas las moléculas fueron disociadas por la radiación.  



METODOLOGÍA

  Metodología Se proporcionaron tres archivos FITS con datos en diferentes bandas (B y R). Usando el programa IRAF, se midieron las longitudes de onda de las líneas espectrales, incluso las menos pronunciadas. Las líneas se registraron en un archivo splot.log, que contiene longitudes de onda, flujo de línea, ancho equivalente, etc. Se realizó una corrección por desplazamiento al rojo (Z) usando las líneas conocidas Hβ y Hα. Posteriormente, se unieron los datos de los filtros B y R en un solo archivo. Usando PyNeb, se calculó la corrección por extinción y las condiciones físicas, como la temperatura y densidad, a partir de relaciones de líneas sensibles. La corrección por extinción se realizó con una instancia de redCorr() en PyNeb, ajustando las observaciones para considerar la atenuación y dispersión de la luz por el polvo interestelar. Resultados Se determinaron las temperaturas y densidades de las regiones HII usando relaciones de líneas, como el cociente [NII] λ5755/λ6548 y [OIII] λ4363/λ5007 para la temperatura, y el cociente [SII] 6731/6716 para la densidad. Para calcular las abundancias químicas, se utilizaron líneas espectrales prominentes de iones como N2, O2, O3, Ne3, S2, S3, Ar3, Ar4, Cl3 y los elementos de recombinación He1 y He2. Las abundancias se calcularon con PyNeb, utilizando el método getIonAbundance y aplicando factores de corrección de ionización (ICF) cuando fuera necesario.


CONCLUSIONES

Conclusiones Las abundancias químicas y las condiciones físicas de las regiones HII son fundamentales para entender la composición química del medio interestelar y la evolución galáctica. Las discrepancias entre las abundancias obtenidas de LECs y LRs siguen siendo un área de estudio importante, y herramientas como PyNeb permiten un análisis más detallado y preciso de estas regiones ionizadas. Referencias Articulo 1 Valerdi, M., Peimbert, A., Peimbert, M., & Sixtos, A. (2019). Determination of the Primordial Helium Abundance Based on NGC 346, an H II Region of the Small Magellanic Cloud. The Astrophysical Journal, 2(876). https://doi.org/10.3847/1538-4357/ab14e4 Articulo 2 Peimbert, A. (s. f.). The Chemical Composition of the 30 Doradus Nebula Derived from Very Large Telescope Echelle Spectrophotometry. The Astrophysical Journal, 584(2), 735-750. https://doi.org/10.1086/345793 Github de Pyneb: https://github.com/Morisset/PyNeb_devel/blob/master/docs/Notebooks/PyNeb_manual_7b.ipynb
Quintero López Jimena, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional

DISPOSITIVOS SEMICONDUCTORES Y CIRCUITOS INTEGRADOS


DISPOSITIVOS SEMICONDUCTORES Y CIRCUITOS INTEGRADOS

Cortina Barrales Naraai, Universidad de Guadalajara. Garcia Gutierrez Alejandro Ivan, Benemérita Universidad Autónoma de Puebla. Gómez Méndez Alison Zoe, Instituto Politécnico Nacional. Hernandez Ortiz Lizette Ariadna, Universidad Veracruzana. Perez Cortes Eliseo, Benemérita Universidad Autónoma de Puebla. Quintero López Jimena, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Ramirez Beltrán Andrés Alberto, Universidad de Guadalajara. Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los dispositivos semiconductores son componentes electrónicos que se encuentran en el corazón de la tecnología moderna. Estos dispositivos utilizan materiales semiconductores, como el silicio o el germanio, que tienen propiedades eléctricas intermedias, entre los conductores se pueden identificar los metales y en los aislantes el vidrio. Los TFT (Thin-Film Transistor) son transistores de película delgada que se utilizan en pantallas de cristal líquido (LCD) y pantallas de matriz activa como las de los teléfonos inteligentes y televisores. Los TFT permiten un control preciso de cada píxel en la pantalla. Las ventajas de los circuitos integrados flexibles incluyen menor costo de procesamiento, menor huella de carbono, y procesos de fabricación más rápidos comparados con el silicio. Se busca contribuir a una mejor comprensión de la tecnología de TFT flexible para avanzar hacia circuitos integrados fiables y flexibles, además de impulsar la investigación en los campos de la microelectrónica, la nanotecnología, los MEMS, las celdas solares, los dispositivos de película delgada, los sensores y otras áreas que requieren un ambiente libre de partículas.  



METODOLOGÍA

Los pasos para crear un circuito integrado son: simulación, diseño, fabricación y pruebas. Para la simulación de compuertas lógicas a nivel de transistores NMOS se utilizó el software LTspice, teniendo diferente ancho de canal (W) y de largo (L) para observar el comportamiento de los circuitos a este nivel. Además en un software más intuitivo (wokwi) se realizó la simulación a nivel de compuertas para obtener las tablas de verdad esperadas de cada circuito realizado con diferentes combinaciones de compuertas básicas. Posteriormente se hizo uso del software Tanner para realizar el diseño de los siguientes circuitos: MEDIO RESTADOR, RESTADOR COMPLETO, MEDIO SUMADOR, SUMADOR COMPLETO, MULTIPLEXOR, COMPARADOR, FLIP FLOP TIPO D, LATCH TIPO D. tomando como base una serie de compuertas lógicas diseñadas en proyectos previos, como son la compuerta NOT, NAND y NOR. El proceso de fabricación se realizó en el Laboratorio Nacional de Micro y Nanotecnología (LNunT), el cual cuenta con un cuarto limpio tipo 100. Como primera parte de la fabricación se hizo un depósito de cromo y oro con el Evaporador D18. Después, se procedió a fabricar el circuito realizando el proceso de fotolitografía mediante escritura directa utilizando el equipo Heidelberg DWL-66FS, fotoresina S1813 y revelador MF-319. Se prosiguió a realizar otro depósito de HFO₂, con ayuda del equipo ALD 150LE. Posterior a ello con el equipo Sputtering V3 se agregó la capa del Mo. Por último se le colocó el polímero PMMA utilizando el Spinner Laurell 650. Se obtuvieron las señales de transistores, compuertas lógicas y los circuitos diseñados. Para los circuitos integrados y compuertas lógicas se utilizó un osciloscopio, un generador de funciones y una fuente voltaje, utilizando señales de voltaje de corriente continua (DC) y corriente alterna (AC), en el caso de los transistores se utilizó un analizador Keithley 4200A-SCS. Todas las mediciones se llevaron a cabo en condiciones ambientales normales.  


CONCLUSIONES

El trabajo realizado durante la estancia de verano logró reforzar y adquirir nuevos conocimientos sobre el diseño de circuitos integrados digitales en muestras de material flexible partiendo desde transistores. También se comprendió cómo el tamaño y orientación de los transistores afectaba directamente a los circuitos y su funcionalidad en general. Se adquirieron conocimientos de los procesos a seguir para poder trabajar en un cuarto limpio clase 100. Adicionalmente, se aprendió sobre el proceso de fabricación de circuitos integrados. Por último, se reforzaron conocimientos en instrumentación y medición de circuitos integrados.  
Ramirez Beltrán Andrés Alberto, Universidad de Guadalajara
Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional

DISPOSITIVOS SEMICONDUCTORES Y CIRCUITOS INTEGRADOS


DISPOSITIVOS SEMICONDUCTORES Y CIRCUITOS INTEGRADOS

Cortina Barrales Naraai, Universidad de Guadalajara. Garcia Gutierrez Alejandro Ivan, Benemérita Universidad Autónoma de Puebla. Gómez Méndez Alison Zoe, Instituto Politécnico Nacional. Hernandez Ortiz Lizette Ariadna, Universidad Veracruzana. Perez Cortes Eliseo, Benemérita Universidad Autónoma de Puebla. Quintero López Jimena, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Ramirez Beltrán Andrés Alberto, Universidad de Guadalajara. Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los dispositivos semiconductores son componentes electrónicos que se encuentran en el corazón de la tecnología moderna. Estos dispositivos utilizan materiales semiconductores, como el silicio o el germanio, que tienen propiedades eléctricas intermedias, entre los conductores se pueden identificar los metales y en los aislantes el vidrio. Los TFT (Thin-Film Transistor) son transistores de película delgada que se utilizan en pantallas de cristal líquido (LCD) y pantallas de matriz activa como las de los teléfonos inteligentes y televisores. Los TFT permiten un control preciso de cada píxel en la pantalla. Las ventajas de los circuitos integrados flexibles incluyen menor costo de procesamiento, menor huella de carbono, y procesos de fabricación más rápidos comparados con el silicio. Se busca contribuir a una mejor comprensión de la tecnología de TFT flexible para avanzar hacia circuitos integrados fiables y flexibles, además de impulsar la investigación en los campos de la microelectrónica, la nanotecnología, los MEMS, las celdas solares, los dispositivos de película delgada, los sensores y otras áreas que requieren un ambiente libre de partículas.  



METODOLOGÍA

Los pasos para crear un circuito integrado son: simulación, diseño, fabricación y pruebas. Para la simulación de compuertas lógicas a nivel de transistores NMOS se utilizó el software LTspice, teniendo diferente ancho de canal (W) y de largo (L) para observar el comportamiento de los circuitos a este nivel. Además en un software más intuitivo (wokwi) se realizó la simulación a nivel de compuertas para obtener las tablas de verdad esperadas de cada circuito realizado con diferentes combinaciones de compuertas básicas. Posteriormente se hizo uso del software Tanner para realizar el diseño de los siguientes circuitos: MEDIO RESTADOR, RESTADOR COMPLETO, MEDIO SUMADOR, SUMADOR COMPLETO, MULTIPLEXOR, COMPARADOR, FLIP FLOP TIPO D, LATCH TIPO D. tomando como base una serie de compuertas lógicas diseñadas en proyectos previos, como son la compuerta NOT, NAND y NOR. El proceso de fabricación se realizó en el Laboratorio Nacional de Micro y Nanotecnología (LNunT), el cual cuenta con un cuarto limpio tipo 100. Como primera parte de la fabricación se hizo un depósito de cromo y oro con el Evaporador D18. Después, se procedió a fabricar el circuito realizando el proceso de fotolitografía mediante escritura directa utilizando el equipo Heidelberg DWL-66FS, fotoresina S1813 y revelador MF-319. Se prosiguió a realizar otro depósito de HFO₂, con ayuda del equipo ALD 150LE. Posterior a ello con el equipo Sputtering V3 se agregó la capa del Mo. Por último se le colocó el polímero PMMA utilizando el Spinner Laurell 650. Se obtuvieron las señales de transistores, compuertas lógicas y los circuitos diseñados. Para los circuitos integrados y compuertas lógicas se utilizó un osciloscopio, un generador de funciones y una fuente voltaje, utilizando señales de voltaje de corriente continua (DC) y corriente alterna (AC), en el caso de los transistores se utilizó un analizador Keithley 4200A-SCS. Todas las mediciones se llevaron a cabo en condiciones ambientales normales.  


CONCLUSIONES

El trabajo realizado durante la estancia de verano logró reforzar y adquirir nuevos conocimientos sobre el diseño de circuitos integrados digitales en muestras de material flexible partiendo desde transistores. También se comprendió cómo el tamaño y orientación de los transistores afectaba directamente a los circuitos y su funcionalidad en general. Se adquirieron conocimientos de los procesos a seguir para poder trabajar en un cuarto limpio clase 100. Adicionalmente, se aprendió sobre el proceso de fabricación de circuitos integrados. Por último, se reforzaron conocimientos en instrumentación y medición de circuitos integrados.  
Ramirez Ramirez Jehu Jonathan, Universidad de Sonora
Asesor: M.C. Juan Jesús Moncada Bolón, Universidad Autónoma de Campeche

RECONOCIMIENTO DE ESCALAS MUSICALES A TRAVéS DE ESPECTROGRAMAS USANDO REDES NEURONALES


RECONOCIMIENTO DE ESCALAS MUSICALES A TRAVéS DE ESPECTROGRAMAS USANDO REDES NEURONALES

Ramirez Ramirez Jehu Jonathan, Universidad de Sonora. Asesor: M.C. Juan Jesús Moncada Bolón, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

Introducción: El enfoque de este proyecto fue seleccionar una de las herramientas analizadas, las redes neuronales, y aplicarlas a un problema del mundo real. Aprovechando los conocimientos adquiridos durante el verano y combinándolos con mi experiencia previa en música, decidí explorar la intersección entre la inteligencia artificial y la teoría musical. El resultado es un experimento que busca clasificar escalas musicales a partir de espectrogramas, uniendo así la tecnología con el arte de la música. Motivación: La idea de usar redes neuronales para clasificar datos me pareció fascinante. Después de ver cómo funcionan los clasificadores de imágenes con caracteres, decidí explorar si era posible aplicar un enfoque similar a los sonidos. Esto me llevó a la idea de clasificar canciones por su escala musical usando espectrogramas.   Problema a resolver: El objetivo es desarrollar un sistema que permita a una computadora identificar la escala musical de una canción a partir de fragmentos específicos de su espectrograma. Esto implicaría que la red neuronal pueda captar características específicas de una secuencia de notas. Relevancia: Clasificar canciones por su escala musical tiene múltiples aplicaciones: desde la recomendación musical personalizada, hasta la enseñanza, análisis musicológico, y simplificación en la producción musical. Esto podría facilitar tareas que pueden ser complicadas para personas que no tengan un alto nivel de conocimientos musicales.   Antecedentes y enfoque: Existen estudios que utilizan redes neuronales para clasificar instrumentos musicales o géneros de música, lo que indica que es posible aplicar esta tecnología en la clasificación de características musicales. Sin embargo, mi enfoque se centrará en la identificación de escalas musicales, un desafío más específico. Limitaciones anticipadas: El entrenamiento de la red con todas las escalas y modos musicales es un proceso que requiere mucho tiempo. Además, las canciones comerciales contienen muchos elementos que pueden interferir con el análisis, como percusiones, armonías y voces. Para superar estas limitaciones, el proyecto se acotará a unas pocas escalas y utilizará pequeños fragmentos de sonido generados personalmente para el entrenamiento de esta red.



METODOLOGÍA

Metodología  Análisis del problema y diseño de la red neuronal Objetivo: Entender las necesidades específicas del problema y diseñar una arquitectura de red neuronal que pueda abordar la clasificación de escalas musicales.   Pasos: Definir las características principales de los espectrogramas que la red neuronal debe identificar para clasificar las escalas musicales. Determinar la estructura de la red neuronal, incluyendo el número de capas y neuronas en cada capa, funciones de activación, y el algoritmo de optimización. Diseñar la arquitectura de la red neuronal en C++, considerando la optimización del uso de memoria y el manejo eficiente de los datos de entrada.   Selección de escalas musicales y generación de datos de entrenamiento Objetivo: Acotar el problema a un conjunto manejable de escalas musicales y generar los datos de entrenamiento necesarios.   Pasos: Elegir un número reducido de escalas musicales para clasificar, asegurando que representen una variedad de patrones sonoros. Crear espectrogramas de fragmentos de audio que contengan dichas escalas musicales utilizando herramientas web o generando archivos MIDI. Asegurarse de que los datos de entrenamiento estén balanceados y sean representativos de las escalas elegidas.   Implementación de la red neuronal en C++ Objetivo: Implementar/Adaptar la red neuronal en C++ construida durante el curso orientada a este problema.   Pasos: Escribir/Adaptar el código para las diferentes capas de la red neuronal, incluyendo la propagación hacia adelante y la retropropagación de errores. Implementar/Adaptar la función de costo y el algoritmo de optimización (por ejemplo, descenso de gradiente).   Entrenamiento de la red neuronal Objetivo: Ajustar los pesos de la red neuronal para que pueda clasificar correctamente las escalas musicales a partir de los espectrogramas.   Pasos: Cargar los datos de entrenamiento generados en la red neuronal. Ejecutar el proceso de entrenamiento, ajustando los pesos mediante el algoritmo de retropropagación. Monitorear el error de entrenamiento y ajustar parámetros como la tasa de aprendizaje si es necesario.   Evaluación del modelo Objetivo: Evaluar el rendimiento del modelo utilizando un conjunto de datos de prueba.   Pasos: Generar un conjunto de datos de prueba independiente que la red no haya visto durante el entrenamiento. Evaluar la precisión del modelo en la clasificación de escalas musicales. Analizar los resultados y ajustar la red neuronal si los resultados no son satisfactorios.   Experimentación y ajustes finales Objetivo: Validar el modelo con nuevos datos y ajustar según sea necesario.   Pasos: Introducir nuevos espectrogramas de canciones para ver cómo los clasifica la red. Realizar ajustes en la arquitectura o en los parámetros del modelo para mejorar su precisión y robustez. Documentar los cambios y las mejoras logradas en el modelo.


CONCLUSIONES

Conclusiones Generales El objetivo principal de este proyecto es desarrollar un clasificador capaz de identificar la escala musical de una canción a partir de su espectrograma. Al implementar una red neuronal en C++, se espera demostrar que es posible aplicar técnicas de inteligencia artificial a la clasificación de características musicales específicas. Se espera obtener un modelo que, tras un proceso de entrenamiento adecuado, pueda clasificar correctamente fragmentos de audio que correspondan a diferentes escalas musicales. Aunque la red neuronal estará acotada a un conjunto limitado de escalas para simplificar el problema, el éxito en esta tarea indicará que la metodología empleada es viable y efectiva.  
Ramon Galicia Diana, Universidad Vizcaya de las Américas
Asesor: Mtra. Ana María Pretel Martinez, Tecnológico de Estudios Superiores de Jocotitlán

ESTRATEGIAS PARA LA IMPLEMENTACION DE AREAS VERDES Y URBANIZACION SOSTENIBLE EN BUSCA DE LA DISMINUCION DE ISLAS DE CALOR EN LA CIUDAD DE ENSENADA BAJA CALIFORNIA”


ESTRATEGIAS PARA LA IMPLEMENTACION DE AREAS VERDES Y URBANIZACION SOSTENIBLE EN BUSCA DE LA DISMINUCION DE ISLAS DE CALOR EN LA CIUDAD DE ENSENADA BAJA CALIFORNIA”

Ramon Galicia Diana, Universidad Vizcaya de las Américas. Asesor: Mtra. Ana María Pretel Martinez, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

Analizar y proponer posibles estrategias para disminuir el impacto que ocasionan las islas de calor con la implementación de áreas verdes y la búsqueda de una urbanización sustentable en la ciudad de Ensenada Baja California buscando además mejorar la calidad del aire, como así mismo mejorar la salud y bienestar de los habitantes.



METODOLOGÍA

Etapa 1: Identificación y Selección de Problemas Etapa 2: Investigación y Recopilación de Información, Etapa 3: Análisis y Propuesta de Estrategias, 4.Elaboración del Informe Final:  


CONCLUSIONES

La implementación de áreas verdes y estrategias de urbanización sostenible se revela como una medida indispensable para mitigar los efectos adversos de las islas de calor urbano en Ensenada, Baja California. Las islas de calor urbano, caracterizadas por temperaturas más elevadas en las zonas urbanas en comparación con sus alrededores rurales, representan una preocupación creciente en términos de salud pública, demanda energética y sostenibilidad ambiental. La proliferación de edificaciones, la reducción de vegetación y la expansión de superficies impermeables han intensificado este fenómeno, haciendo urgente la adopción de medidas correctivas.    
Ramos Flores Jesús Alejandro, Universidad Autónoma de Sinaloa
Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa

MONITOREO DE DEFORMACIONES DE LA PRESA SANALONA MEDIANTE USO DE TECNICAS SATELITALES (GNSS)


MONITOREO DE DEFORMACIONES DE LA PRESA SANALONA MEDIANTE USO DE TECNICAS SATELITALES (GNSS)

Galvez Soto Jose Alfredo, Universidad Autónoma de Sinaloa. Ramos Flores Jesús Alejandro, Universidad Autónoma de Sinaloa. Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La presa Sanalona, ubicada a 25 kilómetros al este de la ciudad de Culiacán en el estado de Sinaloa, es un embalse cuya construcción data del año 1948, su conservación al día de hoy implica más de 70 años de operación continua. De acuerdo con expertos de diferentes áreas de la ingeniería, la estimación de la vida útil de una presa ronda los 50 años, con lo que se hace evidente la preocupación de los mismos de llevar a cabo monitoreos de la posición de elementos clave de la estructura de la misma con el fin de mantener un seguimiento sobre la integridad de la obra. En esta investigación se busca determinar la magnitud de posibles deformaciones en la geometría de la cortina de la presa Sanalona. Para ello, se emplean tecnologías de medición a los Sistemas Globales de Navegación Satelital (GNSS) tales como levantamientos y observaciones con receptores geodésicos de alta precisión.



METODOLOGÍA

El equipo utilizado consta de tres receptores satelitales, dos de ellos siendo los Hi-Target V30, y el último un GeoMax Zenith25. Para su correcto uso es necesaria la implementación de instrumental básico como bases niveladoras, bastones, bípodes y un longímetro. La forma en que se monitorean las deformaciones de la presa consta de una serie de 54 puntos fijos colocados consecutivamente a lo largo de la cortina de la presa, sobre los cuales se realizan las observaciones satelitales GNSS, dando un periodo estándar de medición a todos los puntos. Para llevar a cabo este monitoreo se colocó uno de los receptores Hi-Target en una base fija de nombre en clave CERR, ubicada a 150 metros de la cortina, este se configuró con un intervalo de medida a 1 segundo con una máscara de elevación de 15°, el cual estuvo activo durante todo el transcurso del monitoreo, que abarcó desde las 7:30 a las 13:30 horas aproximadamente. Con los dos equipos restantes se llevó a cabo la propia toma de información de los testigos deformantes en la cortina. La configuración de los receptores utilizados en la observación de los testigos consta de una máscara de elevación de 10° y un intervalo de medición de 1 segundo, dando 8 minutos de lectura a cada testigo. Los receptores fueron colocados de manera intercalada, es decir, que el equipo Zenith25 se ocupó de medir los testigos con denominación impar (1,3,5,7…), y el equipo V30 restante los testigos pares (2,4,6,8…). En días posteriores a la realización de las observaciones se realizó la descarga de los datos obtenidos. Los insumos generados consisten en una serie de archivos RAW en los que se contiene la información de navegación de las diferentes constelaciones de satélites, estos archivos pasaron por un proceso de conversión a formato RINEX, el cual es el estándar en trabajos con GNSS. Otro insumo necesario para este proyecto son las lecturas de la estación fija CULN de la Red Geodésica Nacional Activa (RGNA) correspondientes al periodo en el que nuestro receptor base se encontraba en operación. Para el procesamiento de los datos se utilizó el programa TopconTools, el cual toma los datos de los archivos de navegación para determinar la posición del receptor al momento en que realizaba sus lecturas. Mediante el uso de esta herramienta se realizó un ajuste en las coordenadas obtenidas en la base CERR, esto con la implementación de las lecturas de la estación CULN de INEGI utilizadas como control adicional a las observaciones del equipo colocado en CERR. Una vez que se ajustaron las coordenadas de la base se procedió a repetir el procedimiento, esta vez tomando como base las lecturas de CERR, calculando mediante los tiempos compartidos de medición la posición de todos los testigos, obteniendo a su vez en el proceso las magnitudes de posibles errores propios de las limitaciones técnicas de los equipos utilizados.


CONCLUSIONES

Los resultados obtenidos denotan la presencia de un desplazamiento de la estructura en general hacia el noreste, con una magnitud aproximada de 3 centímetros, esto se ha dado en un periodo de 8 años, con lo que la tendencia de deformaciones se corresponde con los valores obtenidos en estudios previos a este. Las deformaciones verticales si denotan una leve diferencia, ya que en promedio se ha determinado un hundimiento uniforme de entre 5 y 9 centímetros en la sección este de la cortina, mientras que en la oeste las deformaciones no denotan una correlación, pues las magnitudes van desde 2.5 hasta 8 centímetros. Tras la realización de esta investigación se ha reafirmado la eficiencia y calidad de los trabajos en los que se utilizan las tecnologías de navegación satelital, obteniendo muy buenos resultados. La calidad de las observaciones nos muestra una exactitud de 1 a 2 milímetros en las observaciones realizadas con los equipos V30, mientras que las precisiones obtenidas con el equipo Zenith25 rondan 0.5 a 1.5 centímetros.
Ramos Gonzalez Diego Cesar, Instituto Tecnológico de Querétaro
Asesor: Dra. Danna Lizeth Trejo Arroyo, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías

ESTUDIO DE PROPIEDADES FÍSICO-MECÁNICAS DE MEZCLAS MODIFICADAS CON ADICIONES DE VIDRIO Y CERÁMICA COMO CEMENTANTES SECUNDARIOS


ESTUDIO DE PROPIEDADES FÍSICO-MECÁNICAS DE MEZCLAS MODIFICADAS CON ADICIONES DE VIDRIO Y CERÁMICA COMO CEMENTANTES SECUNDARIOS

Ramos Gonzalez Diego Cesar, Instituto Tecnológico de Querétaro. Asesor: Dra. Danna Lizeth Trejo Arroyo, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías



PLANTEAMIENTO DEL PROBLEMA

El crecimiento poblacional y la urbanización impulsan una gran demanda de material cementante. La producción de cemento convencional genera cerca del 8% de las emisiones globales de CO2 debido a la calcinación del Clinker y la quema de combustibles fósiles. Por ello, es crucial desarrollar alternativas mediante el reciclaje de materiales. La mala gestión de residuos de construcción, como vidrio y cerámica, impide su reciclaje efectivo, y suelen terminar en vertederos. Estos materiales pueden integrarse en la mezcla cementante como sustitutos parciales del cemento convencional. Reducir la dependencia del cemento tradicional es urgente. La sustitución parcial del cemento con residuos como vidrio y cerámica podría reducir el consumo de cemento convencional y el impacto ambiental, además de proporcionar un uso útil a los residuos de construcción. Durante una investigación de verano, se estudiaron las propiedades físico-mecánicas de mezclas cementantes elaboradas con sustitución parcial de cemento por polvo de vidrio y cerámica, como materiales cementantes suplementarios.



METODOLOGÍA

Se recolectaron residuos de cerámica y vidrio de vertederos locales en Chetumal, Quintana Roo, para una investigación sobre su uso en mezclas cementantes. En la etapa de caracterización, se analizaron las propiedades físico-mecánicas de estas mezclas con una sustitución parcial de estos residuos. El proceso comenzó con el acondicionamiento de los materiales mediante cribado y tamizado para obtener partículas de aproximadamente 44 μm, sustituyendo el cemento en un 10% y 15% en peso. La cantidad inicial de cada muestra fue de 2 kg, tamizadas a través de mallas de diferentes tamaños. Se utilizó un tamiz No.50 (297 μm), No.100 (149 μm), No.200 (74 μm) y finalmente el tamiz No.325 (44 μm). Después del tamizado, se obtuvieron 355 g de vidrio (18% de la muestra inicial) y 300 g de cerámica (15%). Posteriormente, se caracterizaron estos polvos mediante Microscopía Electrónica de Barrido y Espectroscopía de Rayos X de Dispersión de Energía (MEB-EDS) usando un microscopio JEOL JSM-6010PLUS/LA para analizar la morfología y composición elemental. El tamaño de partícula se determinó con el software ImageJ. Se diseñaron mezclas cementantes con sustituciones parciales de cemento del 0%, 5% y 10% utilizando polvo de vidrio y cerámico, con partículas de ±44 μm. Se elaboraron cubos de 5 cm de arista y se siguió la norma ASTM C1437 para ajustar la fluidez. Los cubos se curaron en agua con cal a 3, 7 y 28 días. El diseño experimental incluyó un grupo control (sin sustitución) y grupos experimentales con diferentes porcentajes de sustitución. La resistencia mecánica se evaluó mediante pruebas de compresión en una prensa eléctrica de laboratorio ELVEC, siguiendo la norma ASTM C39, registrando las resistencias máximas alcanzadas en cada etapa de curado.


CONCLUSIONES

Durante mi estancia de verano, adquirí conocimientos teóricos y prácticos sobre el uso de materiales residuales en mezclas cementantes, aplicando técnicas de sustitución parcial. Aunque el proyecto está en fase de pruebas, se obtuvieron resultados preliminares relevantes. La caracterización mediante Microscopía Electrónica de Barrido (MEB) y Espectroscopía de Rayos X de Dispersión de Energía (MEB-EDS) mostró que el polvo de vidrio tiene partículas angulares e irregulares, con un tamaño promedio de 33.16 μm, mientras que la cerámica presenta partículas rugosas e irregulares con un tamaño promedio de 39.05 μm. El vidrio tiene un 43% de óxido de silicio (SiO₂), 6.93% de óxido de calcio (CaO) y 2.30% de óxido de aluminio (Al₂O₃). La cerámica muestra un 52.21% de óxido de silicio, 21.38% de óxido de aluminio y 3.59% de óxido de calcio. Estos resultados sugieren que el vidrio, por su alto contenido de silicio, puede mejorar la resistencia de las pastas cementantes, mientras que la cerámica, con su alto contenido de aluminio y superficie rugosa, también contribuye a una mejor adherencia y resistencia. Las muestras de control curadas a 3 y 7 días mostraron resistencias de 13.548 MPa y 15.161 MPa, respectivamente. Las muestras con un 10% de sustitución de cerámica mostraron una resistencia de 10.376 MPa a 3 días y 15.265 MPa a 7 días. En comparación, las muestras con vidrio mostraron resistencias menores a los 3 días, pero mayores a los 7 días con un 10% de sustitución. Se esperan más resultados para evaluar el comportamiento a 28 días, cuando el cemento alcanza su máxima resistencia.  
Ramos Mijangos Ursula Ximena, Instituto Politécnico Nacional
Asesor: Dr. Jorge Luis López López, Universidad Michoacana de San Nicolás de Hidalgo

EL ESPACIO DE CUADRILáTEROS EN EL PLANO VISTO DENTRO DE UN TORO BIDIMENSIONAL.


EL ESPACIO DE CUADRILáTEROS EN EL PLANO VISTO DENTRO DE UN TORO BIDIMENSIONAL.

Ramos Mijangos Ursula Ximena, Instituto Politécnico Nacional. Asesor: Dr. Jorge Luis López López, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La clasificación de los espacios poligonales y su estudio generalizado por n-ágonos es un tema vastamente conocido dentro del estudio de la geometría y de la topología, el arduo estudio de estos espacios puede ser útil para un estudio a gran escala sin embargo, el conocimiento de el acomodo único para cada polígono es un problema no solo acotable si no también interesante. Dado un cuadrilátero con lados a1, a2, a3, a4 donde cada uno de estos no posee un valor específico, y donde la definición de cuadrilátero puede estar dada por cualquier figura cerrada ya sea convexa o cóncava (que cumpla con la desigualdad del triángulo, es decir que a1



METODOLOGÍA

Se empezó por analizar dos casos específicos, para después poder generalizarlo. Dentro de todos estos casos, podemos ver que tenemos un vértice "móvil" el cual podremos mover para tener todos los distintos cuadriláteros dados por 4 lados específicos. Caso 1. a1=8, a2=1, a3=3, a4=5 Al ver este cuadrilátero nos pudimos dar cuenta de cómo al mover p4 este puede girar ininterrumpidamente, creando un arco hasta llegar a su simétrico, el cual puede seguir este mismo proceso, creando así dos intervalos que se pueden pegar entre sí, haciendo un círculo. Caso 2. a1=4, a2=1, a3=3,a4=5 En este cuadrilátero específico observamos que su comportamiento es distinto que al del caso anterior, observamos que al momento de acercar p₄ a el eje de x existe un punto en el cual la figura no será posible con las longitudes dadas, existiendo un vacío en este segmento. Sin embargo, al "saltar" este segmento, podemos ver que podemos llegar a un simétrico de este cuadrilátero, existiendo entonces dos intervalos discontinuos. Aunado a esto podemos ver que ambos intervalos pueden ser unidos en sus puntas, creando dos círculos distintos. Dados estos dos casos podemos observar un cambio en la topología de un caso al otro, a partir de aquí se intentará visualizar que es lo que ocasiona este cambio, y qué características debe de tener un cuadrilátero para generar un espacio con una forma u otra. A continuación vemos un caso más generalizado, para entender las distintas formas que puede tomar este espacio para un cuadrilátero dado. Caso 3. a1=?, a2=1, a3=3, a4=5 Dentro de este caso, fue más fácil observar cómo es que cambian según los valores de un solo lado, en este caso de a1. 1. Para a1>9 y a1


CONCLUSIONES

Durante esta estancia se obtuvieron múltiples conocimientos sobre el tema de polígonos y su clasificación en el plano y en el espacio. Durante el progreso de este trabajo se pudieron trabajar otras propuestas que permitieron abarcar un amplio rango de elementos los cuales ofrecieron múltiples puntos de vista dentro del tema hasta poder llegar a la formalización de este en algo más concreto. Se espera poder realizar la clasificación completa de los cuadriláteros y ver el acomodo correcto de los elementos del mismo. Teniendo una posible estructuración de sus componentes tal que este es un avance significativo en torno a este mismo proyecto. Y se esperaría poder llegar a resultados aún más concluyentes para obtener la topología correcta de este espacio.
Ramos Moreno Diego, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla

INSTRUMENTACIóN Y DETECTORES DE PARTíCULAS


INSTRUMENTACIóN Y DETECTORES DE PARTíCULAS

Hernández Reyna Enrique Imanol, Benemérita Universidad Autónoma de Puebla. Pulido Rosales Sergio, Benemérita Universidad Autónoma de Puebla. Ramos Moreno Diego, Benemérita Universidad Autónoma de Puebla. Vázquez Pérez Adriana Sofia, Universidad Autónoma de Chiapas. Asesor: Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los rayos cósmicos son partículas provenientes del universo con energías extremadamente altas, superando ampliamente las alcanzadas por los aceleradores de partículas más potentes creados por la humanidad. Estas partículas ingresan a la atmósfera terrestre desde el espacio exterior, y aunque sus orígenes exactos son inciertos, se cree que podrían provenir de supernovas y otros eventos astronómicos. Cuando estos rayos cósmicos interaccionan con la atmósfera generan una cascada de subproductos entre los que están fotones, electrones, positrones y muones. El estudio experimental de partículas subatómicas es esencial en la física de altas energías, astrofísica y física nuclear. Se suelen utilizar muchos tipos de detectores en conjunto para analizar rayos cósmicos y colisiones energéticas. Este Verano de Investigación estuvo enfocado en uno en específico, la RPC. Una Cámara de Placas Resistivas (RPC, por sus siglas en inglés) es un detector de radiación ionizante que, por su gran resolución temporal, confiabilidad y bajo costo es uno de los detectores que se utilizan actualmente en grandes proyectos científicos como lo son el Observatorio Pierre-Auger en Argentina, ALICE en el CERN o FOPI-GSI en Alemania. Estos dispositivos, integrados en sistemas de detección de partículas, proporcionan información precisa sobre las partículas detectadas, mejorando nuestra comprensión del universo y ofreciendo aplicaciones prácticas en diversos campos. En principio, una RPC se compone de dos placas resistivas sometidas a muy alto voltaje (unos 10-20 kV) que encierran un gas con propiedades específicas. Cuando una partícula ionizante, como el Muón, pasa por la cámara ioniza las moléculas del gas arrancándoles electrones en cadena de modo que se generan avalanchas de iones positivos y electrones cada una viéndose atraídas por el campo eléctrico a una respectiva placa. Cuando se acumulan suficientes cargas, se genera una descarga medible (como la de un capacitor). Dependiendo de la señal de corriente obtenida a la salida se puede determinar la carga, energía y con ello el tipo de partícula. El Objetivo del Programa es la construcción de una RPC de dos gaps (dos espaciamientos para el gas) con una eficiencia mínima de 80%. Para posteriormente caracterizarla y realizar algunas mediciones básicas en conjunto con el equipo del laboratorio de pruebas RPCs ALICE en el Ecocampus, BUAP (Benemérita Universidad Autónoma de Puebla).



METODOLOGÍA

El proyecto se compone de 4 etapas principales: - Preparación de materiales. - Ensamblaje de la RPC. - Medición de la resistividad con gas Argón. - Mediciones con gas Freón. Para las placas de la RPC se utilizan vidrios soda-lime de 20x20 cm^2, que se cortan a las medidas estrictamente exactas con herramientas especiales. Después se limpian meticulosamente (cualquier tipo de suciedad, por pequeña que sea, genera ruido y pueden llegar a reducir el tiempo de vida del detector) y se pintan con una pintura negra resistiva a través del método de aerosol, que garantiza una buena homogeneidad estructural en una capa muy delgada (y por lo tanto homogeneidad en la resistividad). • Para la fabricación de la Caja de Aluminio: Se cortan y ensamblan dos placas de 31x33 cm y cuatro barras de aluminio, dos de 29 cm y dos de 33cm utilizando una sierra caladora y un taladro. Se realizan perforaciones en una de las barras de 29 cm para colocar los conectores de voltaje y gas al igual una perforación para los cabes del canal. • Construcción de la Cámara: Incluye la creación de piezas mediante impresión 3D, que forman parte del marco y los separadores de gas. Se colocan conectores de gas y alambres en el marco, y se aplica resina para sellar, eso evita futuras fugas. Se cortan tapas de acrílico que se ajustan al marco. Se aplican capas de acrílico para sellar los bordes y asegurar las placas de vidrio. Se ensamblan las placas de vidrio pintado dentro de la cámara, utilizando hilo de pescar para mantener la separación entre ellas. Finalmente, hay que soldar los electrodos. • Construcción del pad El pad se construye a partir de una placa de cobre la cual se corta de un tamaño de 20 cm por lado con la ayuda de una sierra. Posteriormente se le realiza un corte para tener un 'canal' de manera que el área efectiva dentro de él sea un cuadrado de 19 cm por lado, esto se hace con la máquina y Mach3 CNC, para mejorar la efectividad de las señales que se pueden recibir. Para la medición de la resistividad del sistema primero es necesario limpiar la cámara con gas Argón, ir administrando diferentes niveles de voltaje a la placa y ver cuál es el consumo de corriente. Finalmente, para la etapa de medición se usa gas Tetrafluoroetano. Se colocan cristales centelladores con PMTs (Tubos fotomultiplicadores) de alta eficiencia funcionando como triggers (activadores) y se cuentan la cantidad relativa de eventos detectados por la RPC frente a los detectados por los triggers obteniendo de esta manera la eficiencia y curva de funcionamiento para hallar el voltaje óptimo. Las mediciones se realizan con ayuda de un Osciloscopio Teledyne LeCroy Wavepro 715Zi-A para la visualización de voltaje y los datos pueden ser guardados en una USB para un análisis más exacto.


CONCLUSIONES

La construcción de un detector RPC de vidrio de dos gaps fue exitosa, logrando los objetivos planteados en cuanto a la funcionalidad del detector. La elección de vidrio soda lime como material de las placas resistivas y el uso de pintura de grafito conductivo proporcionaron una buena resolución en la detección de eventos. Además, las pruebas de adquisición de datos confirmaron la capacidad del detector para capturar y registrar señales de partículas ionizantes. La adquisición de datos mostró señales claras de ionización, permitiendo la identificación de eventos de partículas cargadas.
Rendon Santoyo Raul Alfredo, Universidad de Guadalajara
Asesor: Mg. Nelson Ricardo Fino Puerto, Universidad Católica de Colombia

COEFICIENTE DE FRICCIóN DE UN BICITAXI EN BOGOTá, COLOMBIA


COEFICIENTE DE FRICCIóN DE UN BICITAXI EN BOGOTá, COLOMBIA

Rendon Santoyo Raul Alfredo, Universidad de Guadalajara. Asesor: Mg. Nelson Ricardo Fino Puerto, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Se llevó a cabo una prueba de frenado en un Bicitaxi para obtener el coeficiente de fricción cinética de las llantas del bicitaxi con el asfalto de las calles de Bogotá.



METODOLOGÍA

Se coloco el acelerómetro VC4000PC en el asiento trasero del bicitaxi. El conductor procedió a acelerar el bicitaxi sobre el asfalto hasta llegar a una velocidad aproximadamente constante, luego se le hacia la señal para frenar de golpe, poco antes de realizar el frenado se presionaba el botón Auto Start del acelerómetro. Cuando el bicitaxi quedaba totalmente detenido la pantalla mostraba los datos recabados.


CONCLUSIONES

Se concluyó que el coeficiente de fricción es de 0.244, dicho valor se considera pequeño a comparación de pruebas realizadas en vehículos de motor. El valor obtenido para µk (0.244) es muy bajo, evidenciando lo que puede llegar a tardar el frenado de un bicitaxi, siendo este un factor de riesgo a considerar para futuras medidas de prevención que se deseen implementar.
Reyes Acosta Miguel Angel, Universidad Tecnológica de Tehuacán
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

GALAXY MáQUILA: ESTUDIO DE LAS GALAXIA BRILLANTES DEL CúMULO DE VIRGO EN EL INFRAROJO


GALAXY MáQUILA: ESTUDIO DE LAS GALAXIA BRILLANTES DEL CúMULO DE VIRGO EN EL INFRAROJO

Caamaño García Carolina, Benemérita Universidad Autónoma de Puebla. Correa Arballo Antonio, Universidad Autónoma de Baja California. de Ramon Tadeo Diego, Benemérita Universidad Autónoma de Puebla. Díaz Carriedo Edgar Josuee, Benemérita Universidad Autónoma de Puebla. Ornelas Castañeda César Mariano, Universidad de Guadalajara. Reyes Acosta Miguel Angel, Universidad Tecnológica de Tehuacán. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El Cúmulo de Virgo es una de las concentraciones más grandes de galaxias cercanas a la Vía Láctea, con una gran variedad de tipos morfológicos, incluyendo galaxias elípticas, espirales, barradas y lenticulares. Estudiar estas galaxias en el espectro infrarrojo es esencial para comprender mejor sus características estructurales, ya que este rango de longitud de onda es menos afectado por el polvo interestelar, lo que permite una visión más clara de la distribución de masa estelar. Sin embargo, el análisis detallado de estas estructuras enfrenta desafíos significativos, como la resolución limitada de las imágenes disponibles y la presencia de contaminantes como estrellas brillantes y otras galaxias cercanas en las imágenes. Estos factores pueden complicar la descomposición precisa de las componentes galácticas, como el bulbo, el disco y las barras, dificultando la caracterización de la dinámica interna y la historia de formación de las galaxias. Además, la diversidad de morfologías dentro del cúmulo sugiere procesos evolutivos distintos, lo que plantea la necesidad de un análisis comparativo riguroso para identificar patrones comunes y diferencias clave en la evolución galáctica.



METODOLOGÍA

Este estudio se basó en imágenes infrarrojas obtenidas de los catálogos astronómicos 2MASS y PanStarrs, centradas en galaxias brillantes del Cúmulo de Virgo. La selección de estas imágenes permitió el análisis de estructuras galácticas con una menor interferencia de polvo interestelar, lo que es crucial para una evaluación precisa de las componentes estelares. El software GALFIT fue el principal instrumento utilizado para descomponer las galaxias en sus componentes estructurales: bulbo, disco y barra. Se aplicaron funciones de Sérsic para modelar el bulbo, mientras que las componentes de disco fueron ajustadas utilizando modelos de disco exponencial. Para algunas galaxias, se consideraron funciones gaussianas para representar características adicionales como barras o anillos. Las imágenes se procesaron inicialmente con DS9, un software de visualización que permitió examinar y recortar las imágenes, asegurando un enfoque en la región de interés. A continuación, se crearon máscaras utilizando scripts en Python, específicamente diseñados para eliminar la interferencia de estrellas brillantes y otras galaxias cercanas. Esto ayudó a minimizar la influencia de estos contaminantes en los resultados fotométricos y morfológicos. Ellipsect fue utilizado para extraer perfiles de brillo superficial de las galaxias y de los modelos generados por GALFIT. Esta herramienta permitió comparar los modelos teóricos con las observaciones reales, facilitando la evaluación de la precisión del ajuste. Se prestó especial atención al ajuste de la función de dispersión puntual (PSF), fundamental para el modelado preciso de las características galácticas más finas. Finalmente, se evaluó la calidad del ajuste de los modelos utilizando el valor de Chi²/nu y análisis de residuos, asegurando que las discrepancias entre los modelos y las observaciones fueran mínimas.


CONCLUSIONES

Los análisis realizados sobre las galaxias brillantes del Cúmulo de Virgo han revelado una diversidad estructural significativa, reflejada en los diferentes parámetros obtenidos, como los índices de Sérsic y los radios efectivos. Estos resultados sugieren que las galaxias del cúmulo han experimentado historias evolutivas distintas, posiblemente influenciadas por interacciones galácticas y procesos internos variados. Uno de los hallazgos clave es la variabilidad en la prominencia de componentes como bulbos, discos y barras, lo que indica una diversidad en los procesos de formación y evolución estelar. Sin embargo, se identificaron varios desafíos en el proceso de análisis, como la dificultad para aislar las galaxias objetivo de las interferencias causadas por estrellas cercanas y otras galaxias brillantes, lo que complicó el ajuste de los modelos. El valor de Chi²/nu y el análisis de residuos mostraron que, aunque se lograron ajustes razonables, existen limitaciones en la precisión del modelado, particularmente debido a la calidad de las imágenes y la influencia de contaminantes. Para mejorar estos ajustes, se recomienda considerar el uso de software adicional para la generación de funciones de dispersión puntual (PSF) y explorar la presencia de núcleos activos galácticos (AGNs), que podrían influir en las características observadas de algunas galaxias. Estos resultados iniciales proporcionan una base para futuros estudios, sugiriendo la necesidad de una mayor resolución y una mejor eliminación de contaminantes para comprender completamente la estructura y evolución de las galaxias en entornos de cúmulos densos. 
Reyes Baquero Cameron, Fundación Universitaria Konrad Lorenz
Asesor: Mg. Andres Fernando Mosquera Díaz Diaz, Universidad Nacional Abierta y a Distancia

COMPUTACIóN CIENTíFICA EN LA BúSQUEDA DE CONOCIMIENTOS ANCESTRALES


COMPUTACIóN CIENTíFICA EN LA BúSQUEDA DE CONOCIMIENTOS ANCESTRALES

Reyes Baquero Cameron, Fundación Universitaria Konrad Lorenz. Asesor: Mg. Andres Fernando Mosquera Díaz Diaz, Universidad Nacional Abierta y a Distancia



PLANTEAMIENTO DEL PROBLEMA

El estudio de los artefactos ancestrales a través de la computación científica ofrece una ventana única para explorar y comprender las prácticas culturales y los conocimientos técnicos de civilizaciones antiguas. La investigación se centra en la extracción de patrones y topologías presentes en estos artefactos, utilizando técnicas de procesamiento de imágenes e inteligencia artificial. Este enfoque interdisciplinario busca no solo catalogar y preservar estos objetos valiosos, sino también interpretar su significado y función matemáticas dentro del contexto cultural en el que fueron creados.



METODOLOGÍA

La metodología de este estudio se basa en un enfoque sistemático y multidisciplinario. Primero, se recopilaron imágenes de artefactos ancestrales de diversas fuentes, incluyendo museos y bases de datos en línea, para luego pasar al análisis de componentes principales (PCA) para reducir la dimensionalidad de los datos obtenidos de las imágenes de artefactos ancestrales, facilitando así la visualización y el manejo de características, y por último se implementaron algoritmos de clustering para agrupar artefactos con patrones similares, proporcionando una estructura inicial para la clasificación. Para el análisis se usaron patrones locales binarios (LBP) para extraer características distintivas de los artefactos. Esta información fue complementada con el estudio de topologías y la aplicación de teoría de la medida para identificar y clasificar diversas estructuras presentes en los artefactos. Durante todo el proceso, se generó y almacenó información en archivos para facilitar el análisis posterior y asegurar la replicabilidad del estudio. Además, se desarrolló una interfaz de inteligencia artificial capaz de analizar individualmente hasta 16 mil características por artefacto.


CONCLUSIONES

Los resultados de la investigación revelaron patrones geométricos y ornamentales consistentes en los artefactos, lo que sugiere prácticas culturales específicas y un alto grado de habilidad técnica. La clasificación de diversas topologías estructurales, utilizando métricas detalladas, mostró una variedad de configuraciones simbólicas y funcionales. Entre las topologías identificadas se destacó la de Voronoi, encontrada en artefactos que existen previos a su concepción teórica formal. El uso de clustering permitió identificar grupos de artefactos con características similares, mientras que el PCA facilitó la interpretación de las relaciones entre diferentes características. La interpretación de estos hallazgos proporcionó una mayor comprensión del contexto cultural y funcional de los artefactos, resaltando la importancia de la computación científica en la preservación y el estudio de los conocimientos ancestrales. Los resultados de la investigación revelaron patrones geométricos y ornamentales consistentes en los artefactos, lo que sugiere prácticas culturales específicas y un alto grado de habilidad técnica. La clasificación de diversas topologías estructurales, utilizando métricas detalladas, mostró una variedad de configuraciones simbólicas y funcionales. Entre las topologías identificadas se destacó la de Voronoi, encontrada en artefactos que existen previos a su concepción teórica formal. El uso de clustering permitió identificar grupos de artefactos con características similares, mientras que el PCA facilitó la interpretación de las relaciones entre diferentes características. La interpretación de estos hallazgos proporcionó una mayor comprensión del contexto cultural y funcional de los artefactos, resaltando la importancia de la computación científica en la preservación y el estudio de los conocimientos ancestrales.
Reyes Luevano Paloma Yareth, Universidad Politécnica de Atlautla
Asesor: Mg. Rafael Hernán Rojas Gualdrón, Universidad de Investigación y Desarrollo

REVISIóN DE LITERATURA.


REVISIóN DE LITERATURA.

Hernandez Botello Pamela Alexandra, Universidad Politécnica de Atlautla. Reyes Luevano Paloma Yareth, Universidad Politécnica de Atlautla. Asesor: Mg. Rafael Hernán Rojas Gualdrón, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

En 1959, Dantzig y Ramser presentaron una aplicación práctica sobre cómo se entrega gasolina a las estaciones de servicio y propusieron la formulación matemática para este problema, esto se presenta como una extensión del conocido problema del agente viajero (TSP), donde un vendedor debe recorrer una serie de clientes una sola vez, para luego volver al lugar de partida.



METODOLOGÍA

El propósito de las versiones clásicas del VRP es organizar las rutas de una flota de vehículos para un solo período de planificación, ya sea un día o un turno. Ahora bien, el VRP (Problema básico de rutas de vehículos) se dedica a determinar un conjunto de rutas para atender a un número específico de clientes, reduciendo la distancia total recorrida. A partir de esta versión básica del VRP, existen muchas variantes que se han introducido en la literatura científica con el fin de considerar escenarios más ricos y realistas, escenarios estocásticos, escenarios dinámicos, criterios ambientales, problemas de sincronización, escenarios multiobjetivo, escenarios que involucran flotas eléctricas, escenarios en los que las decisiones se toman a lo largo del tiempo. 


CONCLUSIONES

El Problema de Ruteo de Vehículos (VRP) ha tenido un desarrollo importante desde que Dantzig y Ramser lo introdujeron por primera vez en 1959 para la entrega de gasolina. Con el tiempo, han aparecido muchas variaciones del VRP para atender necesidades logísticas particulares y retos extra, como el VRPTW, que incluye vehículos capacitados y ventanas de tiempo, el CCVRP, el HFVRP y el CVRP, entre otros. Estas variaciones no solo muestran la creciente complejidad de las operaciones logísticas actuales, sino que también indican la necesidad de soluciones más avanzadas y flexibles, con el aumento continuo de la necesidad de eficiencia en diferentes operaciones, la investigación sobre el Problema de Ruteo de Vehículos (VRP) y sus variantes sigue siendo vital es decir, no solo ayuda a mejorar la distribución y a disminuir costos, sino que también apoya la sostenibilidad a través de un mejor uso de recursos y la reducción de emisiones.  Por lo tanto, la investigación constante sobre el VRP y sus diferentes versiones es esencial para progresar en varias áreas. las nuevas metodologías y enfoques proporcionan herramientas prácticas para enfrentar diversos desafíos del mundo real.
Reyes Ruiz Ozni Gadiel, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Ma. Estela Calixto Rodríguez, Benemérita Universidad Autónoma de Puebla

SíNTESIS Y CARACTERIZACIóN DE PELíCULAS DELGADAS SEMICONDUCTORAS DE CU3SE2 PARA APLICACIONES EN CELDAS SOLARES


SíNTESIS Y CARACTERIZACIóN DE PELíCULAS DELGADAS SEMICONDUCTORAS DE CU3SE2 PARA APLICACIONES EN CELDAS SOLARES

Reyes Ruiz Ozni Gadiel, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Ma. Estela Calixto Rodríguez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La necesidad de energía por parte de la industria es cada vez más grande, y la mayor parte de esa energía requerida es producida a partir de combustibles fósiles y gas natural, afectando con ello el medio ambiente; al mismo tiempo los recursos de combustibles fósiles se están agotando rápidamente debido a la explotación excesiva. Para disminuir la dependencia de los combustibles fósiles se ha centrado en producción de energía a partir de recursos renovables. El recurso energético más apreciado es la energía solar puesto que es la única fuente considerada con potencial para satisfacer la demanda existente (Mohtasham, 2015). Sin embargo, el principal problema del uso de la energía solar es su alto costo, de ahí la búsqueda de procesos de producción más rentables. Las películas delgadas semiconductoras a base de seleniuros metálicos gracias poseen una energía de banda prohibida ajustable, alto coeficiente de absorción de luz y excelentes propiedades ópticas que concuerdan con el espectro de radiación solar (Aydın & Abacı, 2017), haciéndolas excelentes para su uso en celda solares. Por otro lado, la técnica de electrodepósito para películas delgadas es uno de los procesos más simples, rápidos, controlables, flexibles y económicos. En el presente trabajo se propone plantear el desarrollo de películas delgadas semiconductoras de Cu3Se2 tipo-p depositadas sobre sustratos de vidrio de soda-lima/FTO utilizando la técnica del electrodepósito, con propiedades óptimas para su uso en celdas solares. A posteriori, se caracterizarán sus propiedades físicas y químicas en función de la variación de algunos de los parámetros de depósito más importantes.



METODOLOGÍA

Los sustratos de vidrio soda-lima/FTO fueron limpiados por un proceso de varias etapas de 10 minutos con baño ultrasónico, primero en jabón neutro, luego acetona y finalmente en etanol. Se enjuagaron con agua desionizada y se secaron con nitrógeno gaseoso a presión para ser empaquetado posteriormente en las pomaderas; listas para su uso. Se preparó una disolución electrolítica con agua desionizada que contiene 0.2 M de sulfato de cobre pentahidratado (CuSO4·5H2O) y 0.1 M de ácido selenioso (H2SeO3). El pH natural de la solución fue de 2.34, y fue reducido a distintos tipos de pH (0.91, 1.10, 1.30, 2.0 y 2.34) añadiendo ácido sulfúrico concentrado (H2SO4,) gota por gota a la disolución y agitando constantemente. Para el depósito de Cu3Se2 en el sustrato de vidrio/FTO, se realizó el electrodepósito en una celda electroquímica con tres electrodos. Los electrodos incluyen un electrodo de trabajo (sustratos de vidrio/FTO), un contraelectrodo (malla de platino) y un electrodo de referencia (Ag/AgCl). La malla y el sustrato de vidrio/FTO se colocan en un arreglo de placas paralelas, mientras que el electrodo de referencia se posiciona en un valor intermedio, pero no interponiéndose entre el arreglo de las placas. La celda se conectó a un recirculador de agua, cuya función era mantener la temperatura fija en 25°C (temperatura ambiente). Después, se conecta el sistema de tres electrodos a un potenciostato que ejecutará el proceso de electrodepósito de las películas de Cu3Se2 sobre el sustrato de vidrio/FTO a valores específicos de potenciales de reducción de -133 mV vs. Ag/AgCl y -337 mV vs Ag/AgCl, los cuales fueron determinados mediante estudios de caracterización electroquímica, específicamente por voltametría cíclica. Los depósitos de las películas se realizaron a tiempos de depósito de 2 s, 3 min y 10 min. Ya que el proceso de depósito finaliza se apaga el potenciostato, se retiran las conexiones y el sustrato. El sustrato con la película depositada se enjuaga con agua desionizada, se seca y empaqueta. Nuevamente, se coloca otro sustrato y se cambian los parámetros de potencial y tiempo de depósito. Finalmente, una vez que se realizan los depósitos correspondientes con una solución especifica a un pH especifico, la disolución contenida en la celda se vacía en un contenedor apropiado para residuos tóxicos, posteriormente se lava, enjuaga y se vuelve a introducir una nueva solución con distinto pH. Posteriormente, las películas delgadas de Cu3Se2 se llevaron al laboratorio central del IFUAP para su caracterización. Para ello se utilizaron las técnicas de espectroscopia óptica, para conocer sus propiedades de transmitancia óptica, perfilometría para conocer los espesores de las muestras depositadas a diferentes tiempos de depósito y se realizó un estudio por espectroscopia Raman para determinar los modos vibracionales de las películas delgadas de Cu3Se2, también se utilizó la microscopia óptica y el microscopio de fuerza atómica para conocer sus propiedades morfológicas.


CONCLUSIONES

Se logró realizar la síntesis de películas delgadas semiconductoras de Cu3Se2 sobre sustratos de vidrio soda-lima con un recubrimiento de FTO utilizando la técnica de electrodepósito, para ello se realizaron algunas variaciones de los parámetros de depósito más importantes como son el tiempo de depósito, pH de la disolución electrolítica y el potencial aplicado. Los resultados de la caracterización de los materiales, confirman el depósito de dicho material de manera efectiva, los resultados Raman muestran un pico muy intenso en la posición de 261 cm-1, las imágenes de AFM y microscopia óptica muestran un crecimiento homogéneo, compacto y un tamaño de grano grande, características necesarias para su aplicación en celdas solares.
Rios Felix Camila, Universidad de Sonora
Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara

CONTAMINACIóN AMBIENTAL. SíNTESIS DE ABSORBENTES NOVEDOSOS.


CONTAMINACIóN AMBIENTAL. SíNTESIS DE ABSORBENTES NOVEDOSOS.

Rios Felix Camila, Universidad de Sonora. Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En México, la contaminación ambiental es un problema grave que afecta tanto la salud pública como el medio ambiente. Las industrias, la agricultura y las áreas urbanas liberan una gran cantidad de contaminantes, como metales pesados, químicos orgánicos y nuevas sustancias nocivas, que terminan en nuestros cuerpos de agua y suelos. Durante la estancia de investigación, el objetivo fue la creación de adsorbentes innovadores, una solución prometedora para enfrentar este desafío. 



METODOLOGÍA

La metodología empleada fue de tipo cuantitativa. Se formularon hipótesis para guiar el trabajo con adsorbentes novedosos. En primer lugar, se llevó a cabo la preparación y caracterización inicial de las muestras para familiarizarse con el equipo utilizado. Posteriormente, se realizaron varias síntesis de adsorbentes utilizando métodos verdes, pero en diferentes variantes para observar las diferencias en cada caso. Es importante destacar que cada muestra fue etiquetada y documentada meticulosamente para asegurar una correcta identificación y análisis de los resultados. Además, se emplearon equipos como UV-Vis para medir la absorbancia y evaluar la capacidad del adsorbente para degradar el colorante utilizado. Se investigó cómo variaba la eficiencia del adsorbente al cambiar la concentración del colorante. Posteriormente, se utilizó el equipo de XPS para analizar la composición tanto cuantitativa como cualitativa de las muestras, permitiendo determinar el estado químico de los elementos en la superficie del material.


CONCLUSIONES

De la investigación se centró en validar y comparar los resultados de la síntesis verde de nanopartículas de óxido de hierro con datos previamente publicados. El objetivo principal era obtener una comprensión detallada de la composición elemental y los estados de oxidación de las nanopartículas producidas mediante un método verde. Utilizando técnicas como XPS y UV-Vis, se buscaba obtener una visión integral de las características físicas y químicas de las muestras, para así evaluar la eficacia de los métodos de síntesis verde empleados.
Rios Lopez Abril Betania, Universidad Autónoma de Baja California
Asesor: Dr. Federico Ángel Velázquez Muñoz, Universidad de Guadalajara

LA CIRCULACIóN FORZADA POR EL VIENTO EN EL OCéANO ATLáNTICO NORTE A TRAVéS DE UN MODELO DE AGUAS SOMERAS


LA CIRCULACIóN FORZADA POR EL VIENTO EN EL OCéANO ATLáNTICO NORTE A TRAVéS DE UN MODELO DE AGUAS SOMERAS

Rios Lopez Abril Betania, Universidad Autónoma de Baja California. Asesor: Dr. Federico Ángel Velázquez Muñoz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Desde los inicios de la navegación hacia América con los viajes de Cristóbal Colón, los navegantes se percataron de la presencia de las corrientes marinas en el Océano Atlántico Norte. Estas corrientes fueron utilizadas en sus viajes, especialmente en su cuarta expedición, donde navegaron a través de lo que ahora se conoce como la corriente de Canarias, la corriente Ecuatorial Norte y la corriente de Bahamas, para regresar a Génova por la Corriente del Atlántico Norte. Aunque la formalización del estudio de estas corrientes se llevó a cabo muchos años después, ya se tenía noción de ellas desde entonces. Actualmente, uno de los métodos de estudio de estos fenómenos es mediante modelos numéricos, en los cuales se diseñan simulaciones a corto y largo plazo para lograr una predicción acertada de lo que ocurre en estos dominios. La precisión de estas simulaciones se mejora al incluir datos reales captados por satélites, tales como la batimetría y el viento. El foco de estos estudios es utilizar un modelo ya existente, modificándolo y adecuándolo a las necesidades específicas de dichas investigaciones, o bien, producir nuevos modelos y comparar sus deficiencias y fortalezas para obtener los mejores resultados.



METODOLOGÍA

Se utilizó como base el modelo propuesto por Jochen Kämpf en su libro Ocean Modelling for Beginners, específicamente en el problema 18 de la misma publicación. El modelo fue ajustado para considerar un dominio de 6000 km de latitud y 12000 km de longitud, situando la región del Océano Atlántico Norte en el centro del dominio. Se establecieron una profundidad de 1000 m, una densidad del agua de 1028 kg m⁻³ y una condición de sin fricción en el fondo. La región se dividió en celdas utilizando una malla conocida como "Arakawa C", en la cual el dominio se discretizó llenándolo de "puntos" que representan las componentes verticales u horizontales de la velocidad del flujo y la elevación de la superficie del océano. Además, se definieron celdas "mojadas", correspondientes al agua, y "secas", representando la tierra. Para determinar esta batimetría, se usaron los datos del modelo ETOPO Global Relief de la agencia gubernamental de EE. UU. National Centers for Environmental Information. Asimismo, se consideraron fronteras cerradas, es decir, los alrededores del dominio se supusieron como celdas "secas", excluyendo cuerpos de agua no relevantes, como ríos, lagos, el Mar Mediterráneo y partes del Océano Pacífico presentes en el dominio, convirtiéndolos en tierra. Esto se hizo para evitar ruido o posibles fallos en el modelo debido a zonas irrelevantes. Se decidió utilizar dos escenarios para este modelo: el primero, con una fuerza de Coriolis constante de f=7.818 x 10⁻⁵ s⁻¹ y sin viscosidad; el segundo, con una fuerza de Coriolis variable f=7.818x10⁻⁵ + 4 x 10⁻¹¹(y) s⁻¹, donde y representa la posición vertical, calculada dependiendo del punto en la malla. Además, se consideró una viscosidad lateral de Ah = 500 m² s⁻¹. Esto con el fin de experimentar con el modelo al exponerlo a distintos parámetros. Para discretizar las ecuaciones y resolverlas en los puntos de la malla, se utilizó el método de diferencias finitas, el cual parte de la definición de derivada y elimina el límite eligiendo un paso de tiempo ∆t adecuado, según el criterio Courant-Friedrichs-Lewy (CFL), y se reorganiza para lograr las iteraciones a partir de una ecuación. Luego, se calcularon las componentes de velocidad sin considerar la fuerza de Coriolis para usar ese resultado como base para calcular la elevación del mar considerando la fuerza de Coriolis. Es importante mencionar que se consideró el viento como una función cosenoidal que varía según la posición vertical en la que se calcule. Esta función, propuesta por el autor, cumple un ciclo completo al recorrer todo el dominio horizontalmente, lo que la hace ideal para la modelación. Cabe recordar que el viento es significativo debido a que es la principal fuente del movimiento forzado en el océano. Finalmente, se utilizaron los datos de la base The Cross-Calibrated Multi-Platform (CCMP), proporcionada por The Physical Oceanography Distributed Active Archive Center de la NASA. Se promedió el flujo de viento en cada punto con datos recopilados durante más de 10 años para mejorar la precisión del modelo.


CONCLUSIONES

Durante la estancia de verano, se adquirió conocimiento teórico y práctico sobre el uso y modificación de un modelo numérico, ajustándolo de un escenario ideal a uno más cercano a la realidad del Océano Atlántico Norte. En la simulación, se lograron reproducir las corrientes del Océano Atlántico Norte con una precisión cualitativa muy cercana a las conocidas. Asimismo, observamos que la magnitud del flujo del fluido aumentaba proporcionalmente con el tiempo. En resumen, el modelo numérico utilizado en este estudio ha demostrado ser una herramienta valiosa para la comprensión de las corrientes en el Atlántico Norte.
Rivas García Marisol, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Gregorio Posada Vanegas, Universidad Autónoma de Campeche

COMPORTAMIENTO DE PLAYAS POR MEDIO DE PERFILES PLAYEROS, ANáLISIS GRANULOMéTRICOS Y DRONES


COMPORTAMIENTO DE PLAYAS POR MEDIO DE PERFILES PLAYEROS, ANáLISIS GRANULOMéTRICOS Y DRONES

Rivas García Marisol, Universidad de Ciencias y Artes de Chiapas. Suarez Solares Queila Hedisa, Universidad Autónoma del Estado de México. Asesor: Dr. Gregorio Posada Vanegas, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

La playa es un área costera formada por sedimentos, es una franja de terreno costero que se forma a lo largo de las orillas de mares, océanos, ríos o lagos. Pero en ella influyen distintos cambios tanto naturales como suelen ser: Erosión y sedimentación, variaciones estacionales, eventos climáticos extremos, cambios en el nivel del mar, actividades biológicas, entre otros. Y cambios antropogénicos como suelen ser: urbanizaciones, actividades recreativas, construcciones de infraestructuras, extracción de arena, entre otros. Estos cambios pueden interactuar entre sí, tanto cambios naturales como antropogénicos que a menudo determinan la condición y evolución de una playa. La combinación de perfiles playeros y análisis granulométricos con ayuda de la tecnología de drones y otros programas nos proporcionan una herramienta poderosa para el monitoreo detallado y la gestión eficiente de las playas. Facilita la obtención de datos precisos y actualizados, mejora la planificación, ofrece beneficios en términos de seguridad, eficiencia y comunicación. Una manera de estudiar su variación es realizar mediciones periódicas con equipo topográfico sobre secciones de playa previamente definidas (perfiles), esto permite comparar si un perfil ha ganado o perdido arena, en los últimos años, estas mediciones se pueden completar a través del uso de drones, con los cuales se obtiene, como primer producto, el modelo digital de elevaciones de la zona que a su vez permite calcular el perfil en las secciones definidas



METODOLOGÍA

Para llevar a cabo este proyecto, llevamos una introducción a lo que son los procesos costeros y los fenómenos que influyen en él, al igual de las partes que conforman una playa. El área de estudio fue Playa Bonita y Playa Tortugueros ubicados en el estado de Campeche. Los materiales que utilizamos fueron: GPS Leica, Dron (VANT) DJI FANTHON 4, tablas de 0.45m*0.45m, laptop y los programas: Pix4D (capture y mapper), Excel, Leica Geo Office, ArcGis. Nos ubicamos en el área de estudio y estacionamos el GPS en un lugar despejado pues así no tendrá interferencia con la señal que le envíen los satélites, hacemos las configuraciones de trabajo y dejamos el debido tiempo para que haga las correcciones, en lo que el GPS está procesando ubicamos las tablas dentro del área de estudio ya que tomaremos las medidas de dichas tablas para georreferenciar la orto foto que obtendremos con el vuelo de dron (VANT), después hacemos el vuelo de dron por el área, configurándolo con el software Pix4D Capture. También se hace el levantamiento de los perfiles de playa con el equipo topográfico para ubicarlos en el MDE que obtendremos al final. Una vez que tenemos el vuelo y los puntos del GPS, descargamos los datos y hacemos las correcciones de los puntos con el programa Leica Geo Office. Una vez listo procesamos las imágenes obtenidas con el vuelo con el programa Pix4D Mapper, con el cual nos dará un reporte con las correcciones que hace al momento de georreferenciarlos con los puntos del GPS, y como resultado nos dará un mosaico el cual procesaremos con el programa ArcGis para obtener un modelo digital de elevación (MDE). En el cual ubicaremos los perfiles que se levantaron con el equipo topográfico. Al igual se hizo un estudio en el campus 6 EPOMEX (en el cual realizamos levantamiento topografico, con dron y GPS.) Complementariamente al trabajo topográfico se toman muestras de arena y se llevan al laboratorio para ver conocer la variación granulométrica.


CONCLUSIONES

Al final obtuvimos los resultados esperados con la metodología empleada, la relación entre la teoría y la practica fueron muy estrechas, hicimos comparaciones entre datos que ya tenían de tiempo atrás sobre el área de estudio y los datos que nosotros obtuvimos en campo, así logramos observar el cambio de elevaciones que hubo por distintos factores ya mencionados.
Rivas Loaiza Sara Alejandra, Institución Universitaria Colegio Mayor de Antioquia
Asesor: Dra. Dulce Yaahid Flores Renteria, Instituto Politécnico Nacional

INFLUENCIA DEL USO Y MANEJO DEL SUELO EN LA RESPIRACIóN BASAL E INDUCIDA POR SUSTRATO


INFLUENCIA DEL USO Y MANEJO DEL SUELO EN LA RESPIRACIóN BASAL E INDUCIDA POR SUSTRATO

Grajales Lodoño Maria Camila, Universidad La Gran Colombia. Rivas Loaiza Sara Alejandra, Institución Universitaria Colegio Mayor de Antioquia. Asesor: Dra. Dulce Yaahid Flores Renteria, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La respiración basal del suelo se refiere a la tasa de producción de dióxido de carbono (CO₂) por los microorganismos del suelo bajo condiciones naturales, sin la adición de sustratos externos. Este proceso es una medida de la actividad microbiana intrínseca y refleja la descomposición de la materia orgánica nativa del suelo. Por otro lado, la respiración inducida por sustrato es la tasa de producción de CO₂ tras la adición de un sustrato específico, como la glucosa, que sirve como fuente de carbono y energía para los microorganismos. El objetivo principal fue evaluar cómo las prácticas agrícolas y ganaderas afectan la actividad respiratoria del suelo, proporcionando una comprensión más profunda de la dinámica microbiana bajo diferentes condiciones de manejo convencionales y regenerativas.



METODOLOGÍA

Para este experimento se utilizó suelo de distintas procedencias con un diseño factorial, según su uso del suelo (agrícola y ganadero) y el manejo aplicado (convencional y regenerativo). Se prepararon las muestras de suelo de seis sitios distintos, para un total de 48 muestras. Cada muestra fue sometida a la adición de agua (0.325 ml por cada g de suelo) o glucosa con agua (0.005 g de glucosa + 0.325 ml de agua por cada g de suelo), para analizar la respuesta de los suelos como respiración basal y respiración inducida por sustrato, respectivamente. La actividad respiratoria del suelo se midió inmediatamente después de la hidratación y a lo largo del día en otras cuatro ocasiones, con un analizador de gases infrarrojo EGM-5. Los datos se analizaron mediante un análisis de varianza (ANOVA) y la prueba de diferencia de medias de Tukey, con un nivel de significancia de P ≤ 0.05.


CONCLUSIONES

Los resultados mostraron que, en cuatro de las cinco mediciones, la respiración del suelo fue mayor en las muestras tratadas con glucosa en suelos provenientes de uso ganadero, tanto bajo manejo regenerativo como convencional. En la quinta medición, se observó un ligero incremento en la respiración del suelo agrícola (promedio 0.124 ± 0.035 g de CO₂ m⁻² h⁻¹) en comparación con el ganadero (promedio 0.081 ± 0.028 g de CO₂ m⁻² h⁻¹). Este estudio demuestra que la adición de sustratos como la glucosa puede aumentar la actividad microbiana en el suelo, especialmente en terrenos de uso ganadero. Además, resalta la importancia del manejo del suelo, ya que las prácticas regenerativas pueden influir positivamente en la respiración del suelo, promoviendo un ecosistema más activo y saludable. Estos hallazgos son cruciales para desarrollar estrategias de manejo sostenible que optimicen la salud del suelo y su capacidad para sustentar la producción agrícola y ganadera a largo plazo.
Rivera Aguilera Josué, Universidad de Guadalajara
Asesor: Dr. Carlos Angeles Chavez, Instituto Mexicano del Petróleo

SíNTESIS, CARACTERIZACIóN Y EVALUACIóN DE CATALIZADORES CU-ZR EN LA HIDRODESOXIGENACIóN DE FENOL


SíNTESIS, CARACTERIZACIóN Y EVALUACIóN DE CATALIZADORES CU-ZR EN LA HIDRODESOXIGENACIóN DE FENOL

Rivera Aguilera Josué, Universidad de Guadalajara. Asesor: Dr. Carlos Angeles Chavez, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

En los tiempos actuales la contribución de los combustibles tradicionales al calentamiento global tiene más peso con cada año que pasa. Es innegable la dependencia social hacia ellos, por esa  en la actualidad lejos de reemplazarnos la ciencia realiza grandes esfuerzos por encontrar alternativas que permitan comenzar una transición energética hacia fuentes con una huella de carbono más reducida. Uno de los principales postulantes es el bio-aceite obtenido de la pirolisis de la lignocelulósica, un tipo de biomasa con gran potencial para la producción de combustible. El reto a superar se presenta en la cantidad de compuestos oxigenados presentes en dicho material, como es el caso del fenol.  Por esta razón. el trabajo en reacciones de hidrodesoxigenación desde la perspectiva de la síntesis de catalizadores más eficientes tiene importancia en el campo de las ciencias verdes. El desarrollo de catalizadores basados en cobre y zirconio es de importancia debido a muchas razones que van desde a la abundancia de dichos metales y su bajo coste, el bajo impacto ambiental de dichos metales hasta razones más particulares de dichos metales como la capacidad del cobre para activar enlaces C-O, lo que es crucial para la HDO de compuestos oxigenados promoviendo la ruptura de estos enlaces y facilitando la eliminación de oxígeno en forma de agua; además de la capacidad del zirconio para mejorar las propiedades estructurales del catalizador y proporcionar sitios ácidos que son beneficiosos para la adsorción y activación de las moléculas oxigenadas. En el presente proyecto de investigación se sintetizaron 3 tipos de catalizadores basados en estos dos metales por distintas vías, se activaron por medio de reducción y finalmente se evaluaron con la molécula modelo de fenol.



METODOLOGÍA

Se sintetizaron tres catalizadores basados en cobre y zirconio mediante diferentes métodos: JZrO-Cu, JCuZrO y JCu. A continuación, se detallan los procesos de síntesis, reducción y evaluación catalítica. Síntesis Objetivo: Obtener 2 gramos de cada material con una relación molar 1:1 de Zr y Cu. JZrO-Cu: Proceso: Impregnación mecánica de cobre en zirconio. Materiales: 3.7531 g de Nitrato de Zirconio 3.0000 g de Carbonato de Potasio Procedimiento: Disolución en 250 ml de agua destilada. Goteo en un reactor con 100 ml de agua destilada, manteniendo pH 10. Agitación progresiva de 250 RPM a 500 RPM. Elevación de temperatura a 70°C por 2 horas. Secado y molienda de ZrO. Impregnación con 3.5820 g de acetato de cobre. Calcinación a 400°C por 4 horas. JCuZrO: Proceso: Síntesis directa de cobre y zirconio. Materiales: 2.9880 g de Nitrato de Zirconio 1.5025 g de Nitrato de Cobre 2.5000 g de Carbonato de Potasio Procedimiento: Disolución y goteo similar a JZrO-Cu. Secado, molienda y calcinación a 400°C por 4 horas. JCu: Proceso: Obtención de óxido de cobre. Materiales: 7.8655 g de Sulfato de Cobre 5.5478 g de Ácido Ascórbico Procedimiento: Disolución y goteo similar, añadiendo Pluronic 123 como surfactante. Secado y molienda. Reducción Objetivo: Activación de los catalizadores. Parámetros comunes: Reactor de cuarzo, flujo de hidrógeno de 60 cm³/min. Reserva en 50 ml de Dodecano. Condiciones específicas: JZrO-Cu: 0.3 g, rampa de 4°C/min a 450°C, 1 hora. JCuZrO: 0.3 g, rampa de 4°C/min a 400°C, 1 hora. JCu: 1.0 g, rampa de 4°C/min a 300°C, 1 hora. Evaluación Catalítica (HDO) Condiciones de la Reacción: Parámetros: Agitación de 1000 RPM. 320°C, atmósfera de hidrógeno a 800 psi. Volumen de 100 ml de Dodecano. Reactivos: JZrO-Cu: 0.4954 g de Fenol, 0.1 ml de Decano. JCuZrO: 0.4426 g de Fenol, 0.09 ml de Decano. JCu: 0.6094 g de Fenol, 0.1 ml de Decano. Muestreo: Intervalos de 0, 10, 20, 40 y 60 minutos. Muestras reservadas y filtradas para análisis por cromatografía. Los tres catalizadores se sintetizaron y evaluaron con éxito mediante HDO. Cada método de síntesis y reducción afectó las propiedades y eficiencia catalítica de los materiales.


CONCLUSIONES

Los parámetros y cantidades empleadas durante la evaluación de la reacción HDO del fenol permitieron alcanzar un porcentaje de hidrodesoxigenación del 79 % para el catalizador etiquetado como JZrO-Cu, mientras que para JCuZrO y JCu fue aun mayor, alcanzando el 99 %. Siendo estos los resultados más óptimos del trabajo realizado, se ha alcanzando una excelente eficiencia en la eliminación del oxigeno de la molécula modelo.  Como productos de esta eliminación se observaron moléculas de hexano, metilciclo pentano, benceno, ciclo hexano y ciclo hexeno, siendo compuestos fundamentales en la gasolina. El hexano y benceno teniendo una presencia más significativa en la gasolina debido a sus propiedades y usos específicos.  Los resultados abren las puertas a la investigación más profunda sobre estos catalizadores en las reacciones de hidrodesoxigenación, como pueden ser diversos parámetros de la reacción o darle peso a otras propiedades físicas como el tamaño de grano de los catalizadores.  Al momento, la eficiencia mostrada por dos de ellos los presentan como una excelente alternativa a la hora de llevar a cabo el tratamiento de los bio-aceites con el fin de producir combustibles más verdes.
Rivera Gonzalez Sheila Estefania, Instituto Tecnológico de Zitácuaro
Asesor: Dr. Gloria Yaneth Flórez Yepes, Universidad Católica de Manizales

ANáLISIS DE EXPERIENCIAS DE INVESTIGACIóN EN MONITOREO PARTICIPATIVO DEL AGUA EN MéXICO Y COLOMBIA


ANáLISIS DE EXPERIENCIAS DE INVESTIGACIóN EN MONITOREO PARTICIPATIVO DEL AGUA EN MéXICO Y COLOMBIA

Pérez Cruz Erick Yahir, Universidad de Ciencias y Artes de Chiapas. Rivera Gonzalez Sheila Estefania, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Gloria Yaneth Flórez Yepes, Universidad Católica de Manizales



PLANTEAMIENTO DEL PROBLEMA

A medida que incrementa la extensión de desarrollo urbano hacia las zonas de humedales, se ponen en peligro sus lugares de desarrollo, ya que además de ser una zona húmeda, también forman parte de un ecosistema que es de gran vitalidad  para las especies que habitan cerca de el. Es necesario contar con la información necesaria para los monitoreos participativos pertinentes que puedan contribuir en su cuidado y preservación. Una forma de llevar esto a cabo es mediante el estudio y análisis de distintos humedales en México y Colombia para conocer la forma en la que se desarrolla cada uno.



METODOLOGÍA

•Definir el objetivo de la investigación •Análisis de revisión de información de bases de datos y selección de datos a comparar •Sistematización y recopilación de datos •Análisis de la metodología prisma •Comparación de resultados •Conclusión y resultados


CONCLUSIONES

El monitoreo participativo del agua en México y Colombia es un testimonio de poder de la colaboración comunitaria y multisectorial en la gestión de los recursos hídricos. Las diferencias en las metodologías y enfoques reflejan la adaptabilidad de los modelos a los contextos específicos de cada país, permitiendo que ambos desarrollen estrategias efectivas. Tanto México como Colombia han adoptado enfoques participativos para el monitoreo del agua, reconociendo la importancia de la inclusión comunitaria y la colaboración multisectorial. Sin embargo, las diferencias en contextos geográficos, desafíos específicos y actores involucrados reflejan las particularidades de cada país en la implementación y sostenibilidad de estos programas. Ambos países enfrentan desafíos significativos, pero el compromiso con la participación comunitaria y la gestión sostenible del agua proporciona una base solida para abordar y enfrentar estos retos.
Rivera Lomelí Esteban, Universidad de Guadalajara
Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara

SIMULACIóN Y OPTIMIZACIóN DEL CICLO DE STIRLING


SIMULACIóN Y OPTIMIZACIóN DEL CICLO DE STIRLING

Rivera Lomelí Esteban, Universidad de Guadalajara. Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El motor Stirling es un motor térmico de combustión externa, es decir, que la fuente de calor está fuera del motor, además es un tipo de motor térmico que opera a través de la compresión y expansión cíclica de un gas (helio, hidrógeno o aire) a diferentes temperaturas. Dicha máquina térmica fue inventada por Robert Stirling en 1816.   A diferencia de los motores de combustión interna, el motor Stirling utiliza una fuente de calor externa para calentar el gas de trabajo empleado, por lo que, convierte esta máquina térmica en una opción versátil y eficiente para la conversión de energía térmica en trabajo mecánico. Este tipo de motor es conocido por su alta eficiencia y operación silenciosa.   Implementar trabajos e investigaciones con motores Stirling es fundamental en la búsqueda de tecnologías más limpias y sostenibles. Debido a que el motor Stirling puede funcionar con una amplia gama de fuentes de calor, incluidas fuentes renovables como la energía solar, su uso puede reducir significativamente las emisiones de gases de efecto invernadero y otros contaminantes asociados con los combustibles fósiles, que es la principal problemática de los motores de combustión interna. Además, al ser un motor de combustión externa, las emisiones pueden ser más fácilmente controladas y filtradas, mejorando aún más su perfil ambiental.



METODOLOGÍA

Para lograr la máxima eficiencia de un motor Stirling, es necesario optimizar parámetros clave como lo son; la presión, el volumen y la temperatura del gas de trabajo. Estos parámetros afectan directamente el rendimiento del motor sin tomar en cuenta factores como perdida de calor o fricción, por lo que se consideró un motor Stirling ideal. Para llevar a cabo el desarrollo de este trabajo, primero se determinó y calculó la eficiencia teórica del motor considerando el ciclo de Stirling, que ocurre en cuatro procesos termodinámicos muy importantes los cuales son: un calentamiento isocórico, una expansión isotérmica, un enfriamiento isocórico y una compresión isotérmica. En un proceso isocórico, es un proceso de compresión por el cual el volumen de un gas permanece constante, pero la presión y la temperatura de un gas varían. De igual manera, en el proceso isotérmico la temperatura del sistema, en este caso el gas permanece constante, esto significa que, aunque el sistema pueda estar cambiando de volumen y presión, la temperatura no varía en ningún momento del proceso.     Después de haber considerado estas condiciones y haber obtenido la expresión matemática para la eficiencia, se realizó un código en Python para simular el ciclo termodinámico del motor Stirling y obtener, de esta manera, la representación gráfica del diagrama P-V del motor Stirling. El algoritmo Artificial Bee Colony, es una técnica de optimización inspirada en el comportamiento de búsqueda de alimento de las abejas. Utiliza tres tipos de abejas: abejas empleadas, abejas observadoras y abejas exploradoras, para buscar y explotar las mejores fuentes de alimento, en este caso, soluciones óptimas. La implementación del algoritmo (ABC) se muestra en los diferentes pasos: 1) Definir la Función Objetivo: La función objetivo es calcular la eficiencia del ciclo Stirling y devolver su valor negativo (ya que se trata de un problema de maximización convertido en uno de minimización). 2) Implementar el Algoritmo ABC: El algoritmo ABC busca los mejores parámetros para maximizar la eficiencia del motor. 3) Visualización del Ciclo Stirling: Finalmente, se grafica el ciclo Stirling usando los parámetros óptimos encontrados.


CONCLUSIONES

El objetivo de este proyecto era maximizar la eficiencia del motor Stirling, un motor que en la actualidad está generando un mayor interés en la comunidad científica y en la industria por sus aplicaciones, pero sobre todo por su alta eficiencia. Cuando Robert Stirling creó dicho motor, lo concibió como un motor diseñado para rivalizar con el motor de vapor, en la práctica su uso se redujo a aplicaciones domésticas por casi un siglo.   Los motores Stirling tienen una alta eficiencia, si se los compara con los motores de vapor, y una gran facilidad para ser aplicados a cualquier fuente de calor. Estas ventajas están haciendo que vuelva a tener interés este tipo de motores, y su aplicación en sistemas como captadores de energías renovables.   Al maximizar la eficiencia y por ende optimizar los parámetros ya mencionados, tales como la presión, volumen y temperatura, da pie a futuras investigaciones para crear nuevos prototipos y nuevos diseños, buscando de esta forma crear nuevos motores o para potenciar los motores de la actualidad.   Un dilema que se puede encontrar al trabajar con este motor en particular es, además de la presión y volumen, la eficiencia teórica deducida en este trabajo de este motor en particular está directamente relacionada con la diferencia de temperatura entre las fuentes caliente y fría. Aumentar esta diferencia dentro de los límites materiales y de diseño puede mejorar la eficiencia, pero si la diferencia entre la temperatura de las fuentes caliente y fría son mínimas, es decir, no hay una diferencia notable, esto puede generar una disminuir la eficiencia del motor.
Rivera Ortiz Carlos Eduardo, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Claudia Moreno González, Universidad de Guadalajara

DETECCIóN Y CARACTERIZACIóN DE ONDAS GRAVITACIONALES PRODUCIDAS POR COALESCENCIA DE SISTEMAS BINARIOS COMPACTOS.


DETECCIóN Y CARACTERIZACIóN DE ONDAS GRAVITACIONALES PRODUCIDAS POR COALESCENCIA DE SISTEMAS BINARIOS COMPACTOS.

Márquez Gallegos Gil Ezra, Universidad Michoacana de San Nicolás de Hidalgo. Rivera Ortiz Carlos Eduardo, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Claudia Moreno González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las ondas gravitacionales son perturbaciones del espaciotiempo provocadas por eventos astronómicos altamente violentos y energéticos, y surgen como soluciones de tipo onda a las Ecuaciones de Campo de Einstein, donde, el mismo las predijo en 1916. En 1974 Hulse y Taylor observaron al pulsar binario B1913+16, notando que el sistema se comportaba como uno que radiaba ondas gravitacionales, valiéndoles el premio Nobel de 1993. La asociación LIGO construyó un interferómetro de Michelson especializado en la detección de ondas gravitacionales; detectando a la primera onda gravitacional el 14 de septiembre del 2015, con el evento GW150914. Actualmente, se han confirmado alrededor de 90 eventos de ondas gravitacionales a través de los detectores de LIGO-VIRGO-KAGRA; sin embargo, se requiere de un estudio y análisis de datos para confirmar un evento de onda gravitacional. Este estudio y análisis de datos de ondas gravitacionales producidas por coalescencia de sistemas binarios compactos fue el objetivo de este proyecto.



METODOLOGÍA

Para poder realizar un modelo computacional que permita predecir la forma que tendría una señal de una onda gravitacional producida por una coalescencia de objetos compactos (estrellas de neutrones o agujeros negros), fue necesario comenzar por entender la definición de ondas gravitacionales; por lo que, se realizó un desglose matemático a través de la aproximación cuadrupolar y cambio de sistemas de coordenadas (entre observador y del objeto) para llegar a la obtención de la ecuación de onda, sus soluciones en el vacío, con fuentes, y finalmente se obtuvieron los dos estados de polarización (cruz y suma) que puede tener una onda gravitacional. Posteriormente, se realizó un análisis del detector LIGO, que se compone de un interferómetro tipo Michelson con brazos de 4 km de longitud y ubicado de manera estratégica para comprobar las detecciones.  Este proceso involucró conocer las características generales con las que cuenta el detector para que sea lo suficientemente sensible para detectar las pequeñas perturbaciones que producen las ondas gravitacionales (conociendo la forma física de medirlas y su orden de magnitud); por tanto, eliminar el ruido en la señal generado por distintas fuentes propias del detector es crucial para el descubrimiento de eventos astronómicos a través de esta herramienta.  Una vez comprendido cómo es que se realizan las detecciones en el instrumento, se procedió con la búsqueda de información acerca de sus limitaciones, es decir, qué tan sensible es el detector y a qué frecuencias es posible detectar ondas gravitacionales procedentes de alguna colisión entre objetos compactos. Con esta información, fue posible reconocer la factibilidad del detector para encontrar ondas gravitacionales producidas por este tipo de colisiones entre objetos compactos. A través de las librerías en Python PyCBC diseñadas por la colaboración LIGO-VIRGO-KAGRA se puede simular la forma y magnitud de una señal utilizando los parámetros estimados para el evento (masa de cada objeto, distancia luminosa, spin y razón entre las masas de ambos objetos). Esta simulación se adapta a las características frecuenciales de las señales a analizar (obtenidas a través del cálculo de su densidad de potencia espectral de las mismas); por lo que, una vez adaptada la simulación; por lo general, se utiliza un filtro adaptado para calcular la razón señal a ruido (SNR)  y determinar si el máximo es estadísticamente significativo para considerarse como una detección; esto último se realiza utilizando pruebas estadísticas como pruebas de hipótesis nulas, cálculo de valores p y chi cuadrada.  Se realizó un ejercicio  de cómo se simula una señal real de colisión de objetos compactos (estrellas de neutrones y agujeros negros) a través de los parámetros estimamos para los eventos, se adapta y se busca en los datos del interferómetro (previamente procesados para amortiguar el ruido). Adicionalmente, se realizó una clasificación de los eventos de coalescencia de objetos compactos previamente reportados por la colaboración LIGO-VIRGO-KAGRA a través de una revisión de los artículos que fueron publicados con ese propósito a lo largo de los años. 


CONCLUSIONES

La colaboración LIGO-VIRGO-KAGRA ha contribuido al desarrollo del estudio de ondas gravitacionales como una ciencia experimental que necesita tanto del desarrollo tecnológico en los detectores como de la parte del análisis de datos computacional. Para poder realizar una detección de ondas gravitacionales  generadas por objetos compactos, se necesita realizar simulaciones numéricas avanzadas y procesamiento de señales utilizando lenguajes de programación como Python y Fortran.    Para comprobar una detección se realizaron pruebas estadísticas y se verificó que se haya detectado la misma señal en al menos dos detectores. Este análisis de datos es comparado con una señal previamente detectada, para comprobar los resultados. Finalmente, se espera que en los próximos años, el estudio de las ondas gravitacionales se dé a conocer al público general como una nueva forma de realizar astronomía y la formación de recursos humanos en el área contribuya a la mejora de la educación de calidad en nuestro país. 
Rivero Oliver Amairany, Instituto Politécnico Nacional
Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional

ANáLISIS DE BIOACTIVIDAD DE LA FASE NURSE Y LOS COMPóSITOS PVDF/0.6 (NA0.5BI0.5) TIO3 - 0.4 (K0.5BI0.5) TIO3/CA7SI2P2O16


ANáLISIS DE BIOACTIVIDAD DE LA FASE NURSE Y LOS COMPóSITOS PVDF/0.6 (NA0.5BI0.5) TIO3 - 0.4 (K0.5BI0.5) TIO3/CA7SI2P2O16

Rivero Oliver Amairany, Instituto Politécnico Nacional. Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En las últimas décadas, la incidencia de problemas óseos y articulares ha aumentado debido al envejecimiento de la población y al aumento de la expectativa de vida. Estas afecciones, como la osteoartritis, la artritis reumatoide y la osteoporosis, a menudo requieren intervenciones quirúrgicas. Para abordar esto, se están desarrollando nuevos biomateriales con propiedades mejoradas. Actualmente, no existe un biomaterial que por sí solo cumpla con todos los requisitos para la ingeniería de tejidos óseos. Por ello, los compuestos, como el biocerámico Nurse y la perovskita NKBT reforzados con el polímero PVDF, están siendo investigados por sus propiedades piezoeléctricas y mecánicas. Se evalúa su bioactividad mediante la inmersión de muestras en un medio que simula el plasma sanguíneo, según la norma ISO 23317.



METODOLOGÍA

La bioactividad se comprobará durante varios períodos de tiempo de acuerdo con la norma ISO 23317 sugerida por Kokubo quien, en 2006, propuso Tris Buffered SBF con una concentración de iones que casi iguala al plasma sanguíneo humano. Los andamios se colocaron en tubos Falcon durante varios períodos de tiempo (de 3 a 28 días) y se incubaron a 37 ° C ± 0,5 ° C. Las muestras en SBF se retirarán para cada tiempo de ensayo analizado y se observará su bioactividad mediante SEM y DRX. Para el proceso bioactividad se analizaron tres tipos muestras de andamios PVDF/0.6 (Na0.5Bi0.5) TiO3 - 0.4 (K0.5Bi0.5) TiO3 /Ca7Si2P2O16 variando el porcentaje en peso del cerámico en relación 25:75, 50:50 y 75:25 las cuales cuentan con dimensiones de 8 mm de diámetro y 1.8 mm de altura Previo a la inmersión y de acuerdo a las dimensiones de los andamios se calculó la cantidad de SBF Kokubo a preparar según la norma ISO 23317, así como la esterilización de ambas caras de los andamios en el esterilizador UV durante 15 minutos cada una marcando la cara a estudiar. Para la preparación de 1 litro de solución SBF Kokubo , todos los materiales de vidrio y envases se lavaron con solución de jabón Extran, una solución 1M de HCl y agua desionizada. La solución se preparó empleando un recipiente de polietileno con capacidad de un litro, se adicionaron 700ml de agua desionizada, con un agitador magnético para mezclar los elementos según la norma y calentamiento a 36.5 °C, una vez alcanzada la temperatura se procedió a adicionar las sales una a una hasta su disolución completa de los iones presentados, disolviendo los siguientes compuestos: NaCl, NaHCO3, KCl,K2HPO4.3HO2O, MgCl2 6HO2O,CaCl2, Na2SO4 y NHC2C(CH2OH)3, la solución fue amortiguada a pH 7,40 con trishidroximetilo y HCl. Las muestras en tubos Falcon fueron sumergidas en 14.6 ml de SBF (calentado previamente a 37°C) y se incubaron en un baño térmico marca LabTech modelo LCB-11D a 36.5°C y un pH de 7.4. Durante diferentes periodos de inmersión que duraron 3, 7, 14 y 28 días, se renovó la solución de las pastillas cada 72 horas para asegurar una adecuada concentración de iones así como el registro del cambio en el pH para su análisis con el objetivo de verificar el crecimiento de la capa de apatita con respecto al tiempo de exposición del biomaterial en SBF . Finalmente las muestras se sacaron para su debida caracterización. Después de inmersión en SBF las probetas fueron retiradas del fluido, lavadas cuidadosamente en agua destilada para remover los iones solubles y posteriormente secadas Las muestras inmersas en SBF fueron analizadas mediante el microscopio electrónico de barrido XL30 ESEM en 100x, 1000x, 2000x y 5000x aumentos, las muestras fueron preparadas previamente con un recubrimiento por erosión catódica de Au/Pd en el sistema Denton Vacuum DeskV.     Los cambios estructurales relacionados con el crecimiento de apatita fueron analizados en el difractómetro de rayos X (XRD) Rigaku TX, Dmax 2100 (Rigaku Corp, Tokio, Japan) con radiación monocromática CuKα (λ = 1.5406 Å) operando a 30kV y 20mA. Los patrones de difracción de las muestras se recopilaron usando la óptica de haces paralelos en el rango de 20 a 80° con escala 2θ (°) y tamaño de paso de 0.01.


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos relevantes relacionados con el proceso de bioactividad. El SBF de Kokubo es el medio de prueba más empleado para investigar las propiedades de los materiales, como la bioactividad. Con base al proceso de inmersión, se pudo notar que las características geométricas de las muestras pueden desempeñar un papel importante en la formación de apatita en SBF, especialmente si los materiales considerados son inherentemente reactivos a la superficie, así como también se nota una menor reactividad de materiales más densos como los compósitos PVDF/NKBT-Nurse conformados en mayor porcentaje de polímero, a los materiales puramente cerámicos (Nurse), los cuales muestran valores más elevados de pH. En base al aumento de los niveles de pH monitoreados en las muestras podemos indicar que se está llevando a cabo intercambio iónico entre el material bioactivo y el SBF; y por lo tanto, existe crecimiento de apatita.
Rodríguez Aguilar Gustavo Rafael, Universidad Autónoma de Yucatán
Asesor: Dr. Joel Antonio Trejo Sánchez, Centro de Investigación en Matemáticas (CONACYT)

DISEñO DE ALGORITMOS PARA EL ANáLISIS DE REDES DE MOVILIDAD.


DISEñO DE ALGORITMOS PARA EL ANáLISIS DE REDES DE MOVILIDAD.

Molina Ramírez Jorge Sebastián Alejandro Chiu, Universidad de Guadalajara. Rodríguez Aguilar Gustavo Rafael, Universidad Autónoma de Yucatán. Asesor: Dr. Joel Antonio Trejo Sánchez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La planificación del desarrollo de las ciudades es fundamental para el crecimiento sostenible de las urbes, pues permite aumentar la calidad de vida de las personas que habitan en ellas, lo que genera prosperidad compartida y estabilidad social. Lograr ciudades y comunidades sostenibles es uno de los objetivos de desarrollo sostenible planteados por la ONU, por lo que es fundamental abordar los desafíos relacionados al crecimiento de las ciudades y de las infraestructuras adecuadas para su desarrollo. Un gran reto es la planificación de la movilidad urbana. El crecimiento urbano, la expansión de la infraestructura y el aumento de la población en ciudades como Mérida, requieren soluciones eficientes para gestionar el flujo de personas y vehículos. Sin una planificación adecuada, las ciudades enfrentan problemas de congestión vial, contaminación y desigualdad en el acceso a servicios y oportunidades, lo cual puede comprometer la calidad de vida de sus habitantes y su sostenibilidad. El análisis de la movilidad permite identificar patrones en la red de tránsito que den indicios sobre el comportamiento de los actores involucrados, la manera en que varía el flujo a lo largo de periodos determinados, el vínculo entre distintas zonas de la región y la distribución de los habitantes. Una movilidad urbana eficiente reduce los tiempos de desplazamiento y la congestión vehicular, mejorando la productividad y calidad de vida de los ciudadanos. Por tales motivos, un análisis adecuado y pertinente de patrones de movilidad y del flujo vehicular es de vital importancia para extraer información que sea útil en la planificación y diseño del sistema de tránsito de zonas urbanas.



METODOLOGÍA

Para llevar a cabo el análisis de movilidad y flujo vehicular, fue necesario trabajar con registros que permitieran modelar el tránsito a través de grafos. Con este fin, era fundamental trabajar con gran cantidad de datos de manera eficiente. El proceso de filtrado y limpieza de los registros representó un paso crucial en el proyecto. Para ello, se utilizó la librería DuckDB de Python, que permitió manipular los datos comprimidos en archivos Parquet de manera rápida y eficiente. Los registros utilizados corresponden a datos de dispositivos móviles de todo el país, lo que planteó la posibilidad de optar por un análisis más amplio que involucrara varios estados, haciendo énfasis en Campeche, Yucatán y Quintana Roo, o realizar un análisis más específico, como municipios dentro de un estado o AGEBS dentro de una ciudad. Para extraer los datos deseados según el tamaño de la región y la granularidad, se desarrollaron scripts de Python que permitieron trabajar con movimiento entre zonas geográficas de distinta escala. Además, se consideraron factores importantes como los días a analizar y los intervalos de tiempo para dividir los días seleccionados. Elegir una variedad de días considerando factores como el día de la semana, la época del año, el pago de nómina o la presencia de alguna festividad permite probar hipótesis relacionadas con alteraciones en los patrones de flujo. Una vez filtrados los datos y determinados los días y ventanas de tiempo a considerar, se procedió a tratar los datos de dos maneras distintas con el objetivo de construir grafos pesados utilizando la librería NetworkX. Primero se asignó peso a las aristas de la siguiente manera: dados dos vértices i y j, el peso de la arista con origen en i y destino en j corresponde al cociente de dispositivos que se detectaron movilizándose de i hacia j entre el total de dispositivos registrados en dicho día, multiplicado por 10e6. Esto permitió la construcción de grafos pesados y dirigidos. La segunda manera genera conjuntos de dispositivos registrados en cada zona durante la ventana de tiempo considerada y se asigna el peso de la arista entre pares de nodos correspondiente a los dispositivos pertenecientes a la intersección entre pares de conjuntos. La eficiencia del código fue una preocupación principal, buscando optimizar los tiempos de ejecución lo máximo posible. Se trabajó con consultas SQL eficientes y ciclos optimizados, y se optó por trabajar con conjuntos, una estructura de datos proporcionada por Python que permite operaciones rápidas de intersección y diferencia, minimizando el tiempo para las consultas SQL. Para los grafos pesados no dirigidos, se utilizaron dos métodos de particionamiento de grafos: el método del vector propio principal de la matriz de modularidad y el algoritmo de Leiden, ambos optimizando la modularidad del grafo. El método del Vector Propio Principal aprovecha las propiedades del espectro de matrices derivadas de datos para particionar el grafo, optimizando el valor de una función de calidad determinada (modularidad). La modularidad mide la cantidad de aristas presentes dentro de una comunidad menos las esperadas en una red equivalente con aristas colocadas aleatoriamente. El algoritmo de Leiden es un método heurístico iterativo que consta de tres fases: movimiento local de nodos, refinamiento de la partición y agregación de la red basada en la partición refinada. Este algoritmo garantiza que todos los clústeres sean internamente conectados en cada iteración, asegurando que los nodos y algunas partes estén asignados localmente de manera óptima y que los clústeres estén bien separados.


CONCLUSIONES

Se aplicaron habilidades de análisis de datos y se adquirieron conocimientos en teoría de grafos. El tratamiento y filtrado de datos fue crucial para asegurar resultados útiles en la toma de decisiones. El estudio de métodos para analizar redes de movilidad y el uso de grafos para modelar el tránsito ampliaron la perspectiva sobre cómo las matemáticas aplicadas pueden resolver problemas prácticos. Las actividades ensayaron códigos para extraer datos y generar grafos. Los resultados finales aún están en proceso, pero los scripts desarrollados extraerán información valiosa sobre flujos vehiculares y patrones de movilidad en Mérida y Yucatán, aplicable a otras regiones del país.
Rodriguez Cevallos Elena del Carmen, Universidad Politécnica de Sinaloa
Asesor: Dra. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa

TECNOLOGíAS EMERGENTES


TECNOLOGíAS EMERGENTES

Lopez Silva Evelyn Ximena, Universidad Politécnica de Sinaloa. Rodriguez Cevallos Elena del Carmen, Universidad Politécnica de Sinaloa. Asesor: Dra. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El rápido avance de la tecnología en las últimas décadas ha dado lugar a una serie de innovaciones conocidas como tecnologías emergentes. Estas tecnologías, incluyen la inteligencia artificial, el Internet de las Cosas (IoT), la computación cuántica, la realidad aumentada (AR) y la realidad virtual (VR), y las criptomonedas, la biotecnología, la robótica avanzada, la nanotecnología y las energías renovables, están transformando profundamente diversas industrias y aspectos de la vida cotidiana. Sin embargo, la adopción y el desarrollo de estas tecnologías presentan varios desafíos significativos. 1. Comprensión y Adaptación: La rápida evolución tecnológica exige una adaptación constante por parte de individuos y organizaciones. 2. Impacto en el Empleo: La automatización y la inteligencia artificial, por ejemplo, están reemplazando tareas rutinarias y trabajos manuales, lo que podría llevar a la pérdida de empleo en ciertos sectores. 3. Seguridad y Privacidad: Con el aumento de dispositivos conectados y el intercambio de grandes de datos existe mayores preocupaciones sobre la seguridad de los datos personales.



METODOLOGÍA

Para abordar estos desafíos, se propone una metodología basada en la investigación, análisis y desarrollo de estrategias que faciliten la comprensión y adopción de tecnologías emergentes. 1. Investigación: Realizar una investigación sobre cada una de las tecnologías emergentes. Esto incluye estudios académicos, informes de la industria y casos de uso exitosos que identifiquen beneficios, riesgos y mejores prácticas. 2. Encuestas y Entrevistas: Realizar encuestas y entrevistas con expertos en tecnología, profesionales de la industria y usuarios finales para obtener una mejor comprensión. 3. Análisis Comparativo: Realizar un análisis comparativo de la adopción y el impacto de las tecnologías emergentes en diferentes regiones y sectores. Esto permitirá identificar patrones, diferencias y factores clave que influyen en el éxito o fracaso de la implementación tecnológica.


CONCLUSIONES

Durante la estancia de verano logramos adquirir una mejor comprensión sobre el desarrollo y la implementación de tecnologías emergentes, las cuales son muy importantes porque mejoran la calidad de vida, y tienen un impacto positivo en diversas áreas de nuestra vida diaria. Sin embargo, puede existir algunas posibles consecuencias como el riesgo de robo de información de los usuarios. Es fundamental abordar estos desafíos para maximizar los beneficios y minimizar los riesgos asociados con estas innovaciones tecnológicas.  
Rodriguez Davalos Jacqueline Sarai, Universidad de Guadalajara
Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional

BIO-MINERALIZACIóN EN CERáMICAS PIEZOELéCTRICAS POLARIZADAS BASE BISMUTO Y BIOCOMPOSITOS EN MICROESFERAS BASE NBT-BIOVIDRIO 45S5-HIDROXIAPATITA. J.S. RODRIGUEZ-DAVALOS, A.M. BENITEZ-CASTRO, J. MUñOZ-SALDAñA


BIO-MINERALIZACIóN EN CERáMICAS PIEZOELéCTRICAS POLARIZADAS BASE BISMUTO Y BIOCOMPOSITOS EN MICROESFERAS BASE NBT-BIOVIDRIO 45S5-HIDROXIAPATITA. J.S. RODRIGUEZ-DAVALOS, A.M. BENITEZ-CASTRO, J. MUñOZ-SALDAñA

Rodriguez Davalos Jacqueline Sarai, Universidad de Guadalajara. Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los huesos son esenciales para el cuerpo humano, brindando soporte estructural, protección a órganos vitales y almacenamiento de minerales. Tienen una notable capacidad regenerativa para recuperarse de daños físicos, pero esta capacidad se deteriora con el tiempo debido al envejecimiento o enfermedades, lo que causa imperfecciones en la estructura ósea. En México, el 60% de la población adulta tiene una calidad ósea deficiente, una condición que puede progresar hacia la osteoporosis, caracterizada por una reducción en la densidad ósea y una absorción inadecuada de calcio, aumentando la vulnerabilidad a fracturas. Los tratamientos actuales para lesiones óseas incluyen fijaciones, implantes e injertos óseos, utilizando materiales metálicos como acero inoxidable y titanio, así como autoinjertos, aloinjertos o sustitutos sintéticos como la hidroxiapatita. Los materiales piezoeléctricos ofrecen una solución innovadora al emular el ambiente eléctrico natural del hueso, lo que favorece la regeneración ósea. Estos materiales también muestran una alta compatibilidad biológica, facilitando su integración en el tejido óseo. Por ello, durante el verano de investigación se evaluará la bioactividad de cerámicas piezoeléctricas polarizadas a base de bismuto y se probará el efecto de la mejor composición en biocompositos HAp-NBT-based BG para su aplicación en rellenos óseos.



METODOLOGÍA

1. Polarización de cerámicas Se polarizaron cerámicas de NBT y 20 BKT, aplicando un voltaje de 3.1 a 3.9 kV para NBT y 3.3 a 3.5 kV para 20 BKT, con una polarización controlada para alinear los dominios de manera paulatina. La polarización se verificó midiendo valores de d33, obteniendo 89 pC/N para NBT y 134 pC/N para 20 BKT.   2. Preparación de fluido corporal simulado (SBF) Siguiendo la norma ISO 23317:2014, se preparó el SBF bajo condiciones controladas de temperatura, agitación y adición gradual de reactivos, ajustando el pH final a 7.4. Posteriormente, se almacenó en refrigeración a 5°C.        2.1 Inmersión de muestras Las muestras se prepararon eliminando la pintura de plata y restos de aceite dieléctrico, secándolas durante 24 horas.  Luego, se sumergieron en viales con SBF, manteniéndolas en baño María a 36.5°C y monitoreando el pH en días 1, 3 y 7.   3.Elaboración de biocompositos base NBT- Biovidrio 45S5-Hidroxiapatita Se mezclaron perovskita base NBT, hidroxiapatita y biovidrio 45S5 en agitación constante y pasándola a ultrasonido para eliminar aglomerados después se agrego un aglomerante (Darvan C) para la formación de microesferas. La mezcla fue procesada con Spray Dryer bajo parámetros específicos.        3.1 Tratamiento térmico Se realizó un tratamiento térmico en una mufla para eliminar el aglomerante y densificar las microesferas. Este proceso incluyó una serie de rampas de temperatura controladas para evaporar materiales orgánicos y lograr la densificación deseada.       3.2 Caracterización de biocompositos Se llevó a cabo una caracterización previa y posterior al tratamiento térmico para verificar la formación de microesferas y su integridad estructural, utilizando Microscopía Electrónica de Barrido (SEM) para analizar la morfología.       3.3 Inmersión de biocompositos Se siguieron los pasos de inmersión de cerámicas, ajustando la cantidad de SBF según la muestra, y se midió el pH en los días 1, 3 y 7 para evaluar la bioactividad.   4. Caracterización de cerámicas y biocompositos post-inmersión Las superficies de las muestras se prepararon para evaluaciones microestructurales avanzadas utilizando SEM para analizar la morfología superficial y la formación de capas de apatita, Difracción de Rayos X de Incidencia Rasante (GIXD) para identificar fases cristalinas, y Espectroscopía de Energía Dispersiva de Rayos X (EDX) para analizar la composición elemental y la proporción Calcio/Fósforo.


CONCLUSIONES

Durante la estancia de verano se avanzó en la investigación sobre bio-mineralización en cerámicas piezoeléctricas polarizadas a base de Bismuto. Se adquirieron habilidades en la preparación y caracterización de materiales, incluyendo la polarización exitosa de cerámicas NBT y 20 BKT, así como la elaboración de biocompositos mediante la técnica de spray drying. La preparación del fluido corporal simulado (SBF) según estándares internacionales permitió evaluar la bioactividad de las muestras mediante inmersiones controladas. Aunque los resultados finales de las caracterizaciones están pendientes, las observaciones preliminares son prometedoras. Esta investigación sienta las bases para el desarrollo de nuevos materiales con potencial aplicación en regeneración ósea. Se espera que los análisis posteriores confirmen la formación de capas maduras de apatita en las superficies de las muestras, validando su potencial uso en rellenos óseos.
Rodriguez Gomez Kristel Mariel, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Rosa Maria Quispe Siccha, Hospital General de México

MéTODO FOTOACúSTICO PARA LA CARACTERIZACIóN DE PHANTOMS DE TEJIDO MAMARIO A BASE DE ALCOHOL POLIVINíLICO


MéTODO FOTOACúSTICO PARA LA CARACTERIZACIóN DE PHANTOMS DE TEJIDO MAMARIO A BASE DE ALCOHOL POLIVINíLICO

Campos Castillo Eduardo, Universidad Autónoma del Estado de México. Rodriguez Gomez Kristel Mariel, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Rosa Maria Quispe Siccha, Hospital General de México



PLANTEAMIENTO DEL PROBLEMA

El cáncer de mama es una de las principales causas de mortalidad entre las mujeres, con 2.3 millones de casos diagnosticados y 670,000 defunciones en 2022. Los métodos convencionales de detección, como la mamografía y la resonancia magnética, presentan limitaciones como la exposición a radiación ionizante y la limitada resolución en la diferenciación de tejidos malignos y benignos.La tomografía fotoacústica (TFA) es una técnica innovadora que combina la alta resolución de la imagen óptica con la profundidad de penetración de la imagen acústica, ofreciendo ventajas como la ausencia de radiación ionizante y mejor contraste. Sin embargo, para implementarla es necesario desarrollar y validar simuladores de tejido (phantoms) que imiten las propiedades ópticas y acústicas de los tejidos mamarios biológicos.El proyecto se centra en la caracterización de phantoms de tejido mamario utilizando alcohol polivinílico (PVA), un polímero hidrofílico, sintético y biodegradable. Estos phantoms deben replicar las propiedades ópticas de los componentes mamarios, permitiendo una evaluación precisa de la técnica fotoacústica. La validación de la técnica fotoacústica mediante phantoms de PVA puede proporcionar una herramienta no invasiva y efectiva para la detección temprana del cáncer de mama, mejorando las tasas de supervivencia y reduciendo la mortalidad. Además, el desarrollo de estos phantoms contribuirá al avance de la investigación en tecnologías de imagen biomédica.



METODOLOGÍA

Para caracterizar simuladores de tejido mamario a base de PVA mediante la técnica fotoacústica, se siguió la siguiente metodología:Preparación de PhantomsMateriales:Alcohol polivinílico (PVA)Tinte negro EcolineGlucosaManteca de cerdoAgua destiladaVaso de precipitadoTermoagitadorBalanzaTermómetroMoldesProceso de Preparación:Se mezclaron distintas concentraciones de PVA con tinte, glucosa y manteca, realizando ciclos de congelación y descongelación para ajustar las propiedades de las muestras, obteniendo un criogel que imita las propiedades de algunos componentes de la mama biológica.Medición del Espectro de AbsorciónEspectrofotómetro:Se midió el espectro de absorción del tinte negro Ecoline utilizando un espectrofotómetro para determinar la longitud de onda óptima para las mediciones fotoacústicas, seleccionando las longitudes de onda de 532 nm y 1064 nm.Arreglo Óptico y Toma de MedicionesConfiguración del Experimento:Se utilizó un láser como fuente de luz, espejos para dirigir el haz, sensores PVDF y PZT para la detección de señales fotoacústicas y un osciloscopio para capturar las señales.Preparación de Muestras:Se prepararon muestras de PVA con diferentes concentraciones (7%, 9% y 12%), tanto puras como combinadas con tinte, glucosa y manteca, exponiéndolas a las longitudes de onda seleccionadas y registrando las señales generadas.Procesamiento y Análisis de DatosAdquisición y Pre-procesamiento de Señales:Se promediaron las adquisiciones y se realizó una transformada de Fourier para analizar las señales en el dominio del tiempo y la frecuencia.Software de Análisis:Se utilizó OriginPro para graficar y analizar los datos, permitiendo una caracterización detallada de las propiedades ópticas y acústicas de los phantoms.


CONCLUSIONES

El proyecto de caracterización de simuladores de tejido mamario a base de PVA utilizando el método fotoacústico ha demostrado ser prometedor para el diagnóstico y la detección del cáncer de mama:Eficiencia de la Técnica Fotoacústica:La técnica fotoacústica permite obtener imágenes de alta resolución sin necesidad de radiación ionizante, mostrando su potencial como una alternativa segura y no invasiva en el diagnóstico del cáncer de mama.Desarrollo de Phantoms de PVA:Los phantoms desarrollados con PVA son adecuados para simular las propiedades ópticas y mecánicas de los tejidos mamarios biológicos, ajustando las propiedades de los phantoms para representar diferentes tipos de tejido.Resultados de Sensores:Los sensores (PZT y PVDF) y longitudes de onda (1064 nm y 532 nm) permitieron una caracterización detallada de los phantoms, proporcionando información valiosa sobre la composición y estructura de los tejidos simulados.Validación del Método:La validación de la técnica fotoacústica con los phantoms de PVA establece una base sólida para futuras investigaciones y aplicaciones clínicas, asegurando que la técnica puede ser aplicada de manera efectiva en escenarios clínicos reales.Impacto en el Diagnóstico del Cáncer de Mama:La implementación de esta técnica podría mejorar significativamente el diagnóstico y tratamiento del cáncer de mama, ofreciendo una herramienta adicional para la detección temprana y la evaluación de la progresión de la enfermedad.El método fotoacústico ha demostrado ser una técnica viable y efectiva para la caracterización de simuladores de tejido mamario, ofreciendo una alternativa segura, precisa y no invasiva para el diagnóstico del cáncer de mama. Estos resultados sientan las bases para futuras investigaciones y desarrollos tecnológicos en el campo de la imagenología médica.
Rodriguez Gutiérrez María Fernanda, Universidad Autónoma de Baja California
Asesor: Dr. Alberto Sánchez González, Instituto Politécnico Nacional

FORAMINíFEROS PLANCTóNICOS EN EL MARGEN DE MAGDALENA


FORAMINíFEROS PLANCTóNICOS EN EL MARGEN DE MAGDALENA

Rodriguez Gutiérrez María Fernanda, Universidad Autónoma de Baja California. Asesor: Dr. Alberto Sánchez González, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Reconstrucción climática de periodo reciente de acuerdo a la acidificación en la región del margen suroccidental de Baja California Sur, haciendo el uso de herramientas micropaleontológicas con una muestra de hace 5 mil años de dicha región.



METODOLOGÍA

Se utilizaron 28 muestras de sedimento de un núcleo de gravedad, las cuales fueron previamente preparadas con un microcuarteador y contenidas cada una de ellas en cajas petri. Se identificaron foraminíferos planctónicos de cada una de las muestras, trabajando con la fracción de 125 μm. Donde con ayuda de un microscopio estereoscópico se contaron todas las conchas de los foraminíferos planctónicos. Se contaron y separaron las especies Globigerina bulloides y Globigerinoides ruber. Las conchas de ambas especies fueron medidas con la ayuda del programa ZEN, seleccionando los foraminíferos con longitudes promedio de todas las muestras, para así trabajar con medidas similares.


CONCLUSIONES

Durante la etapa de la estancia de verano se logró diferenciar la morfología general de los foraminíferos planctónicos, para su separación. De igual forma se trabajaron las técnicas de conteo y separación, así como el uso del programa ZEN para la visualización, fotografía y medida de los restos de foraminíferos.
Rodriguez King Mario, Universidad Autónoma de Yucatán
Asesor: Dr. Cederik Leon de Leon Acuña, Universidad Michoacana de San Nicolás de Hidalgo

SIMULACIóN Y ANáLISIS DE CASCADAS ATMOSFéRICAS UTILIZANDO PARTíCULAS ELEMENTALES Y ELEMENTOS DIVERSOS


SIMULACIóN Y ANáLISIS DE CASCADAS ATMOSFéRICAS UTILIZANDO PARTíCULAS ELEMENTALES Y ELEMENTOS DIVERSOS

Rodriguez King Mario, Universidad Autónoma de Yucatán. Asesor: Dr. Cederik Leon de Leon Acuña, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El estudio de los rayos cósmicos es una de las áreas más intrigantes de la astrofísica, ya que estos fenómenos de alta energía no solo tienen un origen en gran medida desconocido, sino que también brindan valiosa información sobre el cosmos más allá de nuestro sistema estelar, e incluso de nuestra galaxia. Los rayos cósmicos, al interactuar con la atmósfera terrestre, desencadenan cascadas de partículas secundarias, conocidas como cascadas atmosféricas, que nos permiten estudiar fenómenos de alta energía a grandes distancias. Sin embargo, observar directamente estos eventos es imposible con la tecnología actual, lo que complica su estudio. Por esta razón, se utilizan programas de simulación avanzados como AIRES (AIRshower Extended Simulations) para modelar y analizar estos fenómenos desde la Tierra. Durante esta estancia de investigación, el enfoque principal fue analizar los datos generados por simulaciones de cascadas atmosféricas, interpretando los resultados para obtener una comprensión más profunda de los procesos involucrados. El objetivo principal de la investigación es desarrollar una comprensión integral de las cascadas atmosféricas producidas por rayos cósmicos, a través de simulaciones computacionales, para aportar al conocimiento sobre fenómenos astrofísicos de alta energía. 



METODOLOGÍA

1. Revisión Bibliográfica y Teórica: - El proyecto comenzó con una revisión exhaustiva de la literatura científica, abarcando desde textos introductorios hasta artículos de investigación especializados en astrofísica y rayos cósmicos. Esto permitió establecer una base sólida de conocimiento y entender los conceptos fundamentales necesarios para el análisis de cascadas atmosféricas. 2. Configuración del Entorno de Trabajo: - Se realizó una transición del sistema operativo Windows a Linux Debian 12, ya que Linux ofrece un entorno más robusto para la ejecución de AIRES y otros programas científicos. La familiarización con este sistema operativo fue crucial para aprovechar las herramientas y bibliotecas disponibles. 3. Instalación y Preparación de Herramientas: - Se aseguraron de que estuvieran instalados los lenguajes de programación Python y Fortran, esenciales para operar AIRES. Además, se instalaron paquetes como NumPy y la interfaz de desarrollo integrado Spyder, utilizados para el análisis de datos y la creación de gráficos. 4. Diseño y Ejecución de Simulaciones: - Se seleccionaron diferentes partículas elementales y elementos para estudiar sus interacciones con la atmósfera terrestre. Esto incluyó la definición de parámetros específicos para cada simulación, como la energía inicial de las partículas y el ángulo de incidencia. - Las simulaciones se ejecutaron utilizando AIRES, generando grandes volúmenes de datos que describen la evolución de las cascadas atmosféricas. 5. Análisis de Resultados: - Se procesaron los datos obtenidos de las simulaciones con Spyder, utilizando NumPy para el análisis numérico y la generación de gráficos detallados. Estas representaciones visuales permitieron identificar patrones y comportamientos en las cascadas atmosféricas, como la distribución de partículas secundarias y la energía depositada en diferentes capas de la atmósfera. - Los resultados fueron comparados con estudios previos y teorías existentes para validar las simulaciones y obtener nuevas perspectivas sobre los fenómenos observados.


CONCLUSIONES

El análisis de las simulaciones permitió una mejor comprensión de cómo las partículas de alta energía interactúan con la atmósfera terrestre. Se observaron variaciones en la distribución de las partículas secundarias según el tipo de partícula incidente y su energía, proporcionando información valiosa para el estudio de rayos cósmicos y otros fenómenos astrofísicos. Los resultados obtenidos no solo corroboran teorías existentes sobre cascadas atmosféricas, sino que también abren nuevas vías para la investigación futura, como el estudio de partículas de origen extragaláctico y su posible relación con eventos cósmicos de gran magnitud. Además, la experiencia adquirida en el manejo de herramientas de simulación y análisis de datos será invaluable para proyectos de investigación futuros en este campo. Esta estancia de investigación ha sido una experiencia enriquecedora, proporcionando una visión más profunda y práctica del trabajo en astrofísica, y contribuyendo al avance del conocimiento en el estudio de rayos cósmicos.
Rodríguez Nájera Omar Neftalí, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo

CARACTERIZACIÓN GEOMECANICA DE TALUDES A TRAVES DE FOTOGRAMETRÍA-CANTO CASTILLO-HERNANDEZ DORANTES-KUMUL HERNANDEZ- RODRIGUEZ NAJERA


CARACTERIZACIÓN GEOMECANICA DE TALUDES A TRAVES DE FOTOGRAMETRÍA-CANTO CASTILLO-HERNANDEZ DORANTES-KUMUL HERNANDEZ- RODRIGUEZ NAJERA

Canto Castillo Danna Beatriz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Hernández Dorantes Marvin Aarón, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Kumul Hernández Kevin Divandy, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Rodríguez Nájera Omar Neftalí, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El proyecto “Caracterización geomecánica de taludes a través de fotogrametría” fue seleccionado con el objetivo de aprender nuevas aplicaciones de la mecánica de suelos en diferentes partes del país, ya que esta era la materia de especialidad sobre la que llevamos a cabo nuestro servicio social. Inicialmente, no teníamos muchas expectativas, dado que en nuestra ciudad no se encuentran taludes de grandes dimensiones. Sin embargo, nos dimos cuenta de que la materia base de este proyecto es la mecánica de rocas, una disciplina que no está incluida en nuestra retícula de materias en el Tecnológico de Chetumal. La problemática principal es que la realización de un levantamiento geomecánico convencional de taludes es mucho más tardado y limitado en cuanto al alcance humano. Este método es una nueva forma de realizar estos levantamientos, donde las limitantes humanas han desaparecido, aunque no del todo, gracias a las nuevas tecnologías.



METODOLOGÍA

La primera semana del proyecto estuvo dedicada a comprender los objetivos y el impacto de la metodología propuesta por la M.I.T.N Marsella Gissel Rodríguez Servín (estudiante de doctorado). Se buscaba comparar el método convencional con la aplicación de software (CloudCompare, Discontinuity Set Extractor y Math Lap) para fotogrametría, junto con los métodos geomecánicos y su clasificación para macizos rocosos. El propósito final era proponer soluciones para reforzar taludes cuando fuese necesario, ya que este campo no tiene un estado del arte muy desarrollado y cada proceso publicado está orientado a un propósito específico. Recibimos clases introductorias de “Mecánica de rocas” por el Dr. José Eleazar Arreygue Rocha, quien nos explicó los procedimientos en campo, laboratorio y gabinete. En campo, nos enfocamos en la observación de la tonalidad, rugosidad, discontinuidades y pliegues de las rocas, lo que nos permitió tener una idea general de la litología y el grado de meteorización. La clasificación de la roca prioriza el estudio de las discontinuidades o diaclasas, identificando el tipo, orientación, espaciado, persistencia, rugosidad, tipo de relleno, apertura y presencia de agua. En el laboratorio, trabajamos con la matriz rocosa, realizando pruebas destructivas y no destructivas para obtener valores indispensables para los cálculos posteriores, como resistencia a la compresión uniaxial, densidad, permeabilidad y mineralogía. El trabajo de gabinete consistió en utilizar los datos obtenidos para aplicar cuatro métodos de clasificación: dos aplicables a proyectos genéricos y dos específicos para taludes. Estos métodos incluían el cálculo del RMR (Valoración del macizo rocoso), el índice de calidad de la roca, el sistema de Barton para túneles y la clasificación SMR para taludes. Conforme avanzaron las semanas, nos dedicamos a procesar la información para el análisis de los taludes. Esto implicó delimitar el espacio de trabajo, depurar la vegetación para una mejor visualización, crear nubes de puntos para generar una base del terreno y extraer datos en las diferentes aplicaciones. Estas actividades fueron novedosas para nosotros y requirieron aprender a manejar nuevos formatos de documentos y entender su aplicación en cada proceso. La salida a campo fue uno de los momentos más esperados del proyecto, ya que nos permitió observar un paisaje completamente diferente al de nuestra región. Tuvimos la oportunidad de ver cómo se realiza un levantamiento geomecánico con dron para la recolección de fotos, planificar el vuelo, evaluar la factibilidad del trabajo mediante Google Earth y decidir si el recorrido se hacía manual o predeterminado. Realizamos el análisis de tres taludes por persona, llevando a cabo todos los procesos para clasificarlos y proponiendo métodos de estabilización cuando fuera necesario.


CONCLUSIONES

En conclusión, la línea de investigación "Caracterización geomecánica de taludes a través de fotogrametría" fue una experiencia enriquecedora, ya que nos permitió aprender nuevas aplicaciones de la mecánica de suelos y rocas, áreas no incluidas en nuestro currículo en el Tecnológico de Chetumal. La primera semana proporcionó una base sólida en el método convencional y el uso de software para fotogrametría, esencial para proponer soluciones de estabilización de taludes. Las clases introductorias de mecánica de rocas, junto con el trabajo de campo y laboratorio, fueron fundamentales para comprender los procesos de clasificación y análisis de macizos rocosos. El trabajo práctico y el uso de drones para recolectar datos fotogramétricos ampliaron nuestras habilidades y conocimientos, cabe mencionar que los resultados esperados son que este nuevo método sea de gran ayuda a futuro en este campo de estudio y que sea lo más funcional posible. En resumen, esta experiencia nos ha permitido entender mejor la importancia de la mecánica de rocas y nos ha dotado de herramientas útiles para futuros proyectos de estabilización de taludes en otras partes del país.
Rodríguez Navarro Nicole Guadalupe, Universidad de Guadalajara
Asesor: Dr. Víctor José Sosa Villanueva, Instituto Politécnico Nacional

PROPIEDADES MAGNéTICAS EN MATERIALES SUPERCONDUCTORES


PROPIEDADES MAGNéTICAS EN MATERIALES SUPERCONDUCTORES

González Hernández Jocelin Areli, Universidad de Guadalajara. Medina Languren Alison Lisbeth, Universidad de Guadalajara. Rodríguez Navarro Nicole Guadalupe, Universidad de Guadalajara. Asesor: Dr. Víctor José Sosa Villanueva, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los materiales superconductores, como el óxido de itrio-bario-cobre (YBCO) expulsan completamente los campos magnéticos internos al entrar en su estado superconductor, lo que se conoce como el efecto Meissner. Esto permite que los superconductores leviten sobre un imán debido a la repulsión magnética. En el estado superconductor, el YBCO puede atrapar líneas de flujo magnético, donde esta capacidad de retener campos magnéticos se utiliza en aplicaciones como la levitación magnética y la construcción de imanes superconductores.



METODOLOGÍA

Con el fin de estudiar el comportamiento de los materiales superconductores con campos magnéticos retenidos, se realizó un escaneo en tres dimesiones para observar el comportaminto del flujo magnético y analizar las líneas de flujo. El material de YBCO primero debera mantenerse en su estado superconductor a traves de nitrogeno líquido, donde se sometera a la presencia de un iman y se producira el efecto Meissner. Posterior a esto, aun siguiendo en su temperatura critica, el iman superconductor sera colocado en un soporte diseñado en SolidWorks e impreso en 3D y posteriormente traves de un sensor de medicion en tres dimensiones sera escaneado y los resultados seran obtenidos en el programa LABView.  Para completar el analisis de los datos obtenidos es necesario configurar el programa de medicion con los variables del entorno como voltaje y temperatura para tener un escaneo mas preciso.


CONCLUSIONES

A partir de los graficos generados se puede considerar que las lineas de flujo siguen un comportamiento que respeta la geometria del material superconductor, de igual manera que el campo magnético retenido es mayor en el centro y en las zonas donde haya imperfecciones estructurales. En conclusión, la investigación sobre las propiedades magnéticas en materiales superconductores demostró que el método elegido para medir el campo magnético fue altamente efectivo. La utilización de una impresora 3D para fabricar un dispositivo que permitía la inmersión continua de los superconductores en nitrógeno líquido garantizó una medición precisa y consistente del campo magnético. Este enfoque innovador no solo facilitó la estabilidad térmica necesaria para mantener los superconductores en su estado óptimo, sino que también proporcionó un entorno controlado que mejoró la exactitud de los resultados obtenidos. Así, el método empleado probó ser una herramienta eficaz y confiable para la investigación en propiedades magnéticas de superconductores.
Rodriguez Orozco Javier Humberto, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Rodrigo Meléndrez Amavizca, Universidad de Sonora

ESTUDIO DE LAS PROPIEDADES DOSIMéTRICAS DE LA SAL DEL HIMALAYA COMERCIAL SOMETIDA A RADIACIóN BETA.


ESTUDIO DE LAS PROPIEDADES DOSIMéTRICAS DE LA SAL DEL HIMALAYA COMERCIAL SOMETIDA A RADIACIóN BETA.

Rodriguez Orozco Javier Humberto, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Rodrigo Meléndrez Amavizca, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El uso de la sal del Himalaya abarca áreas culinarias, decorativas y terapéuticas, pero su potencial como dosímetro para la radiación ionizante no ha sido estudiado en profundidad. Es necesario estudiar las propiedades dosimétricas específicas de la sal del Himalaya cuando se expone a la radiación beta para poder utilizarla como dosímetro, que es un instrumento de medición de dosis absorbida en un contexto de protección radiológica. La presencia de impurezas y minerales como hierro, magnesio, calcio y potasio en la sal del Himalaya requiere comprender cómo estas pueden afectar a sus propiedades dosimétricas. Las impurezas pueden alterar la estructura cristalina introduciendo defectos en la red; esto se ve claramente a través de la pigmentación rosada que exhibe la sal como resultado de estos cambios.



METODOLOGÍA

Para llevar a cabo esta investigación, se utilizaron muestras comerciales de sal del Himalaya y se expusieron a radiación. La luminiscencia persistente (AG), la luminiscencia ópticamente estimulada (OSL) y la termoluminiscencia (TL) fueron las técnicas de medición utilizadas. Las muestras de sal rosa se colocaron en un lector Risø TL/OSL modelo DA-20, que utiliza un fotomultiplicador para detectar la luz. La irradiación de las muestras se realizó mediante radiación beta de Estroncio-90; teniendo una dosis controlada para garantizar que los resultados se reproduzcan. Mediciones de TL, OSL y AG: TL: Se aplicó temperatura en un rango de 0 a 450 grados centígrados en aumento de 5 grados por segundo, a las muestras irradiadas, mientras se monitoreaba la luz emitida con respecto a la temperatura.              OSL: Estimular ópticamente las muestras utilizando una fuente de luz infrarroja (850 nm) durante 60 segundos con una potencia de 300  mW/cm2 y se registró la luz emitida. AG: Presencia de la persistencia lumínica después de que se irradio la muestra durante 600 segundos. Se analizaron los datos de TL, OSL y AG para determinar la linealidad de la respuesta dosimétrica, la repetibilidad de las mediciones, la estabilidad de la señal luminiscente y la capacidad de detección de dosis mínimas.


CONCLUSIONES

Se obtuvo información sobre las propiedades dosimétricas de la sal del Himalaya después de la exposición a la radiación beta. Los hallazgos muestran que la sal del Himalaya es capaz de detectar dosis por debajo del umbral establecido por la Comisión Internacional de Protección Radiológica (1.66 mSv/mes). También muestran una respuesta dosimétrica lineal en el rango de dosis estudiado, con buena repetibilidad en las mediciones y estabilidad a largo plazo de la señal luminiscente, además, una de las características de un dosímetro es que debe ser de un material económico y de fácil acceso, como es nuestro caso. Esta investigación representa un avance significativo en el desarrollo de la sal del Himalaya como un material dosimétrico viable para aplicaciones de radiación ionizante. También permite realizar experimentos adicionales para comprender mejor sus propiedades, como los defectos en su estructura cristalina.
Rodríguez Palacios Maximiliano, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla

RECONSTRUCCIóN DE LA MASA TRANSVERSA CON LOS DATOS OBTENIDOS POR EL DETECTOR CMS EN COLISIONES PROTóN-PROTóN CON ALTA ENERGíA


RECONSTRUCCIóN DE LA MASA TRANSVERSA CON LOS DATOS OBTENIDOS POR EL DETECTOR CMS EN COLISIONES PROTóN-PROTóN CON ALTA ENERGíA

Rodríguez Palacios Maximiliano, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Se realizó una depuración y análisis de los datos proporcionados por el detector CMS a través de Phyton, de tal manera que se consiguió identificar al bosón W como aquella partícula asociada a los decaimientos producidos en los eventos examinados.



METODOLOGÍA

El archivo csv proporcionado por el CMS presenta un total de 100000 eventos donde en cada uno de ellos se muestran una gran variedad de cantidades entre las que destacan el momento transverso p, la energía transversa perdida E y los distintos parámetros de aislamiento asociados. Para la limpieza de estos datos consideramos aquellas colisiones donde los valores de la pseudorapidez n eran tales que |n|20 GeV y E>25 GeV, además de considerar cada uno de los distintos parámetros de aislamiento menores que 0.2 GeV, incluso el global que se define como la suma de todos los parametros de aislamiento.


CONCLUSIONES

Gracias al análisis de datos realizado y a los resultados obtenidos se puede deducir que el espectro de masa al que pertenecía nuestro archivo de colisiones esta dentro del rango del bosón W, así considerando los resultados conseguidos concluímos que la partícula mediadora observada en los eventos fue un W con un error del 7.67%.
Rodriguez Ramírez Johan Daniel, Instituto Tecnológico Metropolitano
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

MORTEROS ALTERNATIVOS HECHOS DE TIERRA, CENIZA DE ENCINO Y AGUA DE NEJAYOTE PARA LA CONSTRUCCIóN SOSTENIBLE


MORTEROS ALTERNATIVOS HECHOS DE TIERRA, CENIZA DE ENCINO Y AGUA DE NEJAYOTE PARA LA CONSTRUCCIóN SOSTENIBLE

Rodriguez Ramírez Johan Daniel, Instituto Tecnológico Metropolitano. Vargas Otálvaro María Camila, Instituto Tecnológico Metropolitano. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El cambio climático es uno de los mayores problemas en la actualidad. La actividad industrial, especialmente la de la construcción y la producción de materiales convencionales como el cemento o el acero, contribuyen significativamente a las emisiones de gases de efecto invernadero. Ante esta problemática, se genera la necesidad del desarrollo de materiales sostenibles para la construcción que reduzcan las emisiones de CO2 y que aprovechen los recursos locales y de bajo impacto ambiental. Por ende, se propone el desarrollo e investigación de un mortero de revestimiento alternativo que utiliza tierra, agua de nejayote y ceniza de encino, con el objetivo de identificar sus características y cualidades, para brindar una solución que ayude a mitigar las problemáticas relacionadas con el cambio climático.



METODOLOGÍA

La metodología se divide en etapas cruciales las cuales son: diseño de mezcla, desarrollo del mortero, pruebas y análisis de resultados. Primero, se plantea el diseño de mezcla para conocer las cantidades y proporciones a utilizar de cada material, a continuación, para el desarrollo del mortero, se recolecta el agua de nejayote por medio de tiendas locales encargadas de la elaboración de tortillas de forma masiva, esta agua se pasa por una colador para que haya menor presencia de impurezas, en cuanto a la ceniza, arena y tierra; se tamizan y secan para obtener una mezcla adecuada. De ser necesario, el diseño de mezcla se ajusta de acuerdo con la manejabilidad y fluidez que presente.  Se realizan 6 cubos de mortero de 10x10cm; 3 con materiales convencionales (cemento, arena, cal y aguda) y 3 con los materiales alternativos mencionados, los cuales se someten a una prueba de compresión utilizando una máquina universal de compresión axial. Para asegurar que la prueba se haga correctamente, se toma como referencia la norma N-CMT-2-01-004-02, de este modo, se cumple con los estándares de calidad y los criterios establecidos. 


CONCLUSIONES

Comparando las propiedades mecánicas y ambientales de los morteros de revestimiento convencionales y alternativos, se anticipa que los cubos de mortero elaborados con la mezcla alternativa (tierra, agua de nejayote y ceniza de encino) presenten propiedades de resistencia a la compresión comparables a los cubos de mortero convencionales, confirmando la hipótesis planteada en esta investigación. En términos de impacto ambiental, se proyecta el aprovechamiento de subproductos de la industria alimentaria y agrícola, como el agua de nejayote y la ceniza de encino,lo que promovería un enfoque de economía circular, reduciendo la generación de residuos y aprovechando recursos locales. Al realizar las pruebas de compresión conforme a la norma "N-CMT-2-01-004-02", se espera que el mortero alternativo cumpla con los estándares de calidad requeridos, reforzando su aceptación y uso en la industria de la construcción. Esta investigación podría abrir nuevas vías para el desarrollo de materiales de construcción sostenibles, alineados con los objetivos globales de reducción de emisiones de gases de efecto invernadero y promoción de la sostenibilidad. 
Rodríguez Sánchez Stephanie, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

DINáMICA COSMOLóGICA: ECUACIONES DE MOVIMIENTO EN EL MODELO FRW Y BORN-INFELD.


DINáMICA COSMOLóGICA: ECUACIONES DE MOVIMIENTO EN EL MODELO FRW Y BORN-INFELD.

Diaz Hernandez Miguel Angel, Universidad Autónoma de Baja California. González Domínguez Annalucia, Universidad Autónoma de Chiapas. López Díaz Brandon Miguel, Universidad Autónoma de Chiapas. Rodríguez Sánchez Stephanie, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La cosmología moderna se fundamenta en el modelo de Friedmann-Lemaître-Robertson-Walker (FRW), el cual describe un universo homogéneo e isotrópico. Este modelo es esencial para derivar las ecuaciones de movimiento que rigen la dinámica del universo y ofrece una comprensión detallada de su evolución, desde el Big Bang hasta la expansión acelerada que observamos en la actualidad. Sin embargo, a pesar de su éxito en la descripción general del universo, el modelo FRW tiene limitaciones cuando se enfrenta a fenómenos extremos o a nuevas teorías en física. En este contexto, el campo escalar de Born-Infeld emerge como una extensión significativa de las teorías de campo escalar tradicionales. Originado en el marco de la teoría de cuerdas y otras áreas de la física teórica, el formalismo de Born-Infeld fue inicialmente introducido para regular singularidades en la electrodinámica no lineal. No obstante, sus aplicaciones se han expandido, incluyendo interesantes implicaciones cosmológicas. El interés en el escalar de Born-Infeld radica en su capacidad para evitar singularidades y generar comportamientos dinámicos únicos que no se encuentran en las teorías de campo escalar convencionales. En particular, este escalar ofrece nuevos mecanismos inflacionarios que podrían superar las limitaciones de los modelos tradicionales de inflación. Así, la inclusión del escalar de Born-Infeld en el modelo FRW proporciona una oportunidad valiosa para abordar problemas no resueltos en la cosmología estándar y realizar predicciones observacionales que podrían ser verificadas con futuros datos cosmológicos.



METODOLOGÍA

En primer lugar, dedujimos los símbolos de Christoffel para un espacio-tiempo descrito por la métrica de Friedmann-Lemaître-Robertson-Walker (FRW). Posteriormente, procedimos a obtener el tensor de Ricci R_{mu nu} contrayendo las derivadas de los símbolos de Christoffel. A continuación, calculamos el escalar de curvatura R contrayendo el tensor de Ricci. Con estos elementos, procedimos al cálculo de la acción agregando la acción del modelo FRW. Donde S_{phi} es la acción del campo escalar. El siguiente paso fue obtener el lagrangiano a partir de la densidad lagrangiana integrando la acción. Para campos escalares, el lagrangiano se expresa como: L=-frac{3adot{a}}{c^{2}N}+3kaN+kappa^{2}a^{3}(frac{1}{2c^{2}N}dot{phi}^{2}-NV(phi)) donde V(ϕ)V(phi)V(ϕ) es el potencial del campo escalar. Luego, procedimos a obtener el hamiltoniano a partir de la densidad lagrangiana. Las ecuaciones de movimiento para el campo escalar se derivaron del principio de acción. La solución de estas ecuaciones nos permitió entender cómo el campo escalar influye en la expansión del universo. Para encontrar parámetros que generen inflación, buscamos un potencial V(ϕ)V(phi)V(ϕ) y condiciones iniciales para ϕphiϕ y ϕ˙dot{phi}ϕ˙​ que satisficieran el criterio de inflación, donde la segunda derivada del factor de escala a(t)a(t)a(t) fuera positiva (a¨>0ddot{a} > 0a¨>0). Esto implica que el universo se está expandiendo aceleradamente. A continuación, repetimos el proceso, pero ahora con el campo escalar de Born-Infeld. El lagrangiano de Born-Infeld, que introduce una no linealidad, se expresa como: S_phi=-intsqrt{-g}alpha_T^2V(phi)sqrt{1+alpha_T^{-2}g^{mu u}partial_mupartial_ uphi}d^4x. Así obtuvimos la acción total agregando el campo escalar. Una vez obtenido esto , procedimos de igual manera a obtener el lagrangiano Born-Infeld, el cual esta dado como: L=-frac{3adot{a}^2}{c^2N}+3kaN-kappa^2alpha_T^2Na^3V(phi)sqrt{1-alpha_T^{-2}c^{-2}N^{-2}dot{phi}^2}. El hamiltoniano para el escalar de Born-Infeld se obtuvo de manera similar al caso del campo escalar homogéneo, teniendo en cuenta la no linealidad. Las ecuaciones de movimiento para el escalar de Born-Infeld derivadas de la acción modificada, se resolvieron numéricamente para obtener la evolución dinámica del campo y del universo.Finalmente, buscamos parámetros que, al ser aplicados al escalar de Born-Infeld, pudieran generar un período de inflación cósmica, ajustando las condiciones iniciales adecuadamente. Una vez obtenidas y resueltas las ecuaciones de movimiento para ambos campos escalares, realizamos un análisis comparativo para identificar las diferencias en la dinámica resultante. Esto incluyó cómo cada campo afectó la expansión del universo y los parámetros necesarios para generar inflación. Además, a partir de los resultados obtenidos anteriormente, pudimos realizar aproximaciones en los Hamiltonianos. Esto nos permitió derivar las ecuaciones de Wheeler-DeWitt. Por último, observamos  las diferencias entre los dos sistemas calculados, comparando la eficiencia de cada campo en generar inflación, la estabilidad de las soluciones y las predicciones observacionales resultantes. Este análisis proporcionó una comprensión más profunda de las implicaciones teóricas y prácticas de incluir el escalar de Born-Infeld en el modelo FRW.


CONCLUSIONES

Este trabajo abordó de manera exhaustiva la inclusión del escalar de Born-Infeld en el modelo FRW y sus implicaciones para la dinámica del universo y la generación de inflación. A través de un análisis detallado y comparativo, logramos obtener una comprensión más profunda de los mecanismos que gobiernan la evolución cosmológica. Esta investigación no solo clarificó las diferencias entre ambos enfoques, sino que también destacó las posibles aplicaciones observacionales del escalar de Born-Infeld, abriendo nuevas perspectivas en el estudio de la inflación y la expansión del universo.
Rodriguez Santos Krystian, Benemérita Universidad Autónoma de Puebla
Asesor: Mtra. Sol María Hernández Hernández, Benemérita Universidad Autónoma de Puebla

ENSEñANZA DE LA FíSICA EN LA DUALIDAD DE LA LUZ Y EL ESPECTRO ELECTROMAGNéTICA.


ENSEñANZA DE LA FíSICA EN LA DUALIDAD DE LA LUZ Y EL ESPECTRO ELECTROMAGNéTICA.

Rodriguez Santos Krystian, Benemérita Universidad Autónoma de Puebla. Asesor: Mtra. Sol María Hernández Hernández, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La educación, que es la primera línea de aprendizaje, últimamente ha tenido altibajos por la constante evolución tecnológica, principalmente la ciencia suele ser una de las asignaturas más difíciles de enseñar, por la falta de interés por parte del alumnado.  La necesidad de articular los contenidos de la Física con los intereses prácticos de los alumnos y la búsqueda de lograr la enseñanza comprometida con las transformaciones técnico-científicas actuales, ha sido el centro de las atenciones y preocupaciones de las investigaciones en didáctica de la enseñanza de la Física.  Los desafíos de la práctica pedagógica son cada vez mayores y más complejos en la sociedad contemporánea Según Vygotsky, una enseñanza orientada hasta una etapa de desarrollo ya logrado, es ineficaz del punto de vista del desarrollo general del estudiante; no es capaz de dirigir el proceso de desarrollo, va detrás de él. La teoría de la zona de desarrollo próximo origina una fórmula que contradice exactamente la orientación tradicional: la única enseñanza buena es la que avanza para el desarrollo. Las ciencias naturales, en particular la Física, se basan en un proceso del pensamiento hipotético-deductivo, caracterizándose por una metodología científica, que parte de una hipótesis teórica, para desarrollarse en dirección a sus consecuencias lógicas. Estas sufrirán una comprobación experimental bajo la forma de confirmación específica o aplicación práctica de una teoría. Un método de enseñanza que despierte la curiosidad en los estudiantes y ayude a un mejor entendimiento de la física, es el mayor reto de los docentes, por lo que durante el verano de investigación, se diseñó un modelo de enseñanza, donde el estudiante utilice recursos digitales, audiovisuales y experimentales que complemente su aprendizaje.



METODOLOGÍA

El modelo se compone de tres secciones, video, lectura y experimento. Además de incorporar cuestionarios que constan de preguntas de información específica, razonamiento y reflexivas, las cuales reforzarán los conocimientos y ayudarán a analizar la comprensión sobre el tema.  El tema de interés que se eligió fué La dualidad de la luz y el espectro electromagnético, que va de acuerdo con el temario perteneciente al plan 07 de las Preparatorias de la Benemérita Universidad Autónoma de Puebla en la sección de Óptica.  El video tiene una duración menor a diez minutos, con la intención que la información se expusiera de una manera concreta e introductoria, considerando aspectos técnicos y relacionándolo con un fenómeno natural en el cual se evidencie la naturaleza de la luz, los cuales ayudarán al estudiante a comprender de manera rápida y menos molesta las idea principales. Se usaron técnicas de divulgación, que son familiares a las que ven en las aplicaciones que usan diariamente.   La lectura contiene información más específica que la del video, pero sin ser tan pesada para el estudiante. Se complementa con imágenes que ayuden a una mejor comprensión del tema. Así como ejemplos relacionados con otros fenómenos naturales que se observan en la vida cotidiana. En los experimentos, se complementa la teoría previamente vista, en el cual se evidencia la naturaleza de la luz con la creación de un arcoiris, y la medición de la velocidad de la luz con implementos del hogar, lo que da a conocer al estudiante que la ciencia no sólo son fórmulas matemáticas, sino que la experimentan todos los días.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos acerca de la planeación de material de enseñanza, las cuales tienen que ser amigables para el estudiante.  Se espera que este modelo pueda ayudar a los docentes a tener un panorama diferente sobre la enseñanza de la física y ayude a los estudiantes a entender mejor la ciencia. Además de que el asesor pondrá en práctica el modelo en una situación real para que en posteriores veranos, se pueda mejorar en beneficio de la educación.  
Rodriguez Velazco Saida Dominga, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. Jorge Alejandro Ávila Olivera, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS DEL ESCURRIMIENTO NATURAL DE LA CUENCA DEL RíO DUERO EN EL ESTADO DE MICHOACáN DE OCAMPO


ANáLISIS DEL ESCURRIMIENTO NATURAL DE LA CUENCA DEL RíO DUERO EN EL ESTADO DE MICHOACáN DE OCAMPO

Rodriguez Velazco Saida Dominga, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dr. Jorge Alejandro Ávila Olivera, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La cuenca del Río Duero se encuentra al noroeste del Estado de Michoacán. Sus aguas son aprovechadas principalmente para actividades agrícolas y de consumo humano, por lo que se considera importante para las localidades de dicha región. Actualmente existe una carencia de datos de escurrimiento en la cuenca del Río Duero, dado que no se tienen suficientes estaciones hidrométricas distribuidas a lo largo de la extensión de la cuenca, lo que representa un problema ya que es necesario conocer la disponibilidad de agua para las actividades agrícolas que se llevan a cabo principalmente en el valle de Zamora, que se ubica en la parte baja de la cuenca. Un método que permite estimar el escurrimiento natural que se presenta en la cuenca es por medio de la relación lluvia-escurrimiento, es decir, a partir de los datos de precipitación es posible conocer con se comporta el escurrimiento natural en una cuenca determinada. Por lo anterior, en este trabajo de investigación se analizó el comportamiento de la precipitación en la cuenca del Río Duero, para posteriormente estudiar el escurrimiento natural en la cuenca.



METODOLOGÍA

Se recopilaron datos climáticos tanto en la Secretaría del Medio Ambiente y Recursos Naturales (SEMARNAT) como en la Comisión Nacional del Agua (CONAGUA) de las estaciones meteorológicas ubicadas en la cuenca del Río Duero, en el Estado de Michoacán de Ocampo. Se descargaron del Servicio Meteorológico Nacional (SMN) dependiente de la CONAGUA, las series de datos históricos de precipitación mensual y temperatura media mensual, de las estaciones meteorológicas ubicadas tanto en la cuenca del Río Duero, como en sus alrededores. Se acomodaron series de datos históricos que se descargaron, tanto de precipitación mensual, como de temperatura media mensual, en un par de archivos de Excel para su análisis y procesamiento posterior. Se revisaron los conceptos de homogeneidad de una serie de datos, y posteriormente se realizaron las pruebas estadísticas de homogeneidad no paramétricas, tales como la prueba de Helmert y la prueba de las Secuencias, a las series de datos de precipitación anual de las estaciones meteorológicas ubicadas tanto en la cuenca del Río Duero como en sus alrededores. También se realizaron pruebas estadísticas de homogeneidad paramétricas, tales como la prueba de la t de Student y la prueba de Cramer, a las series de datos de precipitación anual de las estaciones meteorológicas ubicadas tanto en la cuenca del Río Duero, como en sus alrededores. Se calcularon los datos de precipitación con ayuda de los diferentes métodos para calcular la precipitación media anual de la cuenca del Río Duero, tales como el método Aritmético, el método de los Polígonos de Thiessen, el método de las Isoyetas.  


CONCLUSIONES

Durante la estancia del verano se adquirieron conocimientos teóricos y prácticos acerca de la búsqueda de datos climatológicos, así como los diferentes métodos para calcular la precipitación media anual en una cuenca, tales como el método Aritmético, el método de los Polígonos de Thiessen, el método de las Isoyetas. A continuación, se indican los resultados obtenidos con cada método para la cuenca del Río Duero.   Precipitación media anual  Promedio aritmético: 730.8201977 mm Polígonos de Thiessen: 684.3227577 mm Curvas Isoyetas: 757.0708426 mm
Rodriguez Villarreal Victoria, Universidad de Sonora
Asesor: Dr. Josué Ramírez Ortega, Universidad Veracruzana

TEORíA DE OPERADORES EN ESPACIO DE FUNCIONES


TEORíA DE OPERADORES EN ESPACIO DE FUNCIONES

de la Cruz Martínez Nereyda Wiwiema, Universidad Autónoma de Nayarit. Landeros Quiroz Jazmin Cristal, Universidad de Sonora. Rodriguez Villarreal Victoria, Universidad de Sonora. Asesor: Dr. Josué Ramírez Ortega, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

El propósito de esta investigación es comprender de manera más clara y precisa el análisis funcional partiendo como base del álgebra lineal, haciendo uso de conceptos y resultados simples de espacios con dimensión finita o numerable para poder observar su comportamiento en espacios de dimensión infinita para establecer de qué manera se desarrolla el análisis funcional en las matemáticas. El análisis funcional, también conocido como cálculo funcional, tiene como principal objetivo el estudio de funciones cuyas variables independientes también son funciones, que son más conocidos como funcionales. Es importante tener en cuenta que se requieren ciertos conocimientos previos como la teoría de funciones de una o varias variables, incluyendo series y sucesiones, diferenciación total y parcial, integración de Riemann, así como tener desarrollado el Álgebra Lineal y cierta parte del Análisis de Fourier.  Se espera que al terminar el proceso de investigación se tengan las bases de esta área de las matemáticas establecidas de manera clara.



METODOLOGÍA

La metodología empleada durante el proceso de investigación fueron sesiones de dos horas con el investigador donde se nos brindó un apoyo para ir comenzando a sentar bases en lo que respecta a el Análisis Funcional, es decir, nos introducía conceptos con ejemplos básicos para después llevarlo a un nivel más elevado con ejemplos no tan intuitivos.  El asesor dio inicio proporcionando los temas de álgebra lineal relacionados con bases, transformaciones lineales y su representación matricial, esto con el fin de recordar los temas ya vistos en cursos anteriores y de esta manera facilitar su relación con el análisis funcional. Una vez dada esa introducción se comenzó a trabajar con las propiedades del producto interno, así como la forma de la construcción de bases ortonormales. En este punto se estudió el proceso de ortogonalización de Gram-Schmidt y la alternativa en espacios de Hilbert de dimensión infinita para construir bases. Más adelante nos adentramos al teorema de representación de Riesz, la involución y sus propiedades, de la misma forma conocimos la estructura algebraica y topológica de los operadores acotados en un espacio de Hilbert, se analizó el concepto de un operador acotado y se realizaron algunos ejemplos. Se estudiaron detalladamente los operadores unitarios, evidenciando su importancia respecto a la modificación de sistemas de referencia o de bases ortonormales en los espacios de Hilbert. Teniendo ya estos conocimientos previos realizamos algunos ejemplos de espacios de Hilbert y operadores acotados, también pudimos conocer la línea de investigación sobre el estudio de los espacios de funciones holomorfas y de los operadores de Toeplitz. Estudiamos los fundamentos del análisis funcional los cuales están relacionados con los teoremas espectrales, investigamos sobre dicho teorema espectral para operadores compactos auto-adjuntos. Hicimos énfasis en los operadores integrales de tipo Volterra y de Fredholm. Para finalizar, realizamos un estudio sobre los problemas de Sturm-Liouville, analizamos la equivalencia con el problema de la solución de una ecuación integral y aplicamos el teorema espectral para resolver el problema de Sturm-Liouville


CONCLUSIONES

Durante la estancia, se exploraron diversos conceptos avanzados en matemáticas y teoría de matrices, entre los que destacan: Espectro de una Transformación: Este concepto se refiere al conjunto de raíces del polinomio característico de la matriz que representa dicha transformación.  Teoremas Espectrales: Estos teoremas son fundamentales para descomponer matrices en formas más simples y estudiar sus propiedades algebraicas y geométricas. Grupo O(n): Este grupo representa el conjunto de todas las matrices ortogonales B en el espacio Rn que satisfacen la relación B-1=Bt. Las matrices en este grupo preservan la norma y los ángulos. Definición de Grupos de Lie: Los Grupos de Lie son estructuras algebraicas que combinan las propiedades de los grupos y las variedades diferenciables.  Resolución de Sistemas de Ecuaciones Lineales: Se abordó el proceso para encontrar soluciones de sistemas de ecuaciones lineales de la forma AX=Y, donde A es una matriz dada, X es el vector de incógnitas, y Y es el vector de términos constantes.  Proceso de Ortogonalización de Gram-Schmidt: Se estudió este método para construir bases ortonormales en espacios vectoriales, particularmente en aquellos con bases numerables. Este proceso transforma una base arbitraria en una base ortonormal. Complemento Ortogonal: Se exploró el concepto de complemento ortogonal de un subespacio en un espacio vectorial, que incluye todos los vectores ortogonales al subespacio dado.  Conjuntos Parcialmente Ordenados: Se revisaron los conjuntos parcialmente ordenados, en los que no todos los elementos están necesariamente comparados entre sí, pero existe una relación de orden que permite comparar algunos pares de elementos.  Lema de Zorn: Este lema es un principio fundamental en teoría de conjuntos que se utiliza para demostrar la existencia de ciertos tipos de elementos en estructuras algebraicas y ordenadas.  Espacios de Bergman: Se estudiaron los espacios de Bergman, que son subespacios de funciones analíticas en un dominio ( U ) que además son cuadrado integrables.  Teorema de Representación de Riesz: Este teorema establece una correspondencia entre los funcionales lineales continuos sobre un espacio de Hilbert y los vectores de ese espacio.  Operadores Acotados: Se analizó la teoría de operadores acotados y las operaciones entre ellos, incluyendo la adición y la composición. Los operadores acotados son fundamentales en el análisis funcional y en la teoría de espacios de Banach. Involución: Se estudió el concepto de involución, que en el contexto de álgebra lineal y teoría de operadores se refiere a una operación que, al aplicarse dos veces, devuelve el elemento original.
Rojas Bautista Estefania, Universidad Veracruzana
Asesor: Mtro. Horacio Alejandro Ulloa López, Universidad Nacional Autónoma de Nicaragua, Managua

ANáLISIS MULTITEMPORAL DEL CAMBIO DEL USO Y COBERTURA DEL SUELO A TRAVéS DE CLASIFICACIóN SUPERVISADA USANDO IMáGENES DE SATéLITE PLANET SCOPE EN EL TERRITORIO DEL RíO COCO GEOPARQUE MUNDIAL DE LA UNESCO EN LOS úLTIMOS 8 AñOS.


ANáLISIS MULTITEMPORAL DEL CAMBIO DEL USO Y COBERTURA DEL SUELO A TRAVéS DE CLASIFICACIóN SUPERVISADA USANDO IMáGENES DE SATéLITE PLANET SCOPE EN EL TERRITORIO DEL RíO COCO GEOPARQUE MUNDIAL DE LA UNESCO EN LOS úLTIMOS 8 AñOS.

Rojas Bautista Estefania, Universidad Veracruzana. Asesor: Mtro. Horacio Alejandro Ulloa López, Universidad Nacional Autónoma de Nicaragua, Managua



PLANTEAMIENTO DEL PROBLEMA

Para Nicaragua es de importancia conservar la nominación del Río Coco Geoparque Mundial de la UNESCO otorgada en 2020.  Lograrlo es un proceso continuo de gestión y mejora, mismo que es evaluado cada cuatro años por UNESCO.  Entre los resultados de la última evaluación se resaltó la necesidad de llevar a cabo investigación científica que actualice el conocimiento que aporte al fortalecimiento del territorio en la conservación del patrimonio geológico, cultural y natural.  Tomando en cuenta que en este se llevan cabo diferentes actividades relacionadas a los propios habitantes como lo son agrícolas, turísticas y de infraestructura. Estas actividades traen consigo una problemática debido a la expansión de la frontera agrícola y de las áreas de pastoreo. Sumando a esto las complicaciones generadas por el impacto del cambio climático en la zona, con los periodos de escasez de agua.  Es por ello que toma relevancia analizar los cambios ocurridos en el territorio, como el uso y la cobertura de suelo. Actualmente, no existe una capa que muestre y georreferencie los usos del suelo y su cobertura vegetal a nivel del todo el territorio Geoparque Río coco. Esto presenta una problemática porque no se cuenta con capas de información disponibles que sirvan de base para proyectos futuros que se relacionen con los usos de suelo como es el caso de estrategias de conservación paisajística, administración hídrica, análisis espaciales socioeconómicos y ambientales, gestión de riesgos de desastres y resiliencia comunitaria.



METODOLOGÍA

Para llevar a cabo esta investigación se trazó una ruta de trabajo que contempló diferentes etapas:  La primera fue la revisión bibliográfica sobre el análisis de los cambios de usos de suelo, los métodos de clasificación y de las fuentes de información disponibles para la zona de interés.  Con base en esta etapa se logró definir que hacer y datos utilizar.  Se procedió a utilizar el método de clasificación supervisada a partir de imágenes de satélite PlanetScope de alta resolución disponibles gratuitamente temporalmente para la zona de los trópicos y procesarlas en el software ArcGIS PRO. En la siguiente etapa se descargaron y recopilaron imágenes satelitales de alta resolución (4.7m) obtenidas del servidor PlanetScope, por cada año de acuerdo con el análisis realizado se utilizaron doce imágenes estandarizadas para cubrir el territorio del Geoparque Río Coco para poder realizar las clasificaciones del uso del suelo. El procesamiento de percepción remota de las imágenes se realizó a través del programa ArcGIS Pro, en primer lugar, en hacer la unión de las doce imágenes que conforman el territorio del Geoparque Río Coco de acuerdo con los años de análisis (2016, 2020, 2024). Con la unión de las imágenes se inició con el proceso de teledetección. Se realizaron polígonos sobre la imagen para la detección de los pixeles. Completado los polígonos se realizó el proceso a través de las herramientas de geoprocesos de ArcGIS Pro, se diseñó el mapa del año 2024 para tener el resultado preliminar al trabajo de campo. Este paso fue clave para conocer el área de estudio y generar un mapa preliminar al trabajo de campo, ver Figura 1. Esto ayuda a que se puedan identificar los rasgos espectrales de las imágenes, así facilitar el procesamiento final de las capas y obtener resultados precisos del uso y cobertura del suelo. Se llevó a cabo una campaña de campo con el fin de recolectar firmas espectrales in Situ, a través el levantamiento de coberturas y uso de los suelos.  Para esta tarea se diseñó una herramienta móvil a través de la aplicación ArcGIS Survey 123. Con esta se capturaba no solo las coordenadas y la clase, si no también fotografías que permiten documentar el tipo de uso y cobertura actual. Nota: Mapa elaborado a partir del procesamiento de las imágenes PlanetScope y la Base Cartográfica (INETER, 1989). Se recolectaron alrededor de 543 puntos en el territorio de geoparque, esto con el propósito de comprobar las texturas de cobertura que se observan en las imágenes satelitales (pastizales, agricultura, asentamientos humanos, zona boscosa, etc.). Los puntos recolectados fueron procesados, se corrigieron los errores de la primera clasificación, la precisión en el uso de suelo es vital para la ejecución de futuros proyectos en el geoparque. Con el trabajo de campo realizado se validó la clasificación preliminar.  La clasificación resultante, es coherente con el tipo de vegetación que se encuentra en el territorio del geoparque. La nueva clasificación del año 2024 se realizó en ArcGIS Pro a través de la digitalización de polígonos que representaran los valores de cada píxel de acuerdo con su clase.  Los puntos recolectados en campo brindan la certeza de que uso o cobertura el suelo es la correcta.


CONCLUSIONES

Durante la estancia de verano se logró consolidar a través de la parte práctica de la investigación, la aplicación de los Sistemas de Información Geográfica para el análisis espacial de un territorio y de las variables que en el interactúan través de la apropiación de nuevas metodologías y tecnología que dan soluciones a las problemáticas presentes en el área de estudio.  Como resultado hasta este momento se muestra el mapa de uso de suelo actual, este mapa detalla de manera muy precisa la ocupación actual del suelo (2024). Se espera el análisis de las tasas de cambio con las clasificaciones de los años anteriores. Mapa final del Uso y cobertura del suelo del territorio del Río Coco Geoparque mundial de la UNESCO 2024. https://drive.google.com/file/d/16jllmgc07094Z6STZBEjy78hAUixparb/view?usp=sharing   
Rojo Ramírez Erick Gabriel, Universidad Autónoma de Coahuila
Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla

ESTUDIO DE LAS MASAS Y DE LOS DECAIMIENTOS DEL BOSóN DE HIGGS EN EL 2HDM


ESTUDIO DE LAS MASAS Y DE LOS DECAIMIENTOS DEL BOSóN DE HIGGS EN EL 2HDM

Rojo Ramírez Erick Gabriel, Universidad Autónoma de Coahuila. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El Modelo Estándar (SM) es una teoría de la Física de Altas Energías, que explica las partículas fundamentales que constituyen la materia y de sus interacciones. Es una teoría de norma cuántica relativista que combina las interacciones fuerte, débil y electromagnética en el grupo de simetría de norma SU(3)C×SU(2)L×U(1)Y. En el SM las partículas adquieren masa a través del rompimiento espontáneo de simetría, SU(3)C×SU(2)L×U(1)Y → SU(3)C×U(1)em. 



METODOLOGÍA

Este mecanismo de ruptura se basa en un doblete de Higgs SU(2), en las propiedades quirales de los elementos del grupo SU(2)L y en los acoplamientos de Yukawa al valor de expectación del vacío del campo de Higgs. Por tanto, al introducir un nuevo doblete de Higgs (Modelo de Dos Dobletes de Higgs, 2HDM) las partículas fundamentales tendrán nuevas formas de acoplamientos con los campos de Higgs, dando lugar al 2HDM tipos I, II, III, entre otros; además, el espectro de bosones de Higgs es más amplio.


CONCLUSIONES

En este trabajo analizamos el mecanismo para proveer de masa a las partículas fundamentales, así como describir las propiedades de los nuevos bosones de Higgs que surgen al introducir un nuevo doblete de Higgs al Modelo Estándar.
Romero Alfaro Karen, Instituto Politécnico Nacional
Asesor: Mg. Andy Rafael Dominguez Monterroza, Universidad Tecnológica De Bolívar

APLICACIóN DE MACHINE LEARNING A DATOS DE SEñALES ELECTROENCEFALOGRáFICAS (EEG) PARA EVALUAR LA PREDISPOSICIóN AL ALCOHOLISMO


APLICACIóN DE MACHINE LEARNING A DATOS DE SEñALES ELECTROENCEFALOGRáFICAS (EEG) PARA EVALUAR LA PREDISPOSICIóN AL ALCOHOLISMO

Romero Alfaro Karen, Instituto Politécnico Nacional. Asesor: Mg. Andy Rafael Dominguez Monterroza, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

El alcoholismo es una condición compleja influenciada por una combinación de factores genéticos, ambientales y sociales. Comprender la predisposición al alcoholismo es crucial para desarrollar estrategias de prevención y tratamiento más efectivas. La electroencefalografía (EEG) ofrece una visión única de la actividad cerebral y puede proporcionar valiosa información sobre los correlatos neuronales asociados con esta predisposición. Sin embargo, el análisis de datos EEG es desafiante debido a la gran cantidad de datos generados y la necesidad de técnicas avanzadas para extraer patrones significativos. Este proyecto busca abordar estos desafíos utilizando técnicas de ciencia de datos para analizar aproximadamente 7 millones de registros EEG, con el objetivo de identificar patrones específicos que puedan predecir la predisposición al alcoholismo.



METODOLOGÍA

Recolección de Datos: Datos EEG: Se recopilan registros EEG de sujetos divididos en dos grupos: aquellos con antecedentes de alcoholismo (indicando una predisposición) y un grupo de control sin dichos antecedentes. Datos adicionales: Se recomienda registrar datos sobre los antecedentes familiares, junto con cualquier información genética disponible que pueda ayudar a contextualizar los resultados EEG. Preprocesamiento de Datos: Limpieza de Datos: Se eliminan artefactos y ruido de los datos EEG mediante técnicas de filtrado de señales. Segmentación: Los datos EEG se dividen en segmentos de interés para facilitar el análisis. Método 1: Técnica de Ciencia de Datos con Clasificador KNN. Extracción de Características: Características Temporales: Se extraen características significativas de la señal, tales como el promedio, la desviación estándar, el mínimo y el máximo de las señales EEG. Características Frecuenciales: Se realiza un análisis de Fourier para obtener la magnitud de la FFT (Transformada Rápida de Fourier) y la entropía espectral. Además, se incluyen características relacionadas con la potencia en diferentes bandas de frecuencia: delta, theta, alpha, beta y gamma. Características No Lineales: Se analizan medidas no lineales y complejas de la señal, como la kurtosis, la asimetría, la energía wavelet, la entropía de permutación, la dimensión fractal, el exponente de Hurst y el exponente de Lyapunov. Reducción de Dimensionalidad: PCA (Análisis de Componentes Principales): Se aplica PCA para reducir la dimensionalidad de los datos, reteniendo el 95% de la información. Modelado y Clasificación: KNN (K-Nearest Neighbors): Se utiliza el algoritmo KNN para clasificar los individuos en grupos de alto y bajo riesgo de desarrollar alcoholismo basándose en las características extraídas. Interpretación de Resultados: Los resultados obtenidos con el clasificador KNN mostraron una precisión moderada en la tarea de clasificación de individuos alcohólicos y no alcohólicos. La precisión promedio fue de aproximadamente 0.57. Este nivel de precisión sugiere que, aunque el clasificador KNN puede diferenciar entre los dos grupos hasta cierto punto, la variabilidad y complejidad de los datos EEG limitan su capacidad para hacer predicciones más precisas. Por esta razón, se decidió probar otro método de validación utilizando redes neuronales convolucionales para ver si se podían obtener mejores resultados. Método 2: Redes Convolucionales. Preparación de Datos: Transformación de Imágenes: Los datos EEG se transforman en imágenes utilizando técnicas como redimensionado, recorte y eliminación de offset de la señal. Arquitectura de la Red: Modelo AlexNet Preentrenado: Se utiliza la arquitectura AlexNet preentrenada. La última capa de la red se ajusta para clasificar en dos clases (alcohólicos y no alcohólicos). Entrenamiento del Modelo: Se entrena la red durante 25 épocas con un conjunto de datos balanceado y se valida en un conjunto de datos separado. Se utiliza descenso de gradiente estocástico para la optimización. Interpretación de Resultados: A lo largo de las 25 épocas de entrenamiento, la red convolucional mostró una mejora constante en la precisión tanto en el conjunto de entrenamiento como en el de validación. Al principio, la precisión del modelo era moderada, pero a medida que avanzaba el entrenamiento, la red mejoró su capacidad para diferenciar entre individuos alcohólicos y no alcohólicos. Esta mejora se refleja en un incremento gradual de los porcentajes de precisión, lo cual indica que la red estaba aprendiendo efectivamente a partir de los datos presentados. Al final del proceso de entrenamiento, la red alcanzó una precisión de alrededor del 72% en el conjunto de entrenamiento y aproximadamente del 65% en el conjunto de validación, demostrando su potencial para clasificar a los individuos basándose en los datos EEG transformados en imágenes.


CONCLUSIONES

Este proyecto ha demostrado que es posible utilizar datos EEG y técnicas avanzadas de ciencia de datos para evaluar la predisposición al alcoholismo. Los modelos predictivos desarrollados, incluyendo técnicas de aprendizaje automático como KNN y redes neuronales convolucionales, han mostrado ser efectivos en la clasificación de individuos con alta y baja predisposición, proporcionando una herramienta potencialmente valiosa para la detección temprana y la intervención preventiva. En futuras investigaciones, se recomienda mejorar la calidad de los datos EEG y considerar la inclusión de datos genéticos y ambientales para mejorar la precisión y la aplicabilidad de los modelos. Los métodos de clasificación utilizados se encuentran bien empleados, pero la limitación de los datos de entrada implica que los resultados obtenidos son los mejores posibles con los datos disponibles. Asimismo, este enfoque puede ser utilizado en otros tipos de estudios, u otros tipos de predisposiciones o patologías, permitiendo la detección temprana y el desarrollo de tratamientos personalizados en diversas áreas de la salud.
Romero Cabrera Juan José, Instituto Politécnico Nacional
Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla

ESTIMACIóN DE DOSIS INHALADA DE PARTíCULAS FINAS (PM2.5 Y PM10) POR PEATONES EN CALLES DEL CENTRO HISTóRICO DE LA CIUDAD DE PUEBLA.


ESTIMACIóN DE DOSIS INHALADA DE PARTíCULAS FINAS (PM2.5 Y PM10) POR PEATONES EN CALLES DEL CENTRO HISTóRICO DE LA CIUDAD DE PUEBLA.

Romero Cabrera Juan José, Instituto Politécnico Nacional. Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En este estudio, se midió la exposición a partículas PM2.5 y PM10 en el centro de Puebla durante dos días, utilizando un sensor de bajo costo SDS011 y un GPS programado con Arduino. 



METODOLOGÍA

Se realizaron recorridos de aproximadamente 40 minutos cada 2 horas, iniciando a las 8:00 am y terminando a las 18:00h (GMT-5) en una ruta entre calles del Zócalo de la Ciudad de Puebla. Los sensores se colocaron a la altura de 1.60m que es la estatura promedio de un adulto. Las concentraciones de PM se registraron en intervalos de 1 minuto y se multiplican por la tasa de ventilación y el tiempo de recorrido para estimar la dosis inhalada. 


CONCLUSIONES

El horario de las 18h presento los valores más altos de concentración de PM, con 15.78 µgm-3 y 10.47 µgm-3 de PM10 y PM2.5 respectivamente. La dosis estimada de PM10 fue de 9.16µg de PM10 y 6.09µg de PM2.5 en 40 minutos. Al contrario, a las 12hrs, es el horario más recomendable para transitar como peatón ya que tiene un promedio de concentración de 5.42 µgm-3 de PM10 y 3.07 µgm-3 de PM2.5, y en un tiempo de 40 minutos la dosis de inhalación es de 3.16µg de PM10 y 1.78µg de PM2.5. Los resultados suguieren que las 12:00 es el horario recomendable para realizar recorridos a pie en el Centro Histórico de Puebla.
Romero López Miguel Ángel, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla

ANáLISIS DEL PARáMETRO Q˜2 EN LA PRODUCCIóN DEL BOSóN Z EN LA DISPERSIóN MUY INELáSTICA ELECTRóN-PROTóN


ANáLISIS DEL PARáMETRO Q˜2 EN LA PRODUCCIóN DEL BOSóN Z EN LA DISPERSIóN MUY INELáSTICA ELECTRóN-PROTóN

Romero López Miguel Ángel, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La necesidad de estudiar el proceso de producción del bosón Z en la dispersión muy inelástica electrón-protón (ep) surge como consecuencia de las mejoras logradas en los colisionadores de hadrones. Por un lado, con mayor energía es posible indagar con una mayor profundidad dentro del protón y, por otro lado, la mejora en la luminosidad nos permite observar una mayor cantidad de bosones Z producidos.



METODOLOGÍA

La interacción ep a través de la reacción e+p→e+X ha sido ampliamente estudiada en el contexto del Modelo Estándar, de hecho, es posible conocer con certeza los valores de los parámetros cinemáticos involucrados, tales como la energía total de la colisión, la energía cedida, el momento transferido, etc. Sin embargo, al producirse un bosón Z a través del proceso e+p→e+Z+X, el análisis perturbativo exhibe una ambigüedad al escoger el parámetro de la escala de energía a la que se lleva a cabo la interacción, a saber, la transferencia de momento denotado como Q˜2. En este caso, no existe una manera única para escoger Q˜2 dado que el momento transferido depende del mecanismo de reacción, es decir, si el bosón Z se produce en el estado inicial o final de las líneas leptónica y hadrónica. Este tipo de producción siempre ha estado presente pero no había sido necesario hacer una identificación precisa de Q˜2  ya que las energías y luminosidades alcanzadas por aceleradores de hadrones tales como el HERA (∼318 GeV) no eran suficientes para mostrar una cantidad significativa de eventos donde se produjera el bosón Z, por lo que su aparición, no afectaba de manera importante al cálculo de la sección eficaz total del proceso.


CONCLUSIONES

Este trabajo busca exponer la fuerte dependencia de la sección eficaz con el parámetro Q˜2  en el proceso e+p→e+Z+X a muy altas energías, con el fin de hacer notar la necesidad de proponer una prescripción universal para su elección. Además, a través de fundamentos cinemáticos, proponemos diferentes prescripciones para la elección de Q˜2. El objetivo es conocer cada detalle del Modelo Estándar y, de esa manera, asegurar si un resultado obtenido se encuentra en sus dominios o es una señal de nueva física.
Romero López Víctor Tonatiúh, Instituto Politécnico Nacional
Asesor: Dr. Hector Cardona Reyes, Centro de Investigación en Matemáticas (CONACYT)

RESUMEN DE MI TRABAJO CON LA APLICACIóN VR GEOMETRíA


RESUMEN DE MI TRABAJO CON LA APLICACIóN VR GEOMETRíA

Romero López Víctor Tonatiúh, Instituto Politécnico Nacional. Asesor: Dr. Hector Cardona Reyes, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El entorno virtual de la aplicación ya estaba avanzado, así como algunas interfaces de los ejercicios, por lo que yo estuve trabajando con otras características de la aplicación.



METODOLOGÍA

La primera semana aprendí a modelar distintos objetos en 3d y a poder utilizar los entornos de desarrollo que se estaban ocupando para el proyecto por lo que mi avance fue prácticamente nulo. Durante la segunda semana implementé un sistema de movimiento dentro del juego para que los ejercicios se pudieran resolver de forma consecutiva e intuitiva así como también un sistema de puntaje para que cada respuesta correcta la valla sumando a un total y lo muestre en pantalla, en la tercera semana agregué un cronometro para que se pudiera llevar un monitorea de cuanto se tardan los usuarios en contestar todas las preguntas, también trabajé en una interfaz para que los usuarios puedan ingresar su nombre o un apodo para ser identificados con sus resultados. La última semana hice un sistema para calcular la puntuación máxima y así poder mostrarla en pantalla junto con el tiempo que se tardo para esa puntuación además  incluir el nombre agregado por el usuario, para terminar, realicé una base de datos para que se pudieran guardar los puntajes obtenidos, así como también los puntajes máximos junto con respectivo tiempo y nombre. Acto seguido, conecté la base de datos al proyecto y subí la aplicación a los visores que me proporcionaron para trabajar en el CIMAT.


CONCLUSIONES

Como conclusión me queda el haber trabajado con herramientas y entornos en los que no suelo trabajar muy seguido por lo que fue una experiencia más que agradable para mí al poder aprender aun más sobre todos estos instrumentos que desconocía. También disfruté mucho mi estancia ya que me encontré con un ambiente muy amigable y con personas muy amables por lo que agradezco aun más esta oportunidad que se me presentó.
Romero Pérez Roiver Andrés, Fundación Universitaria Tecnológico Comfenalco
Asesor: Mg. Kellys Nallith Salcedo Hurtado, Tecnológico de Antioquia Institución Universitaria

IDENTIFICACIóN DE HONGOS ASOCIADOS A LAS ZONAS VERDES DEL TECNOLóGICO DE ANTIOQUíA


IDENTIFICACIóN DE HONGOS ASOCIADOS A LAS ZONAS VERDES DEL TECNOLóGICO DE ANTIOQUíA

Romero Pérez Roiver Andrés, Fundación Universitaria Tecnológico Comfenalco. Asesor: Mg. Kellys Nallith Salcedo Hurtado, Tecnológico de Antioquia Institución Universitaria



PLANTEAMIENTO DEL PROBLEMA

Identificar las diferentes especies de hongos( Fungí) que se encuentran en el interior de la zonas verdes del tecnológico de Antioquía. Determinar las características específicas de las especies, clasificación de las especies según su taxonomía.



METODOLOGÍA

Se determinó clasificar por diferentes fases: • Fase de revisión bibliográfica: Se estudió e indago todo sobre el reino Fungí con el fin de conocer y profundizar todo el conocimiento sobre lo que se iba a a realizar en el proyecto. Fase de campo: Se realizó recorrido desde el bloque 1 hasta el 13 con el fin de encontrar las diferentes especies de hongos en el tecnológico de Antioquía. Fase de toma de muestras: Las muestras se tomaron de manera insitu durante el recorrido por los bloques , esto con el fin de poder determinar características principales de cada especie. Fase de laboratorio: Se llevaron las diferentes muestras al laboratorio y se pudieron examinar por medio de un estéreo Escorpio con el fin de estudiar y conocer con más profundidad características y taxonomía de cada una de dichas especies encontradas.


CONCLUSIONES

Se pudo determinar que en la época de sequía las diferentes especies de hongos no se propagan mucho, en cambio, en los días lluviosos se pudo observar que estás especies se proliferaban con más facilidad. Se puedo decir que en los días más lluvioso estás especies de fungí predominan mucho más que en los tiempos de sequía, esto se da por el ambiente húmedo en las zonas verdes.
Romero Tisnado Axel, Universidad Politécnica de Sinaloa
Asesor: Mtro. Victor Miguel Almazán González, Universidad Tecnológica Fidel Velázquez

OPERADORES ESCALERA ASOCIADOS AL POZO CUADRADO INFINITO, OSCILADOR ARMóNICO Y LA ECUACIóN RADIAL DEL ÁTOMO DE HIDRóGENO


OPERADORES ESCALERA ASOCIADOS AL POZO CUADRADO INFINITO, OSCILADOR ARMóNICO Y LA ECUACIóN RADIAL DEL ÁTOMO DE HIDRóGENO

Romero Tisnado Axel, Universidad Politécnica de Sinaloa. Asesor: Mtro. Victor Miguel Almazán González, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

El problema fundamental de la mecánica cuántica consiste en resolver una ecuación diferencial de segundo orden con condiciones de frontera. Tradicionalmente, este problema se aborda mediante el método de series de potencias, el cual suele generar soluciones en forma de polinomios conocidos. Sin embargo, en el presente trabajo se propone explorar una alternativa a este enfoque para resolver la ecuación de Schrödinger en el contexto de tres problemas específicos: el pozo cuadrado infinito, el oscilador armónico y la ecuación radial del átomo de hidrógeno.



METODOLOGÍA

La metodología utilizada para factorizar el operador Hamiltoniano fue la descrita por Fred Cooper, Avinash Khare y Uday Sukhatme, similar a la utilizada por Mielnik. Se comenzó por un Hamiltoniano de la forma H₁=-(ħ²/(2m))(d²/dx²)+V₁  Con la propiedad H₁ψ₀=0 Aquí, ψ₀ corresponde a la función de onda del estado base. De aquí se tiene que V₁=(ħ²/(2m))( ψ₀’’/ ψ₀) Además, se exige que el hamiltoniano sea de la forma H₁=A†A Donde A† y A son dos operadores diferenciales que se pueden escribir como               A† = -( ħ /(√(2m)))(d/(dx))+W(x)             A = (ħ /(√(2m)))(d/(dx))+W(x) Con W(x) una función por determinar. Al hacer  H₁=A†A lo que se obtiene H₁= -(( ħ ²)/(2m))((d²)/(dx²))-( ħ /(√(2m)))W′+W² Comparando con el Hamiltoniano inicial V1=-( ħ /(√(2m)))W′-W² Que es una ecuación de Riccati y cuya solución particular es W=-( ħ/(√(2m)))(ψ₀′/ψ₀) Después se construyó el Hamiltoniano H2 invirtiendo el orden de los operadores A† y A de manera que H2= A A†=-(( ħ ²)/(2m))((d²)/(dx²))-( ħ /(√(2m)))W′-W² Donde identificamos V2=-( ħ /(√(2m)))W′-W² A la función W se le denomina super potencial, Con los operadores A† y A se pueden construir los operadores matriciales Q y Q† que se llaman supercargas y que cumplen Q†Q+QQ†=H Con H el operador Hamiltoniano matricial que tiene a H1 y H2 en su diagonal y ceros en las demás entradas. Para el pozo cuadrado infinito, el hamiltoniano que se considero fue H₁=-(( ħ ²)/(2m))((d²)/(dx²))-E₀ Con la función de onda para el estado base ψ₀(x)=√((2/L))sin(π/L)x se obtuvo W=-( ħ/(√(2m)))(π/L)cot(πx/L) Y por lo tanto los operadores escalera A† =-ħ /(√(2m))(d/dx)-( ħ/(√(2m)))(π/L)cot((πx)/L) A =ħ /(√(2m))(d/dx)-( ħ/(√(2m)))(π/L)cot((πx)/L)     Para el oscilador armónico, el hamiltoniano es H₁=-(( ħ²)/(2m))((d²)/(dx²))+(1/2)mω²x² y la función de onda para el estado base ψ₀=a₀e^{-((mω)/(2ħ))x²}, por lo que el superpotencial es W(x)=mωx/(√(2m)) obteniendo los operadores escalera                             A† = -(ħ/(√(2m)))(d/(dx))+ mωx/(√(2m))             A  = (ħ/(√(2m)))(d/(dx))+ mωx/(√(2m))   Para el Átomo de hidrogeno, el hamiltoniano es H₁(1)=-(( ħ ²)/(2m))((d²)/(dr²))+[-((e²)/(4πɛ₀))(1/r)+(( ħ ²)/(2m))(2/(r²))-E₁] Por lo que el superpotencial es W(l)=-((√(2m))/(2 ħ))((e²)/(4πɛ₀))(1/l) Donde por lo tanto los operadores escalera            A† = - ħ /(√(2m))(d/dr)+( ħ /(√(2m)))(l/r)+W(r,l)             A = ħ /(√(2m))(d/dr)+( ħ /(√(2m)))(l/r)+W(r,l)


CONCLUSIONES

En este trabajo, se propuso una alternativa a la solución de la ecuación de Schrödinger propuesta en la literatura, es decir, al buscar operadores escalera mediante el método de series de potencias y explorando la factorización algebraica del operador diferencial Hamiltoniano. Se pudieron determinar los operadores escalera para los tres problemas clásicos: el caso del pozo cuadrado infinito, el oscilador armónico y la ecuación radial del átomo de hidrógeno. Sin embargo, solo pudimos encontrar el potencial asociado para el pozo cuadrado de potencial infinito. En el caso del oscilador armónico, la solución a la ecuación de Riccati resultó ser una solución particular, lo que evitó una determinación de un potencial asociado. A pesar de las limitaciones, el enfoque de factorización algebraica proporciona una perspectiva valiosa para el análisis de problemas en mecánica clásica, más considerando que al encontrar asociado se tienen dos problemas diferentes que comparten el mismo espectro de energía destacando la necesidad de métodos complementarios para obtener soluciones completas.
Romo Carvajal Angela Guadalupe, Universidad de Sonora
Asesor: Dra. Rosalva Josefina Rodriguez Córdova, Universidad de Sonora

NANOTECNOLOGíA


NANOTECNOLOGíA

Romo Carvajal Angela Guadalupe, Universidad de Sonora. Asesor: Dra. Rosalva Josefina Rodriguez Córdova, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La nanotecnología tiene el potencial de revolucionar numerosos sectores debido a sus capacidades únicas y a la posibilidad de crear materiales y dispositivos con propiedades completamente nuevas. Desde la perspectiva de la ingeniería, la nanotecnología presenta varias innovaciones clave como revestimientos y películas delgadas en materiales avanzados, establecer un diagnóstico en el área de nanomedicina o una remediación ambiental en el medio ambiente. En otras palabras, la nanotecnología representa una frontera emocionante en la innovación de la ingeniería, con el potencial de transformar una amplia gama de industrias y mejorar significativamente la calidad de vida. La nanotecnología en México ha experimentado un crecimiento significativo en los últimos años, impulsada por la colaboración entre instituciones académicas, varios centros de investigación y universidades, como en nuestro caso, la Universidad de Sonora. El planteamiento de nuestro verano de investigación entorna en la utilización de nanopartículas, es decir, nos permite conocer su exploración, aplicación y manipulación dentro de la industria ingenieril.



METODOLOGÍA

Durante la realización del verano de investigación, se adquirió un conocimiento desde una introducción de nanotecnología a como caracterizar una nanopartícula. El verano se destacó por el área de ambiental y/o área de salud, lo cuál siendo una estudiante de licenciatura en especialidad de energía me apasionó. Primeramente, se indagó sobre la síntesis de nanopartículas y como estás se clasifican en dos métodos: el primero, nos indica a la construcción de estructuras y dispositivos a nano-escala mediante la reducción de materiales más grandes a través de técnicas físicas y químicas, denominado método top-down y el segundo, se refiere a la construcción de estructuras a nano escala mediante el ensamblaje de átomos, moléculas o pequeñas partículas, ofrece un enfoque innovador y altamente preciso para la creación de estructuras y materiales a nano-escala, con aplicaciones potenciales en diversas áreas, desde la medicina hasta la electrónica, denominado método bottom-up. Se realiza hincapié en la utilidad de conocer estos dos métodos para facilitar la búsqueda de artículos sobre tú interés. Posteriormente, utilizamos nuestras habilidades para dar a conocer sobre la caracterización de nanopartículas que nos habla sobre un proceso de analizar y medir las propiedades físicas, químicas y estructurales de materiales a nano-escala. Este proceso es crucial para comprender cómo se comportan los nanomateriales y cómo pueden ser aplicados en diversas tecnologías: TEM (Microscopía Electrónica de Transmisión), SEM (Microscopía Electrónica de Barrido), FTIRC (Espectroscopia de Infrarrojo por Transformada de Fourier) y XRD (Difracción de Rayos X), donde fueron más conocidas por los estudiantes en la estadía y por los docentes que nos compartían su investigación en conferencias.  Por último, la asesora ejecutó por modo virtual, un recorrido por el laboratorio encargado de realizar el método experimental de las investigaciones de nanomateriales de la Universidad de Sonora, conociendo equipos que pertenecen a la tecnología de caracterización de una nanopartícula y/o proyectos que realizaban otros estudiantes que se encontraban en su estadía. En la última semana, se hizo demostración de una práctica en donde se trabajaba con nanopartículas, estos arrojaban espectros y datos experimentales que se tendrían en convertir curvas de calibración para justificar la parte experimental.


CONCLUSIONES

La nanotecnología representa una frontera revolucionaria en la ciencia y la ingeniería, cómo antes mencionado en el planteamiento, se tiene el potencial de mejorar significativamente la calidad de vida. Su capacidad para manipular materia a escala nanométrica permite el desarrollo de materiales y dispositivos con propiedades y funcionalidades únicas que no son posibles con tecnologías convencionales, alcanzamos a observarlo con los docentes que nos presentaron su trabajo en las conferencias. Dado por terminado mi estadía en el verano de investigación, doy por hecho que mi conocimiento y capacidad de ahora en adelante sobre nanotecnología es virtuoso, encontrándome más consciente del enfoque continuo en la investigación, el desarrollo y la regulación de la nanotecnología.
Romo Terán Danna Camila, Universidad de Sonora
Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara

PROGRAMAS ECUACIóN DE ESTADO DE REDLICH-KWONG Y CáLCULOS DE CAMBIOS DE ENTALPíA Y ENTROPíA CON APOYO DE LA ECUACIóN DE VAN DER WAALS


PROGRAMAS ECUACIóN DE ESTADO DE REDLICH-KWONG Y CáLCULOS DE CAMBIOS DE ENTALPíA Y ENTROPíA CON APOYO DE LA ECUACIóN DE VAN DER WAALS

Romo Terán Danna Camila, Universidad de Sonora. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la ingeniería, los problemas básicos de termodinámica son fundamentales pero complejos, especialmente al utilizar ecuaciones de estado como Redlich-Kwong y Van der Waals para calcular propiedades como entalpía y entropía. La falta de herramientas accesibles dificulta su uso en la práctica.



METODOLOGÍA

La metodología para abordar estos problemas consistió en varias etapas. Primero, se realizó una revisión bibliográfica detallada para estudiar las ecuaciones de Redlich-Kwong y Van der Waals, así como los métodos existentes para el cálculo de entalpía y entropía. Luego, se desarrolló código en Python para implementar estas ecuaciones y programar funciones que permitieran realizar los cálculos termodinámicos necesarios. Posteriormente, se llevó a cabo una validación del modelo comparando los resultados obtenidos con datos experimentales y realizando los ajustes necesarios para optimizar el código. Finalmente, se elaboró una guía de usuario para los programas desarrollados y se realizaron pruebas con diversos conjuntos de datos para asegurar la robustez y precisión del código.


CONCLUSIONES

Se desarrollaron programas en Python que facilitan la solución de problemas termodinámicos de manera accesible y fácil de usar. Estos programas, disponibles para cualquier usuario, han mostrado resultados prometedores en pruebas preliminares y se espera que sean de gran utilidad en el futuro.
Rosales Rodríguez Luis Ángel, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

MODELACIóN DE OBRAS HIDRáULICAS EMPLEANDO LA DINáMICA DE FLUIDOS COMPUTACIONAL.


MODELACIóN DE OBRAS HIDRáULICAS EMPLEANDO LA DINáMICA DE FLUIDOS COMPUTACIONAL.

Rosales Rodríguez Luis Ángel, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las inundaciones son fenómenos hidrometeorológicos que generan afectaciones en la población, en actividades primarias, secundarias e infraestructura; ocasionando pérdidas humanas y económicas. La fisiografía y características climáticas en México favorecen la presencia de este tipo de fenómenos, por lo que se tiene un panorama de alta vulnerabilidad a las inundaciones en el país. Adicionalmente, hay antecedentes de inundaciones por falla de la infraestructura hidráulica debidas a un diseño deficiente, una mala operación o por la falta de mantenimiento de estas obras. Las obras hidráulicas para el control de avenidas son necesarias para la protección de zonas con riesgo de inundaciones. El objetivo principal de la presente investigación es determinar el funcionamiento hidráulico, mediante la Dinámica de Fluidos Computacional (CFD), de obras para el control de avenidas, como medida de mitigación y protección de zonas con un alto índice de riesgo por inundaciones.



METODOLOGÍA

Se seleccionó la zona sur de la ciudad de Morelia, en el estado de Michoacán, como zona de estudio. En dicha zona, las inundaciones son recurrentes; por ello, se delimitó una microcuenca hidrológica mediante Sistemas de Información Geográfica, la cual comprende la zona de interés, el cauce principal y la red de corrientes aguas arriba del punto de salida. Lo anterior, en conjunto con la configuración topográfica, fueron los principales factores para proponer la ubicación de la obra hidráulica para la protección y mitigación de inundaciones en la zona de estudio. El enfoque del proyecto, implica el supuesto de haberse ya realizado los estudios preliminares y complementarios que se involucran en una obra de este tipo, tales como: topográfico, geológico, climatológico, hidrológico, entre otros. La información necesaria de la zona de estudio fue extraída a través de la página de INEGI, de la cual se obtuvo la información necesaria para determinar las características del terreno. Mediante el software Civil 3D se generaron las características geométricas de la obra hidráulica de acuerdo al terreno. Adicionalmente, se definieron escenarios de modelación, dentro de los cuales se consideró la operación de obras auxiliares necesarias para el correcto funcionamiento y mantenimiento de la estructura, como: Obra de toma. Permitiendo la extracción del agua del embalse para abastecer una demanda. Obra de excedencias. Reincorporando los excedentes de agua del vaso de almacenamiento a la corriente, sin dañar la presa. Canal de servicio. Funcional para avenidas de pequeño periodo de retorno. Una vez obtenida la geometría de la infraestructura se delimitaron los escenarios de modelación, es decir, de acuerdo con los objetivos planteados mediante la CFD, realizada en este caso con el software Iber, se determinó el comportamiento de la obra sometida a diferentes condiciones de operación y gastos asociados a distintos periodos de retorno, obtenidos previamente con un estudio hidrológico. Los escenarios de modelación planteados son los posibles a los que podría estar sometida la obra. En este sentido, para los alcances del presente proyecto, se plantearon: Una vez la presa este vacía y comience su llenado por efectos de la precipitación y escurrimiento. A partir de un cierto nivel, esta comience a llenarse por efectos de la precipitación y escurrimiento. Cuando la obra esté funcionando junto a sus obras auxiliares conjuntamente o individualmente. Consecuentemente, el CFD realizado consistió en ingresar las elevaciones y la geometría, como parte del dominio. Para la solución numérica de las ecuaciones gobernantes, se propuso una malla adaptativa no estructurada de elementos triangulares Delaunay. Las condiciones de contorno impuestas son un gasto no permanente ingresando por la frontera del cauce principal en régimen subcrítico; las condiciones iniciales son asociadas a los diferentes escenarios, además de indicar la rugosidad de los materiales del terreno y la obra. Seguidamente, se inicia el proceso de cálculo el cual realiza la resolución de las ecuaciones gobernantes. Posteriormente, acabada la simulación se realizó la obtención de los resultados, donde podremos hacer la animación del comportamiento de la estructura con las condiciones y el flujo, por lo que podremos obtener diferentes parámetros de interés y resultados gráficos, en diferentes tiempos y partes a lo largo de la obra. Finalmente, mediante un análisis de los resultados obtenidos, para determinar si los resultados son coherentes con las condiciones propuestas, también sirviendo de comparativa las diferentes obras existentes que cuenten con características similares para así determinar sí su funcionamiento será el adecuado y acercado a la realidad, en caso de no serlo se realiza una calibración del modelo, para lo cual en este proyecto no se puede hacer debido a que para este proceso se ocupan datos obtenidos de la obra en funcionamiento; sin embargo, al solo ser una propuesta a una problemática no se cuenta con esta obra, a lo que una alternativa sería la construcción de un modelo a escala en el cual sean probadas las condiciones anteriores y obtener resultados, para hacer la comparación de los resultados.


CONCLUSIONES

Durante la investigación, se logró adquirir conocimientos del estado de arte de las presas en México, así como el proceso para la modelación de una obra de este tipo, sumado a la comprensión de las herramientas CFD. De manera preliminar se ha logrado obtener la geometría de la obra y se espera obtener los resultados en el postproceso una vez realizada la modelación y determinar si la propuesta de diseño es adecuada para el buen funcionamiento hidráulico. Se considera que los resultados obtenidos en la presente investigación sirvan como motivación y sean un punto de partida para futuras investigaciones, dado que la implementación de este tipo de obra para la solución de esta problemática debe ser más recurrente.
Rosas Benavides Natalia Jackeline, Universidad de Guadalajara
Asesor: Dr. Ruben Ramos Garcia, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

PINZAS ÓPTICAS


PINZAS ÓPTICAS

Arellano Valdenebro Janeth, Universidad de Guadalajara. Rosas Benavides Natalia Jackeline, Universidad de Guadalajara. Villalobos Hernandez Diana Sofía, Universidad de Guadalajara. Asesor: Dr. Ruben Ramos Garcia, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las pinzas ópticas, son una herramienta poderosa en la manipulación y estudio de pequeñas partículas, como células, bacterias y moléculas. Lo cual usamos en este caso para suspender particulas de silicio de 1 micra



METODOLOGÍA

Se utilizó un láser de 509 nm que pasó por un filtrado espacial, compuesto por un objetivo de 20x y un pinhole de 15 micrómetros. Después del filtro, se usó una lente colimadora de 2.5 cm, que dirigía el haz hacia un espejo posicionado a 45 grados. Este espejo redirigía el haz hacia arriba en un ángulo de 90 grados. Al ser dirigido hacia arriba, el haz pasaba por un objetivo de 100x, enfocándose en la celda que contenía la solución con micropartículas de 1 micrómetro, suspendiendo así una de ellas con un láser fuertemente enfocado.


CONCLUSIONES

Las pinzas ópticas han transformado la manera en que los científicos manipulan y estudian las partículas a nivel microscópico. Es por eso que nuestro proyecto enfocado a las pinzas opticas se espera tener resultados basicos como, suspension de particulas de 1 micra y el monitoreo de la misma conun fotodetector de cuadrante.
Rosas Fuentes Leonardo David, Universidad de Guadalajara
Asesor: Mg. Mauricio Chaparro Parra, Universidad Católica de Colombia

ANáLISIS DE MOVIMIENTO DE UN SISTEMA OSCILANTE POR MEDIO DE SENSORES DE DISPOSITIVOS MóVILES.


ANáLISIS DE MOVIMIENTO DE UN SISTEMA OSCILANTE POR MEDIO DE SENSORES DE DISPOSITIVOS MóVILES.

Rosas Fuentes Leonardo David, Universidad de Guadalajara. Asesor: Mg. Mauricio Chaparro Parra, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Los sistemas oscilantes se pueden encontrar en distintas áreas, como la maquinaria industrial y las estructuras de ingeniería. El análisis es esencial para garantizar que funcionen correctamente y evitar fallas. En la mayoría de los casos, este análisis se ha realizado utilizando instrumentos especializados, lo que puede resultar costoso y poco práctico. La idea de utilizar sensores integrados en dispositivos móviles para analizar el movimiento de sistemas oscilantes es debido a lo mencionado anteriormente. Esta tecnología proporciona una alternativa accesible, portátil y versátil para el monitoreo de vibraciones y oscilaciones. Dicho esto, se ha optado por diseñar un arreglo experimental que permita recabar datos de dos sistemas (Oscilador Armónico Simple y Oscilador Amortiguado) para analizar la información obtenida y así poder comparar la efectividad de los sensores con un marco teórico, lo que permitirá evaluar su precisión y aplicabilidad.



METODOLOGÍA

Se hizo uso de los siguientes materiales: un teléfono móvil con sensores de acelerómetro, un soporte para colocar el dispositivo móvil en un péndulo, un hilo o cuerda para suspender el móvil y un nivelador. Se sujetó el móvil al extremo de un hilo de forma que quedará nivelado y no se moviera al momento de hacerlo oscilar después se ajustó la longitud del hilo para que el móvil quedará suspendido a una altura adecuada. Se hizo uso de la aplicación Arduino SJ que nos dio el acceso a los datos que recogen los sensores en el teléfono móvil. Se colocó el péndulo oscilante sobre el soporte con la aplicación encendida y que estuviera recabando los datos en las distintas posiciones y se inició la grabación de datos en la aplicación del sensor antes de hacer oscilar el péndulo. Se empujó en con distintas velocidades de modo que se lograran obtener varias grabaciones o muestras, esto se repitió el experimento varias veces para obtener datos más confiables. Para el Oscilador armonico simple esta caracterizado por su movimiento periódico en torno a una posición de equilibrio. La ecuación diferencial que describe su movimiento es m⋅a(t)=−k⋅x(t)m ⋅ a(t) = -k ⋅ x(t)m⋅a(t)=−k⋅x(t). La solución general para el desplazamiento es x(t)=Acos⁡(ωt+ϕ)x(t) = A cos(ω t + ϕ)x(t)=Acos(ωt+ϕ), en cuanto los resultados experimentales mostraron que los datos recabados con el sensor del móvil se ajustaron bien al marco teórico, validando la precisión de los sensores móviles para este tipo de análisis. Ahora para el Oscilador Amortiguado se presenta un movimiento oscilatorio alrededor de una posición de equilibrio con una amplitud decreciente debido al amortiguamiento. La ecuación diferencial que lo modela es mx′′+bx′+kx=0mx'' + bx' + kx = 0mx′′+bx′+kx=0. La solución general depende de la relación entre las constantes de amortiguamiento, masa y elasticidad, distinguiendo entre movimiento sobreamortiguado, crítico y subamortiguado. Al igual que con el OAS, los resultados experimentales para el OA demostraron que los datos obtenidos con los sensores móviles coinciden con las expectativas teóricas, confirmando su efectividad.


CONCLUSIONES

Los arreglos experimentales implementados para el uso de los sensores integrados en dispositivos móviles para el análisis de sistemas oscilantes es una innovación significativa. En esta investigación se buscaba que mediante la utilización de estos se lograra la recopilación de datos fueron aptos para poder compararlos con un marco teórico que previamente fue establecido. Lo que podemos observar en las gráficas del marco teórico en contraste con las de los datos recabados con los sensores son satisfactorios en cuanto al acoplamiento que presentan, claro está, existe un margen de error que no hay que dejar fuera del análisis debido a que esto puede ser resultado tanto de la antigüedad del dispositivo como de las condiciones que presente dicho móvil, además de poder observar que la ecuación que fue arrojada por el software es comparable con la que se obtuvo derivando dos veces la ecuación inicial en el marco teórico, después de obtener las comparaciones para cada uno de los experimentos que se realizaron en el laboratorio podemos hacer énfasis en que el objetivo principal el cual era verificar la fiabilidad y precisión que tienen los sensores del dispositivo móvil implementado son satisfactorios uya que para el primer tipo de experimento las graficas nos arrojaron una comparativa muy bien acoplada y la ecuación solo confirmaba la informacion visualizada de las gráficas, para el segundo tipo de experimento los resultados de la comparativa en la grafíca son menos acoplados que el primer tipo de experimento pero la resultados esperados se pueden considerar satisfactorios debido a que si bien el acople no fue del todo exacto o tan bueno como las primeras graficas debemos considerar que para las oscilaciones amortiguadas existieron otros factores a considerarar, tal como la forma en que se hizo funcionar el pendulo y el material que se utilizo para amortiguar el pendulo con el sensor implementado, podemos concluir que las la fiabilidad de los sensores encontrados en el dispositivo movil utilizado tiene una precision muy confiable, mas que nada en cuanto a los arreglos en los cuales se decidio utilizar. Los resultados experimentales validan la precisión y efectividad de esta tecnología, abriendo nuevas posibilidades para su aplicación en diversos campos. Este enfoque promete ser una alternativa revolucionaria, alineada con las necesidades de accesibilidad y eficiencia en el monitoreo de sistemas vibratorios.
Rosas González Lizbeth Montserrat, Universidad Politécnica de Atlautla
Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana

REVISIóN Y ANáLISIS DE REGISTROS SíSMICOS EN EL ESTADO DE OAXACA PARA MEJORAR LA PREVENCIóN Y GESTIóN DE DESASTRES.


REVISIóN Y ANáLISIS DE REGISTROS SíSMICOS EN EL ESTADO DE OAXACA PARA MEJORAR LA PREVENCIóN Y GESTIóN DE DESASTRES.

Rosas González Lizbeth Montserrat, Universidad Politécnica de Atlautla. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

El estado de Oaxaca se encuentra en una región geológica activa conocida como el Cinturón de Fuego del Pacífico, donde las placas tectónicas interactúan con alta frecuencia. Esta alta actividad sísmica presenta un riesgo significativo para las comunidades locales, la infraestructura y el entorno natural. A pesar de la importancia crítica de entender estos fenómenos, existen desafíos relacionados con la calidad y el uso de los datos sísmicos disponibles.



METODOLOGÍA

El presente estudio tiene como objetivo revisar y analizar los registros sísmicos en el estado de Oaxaca, identificando deficiencias en la cobertura y calidad. Al abordar estos problemas, se pretende optimizar la capacidad para predecir y gestionar los riesgos sísmicos, con el fin de reducir el impacto de los eventos sísmicos en la población y la infraestructura. Para mitigar los riesgos asociados con la actividad sísmica, es esencial contar con una red eficiente de monitoreo sísmico que permita la recolección y análisis de datos sísmicos precisos. La Red Acelerográfica del Instituto de Ingeniería de la UNAM (RAII-UNAM) permite encontrar la información disponible, mediante consultas al catálogo de sismos o por la combinación de parámetros relacionados con la estación de registro, ubicación, el tipo de terreno, fecha de ocurrencia, aceleración registrada o distancia radial. Se comienza el análisis ubicando nuestra zona de estudio en la base de datos RAII-UNAM, identificamos las estaciones que analizaremos, es importante destacar que para este estudio se tomó en cuenta diferentes tipos de terreno donde están ubicadas las estaciones activas, para tener un mayor conocimiento del comportamiento del suelo de acuerdo con las aceleraciones registradas por las estaciones. Posteriormente teniendo nuestra información de los registros se realiza un filtro de PGA (aceleración máxima del suelo) por sus siglas en inglés, donde los valores iniciales de aceleración sean mayores o igual 10 cm/s2, se descarga un archivo de Excel teniendo los resultados de la estación. Podemos observar dentro del archivo eventos que hayan sido registrados por todos si no la mayoría de las estaciones como datos principales dentro del archivo se tiene la fecha del sismo, hora del sismo (UTC), la magnitud, institución, entidad, Clave estación, nombre estación, Aceleración máx. (cm/s**2), calidad y archivo. Teniendo las estaciones que analizaremos, se comparó con las demás y pude observar que el registro con el valor máximo de PGA de los eventos, fue la estación OAXM Oaxaca, con tipo de terreno aluvial, los suelos aluviales pueden amplificar las ondas sísmicas, resultando en un mayor PGA comparado con suelos rocosos. Por lo tanto, se analizó con un evento sísmico mas reciente el 18 de diciembre de 2020, con ayuda de las tablas anteriores donde analizamos las estaciones y los eventos sísmicos, la información recolectada de las estaciones y sus respectivos registros obteniendo lo siguiente con diferentes tipos de terreno: 1.estación OAXM (Oaxaca facultad de medicina) con registro de valor máximo de PGA, terreno aluvial. 2. estación OXPM (escuela primaria Mugía) terreno suelo 3. estación OXBJ (escuela primaria Benito Juárez) terreno roca 4. estación OXLC (las canteras) terreno roca, cantera El presente estudio se realizó también con el programa Seismograms_analyzer_e_App, que tiene como propósito facilitar la generación de gráficos de acelerogramas, con ayuda de los gráficos se obtiene al valor de factor de amplificación con respecto al tipo de terreno, Con la información presentada en la tabla observamos que el factor de amplificación es casi el doble para la estación OAXM (aluvial), mientras que la estación OXPM (suelo) presenta un factor similar al de OXBJ (roca), y la estación OXLC (roca, cantera). Con esta información identificamos que es muy importante el tipo de terreno de la estación, ya que el PGA disminuye con la distancia al epicentro del sismo.


CONCLUSIONES

En mi estancia de verano he adquirido el conocimiento de nuevas plataformas, softwares relevantes para el estudio y análisis de los sismos, así como su efecto en diferentes tipos de terrenos y este como puede afectar un riesgo. La investigación propuesta es crucial para fortalecer los sistemas de monitoreo y análisis sísmico en Oaxaca. Este estudio identifica la cobertura y calidad de los datos sísmicos, esenciales para predecir y gestionar riesgos sísmicos. Mediante el análisis de registros de la Red Acelerográfica del Instituto de Ingeniería de la UNAM (RAII-UNAM), se destacó la importancia del tipo de terreno en la amplificación de ondas sísmicas. Se observó que los suelos aluviales, como en la estación OAXM, amplifican las ondas sísmicas, resultando en mayores valores de PGA en comparación con suelos rocosos. Este análisis subraya la necesidad de una red de monitoreo sísmico eficiente y de considerar el tipo de terreno para reducir el impacto de los eventos sísmicos en la región. Mejorar la precisión y la cobertura de los registros sísmicos permitirá una mejor preparación y respuesta ante sismos, apoyando así la seguridad de las comunidades. Además, el estudio contribuirá al avance del conocimiento científico sobre la actividad sísmica en la región, facilitando futuras investigaciones y desarrollos en la gestión de riesgos sísmicos. Los registros sísmicos proporcionan información crítica sobre la magnitud, la localización y las características de los sismos, lo que es fundamental para la predicción, prevención y respuesta a eventos sísmicos. Sin embargo, la calidad de estos datos y la metodología utilizada para su análisis pueden afectar directamente la capacidad para interpretar correctamente la actividad sísmica y desarrollar estrategias efectivas de gestión de riesgos.
Ruelas Cueva Francisco Martín, Universidad de Guadalajara
Asesor: Dra. Claudia Moreno González, Universidad de Guadalajara

SIMULACIONES DE HIDRODINáMICA RELATIVISTA PARA LA FORMACIóN Y EVOLUCIóN DE SUPERNOVAS


SIMULACIONES DE HIDRODINáMICA RELATIVISTA PARA LA FORMACIóN Y EVOLUCIóN DE SUPERNOVAS

Ruelas Cueva Francisco Martín, Universidad de Guadalajara. Asesor: Dra. Claudia Moreno González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las supernovas son eventos astronómicos extremadamente energéticos que marcan el final de la vida de una estrella masiva. La comprensión de su formación y evolución requiere el estudio detallado de la hidrodinámica relativista, ya que los procesos hidrodinámicos involucrados ocurren a velocidades cercanas a la de la luz y en presencia de intensos campos gravitacionales. Este trabajo se centra en desarrollar un código para realizar simulaciones de hidrodinámica relativista en 1 y 2 dimensiones, que permita modelar con precisión las etapas iniciales y finales de las supernovas, proporcionando una herramienta para comparar resultados teóricos con observaciones astronómicas.



METODOLOGÍA

Después de realizar el estudio de la física de las supernovas se realizó lo siguiente: Desarrollo del Código: Implementación de algoritmos numéricos para resolver las ecuaciones de hidrodinámica relativista en 1 y 2 dimensiones, específicamente adaptados para simular fenómenos asociados con supernovas. Uso de métodos de volúmenes finitos para la discretización espacial y uso del método de Runge-Kutta para la integración temporal. Validación del Código: Aplicación de pruebas estándar en la hidrodinámica relativista, como la prueba de choque relativista y la expansión de Riemann, para evaluar la precisión y estabilidad del código. Comparación de los resultados obtenidos con soluciones analíticas conocidas y otros resultados numéricos presentes en la literatura. Aplicación en Supernovas: Simulación de escenarios típicos de formación y evolución de supernovas, analizando aspectos como la explosión inicial y la propagación de ondas de choque a través del medio interestelar. Evaluación del impacto de diferentes condiciones iniciales y parámetros físicos en la dinámica del evento supernova.


CONCLUSIONES

Durante la estancia de verano, se logró desarrollar un código funcional para simular hidrodinámica relativista en 1 y 2 dimensiones, enfocado en la formación y evolución de supernovas. Las pruebas iniciales con escenarios estándar mostraron que el código realizado en este trabajo pudo producir con precisión los resultados esperados en el caso de la onda de choque en una supernova, validando así su efectividad. Los siguientes pasos incluirán la optimización del código para mejorar su eficiencia y su aplicación a estudios más detallados de supernovas, contribuyendo así a una mejor comprensión de la evolución de estos fenómenos astronómicos.
Ruelas Fermin Jason, Instituto Tecnológico de Ciudad Guzmán
Asesor: Dra. Carmen García Gómez, Universidad Autónoma de Yucatán

PROYECTO DE DESARROLLO DE JARDINES MULTIPROPOSITOS PARA LAS VIVIENDAS DE LA COLONIA JACINTO CANEK


PROYECTO DE DESARROLLO DE JARDINES MULTIPROPOSITOS PARA LAS VIVIENDAS DE LA COLONIA JACINTO CANEK

Ruelas Fermin Jason, Instituto Tecnológico de Ciudad Guzmán. Asesor: Dra. Carmen García Gómez, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

  Dentro del entorno de la colonia Jacinto Canek, ubicada por el sur de Ciudad de Mérida en el estado de Yucatán, enfrenta diversos tipos de problemas, tanto socioeconómicos, sociales, impactos ambientales y una gran variedad dentro de cada vivienda, ya que están construidas de una manera irregular, por mencionar algunos más. La deficiencia de espacios no aptos ni desarrollados de una manera adecuada para las familias, esto genera falta de descanso en ellas mismas. Dentro del mismo espacio de la vivienda, jardines verdes que den vida a la casa. En la colonia una gran falta de infraestructura y seguridad, esto genera espacios abiertos no habitados para otro tipo de uso, (basureros, contaminación, entre otros). La falta de jardines y áreas verdes recreativas multiusos no existe, los niños necesitan una distracción sanamente y adecuada para ellos. Objetivo: El objetivo principal de este proyecto es, realizar un trabajo crítico y laboral durante el verano en la colonia Jacinto Canek en Mérida, uno de los propósitos fue un programa llamado, pinta tu fachada en el cual se apoyaría a un total de 50 familias o casas, y otro programa llamado remodelación o acondicionamiento de jardines frontales en el cual aquí solo participaban un total de 23 casas, este es un proyecto muy complejo en donde hubo varios factores a seguir.



METODOLOGÍA

  Se llevó a cabo mediante la Investigación Acción Participativa (IAP), del enfoque cualitativo. Fue de tipo no experimental, descriptiva, y transversal, con técnicas de observación participante y caso de estudio. 1.La ubicación de la colonia, y de la familia asignada. Varios días en específico se estuvieron haciendo visitas de campo o en la colonia, para ubicarnos y tener contacto con las familias interesadas en participar en el proyecto y una vez así, asignar a nuestra familia que tenemos que apoyar en el proceso durante el proyecto. 2.Recopilación de datos y ubicación de las casas. Una vez teniendo la ubicación y a la familia apoyar, se necesitaron algunos, datos para llevar el proceso, que fue en este caso, copia o fotografía de la INE, y comprobante de domicilio. 3.Entrevista a la familia y opiniones compartidas. En este paso llevamos a cabo una pequeña entrevista, para ver sus necesidades que tenía, de igual manera apoyándola con algo que ella tenga y no supiera que hacer, para eso tomamos algunas fotografías. Ubicamos el área a delimitar el jardín y medidas reales del terreno. 4.Realización de propuesta. Una vez teniendo medidas y ubicaciones reales, empezamos a trabajar con la propuesta de diseño, donde con las necesidades necesarias que se tenían, buscamos una remodelación con materiales mismo que tenían sin utilizar, dándoles un segundo propósito, se presentaron datos como, ubicación en el terreno, la propuesta con los materiales y las adaptaciones del proyecto. Presentamos y enseñamos la propuesta a la familia, y los asesores para seguir con la ejecución. 5.Ejecución del proyecto. Se comenzó con la limpieza del terreno, determinando así lo que sirve y no sirve, tratando de separarlo a la basura para tirarse. Ubicamos nuestra propuesta plantada en el terreno y comenzamos con la remodelación del jardín, acondicionando materiales a reciclar e incluso trasplantado árboles frutales en el mismo. Concluimos con el proyecto de una manera exitosa y adecuada con la familia, donde el resultado fue exitoso.


CONCLUSIONES

El proyecto realizado para apoyo de la colonia Jacinto Canek, concluyó de una manera muy agradable y funcional para los vecinos, en donde con esto nos damos cuenta en que el apoyo participativo en la sociedad influye mucho, si nos apoyamos unos a otros podemos hacer muchas cosas, mostrándoles que con bajos presupuestos, básicamente nada, puede dar un cambio radical en la vivienda, claro, teniendo los patios limpios y arreglados, el cual esto hace un cambio en la imagen urbana, no solo en sus casas, que se vea que hay apoyo y que si se quiere se puede, concluimos con aspectos favorables y con el gusto de seguir apoyando.
Ruiz Arredondo Karen Mariel, Instituto Politécnico Nacional
Asesor: Dra. Maria Elena Tejeda Yeomans, Universidad de Colima

INTRODUCCIóN A LA FíSICA NUCLEAR


INTRODUCCIóN A LA FíSICA NUCLEAR

Ruiz Arredondo Karen Mariel, Instituto Politécnico Nacional. Asesor: Dra. Maria Elena Tejeda Yeomans, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

La física nuclear es el estudio de la parte central de los átomos, llamada núcleo. Los núcleos están hechos de dos tipos de partículas: protones y neutrones, (nucleones). Los neutrones del núcleo, son la resta el número atómico del número de masa atómica. Los isótopos son variantes de un mismo elemento químico que tienen el mismo número de protones, pero diferente número de neutrones. El conocimiento de la física nuclear en México es limitado, lo que representa un problema debido a la falta de divulgación sobre su importancia y aplicaciones. La física nuclear es esencial en diversas áreas entre estas la energía, aplicaciones industriales, protección radiológica y seguridad, agricultura, medio ambiente e investigación científica. Fomentar su divulgación y educación es importante para aprovechar sus beneficios y contribuir al desarrollo del país en estas áreas estratégicas. Existen pocas universidades especializadas en esta área. Las ideas públicas influyen, ya que se asocia con riesgos y desastres como Chernóbil y Fukushima, generando miedo y desinterés. La falta de interés en la ciencia y la escasez de iniciativas contribuyen a su baja difusión.



METODOLOGÍA

Para lograr el objetivo, se hizo uso de los libros titulados FÍSICA para CIENCIAS e INGENIERIAS volumen I y volumen II, del autor Giancoli. Estos libros cuentan con temas de suma importancia para la investigación científica de la física nuclear, en los cuales destacan: La teoría especial de la relatividad (Cap. 36) La teoría especial de la relatividad, propuesta por Albert Einstein en 1905, esta revolucionó la comprensión del espacio y el tiempo. Esta teoría se basa en dos postulados principales: el principio de relatividad, esta establece las leyes de la física son las mismas en todos los marcos de referencia inerciales y el principio de la constancia de la velocidad de la luz la cual afirma que la luz viaja a una velocidad constante en el vacío, independientemente del movimiento de la fuente o del observador. Teoría cuántica temprana y modelos atómicos (Cap. 37) Surgiero a principios del siglo XX como respuesta a fenómenos que no podían explicarse con la física clásica. La teoría cuántica comenzó con el trabajo de Max Planck en 1900, quien introdujo el concepto de cuantos de energía para explicar la radiación del cuerpo negro posteriormente Albert Einstein explicó el efecto fotoeléctrico utilizando la idea de cuantos de luz o fotones. Energía nuclear; efectos y usos de la radiación (Cap. 42) La energía nuclear se obtiene a partir de las reacciones nucleares principalmente la fisión y fusión de núcleos atómicos.  La radiación producida tanto por reacciones nucleares como por materiales radiactivos tiene algunos efectos que pueden ser dañinos para los seres vivos, causando daños en el ADN, también tiene aplicaciones beneficiosas en la medicina y en la industria. Aplicaciones: Tomografía por Emisión de Positrones (PET): Utiliza isótopos emisores de positrones para crear imágenes detalladas del cuerpo, ayudando en el diagnóstico y seguimiento de enfermedades como el cáncer. Terapia de Radiación: Utiliza rayos X o gamma para destruir células cancerosas mientras minimiza el daño a los tejidos sanos. Reactores Nucleares: Reacciones de fisión nuclear para generar electricidad en plantas de energía nuclear. Esterilización por Radiación: Emplea radiación gamma para esterilizar equipos médicos, alimentos y otros productos, eliminando bacterias y otros patógenos. Teniendo en cuenta la relación de los capítulos 36 y 37 se inició el trabajo de forma que sería más sencilla para la comprensión del capítulo: Física Nuclear (Cap. 41) La física nuclear estudia los núcleos atómicos que contienen protones y neutrones conocidos como nucleones. El número total de nucleones, A, es el número de masa atómica mientras que el número de protones, Z, es el número atómico. El número de neutrones se calcula como A - Z. Los isótopos son variantes de un elemento con el mismo número de protones (Z) pero diferente número de neutrones. El radio nuclear es proporcional a A1/3, (casi todos los núcleos cuentan con una densidad igual), donde estas se especifican como unidades de masa atómica (u). Donde se comprueba la formula E=mc2 (famosa ecuación de Albert Einstein que relaciona la energía (E) con la masa (m) y la velocidad de la luz (c), estableciendo que la masa puede convertirse en energía y viceversa). La masa del núcleo establece ser menor que la suma de las masas de sus nucleones contribuyentes. Siendo así energía de enlace la diferencia en masa (energía de enlace por nucleón es aproximadamente de 8MeV). Existen núcleos inestables que experimentan decaimiento radiactivo: Decaimiento Alfa: proceso mecánico-cuántico. Decaimiento Beta: núcleo inestable se transforma emitiendo una partícula beta. Decaimiento Gamma: un núcleo excitado libera energía en forma de radiación gamma. La vida media, es el tiempo que requiere para que decaiga la mitad de los núcleos de una muestra radiactiva. Los detectores de radiación, (de partículas) se desarrollaron gracias a que estas no son detectables con los sentidos. Algunos ejemplos son: Contador de Geiger: detecta la radiación a través de un tubo lleno de gas Contador de centelleo con tubo fotomultiplicador: el material centelleador emite destellos de luz cuando es impactado por radiación. Cámaras de burbujas: recipientes llenos de alcohol y agua, que crea ionización al contacto con la partícula, haciendo visibles burbujas


CONCLUSIONES

Es importante la divulgación de la física nuclear, no solo al público estudiantil, sino al público en general. Esta diciplina puede ser tanto beneficiosa en un futuro tecnológico como perjudicial si su conocimiento es nulo en la sociedad. Impulsar a las nuevas generaciones es esencial, para poder aprovechar sus beneficios y moderar sus riesgos.
Ruvalcaba Guzmán Zabdiel Josafad, Universidad de Guadalajara
Asesor: Dr. Oscar Blanco Alonso, Universidad de Guadalajara

SINTESIS DE NISB2O6 PARA USO COMO DETECTOR DE GASES


SINTESIS DE NISB2O6 PARA USO COMO DETECTOR DE GASES

Ruvalcaba Guzmán Zabdiel Josafad, Universidad de Guadalajara. Asesor: Dr. Oscar Blanco Alonso, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la industria y en los laboratorios, el uso de materiales con un punto de ebullición bajos y tóxicos son comunes, esto debido a que se requiere su uso en la creación de materiales, herramientas, sustancias y dispositivos de todo tipo; con ello viene el uso de equipo indicado y el conocimiento adecuado para la manipulación de dichos objetos. Al investigar el NiSb2O6 se descubrió que puede reaccionar con diferentes vapores provenientes de los materiales tóxicos antes mencionados, es necesario decir que son materiales específicos y algunos cuya eficiencia es teórica debido a que se sigue investigando este material semiconductor, pero podemos nombrar algunas: Monóxido de carbono (CO) Dióxido de nitrógeno (NO₂) Dióxido de azufre (SO₂) Amoníaco (NH₃) Hidrógeno (H₂) Metano (CH₄) Compuestos orgánicos volátiles (COVs) Es por ello que su uso como detector de gases puede ayudar a la rapida reacción del personal y disminuir el riesgo de accidentes.    



METODOLOGÍA

Para su sintesis usamos el método sol-gel: Materiales: 20 ml. de alcohol etílico 2 ml. de etilendiamina 2.30 gr. de SbCl3  1.47 gr. de Nitrato de niquel Equipo: 3 Vasos de precipitado Micropipeta de  min 10 ml. 3 Parrillas de agitación magnética 3 agitadores magnéticos Mufla  Microondas 2 puntas desechables para micropipeta Campana de extracción Temporizador Crisol Procedimiento: Dentro de la campana de extracción en cada vaso de precipitado poner la etilendiamina, el nitrato de níquel y el SbCl3 (Cada sustancia en diferente vaso) Verter 10 ml. de alcohol etílico en el vaso con etilendiamina. Verter 5 ml. de alcohol etílico al nitrato de níquel Verter 5 ml. de alcohol etílico al SbCl3 Agitar todas las sustancias durante 15 min. Por goteo a mano, agregar el nitrato de níquel a la etilendiamina y dejarla batir por 15 min. Por goteo a mano, agregar el SbCl3  y dejar batir por 24 hrs. Secar en el microondas  con 20% de potencia en lapsos de 30 segundos entre ingreso y descanso hasta verse completamente seco Evaporar en la mufla a 200°C durante 10 horas y  21 minutos Extraer el material y depositarlo en un crisol Calcinarlo en la mufla a 600°C durante 16 horas y 15 minutos Extraer el material Por la falta de tiempo solo se pudo caracterizar en DRX  


CONCLUSIONES

Se hicieron dos muestras las cuales nos arrojaron los siguientes resultados: En la primera muestra observamos que se pudo obtener el NiSb2O6 pero también obtuvimos NiO y Sb2O5 como fases secundarias En la segunda muestra observamos prácticamente los mismos resultados que en la primera solamente que con una intensidad mayor La diferencia de intensidad se puede deber a diversos factores como la mayor cristalinidad, mayor densidad de planos cristalinos o pequeñas diferencias en ambos procesos ya que en la primera muestra no se usó el método por goteo, debido a la evaporación rápida del alcohol etílico y a la alta potencia de agitación frente a la segunda muestra durante el batido durante 24 hrs. la muestra se secó y el microondas no fue el mismo por lo que cambiamos los parámetros; aún así no se puede descartar ninguna debido a la falta de caracterización del material. En el caso de la aparición de fases secundarias, no podemos argumentar lo antes dado ya que se encuentran las mismas fases tanto en la muestra 1 como en la 2, por lo que podemos dar diferentes hipótesis como a una incompleta reacción de los precursores, el uso de alcohol etílico de más ya que no se disolvía por completo el SbCl3 las condiciones ambientales y a una difusión limitada del níquel y antimonio lo que propició a la formación de estas fases secundarias.  
Saavedra Salcedo Jesus, Universidad de Guadalajara
Asesor: Dr. Diego Armando Pantoja González, Universidad de Guadalajara

PROCESOS FíSICOS EN MARES Y LAGOS


PROCESOS FíSICOS EN MARES Y LAGOS

Saavedra Salcedo Jesus, Universidad de Guadalajara. Asesor: Dr. Diego Armando Pantoja González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Procesos Físicos en Mares y Lagos Planteamiento. Los procesos físicos y termodinámicos en los lagos y mares de nuestro país es un tema muy importante que se debe de tomar e investigar ya que en muchos de estos suelen suceder una gran cantidad de fenómenos que afectan a la vida marítima que se encuentra en ese lugar, como puede afectar a las poblaciones que se encuentran cerca de ese lugar y que tienen que usar dichas aguas para sus tareas de la vida cotidiana, trabajos, turismos, etc. Pero sobre todo el conocer dichos procesos nos permitirá saber que tanto estamos afectando nosotros a ese mismo ecosistema del cual solemos aprovechar sus recursos, pero sin tener en cuenta el problema que le estamos generando a dicho lugar. Esto nos permite concientizar y entender cómo se comportan dichos mares y lagos a los distintos cambios de clima que en la mayor parte del tiempo nosotros solemos provocar, para dicho análisis utilizamos distintas herramientas que más adelante se van a describir.



METODOLOGÍA

Metodología.   Lo primero que debemos a tomar en cuenta, para poder realizar dicho análisis de los procesos, es que utilizamos la modelación numérica; la cual consiste en una metodología basada en el uso de modelos numéricos, los cuales son softwares que a través de ecuaciones y parametrizaciones que interpretan los datos de entrada simulan procesos y generan variables de estado. En el caso de la atmosfera y el océano, el comportamiento está regido por las ecuaciones asociadas a la dinámica de fluidos y otros procesos físicos como la interacción entre la materia y la radiación. En general, estas ecuaciones se expresan como ecuaciones diferenciales parciales, las cuales describen la evolución futura de las diferentes variables relevantes en función de los valores de las distintas variables en el presente.    Si conociéramos el estado de la atmosfera y/o océanos en un momento, podríamos en principio resolver las ecuaciones de los modelos matemáticos para determinar los estados futuros de estos, sin embargo, las ecuaciones son tan complejas que esto es imposible hacerlo en forma "analítica" por lo cual es necesario resolver las ecuaciones en forma aproximada usando métodos numéricos con la ayuda de computadoras, para esto utilizamos tres programas muy importantes.    El primero fue MATLAB el cual es un sistema de cómputo numérico que ofrece un entorno de desarrollo integrado con un lenguaje de programación propio, en el pudimos conseguir los mejores resultados para dichos procesos físicos y es donde pudimos visualizar con ayuda del QUICKPLOT.  El segundo fue el Delft 3D el cual es un programa de cómputo de modelamiento para investigar hidrodinámica, transporte de sedimentos, morfología y calidad de agua para ambientes fluviales de estuarios y costeros, además de que en dicho programa podemos realizar nuestro modelo y ajustarlo a las distintas condiciones que le especifiquemos para lograr un mejor análisis y comprensión de dichos procesos. Y el tercero es el SNAP, un software que por su arquitectura es ideal para el procesamiento y análisis de la observación de la Tierra debido a las siguientes innovaciones tecnológicas: extensibilidad, portabilidad, plataforma de cliente enriquecida modular, abstracción de datos de observación de la Tierra genéricos, gestión de memoria en mosaico y un marco de procesamientos gráficos. Por lo cual en el presente se pondrá en práctica dichas herramientas para analizar los siguientes datos: Normalized Difference Water Index (NDWI) Normalized Difference Vegetation Index (NDVI)


CONCLUSIONES

Conclusiones. En conclusión, el saber manejar y entender dichas herramientas de software nos permite llevar un mejor análisis de lo ocurrido en todo los cuerpos de aguas que se encuentran en el mundo, entender los procesos que pueden tener estos en las diferentes épocas del año y al mismo tiempo buscar alternativas de que alguno de estos se encuentre con alguna afectación, ya sea contaminantes, vegetación o altas temperaturas en las aguas, la modelación nos permite ver como se comporta en el lapso de tiempo que le sea indicada a nuestro modelo, ya que cada proceso va de la mano el modelado es una herramienta muy importante que nos brinda mucha información para poder comprender nuestros cuerpos de agua y el como empezar a cuidar mas de dichos recursos hídricos.   GNDVI 2024: Aquí en el GNDVI podemos ver que es una gran cantidad de vegetación en la bahía, cosa que es muy preocupante que exista toda esta cantidad de vegetación en el lugar, más del 70% de la bahía se encuentra con dicha vegetación. Las áreas más afectadas son: Punta Coyote. El Saladito. San Juan de la Costa. Isla del Espíritu Santo. Maravia. Las Animas. El Cajete. El Comitán. El Centenario. La Paz. Aunque en Punta Coyote la vegetación ha ido la vegetación ha estado yendo más al centro de la bahía, además en la pequeña bahía que se encuentra debajo se encuentra en tonalidades de color negro, lo cual nos podrían indicar un factor de contaminantes o algún otro tipo sustancia presente en esta zona.
Salazar Hermosillo Aura Angelica, Universidad Autónoma de Sinaloa
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

GALAXY MAQUILA: ESTUDIO DE LAS GALAXIAS BRILLANTES DEL CUMULO DE VIRGO EN EL INFRAROJO.


GALAXY MAQUILA: ESTUDIO DE LAS GALAXIAS BRILLANTES DEL CUMULO DE VIRGO EN EL INFRAROJO.

Anzures Gutiérrez María Elí, Universidad Autónoma de Sinaloa. Salazar Hermosillo Aura Angelica, Universidad Autónoma de Sinaloa. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las galaxias son colecciones de miles de millones de estrellas, polvo, gas y materia oscura y estas componen nuestro universo. Las galaxias tienen muchas formas y tamaños, desde galaxias enanas del tamaño de cúmulos de estrellas, hasta elípticas gigantes que colapsarían nuestra propia galaxia. Se clasifican en espirales, espirales barradas, elípticas e irregulares, cada galaxia tiene diferentes tipos de poblaciones estelares, las espirales tienen estrellas mas azules y polvo mientras que las elípticas tienen estrellas mas rojas y menos polvo ademas las elípticas pueden ser muy pequeñas o muy gigantescas  



METODOLOGÍA

Usamos Galfit, es un algoritmo que ajusta parámetros en una o mas funciones para tratar de igualar la forma de una galaxia, con esta herramienta generamos modelos en las bandas H, J y K. También usamos EllipSect, este algoritmo nos genera perfiles del brillo superficial respecto al radio de la galaxia. SAOImageDs9 es un programa que nos ayuda a visualizar imágenes astronómicas. Primero comenzamos creando una psf para cada imagen, esta sirve para corregir el efecto de la atmósfera, ya que la atmósfera puede distorsionar la forma de las estrellas, las puede hacer mas alargadas cuando son circulares. Seleccionamos una estrella cerca de la galaxia que no estuviera saturada y creamos su modelo con Galfit por medio de un archivo de texto donde ponemos los parametros y las funciones que queremos ajustar para el modelo de la psf. Después creamos una mascara de la galaxia, esto es para crear su modelo aunque hay otras formas de hacerlo. Para crear la mascara primero seleccionamos una región del cielo para poder ver que tan brillante esta y esto restarlo a la galaxia. Después generamos otra región pero donde solo contuviera la galaxia. Ya con la mascara y nuestra psf pasamos a crear el modelo de la galaxia, para esto usamos un archivo de texto como el de la psf y aquí dependiendo de la galaxia y objetos que tengamos en la imagen, sera la cantidad y tipos de funciones que vamos a ajustar. Debemos tener un modelo muy parecido a la galaxia, dependiendo de la galaxia sera el residuo que obtengamos, también debemos hacer que el valor de Chi^2/nu sea 1 o lo mas cercano que se pueda obtener pero no 2 o menor. Despues con EllipSect obtuvimos el perfil de la galaxia, lo ideal es que la grafica de la galaxia sea la misma que la del modelo y esto se puede ajustar con las funciones.  


CONCLUSIONES

En este proyecto se obtuvieron los modelos de 5 galaxias en sus tres bandas, estos modelos nos serviran para poder ver las componentes de una galaxia, si tiene bulbo, que tipo de bulbo es, si tiene disco, etc. y así estudiar la evolución de las galaxias.
Salcedo Luna Andrea Yoalli, Universidad de Guadalajara
Asesor: Dra. Elizabeth Galindo Linares, Universidad Autónoma de Sinaloa

¿LAS REDES SOCIALES INFLUYERON EN EL COMPORTAMIENTO DE LOS JóVENES EN LAS ELECCIONES DE MéXICO 2024?


¿LAS REDES SOCIALES INFLUYERON EN EL COMPORTAMIENTO DE LOS JóVENES EN LAS ELECCIONES DE MéXICO 2024?

Salcedo Luna Andrea Yoalli, Universidad de Guadalajara. Asesor: Dra. Elizabeth Galindo Linares, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En este estudio y aprovechando el reciente contexto de las elecciones de México 2024, las redes sociales han emergido como una herramienta clave en la formación de opiniones y en la movilización de la información electoral. A medida que aumenta la inclusión del internet en toda la población, el uso de plataformas de redes sociales como Facebook, Instagram, TikTok y X (antes Twitter) ha ido aumentado, de ahí surge la prerrogativa de cómo estas plataformas están modelando las percepciones, actitudes y comportamientos de los votantes. Debido a la capacidad masiva de difusión de las redes sociales, han permitido que los candidatos y ciudadanos compartan información transformando la forma en que se lleva a cabo la campaña electoral. En este estudio se busca analizar: a) descriptivamente cómo las redes sociales están influyendo en el comportamiento electoral de la población juvenil mexicana, explorando la manera en que los jóvenes de 18 a 29 años reciben, interpretan y reaccionan ante la información política en redes sociales. b) Cuantitativamente, a través de la aplicación de encuestas a jóvenes vía redes sociales y cadenas de amistades y el análisis de datos de respuestas e información obtenida en el sitio META El enfoque de métodos mixtos permitirá una mejor comprensión del fenómeno y se podrán encontrar posibles patrones del comportamiento electoral.



METODOLOGÍA

El presente estudio adopta un enfoque mixto secuencial exploratorio, la combinación de enfoques cualitativo y cuantitativo proporcionará una comprensión integral del fenómeno bajo estudio. La investigación tendrá una tendencia con acentuación en la parte cuantitativa, lo que implica, como señala Babativa Novoa (2017), un análisis objetivo y sistemático de datos numéricos para explorar y entender el fenómeno estudiado. El diseño permitirá explorar a profundidad las experiencias y percepciones de los jóvenes, además de cuantificar los efectos que resulten de los análisis que se realizarán usando el software R. El enfoque se basa en procesos experimentales que son medibles y permiten la realización de proyecciones, generalizaciones o el establecimiento de relaciones en una población o entre poblaciones mediante inferencias estadísticas obtenidas a partir de una muestra representativa. Debido a que la población total representa más de 10,000 individuos, para propósitos estadísticos, se considera como una población infinita, con un nivel de confianza del 90% a 93% y un margen de error del 8%. Conforme a la Contraloría General de la República de Chile, Unidad Técnica de Control Externo (2012) Al respecto, una muestra será representativa de la población de la que fue tomada, si la suma de sus características se aproxima al conjunto de características de la población. No obstante, las muestras no tienen que ser representativas en todos los aspectos, limitándose a las características importantes para los intereses reales del estudio.. En este contexto, el objetivo del estudio no se limita únicamente a examinar la influencia del comportamiento electoral de los jóvenes, sino también a analizar como las redes sociales influyen en la conducta de la población votante. Por consiguiente, se aplicó una encuesta que con 22 reactivos a una muestra de 111 individuos (n=111). Los individuos son ciudadanos mexicanos mayores de edad. La aplicación del cuestionario se realizó del sábado 20 de julio al lunes 29 de julio de 2024. Los participantes fueron reclutados a través de redes sociales y sus contactos, lo que corresponde a un muestreo aleatorio estratificado. Cualitativamente, se analizarán los tipos de redes sociales que usaron los participantes, su relevancia y su tendencia, además de los creadores de contenido que posiblemente fueron los más populares, los candidatos con más seguidores, los posibles temas de mayor interés. La recolección de datos se hará usando la plataforma Google Forms. Además, para contrastar el análisis, se realizó una comparación de los gastos de publicidad en Meta (Facebook e Instagram) invertidos por cada partido por estado de la república mexicana en las campañas electorales federales del período comprendido entre el 15 de abril al 13 de julio de 2024, con las búsquedas puntuales en Google durante un lapso de 90 días (del 18 de abril al 18 de julio de 2024), también para todos los estados, relacionadas con cada candidato a la presidencia federal.


CONCLUSIONES

La mayoría de los individuos encuestados entraban en el rango de edad de 18-29 años de edad, donde su voto tuvo lugar en el estado de Jalisco. Del total de la muestra, las principales plataformas para informarse acerca de redes sociales fueron: Facebook (60.2%), TikTok (56.5%) e Instagram (55.6%). Al contrario, las menos recurrentes: páginas de noticas (0.9%), Google (0.9%) y WhatsApp (3.7%). Esto revela que las redes sociales se han convertido en las principales fuentes de información política desplazando a los medios tradicionales. Los individuos consideran que las redes sociales son moderadamente influyentes en su opinión política (41.7%). Parte de la muestra respondió que su voto fue basado en parte por la información obtenida en las redes sociales siendo un 34.3%, mientras que un 56.5% fueron respuestas de negación y 9.3% respuestas afirmativas. No obstante, 83.8% de la muestra opina que el uso de las redes sociales puede influir en los resultados de las elecciones. Se seguirá trabajando en los resultados de la encuesta y la comparación de los gastos invertido en META por cada campaña electoral para tener un análisis cuantitativo más robusto en vías de obtener análisis de regresión y correlación, ANOVA y esperando llegar a Modelos de Ecuaciones Estructurales (SEM).
Salinas Rodríguez Kazumy Elizabeth, Universidad Autónoma de Guerrero
Asesor: Dra. Daniela Alvarado Zambrano, Universidad Politécnica de Sinaloa

ABUNDANCIA Y CARACTERIZACIóN FíSICA Y QUíMICA DE MICROPLáSTICOS EN SEDIMENTOS DE COMPLEJO LAGUNAR HUIZACHE-CAIMANERO, SINALOA


ABUNDANCIA Y CARACTERIZACIóN FíSICA Y QUíMICA DE MICROPLáSTICOS EN SEDIMENTOS DE COMPLEJO LAGUNAR HUIZACHE-CAIMANERO, SINALOA

Salinas Rodríguez Kazumy Elizabeth, Universidad Autónoma de Guerrero. Asesor: Dra. Daniela Alvarado Zambrano, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los microplásticos (MPs) se han convertido en una preocupación ambiental significativa en las últimas décadas. Estos pequeños fragmentos (<5 mm) se originan a partir de la degradación de productos plásticos más grandes y del uso directo de microesferas en productos cosméticos y de limpieza. Su ubicuidad en el medio ambiente ha generado inquietudes sobre sus impactos ecológicos y en la salud humana. En los ecosistemas marinos, los MPs presentan numerosos problemas; la fauna marina a menudo ingiere estas partículas, lo que puede causar graves daños físicos, tanto internos como externos. Además, los MPs pueden alterar la composición y estructura de los sedimentos marinos, afectando negativamente a los hábitats bentónicos y a la biodiversidad. Para los humanos, los MPs representan un riesgo emergente. Pueden ingresar al cuerpo a través de la ingesta de agua embotellada y mariscos. Una vez dentro del cuerpo, pueden liberar contaminantes ambientales causando inflamación, estrés oxidativo y perturbaciones endocrinas. Esta investigación se enfoca en analizar la presencia de MPs en los sedimentos superficiales del complejo lagunar Huizache-Caimanero, un entorno vulnerable por la mezcla de agua dulce y salada y su proximidad a áreas urbanas e industriales. Este análisis es crucial para: Evaluar la extensión de la contaminación por MPs en el ecosistema; identificar posibles fuentes y rutas de transporte de los MPs mediante la caracterización química; proporcionar información que ayude a desarrollar políticas de mitigación y estrategias de manejo de aguas residuales, protegiendo los ecosistemas costeros y la salud pública.



METODOLOGÍA

Secado y molienda Las muestras de sedimento se secaron en un horno a 65°C por 96 horas. Cuando las muestras estuvieron secas, se utilizó un mortero de ágata para disgregar el sedimento y fueron almacenadas nuevamente en frascos de vidrio; se homogeneizaron usando una cuchara de acero inoxidable y se tomaron tres submuestras de 15 g de cada una. Digestión Se les aplicó una digestión de materia orgánica (MO) utilizando peróxido de hidrógeno (H2O2) al 30 %, durante 72 horas a 70 rpm. Después de agregarles 30 ml de H2O2 a las 3 muestras (y sus triplicados, dando como resultando 9 submuestras) se colocaron en una campana de extracción y en tinas con agua templada para regular la temperatura. Flotación Ya que la digestión de la MO llega a su fin, se les agregan 300 ml de solución salina (NaCl) a una densidad de 1.2 g/cm3 y se agitan muy bien durante 1 minuto usando una cuchara de acero inoxidable. Para preparar la solución salina se agregaron 315 g de sal de mesa común por cada L de agua Milli-Q. Todo este proceso se realizó de manera parcial, agregando 70 g de sal a 200 ml de agua Milli-Q, hasta la disolución total. Cuando la submuestra esté completamente homogeneizada, se deja reposar por aproximadamente 48 horas. El proceso de flotación para separar PPP del sedimento funciona gracias a la densidad de la solución salina aplicada; al ser mezclada con el sedimento, hace que las PPP de menor densidad queden suspendidas, logrando su separación. Filtrado Pasando las 48 horas, ya que el sedimento haya quedado al fondo del recipiente, se recuperó la solución sobrante con una pipeta de vidrio de 10 ml. La solución recuperada se filtró usando un sistema de filtrado de vidrio, en donde se colocan filtros GF/F; estos filtros fueron almacenados en cajas Petri de vidrio y se secaron durante 3 horas a 45°C para poder ser observados bajo el estereomicroscopio. Separación de MPs Terminando los procesos en el laboratorio, los filtros de cada una de las muestras fueron observados en un estereomicroscopio para contabilizar todas las posibles partículas plásticas (PPP) y clasificarlas respectivamente. Análisis químico de los MPs Como último procedimiento, las PPP fueron analizadas en un Espectroscopio de Infrarrojo por Transformada de Fourier (FTIR-ATR) marca Thermo Scientific™ modelo Nicolet™ iNTM10 MX, con la finalidad de confirmar la composición polimérica de cada partícula encontrada. Se utilizaron librerías previamente establecidas en el equipo; una de las librerías utilizadas es desarrollada por el Laboratorio de Microplásticos del Instituto de Ciencias del Mar y Limnología, UNAM, Unidad Mazatlán. Control de calidad Todos los procedimientos realizados en el laboratorio se realizaron sobre superficies limpias, procurando usar siempre bata de laboratorio de algodón al momento de manipular las muestras, así como guantes de nitrilo libres de polvo. Todas las soluciones usadas fueron previamente filtradas, esto para evitar que las muestras fueran contaminadas por posibles partículas de MPs contenidas en los reactivos o agua. Para el almacenamiento de las muestras, siempre se usaron contenedores de vidrio, antes y después de la extracción de MPs. Dichos contenedores fueron previamente enjuagados con agua tridestilada filtrada. Durante todos los procesos realizados en el laboratorio se realizaron controles (blancos) que fueron ubicados en diferentes sitios del laboratorio. Estos blancos (2 en total) fueron sometidos a los mismos procesos que las muestras para calcular un mínimo de detección.


CONCLUSIONES

Se analizaron el 100% de todas las partículas encontradas en los 11 filtros (73 partículas en total), de las 3 muestras de sedimento superficial provenientes del complejo lagunar Huizache-Caimanero. La forma predominante de las PPP fueron las fibras (91%), seguida de fragmentos (9%); las fibras variaron de color siendo mayormente de color negro (71%) y azul con blanco (23%). De acuerdo con la composición polimérica obtenida de los análisis, se arrojó que las partículas fueron mayormente Algodón (57%), seguidas de Celulosa (polímero natural) (20%), PET (polietileno tereftalato) (4%), Rayón (1%), Acrílico (1%) y el resto, No Plástico (17%). La presencia de estos materiales, puede ser un indicador de que el principal factor de contaminación en el complejo lagunar sean las descargas residuales domésticas por el lavado de ropa.
Salomón Amador Ian Vladimir, Universidad Autónoma de Sinaloa
Asesor: Dr. Javier Alejandro Gonzalez Ortega, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)

VELOCIDAD INTERSíSMICA Y SEMIPERIODICIDAD SSE EN OAXACA


VELOCIDAD INTERSíSMICA Y SEMIPERIODICIDAD SSE EN OAXACA

Salomón Amador Ian Vladimir, Universidad Autónoma de Sinaloa. Asesor: Dr. Javier Alejandro Gonzalez Ortega, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los eventos de deslizamiento lento (Slow Slip Events, SSE) son deslizamientos que ocurren en la interfase de zonas de subducción, concentrados en una zona con bajo acoplamiento sísmico (Cruz-Atienza et al., 2021). Recientemente se han realizado investigaciones sobre SSE’s en la zona de subducción de México empleando modelos e interpretaciones sobre el comportamiento de la superficie utilizando datos InSAR y GPS. En este estudio se utilizaron estaciones GPS para realizar series de tiempo con las cuales se estimó la velocidad intersísmica y la semiperiodicidad de los SSE’s en la región del estado de Oaxaca, a su vez se analizaron los cambios en la semiperiodicidad de SSE’s que generaron los sismos de magnitudes mayores a 7 en la zona de subducción mexicana. Para llevar a cabo la investigación se utilizaron datos de 11 estaciones GPS ubicadas a lo largo de los estados de Guerrero, Oaxaca, Puebla y Veracruz. Teniendo cobertura sobre la zona subducción mexicana La información procesada muestra el movimiento del terreno de las zonas en la componente Norte, Este y Altura a lo largo del tiempo de medición de cada estación. Cabe destacar que todas las estaciones involucradas son permanentes y la mayoría de los datos abarcan desde inicios de la década del 2010’s hasta mediados del 2023, salvo por algunas estaciones con datos desde 2003.



METODOLOGÍA

Se empleó la aplicación OriginPro para graficar las componentes Este, Norte y Altura de cada estación para después utilizar la componente Norte como guía para delimitar el periodo intersísmico y SSE, debido a que el movimiento de los SSE’s es preferentemente perpendicular a la trinchera. Para establecer las ventanas de tiempo que indican el periodo intersísmico y SSE se utilizaron aquellas estaciones cuyo comportamiento fuera constante en la componente horizontal. Posteriormente se aplicó un ajuste lineal dentro de la interfaz de OriginPro que permitió generar una velocidad promedio entre los periodos intersísmicos y SSE’s. La componente de altura no se utilizó en el estudio puesto a que la señal vertical cuenta con un comportamiento estacional donde las variaciones de temporada en la serie de tiempo afectan en la estimación de velocidades y sus incertidumbres a menos que se utilice un modelo que reduzca semejante efecto (Lui et at., 2020).


CONCLUSIONES

Con las estaciones OAX2 y TNNX se pueden identificar claramente los periodos intersísmicos y SSE’s, con promedio de duración de ~0.5 años. En las estaciones costeras, OXPE, OXUM y TNCY, no se logra observar los SSE, definiendo así el límite espacial de los SSE’s en el estado de Oaxaca. Las velocidades intersismicas promedio en OAX2 es 18.7 mm/año (norte) y 8.6 mm/año (este), y en TNNX es 12.0 mm/año (norte) y 6.0 mm/año (este). Mientras que las velocidades SSE promedio en OAX2 es -6.2 mm/año (norte) y -11.6 mm/año (este), y en TNNX es -23.1 mm/año (norte) y -12.0 mm/año (este). Finalmente, la duración de los periodos intersismicos entre SSE’s en OAX2 muestra una modificación en su semi-periodicidad debido al sismo de Ometepec del 2012 de Mw 7.5; antes del evento sísmico, con periodicidad de ~0.5 años, ~1.5 años, ~1.5 años y ~0.5 años, y así sucesivamente. Y, posterior al sismo, esta periodicidad se modificó a ~0.5 años, ~1.5 años, ~0.5 años, ~1.5 años. Por lo cual, al modificarse el patrón de duración de los periodos intersísmicos, los SSE’s también tendrán afectaciones en su ocurrencia.   
Sanchez Castillo Yair Osiel, Universidad Veracruzana
Asesor: Dr. Andres Manuel Garay Tapia, Centro de Investigación en Materiales Avanzados (CONACYT)

IDENTIFICACIóN POR PRIMEROS PRINCIPIOS DEL PARáMETRO C/A EN EL SISTEMA HEXAGONAL EN SOLUCIóN SóLIDA MG12.5ZN87.5


IDENTIFICACIóN POR PRIMEROS PRINCIPIOS DEL PARáMETRO C/A EN EL SISTEMA HEXAGONAL EN SOLUCIóN SóLIDA MG12.5ZN87.5

Sanchez Castillo Yair Osiel, Universidad Veracruzana. Asesor: Dr. Andres Manuel Garay Tapia, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La teoría y la experimentación son procesos de investigación que siempre han estado relacionadas, con la experimentación si bien podemos saber de primera mano el resultado esta conlleva muchos experimentos los cuales pueden ser costosos y tardados, por ello se confía en la teoría, ya que con ella podemos aproximar las condiciones hacia un resultado deseado ahorrando de esta forma tiempo y recursos. En las simulaciones de estructuras cristalinas, una forma para encontrar el volumen de mínima energía es configurando los parámetros de red hasta encontrar dicho mínimo, esto con la ayuda de la ecuación de estado de Birch-Murnaghan. Con sistemas cúbicos lo anterior no es complicado, ya que se optimizan los tres parámetros de red en la misma proporción, sin embargo, en sistemas hexagonales esto se rige por una relación entre el parámetro 'c' y 'a' (c/a). Por ello se prestará atención al sistema hexagonal en solución sólida Mg-Zn con composición 12.5% atómico de Mg y 87.5% atómico de Zn, ya que ambos sistemas son hexagonales con sus propios c/a y poder observar cuanto cambia este parámetro al mover la composición fuera de sus componentes. Con lo anterior se busca encontrar regiones de c/a de energía mínima, así como el c/a de mínima energía global.



METODOLOGÍA

Para comprender mejor lo que se realizó, es necesario conocer los siguientes conceptos: La Teoría del Funcional de Densidad (DFT) es una metodología fundamental en la física de materiales y la química computacional. Permite la predicción y el análisis de propiedades electrónicas y estructurales de sistemas materiales a nivel atómico, utilizando la densidad electrónica como variable central. Por otra parte, VASP es un software de simulación que permite calcular las propiedades electrónicas y estructurales de materiales basándose en la Teoría del Funcional de Densidad (DFT). Para realizar una simulación en VASP, debes preparar varios archivos de entrada: POSCAR (Define la estructura cristalina del sistema.) INCAR (Es un archivo de control en el cual se introducen condiciones iniciales del sistema, formas de optimización de la estructura cristalina, algoritmos de búsqueda de energía mínima, en general son banderas que permiten al cálculo una mejor optimización más rápida y certera.) KPOINTS (Los cálculos de este sistema se llevan a cabo en el espacio reciproco y es necesario mapear dicho sistema para que el código calcule la energía del mismo, por ello los kpoints es el mallado que se utiliza para el cálculo de la estructura cristalina.) POTCAR (Contiene los pseudopotenciales para los elementos presentes en el sistema. Combina los pseudopotenciales de magnesio (Mg) y zinc (Zn) de la base de datos de VASP.) Con la ayuda de este programa se hicieron dos formas de relajación en la configuración, las curvas de energía y volumen que obtuvimos nos permitieron identificar en que parámetros de red se encuentra la mínima energía. La primera forma de relajación es una en donde el sistema solo optimiza los parámetros de red y la segunda es la optimización de los parámetros de red y sus posiciones atómicas. La diferencia de ambas relajaciones es que en una se mantiene tal cual la simetría del sistema y en otra la simetría puede cambiar debido a los movimientos atómicos, con esto nos daríamos cuenta cómo afectan estas relajaciones al parámetro c/a A partir de los datos obtenidos se buscó el mínimo para cada grafica de Volumen y Energía mediante la ecuación de estado de Birch-Murnaghan. Después se escogió un c/anicial utilizando los parámetros de red de los componentes al tomar una proporción de 12.5 de los parámetros de red del Mg y sumarle la proporción 12.5 de Zn. Se expandió y comprimió un 5% en el parámetro 'c', dejando al parámetro 'a' constante y de igual manera se expandió y comprimió un 5% el parámetro 'a' y se dejó al parámetro 'c' constante. A continuación, estos datos se organizaron y corrieron en el programa VASP.  Con los datos obtenidos se procedió a realizar una gráfica mediante una interpolación con ayuda de un código realizado en Python 3, esta interpolación de datos se hizo poder buscar los valores que indicaran el c/a de mínima energía general.


CONCLUSIONES

Aunque faltaron ciertos datos para poder encontrar un mínimo de energía más preciso, con lo obtenido se logró obtener la región donde hay que buscar estos mínimos de energías, ya que, en los resultados finales de interpolación, se denota la región donde se encuentra el mínimo de energía más exacto. En la gráfica del parámetro 'c' contra 'a' podemos observar las energías de la hexagonal con respecto a dichos parámetros donde se encuentran las mínimas energías con valores de -34.9035911, -34.5638407, -34.6784454, -34.1064757 para la primera relajación y con valores de -35.0451066, -34.730528, -34.85628, -34.2708287 para la segunda relajación. También se notó que es visible identificar los elementos puros del sistema frente a la solución que se trabajó, donde se observa en la interpolación a él Mg cuyos parámetros tienen valores de a=3.2092, c=5.2099 y un c/a = 1.6234, esto debido a la solución del sistema la cual contiene un mayor número de átomos de Mg, tal caso no es el mismo para el Zn cuyos parámetros tienen valores de a=2.665, c=4.947, c/a=1.8563 y el cual no es visible en la interpolación. También quiero mencionar que este verano me permitió aprender y desarrollar habilidades nuevas, así como a expandir mis conocimientos dentro del área de Física de materiales. Por último, quiero agradecer a las personas involucradas que me apoyaron en este verano.
Sanchez Loeza Renato, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Jesús López Hernández, Universidad Autónoma de Sinaloa

DIAGRAMAS DE DIAGNóSTICO EN GALAXIAS OBSERVADAS CON ESPECTROSCOPíA DE CAMPO MANGA DEL SLOAN DIGITAL SKY SURVEY


DIAGRAMAS DE DIAGNóSTICO EN GALAXIAS OBSERVADAS CON ESPECTROSCOPíA DE CAMPO MANGA DEL SLOAN DIGITAL SKY SURVEY

Sanchez Loeza Renato, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Jesús López Hernández, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Desde los inicios de la astronomía, la tecnología ha sido clave para observar el firmamento. Los primeros telescopios ópticos, como los de Galileo Galilei, mejoraron la observación celeste, y la fotografía, iniciada por John William Draper en 1840, facilitó la precisión. La llegada de los CCD revolucionó la observación astronómica, capturando hasta el 95% de la luz y mejorando la distribución de datos. Técnicas avanzadas como el barrido con rendijas, el interferómetro de Fabry-Pérot y la espectroscopia multiobjetos (MOS) permitieron analizar en detalle la composición y velocidad de los objetos celestes. Hoy en día, la espectroscopía integral de campo (IFS) es el estándar, generando cubos de datos que combinan dimensiones espaciales y espectrales, facilitando el análisis de gas en galaxias distantes. Las Unidades Integrales de Campo (IFU) permiten estudiar objetos extensos en una sola observación. Los métodos en IFS incluyen arreglos de lentes, arreglos de fibras y cortadores, que optimizan la observación y el análisis astronómico. Actualmente, se planea analizar datos de galaxias del proyecto MaNGA para estudiar la formación estelar usando diagramas de diagnóstico BPT.



METODOLOGÍA

Para analizar los datos de la galaxia manga 7495-6102 utilizando el cubo de datos proporcionado, sigue estos pasos: Descarga del Cubo de Datos: 1. Accede a Marvin. 2. Dirígete a SkyServer. 3. Selecciona Explore en la barra lateral derecha. 4. Haz clic en MaNGA observation(s) y luego en LIN Data Cube. 5. Descarga el archivo comprimido .fits.gz.  Procesamiento con Python: Utiliza las librerías Astropy, numpy y matplotlib. De manera que con la ayuda de la libreria Astropy podemos abrir cualquier archivo .fits y explorar sus atributos.  El cubo de datos tiene dimensiones de 6732 (espectral) x 54 (espacial) x 54 (espacial), resultando en 19,630,512 voxeles. Visualización de Datos: Para esto se requiere ubicar el spaxel a explorar en el cubo de datos, ya que recordemos que tiene 2 dimensiones espaciales y una espectral. Visualizacion de Espectro de un Spaxel: Extrae y grafica el espectro del spaxel en la posición (27, 27). Visualizacion de Imagen del Cubo de Datos: Muestra una imagen de la galaxia en una longitud de onda especifica. Ajuste de Longitudes de Onda: Utiliza el redshift de DAPall del SDSS para ajustar las longitudes de onda basadas en el PLATEIFU. Creación de Interfaz para Visualización de Datos Astronómicos: He desarrollado una interfaz gráfica llamada InterVisor usando Dearpygui. Características de InterVisor: 1. Abrir Archivos: Permite abrir archivos .fits, .gz o .fits.gz. 2. Visor de Espectro: Selecciona un spaxel (i, j) y un rango de longitud de onda para visualizar el espectro. 3. Extractor de Imagen: Muestra la imagen de la galaxia en una longitud de onda específica. 4. Información del Archivo: Proporciona detalles adicionales sobre el archivo .fits. Resultados: El programa proporciona una herramienta robusta para la visualización de archivos .fits del proyecto MaNGA. Utiliza Astropy, Numpy y Dearpygui para manejar y visualizar los datos de manera eficiente. Observación de Líneas de Emisión: Creación de Mapas de Intensidad:  Pasos para la extracción de datos de la línea de emisión: 1. Filtrado de datos inválidos: Elimina bloques de datos llenos de ceros o valores infinitos. 2. Definir el margen para extraer datos de la línea de emisión. 3. Establecer un submargen para calcular la media del continuo. 4. Calcular el FWHM para una sigma precisa. 5. Ajustar una gaussiana a los datos de la línea de emisión. 6. Integrar el área bajo la curva gaussiana y almacenarla. 7. Generar la imagen con los datos de la línea de emisión.  Automatización: Este proceso se automatiza para cada píxel del cubo de datos, generando un mapa de líneas de emisión.  Diagramas de Diagnóstico BPT: Para generar diagramas de diagnóstico que proporcionen información sobre el objeto observado: 1. Obtener las líneas de emisión y almacenarlas en un archivo .fits. 2. Integrar los datos de las líneas de emisión [NII] 6548, Hα 6564, Hβ 4861, [OIII] 5007. 3. Calcular log10(NII/Hα) y log10(OIII/Hβ). 4. Graficar las relaciones en un diagrama de diagnóstico BPT.  Diagramas BPT a Resolución Completa: Para un análisis detallado, genera diagramas BPT a resolución completa.  Pasos: 1. Obtener las líneas de emisión. 2. Verificar que los flujos tengan datos en la misma locación. 3. Dividir los datos y guardar los resultados. 4. Graficar los resultados. Se obtienen nubes de puntos que reflejan la fuente de ionización de los píxeles en el cubo. El código utilizado se encuentra en mi repositorio de GitHub: https://github.com/renatosanz/delfin. Esto permite un análisis certero de las líneas de emisión y facilita la exploración de datos espectroscópicos y de imagen


CONCLUSIONES

Durante la estancia, se abordaron temas como la espectroscopía integral de campo, el manejo de archivos .fits y la creación de rutinas de visualización para cubos de datos del MaNGA, enfocados en la formación estelar con diagramas BPT. A pesar de la complejidad física y matemática de estos temas, me esforcé al máximo en programación y análisis de datos, desarrollando InterVisor. Este sistema aún no está finalizado, pero planeo mejorar su funcionalidad con opciones como mapas de cinética, visualización 3D y mapas de temperaturas. El análisis a resolución completa mostró nubes de puntos con algunos alejados de la multitud, posiblemente indicando la presencia de un AGN o agujero negro supermasivo, como en el caso de manga-7495-6102. Agradezco a mi asesor, Jesús López Hernández, por introducirme a la astronomía computacional. Durante seis semanas, aprendí mucho sobre estudios interestelares en aspectos históricos, teóricos y prácticos.
Sánchez Olivares Mitzy Itzel, Universidad Autónoma del Estado de México
Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara

IMPACTOS AMBIENTALES Y SOCIOECONóMICOS DE LOS CICLONES TROPICALES EN EL DESARROLLO URBANO Y TURíSTICO: UN ESTUDIO DE LOS ASENTAMIENTOS IRREGULARES EN LA CUENCA DEL RíO CUALE


IMPACTOS AMBIENTALES Y SOCIOECONóMICOS DE LOS CICLONES TROPICALES EN EL DESARROLLO URBANO Y TURíSTICO: UN ESTUDIO DE LOS ASENTAMIENTOS IRREGULARES EN LA CUENCA DEL RíO CUALE

Sánchez Olivares Mitzy Itzel, Universidad Autónoma del Estado de México. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Parte de la Cuenca del Río Cuale se ubica en el municipio de Puerto Vallarta, presenta una importante cantidad de atractivos basados en los recursos naturales, lamentablemente la carencia de aplicación de planes, programas y normatividad en la conservación y aprovechamiento sustentable de las zonas naturales, asi como impactos de fenómenos naturales pone en riesgo su preservación y desarrollo, sobre todo por la afluencia de turistas en temporadas altas ya que el turismo es la base de la economía local, donde cerca del 80% de los empleos son vinculados a este sector, por lo que lo hace muy vulnerable a las posibles contingencias del mismo. En 2020, la población en Puerto Vallarta fue de 479,471 habitantes (50.2% hombres y 49.8% mujeres), en comparación a 2010, la población creció un 26.2% (INEGI, 2020); este crecimiento poblacional derivado de una mala planeación y aunado a los asentamientos irregulares de la región ha traído consigo consecuencias e impactos negativos en la infraestructura y el paisaje, los servicios medioambientales y la biodiversidad, la contaminación por descargas de aguas residuales, desechos sólidos y actividades humanas. Las principales problemáticas identificadas en la Cuenca se relacionan con la deforestación en la parte alta de la Cuenca, el crecimiento urbano sin regulación y las inundaciones periódicas durante la temporada de lluvias a la obstrucción del flujo del agua, aumentan la erosión del suelo y la sedimentación, afectando su flujo natural y la estabilidad de sus márgenes, lo cual representa un riesgo para las comunidades asentadas alrededor del río, aumentando aún más ante la presencia de ciclones tropicales.



METODOLOGÍA

La metodología de la presente investigación sobre los fenómenos hidrometeorológicos asociados a la Cuenca del río Cuale, en el municipio de Puerto Vallarta, Jalisco; consta de diversos pasos a seguir para la obtención de un análisis y resultados esperados; se empleó el método deductivo para analizar la situación desde una perspectiva estructural y lógica. El estudio adopto un enfoque mixto, combinando métodos cualitativos y cuantitativos para obtener una comprensión integral socioeconómica y ambiental de dichos riesgos en la Cuenca. Se realizó una revisión bibliográfica con el objetivo de identificar fuentes impresas y digitales de estudios previos, literatura académica sobre los fenómenos hidrometeorológicos, riesgos, vulnerabilidad, urbanización, gentrificación, expansión demográfica, entre otros conceptos, para establecer un conocimiento sólido en la delimitación el tema y área de estudio. Posteriormente se identificaron los ciclones tropicales del periodo 1990 - 2023 que afectaron directa e indirectamente a la Cuenca, se analizó la información de fuentes internacionales como la National Oceanic and Atmospheric Administration (NOAA) para la obtención precisa de datos relacionados con los ciclones y del sistema meteorológico nacional a través del programa Busca Ciclones, donde se obtuvieron las trayectorias y se integraron a un Sistema de Información Geográfica (ArcMap 10.3 y Qgis 3.34); la información se plasmó en un mapa de trayectorias por su grado de afectación para su debida interpretación. Una vez obtenida la caracterización de la información oficial, se realizó una salida de campo en las zonas de interés con el objetivo de obtener una comprensión detallada y precisa de las condiciones y problemáticas ambientales, socioeconómicas y físicas de la región, para identificar los factores y variables que contribuyen a la vulnerabilidad y exposición de la cuenca ante eventos hidrometeorológicos, tales como ciclones tropicales, lluvias intensas, deslaves, etc. Para esta investigación se hizo uso de encuestas estructuradas para los residentes del área de estudio a través de una muestra por conveniencia, la cual de acuerdo con (Muguira, 2024) se basa en utilizar a los sujetos disponibles, y es útil para las fases iniciales o las fases pilotos de alguna investigación; para la recopilación de datos sobre la percepción, prevención y respuestas de la comunidad ante fenómenos hidrometeorológicos en la Cuenca. La encuesta consta de 27 preguntas, divididas en dos secciones; la primera sección contiene preguntas con un enfoque socioeconómico para conocer las viviendas más susceptibles y vulnerables ante algún fenómeno natural; la segunda sección incluye un enfoque sobre la población ante la percepción del riesgo. Una vez teniendo los resultados de las fuentes consultadas y los instrumentos implementados se dio una interpretación y análisis de estos, para su correspondiente conclusión. Por último, se estructuró este documento para su debida presentación ante el público de interés.


CONCLUSIONES

Analizar el impacto de los ciclones tropicales es primordial, ya que estos eventos pueden causar serios daños a la infraestructura, la economía y la vida de las personas; con la finalidad de planificar de forma sostenible el desarrollo urbano y turístico para garantizar el bienestar de los residentes y la preservación del entorno natural. A pesar de que en el municipio de Puerto Vallarta se cuenta con Planes de Desarrollo Municipal y Programas de Ordenamiento Territorial no se tiene una buena implementación sobre las políticas públicas y la gobernanza local en la gestión de recursos y desastres naturales. Comprender los desafíos y las limitaciones existentes en la gestión integral del riesgo y la planificación urbana permite identificar áreas de mejora y fortalecer la capacidad institucional para manejar de manera sostenible los recursos hídricos y con ello el desarrollo sostenible de la población. Este estudio se vincula con los Objetivos de Desarrollo Sostenible: ODS 11 Ciudades y Comunidades Sostenibles, que busca hacer que las ciudades y los asentamientos sean inclusivos, seguros, resilientes y sostenibles; y el ODS 13 Acción por el Clima que se enfoca en tomar medidas urgentes para enfrentar el cambio climático y sus efectos.
Sánchez Orbe Rashid Celeste Daniela, Universidad de Sonora
Asesor: Dr. José Trinidad Guillen Bonilla, Universidad de Guadalajara

SÍNTESIS Y CARACTERIZACIÓN DE ÓXIDO SEMICONDUCTOR COSB2O6 RASHID CELESTE DANIELA SáNCHEZ ORBE UNIVERSIDAD DE SONORA, A221203696@UNISON.MX ASESOR DR. JOSé TRINIDAD GUILLéN BONILLA UNIVERSIDAD DE GUADALAJARA, TRINIDAD.GUILLEN@ACADEMICOS.UDG.MX


SÍNTESIS Y CARACTERIZACIÓN DE ÓXIDO SEMICONDUCTOR COSB2O6 RASHID CELESTE DANIELA SáNCHEZ ORBE UNIVERSIDAD DE SONORA, A221203696@UNISON.MX ASESOR DR. JOSé TRINIDAD GUILLéN BONILLA UNIVERSIDAD DE GUADALAJARA, TRINIDAD.GUILLEN@ACADEMICOS.UDG.MX

Sánchez Orbe Rashid Celeste Daniela, Universidad de Sonora. Asesor: Dr. José Trinidad Guillen Bonilla, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Conforme avanza la tecnología se ha requerido de una inmensa cantidad de dispositivos que, en cuya construcción, resulta necesaria la síntesis de materiales que contengan ciertas propiedades físico-químicas particulares para su respectivo posible uso; estas propiedades estructurales y composicionales dicen mucho sobre la naturaleza del material: su comportamiento químico, magnético, eléctrico, etc. El material CoSb2O6 es un semiconductor cuyas propiedades dan lugar conveniente a su aplicación en la detección de gases o en cuestiones energéticas. Durante la estancia de investigación se sintetizó este material, usando el método de difracción de rayos x para conocer su estructura y fase, esto con la finalidad de encontrar resultados cercanos a los de la literatura.



METODOLOGÍA

Para la síntesis de CoSb2O6 fueron utilizados 2.91 g de Co, 2.31 g de Sb, 1 ml de etilendiamina y alcohol etílico. Una vez mezclado, se colocó la muestra en el agitador a 300 rpm durante 24 horas. Se realizó la evaporación con radiación microondas de 20 W de potencia, con 13 ciclos de 30 segundos. Posteriormente se hizo el secado y calcinado en una mufla, en la cual la rampa de temperatura estuvo a 480° C y 800° C, durante 5 h y 8.33 h, respectivamente; a 1.6° C/Min.


CONCLUSIONES

De la presente investigación se ha logrado observar que, por su difractograma, la estructura cristalina del material indica que los picos de la fase principal corresponden a una estructura tetragonal; así mismo, se encuentra una segunda fase. Los picos principales, correspondientes al CoSb2O6, se encontraron en 2θ=27.1° y 34.8°; también se aprecian picos de la fase secundaria en 2θ=29.61° y 61.39°. Por la literatura (PDF #18-0403) también es posible conocer los parámetros de celda, siendo a=4.6539 Å y c=9.283 Å. Para la segunda fase, correspondiente a Co2.33Sb0.67O4, el archivo PDF #14-0517 muestra una estructura cúbica con parámetro de celda a=8.54 Å.
Sánchez Pérez Ana Paola, Instituto Tecnológico de Morelia
Asesor: Dr. Carlos Angeles Chavez, Instituto Mexicano del Petróleo

ESTUDIO DE CATALIZADORES BASE NIQUEL EN LA REACCIÓN DE HIDRODESOXIGENACIÓN DEL FENOL.


ESTUDIO DE CATALIZADORES BASE NIQUEL EN LA REACCIÓN DE HIDRODESOXIGENACIÓN DEL FENOL.

Sánchez Pérez Ana Paola, Instituto Tecnológico de Morelia. Asesor: Dr. Carlos Angeles Chavez, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

Los combustibles convencionales han causado efectos negativos significativos en el medio ambiente, incluyendo la emisión de gases de efecto invernadero y la contaminación atmosférica. Además, las fuentes de estos combustibles son no renovables, lo que plantea un problema de suministro a largo plazo. Estas preocupaciones han impulsado la búsqueda de fuentes de energía y materias primas sostenibles. La producción de biocombustibles se ha destacado como una estrategia prometedora para mitigar estos efectos negativos debido a su capacidad para reducir la dependencia de los combustibles fósiles y disminuir las emisiones de carbono. La biomasa se presenta como una alternativa prometedora debido a su abundancia, renovabilidad y capacidad para producir biocombustibles y otros productos químicos de alto valor agregado. Sin embargo, los biocombustibles derivados de la biomasa presentan desafíos, especialmente debido a su alto contenido de oxígeno, que puede afectar negativamente su potencial energético y compatibilidad con los combustibles fósiles. Para mejorar estas propiedades, es crucial desoxigenar las moléculas presentes en los bio-aceites, mejorando así su estabilidad y valor energético. La hidrodesoxigenación (HDO) es un proceso catalítico clave para la eliminación de compuestos oxigenados en los bio-aceites. El fenol se utiliza como una molécula modelo común en los bio-aceites debido a su estructura representativa de los compuestos oxigenados presentes en estos aceites. Se busca comprender cómo la adición de diferentes promotores y la variación de las condiciones de síntesis afectan la dispersión y la actividad de las nanopartículas de níquel en los soportes de óxido, y en última instancia, optimizar el proceso de desoxigenación para mejorar la calidad de los biocombustibles derivados de la biomasa.



METODOLOGÍA

El proceso experimental para la preparación de los tres catalizadores de níquel APNi-AAN APNi-NaB y APNi-Cl involucró la disolución de sales de níquel en agua seguida de ajustes de pH usando hidróxido de sodio y en el caso del APNi-AAN la adición de ácido ascórbico, mientras que para el APNi-NaB se utilizó borohidruro de sodio las soluciones resultantes se sometieron a calentamiento bajo agitación constante a temperaturas entre 70-75°C durante 20 horas excepto para el APNi-NaB que se dejó reaccionar por solo 10 minutos adicionales después de la mezcla de los reactivos posteriormente todas las muestras se filtraron usando un matraz Kitasato con papel filtro y se secaron en un horno a 60°C durante 20 horas, los productos secos se pesaron para determinar el rendimiento observándose variaciones en las cantidades obtenidas entre los diferentes catalizadores y lotes preparados siendo el APNi-NaB el que produjo mayor cantidad de producto con 4.08 g en un solo lote, mientras que los otros dos catalizadores se prepararon en dos lotes cada uno con rendimientos variables. Con la finalidad de activar los catalizadores se realizaron reducciones a 400 °C por una hora con un flujo de 60 ml/min de hidrógeno con una rampa de calentamiento de 4°C/min. Posteriormente, los catalizadores reducidos fueron recuperados en una cámara de atmósfera inerte con nitrógeno. La cámara fue llevada a vacío y se cambió la atmosfera por nitrógeno cuatro veces, esto para evitar que el catalizador se oxidara nuevamente en presencia del oxígeno. Finalmente, los materiales fueron transferidos a 50 ml de dodecano para mantenerlos en un ambiente libre de oxígeno atmosférico, el procedimiento y las condiciones de operación fueron iguales para los tres catalizadores. Los productos sintetizados fueron sometidos a diversas técnicas de caracterización para analizar sus propiedades y estructura. La difracción de rayos X (DRX) se realizó sobre el catalizador en polvo en su forma recién sintetizada, proporcionando información sobre su estructura cristalina. Para la espectroscopía de dispersión de energía de rayos X (EDX) y la microscopía electrónica de transmisión (MET), se prepararon muestras en etanol tanto del material sintetizado como del reducido, permitiendo el análisis de su composición elemental y morfología respectivamente. Por último, la espectroscopia fotoelectrónica de rayos X (XPS) se llevó a cabo con el material reducido y recuperado en hexano, ofreciendo datos sobre el estado químico de los elementos en la superficie del catalizador. Esta combinación de técnicas proporciona una caracterización completa de los catalizadores en diferentes estados y condiciones. Las reacciones de hidrodesoxigenación (HDO) del fenol se llevaron a cabo utilizando un reactor Parr bajo las siguientes condiciones: 800 psi de presión con hidrógeno, una agitación de 1000 rpm y una temperatura de 320 °C. Se muestrearon las reacciones en los tiempos 0, 10, 20, 40 y 60 minutos para cada uno de los catalizadores sintetizados. Las muestras fueron analizadas mediante cromatografía de gases utilizando un cromatógrafo Agilent 7890 A. 


CONCLUSIONES

Los catalizadores a base de óxidos de níquel mostraron un buen desempeño en la reacción de HDO del fenol, ofreciendo una prometedora alternativa para la producción de biocombustibles y productos químicos de alto valor agregado a partir de bio aceite. La conversión de fenol se calculó en función de la disminución de su área de pico en el cromatograma con el tiempo, todos los catalizadores mostraron una conversión significativa de fenol a lo largo del tiempo, con variaciones en la eficiencia dependiendo del tipo de catalizador. Los productos principales de la reacción fueron hexano, metilciclopentano, benceno, ciclohexano y ciclohexeno,  La caracterización detallada y la evaluación de la actividad catalítica permitieron identificar los catalizadores más eficientes y proporcionaron una base sólida para futuras mejoras en el diseño de catalizadores.
Sánchez Pérez Lázaro Fabián, Universidad de Guadalajara
Asesor: Dr. Ricardo Escobedo Alcaraz, Universidad de Guadalajara

ANáLISIS HAMILTONIANO Y TEMAS SELECTOS DE MECáNICA CLáSICA


ANáLISIS HAMILTONIANO Y TEMAS SELECTOS DE MECáNICA CLáSICA

Sánchez Pérez Lázaro Fabián, Universidad de Guadalajara. Asesor: Dr. Ricardo Escobedo Alcaraz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El formalismo hamiltoniano es de gran utilidad, no solo en la mecánica, sino también en diversas áreas de la física para el análisis de múltiples sistemas y el tratamiento de diferentes teorías. Como ejemplo de esto, además de ser utilizado en la mecánica teórica, también se emplea en la mecánica estadística, la mecánica cuántica y la teoría de Hamilton-Jacobi. El uso de este formalismo es necesario en muchos casos para la resolución de una gran variedad de problemas y es útil para abordar la investigación de diversos sistemas físicos, debido a su capacidad para encontrar las ecuaciones de movimiento del sistema que se desea analizar. A pesar de las ventajas que tiene este método para abordar diferentes problemas, hay casos de interés dentro de algunas teorías físicas en los que no es posible su resolución empleando de manera convencional este formalismo. Es por esto que también es de suma utilidad el conocimiento de un formalismo alternativo y más general, conocido como el formalismo o método de Dirac. Algunos ejemplos de teorías en las cuales se emplea este método son el electromagnetismo, los campos de Yang-Mills y la relatividad general. 



METODOLOGÍA

El programa inició con un breve repaso del método lagrangiano, ya que este es necesario para abordar el método de Hamilton. Además, también se vio la forma de obtener funciones lagrangianas para sistemas no conservativos a partir de ecuaciones diferenciales de segundo orden. Después de esto, se nos dio una introducción formal al análisis hamiltoniano, empezando por la definición de la función hamiltoniana y la deducción de las ecuaciones de movimiento (Ecuaciones de Hamilton). Se nos enseñó el método general para obtener hamiltonianos canónicos asociados a lagrangianas regulares y se vieron ejemplos de algunos sistemas físicos. Posteriormente, se explicó el uso de una útil herramienta matemática, los paréntesis de Poisson, y también se abordaron las transformaciones canónicas y su utilidad en la resolución de problemas. En este punto, se trató extensamente el tema de las funciones generatrices, estrechamente relacionadas con las transformaciones canónicas. Se dedujeron los cuatro tipos de funciones generatrices y se nos mostró su utilidad en el análisis de diferentes sistemas. Luego, pasamos a ver un nuevo método para encontrar ecuaciones de movimiento, diferente a los de Lagrange y Hamilton antes expuestos, pero relacionado de cierta forma con este último. Se nos dio una introducción al formalismo de Hamilton-Jacobi, primeramente deduciendo la conocida ecuación de Hamilton-Jacobi. Esta ecuación es una EDP de primer orden, por lo que, posterior a su deducción, se nos mostró el método clásico para su solución a través de varios ejemplos. Sin embargo, ya que existen casos para los que el método de solución general (separación de variables) falla, se vió un método alternativo de solución llamado método de las R-separables.  Para este punto del programa, el investigador nos dió varios problemas para poner en práctica lo aprendido hasta el momento. Estos fueron algunos de los que consideré más interesantes. Dado el lagrangiano de una partícula en coordenadas parabólicas, se pide obtener la función hamiltoniana asociada y a partir de ella las ecuaciones de movimiento del sistema. Siguiendo la metodología aprendida se logra obtener seis expresiones que describen la dinámica del sistema, todo esto a partir del análisis hamiltoniano del sistema. Dada una transformación de coordenadas, se pide demostrar que esta es una transformación canónica obteniendo una función generatriz y además hallar el nuevo hamiltoniano correspondiente a la transformación. Considerando el hamiltoniano para el oscilador armónico tridimensional isotrópico, se pide encontrar las ecuaciones de movimiento mediante la resolución de la ecuación de Hamilton-Jacobi. Se pudo encontrar la EDP correspondiente a este sistema y haciendo uso de los métodos de solución aprendidos se determinaron expresiones para las coordenadas x,y,z del sistema en cuestión. Como último tema del análisis hamiltoniano, se nos enseñó cómo analizar sistemas en los cuales su lagrangiana fuera no regular (o singular). Esto se hizo mediante el llamado formalismo de Dirac. Primeramente, se comenzó con la definición de los tipos de restricciones para esta clase de casos y posteriormente definiendo las condiciones que deben cumplir cada tipo de restricción. Lo que interesa del análisis es obtener las ecuaciones de movimiento del sistema, por lo que después se definieron hamiltonianos más generales para estos sistemas con restricciones, como lo son el hamiltoniano primario, el hamiltoniano total y el hamiltoniano extendido, encontrando así las respectivas ecuaciones de Hamilton, que para estos sistemas podrían depender de los multiplicadores de Lagrange. Por último, se analizaron algunos sistemas físicos siguiendo este formalismo. Para finalizar el programa, el investigador expuso las teorías físicas en las que se utiliza el método de Dirac, en concreto en la relatividad general, abordando el análisis de las acciones de Einstein-Hilbert y Palatini.


CONCLUSIONES

Durante el programa de verano, que se llevó a cabo en línea, se adquirieron los conocimientos teóricos necesarios para analizar y encontrar las ecuaciones de movimiento de una gran variedad de sistemas y teorías físicas. Los formalismos estudiados durante el curso son de gran utilidad y tienen un gran alcance en la investigación moderna dentro de la física. En concreto, el método de Dirac me pareció una herramienta bastante útil y es algo que no se llega a ver en los programas de licenciatura. Además, pudimos poner en práctica todo lo aprendido en los ejemplos y ejercicios que dejó el investigador a lo largo del programa.
Sánchez Valencia Joaquín Oswaldo, Universidad de Sonora
Asesor: Dra. Maria Elena Tejeda Yeomans, Universidad de Colima

EL QUARK UP Y SU IMPORTANCIA EN LA ESTRUCTURA DE LA MATERIA BARIÓNICA


EL QUARK UP Y SU IMPORTANCIA EN LA ESTRUCTURA DE LA MATERIA BARIÓNICA

Sánchez Valencia Joaquín Oswaldo, Universidad de Sonora. Asesor: Dra. Maria Elena Tejeda Yeomans, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

La materia bariónica es gran parte de la materia ordinaria con la que interactuamos diariamente, en particular, los núcleos atómicos están compuestos con materia bariónica, dado que el protón y el neutrón son bariones. Las partículas que los componen de manera principal son los quarks up y down. Los quarks son partículas que interactúan con las cuatro fuerzas fundamentales y forman partículas llamadas hadrones, entre las cuales están los mesones, con dos quarks de valencia; y los bariones, con tres quarks de valencia. Por diversas leyes de conservación, una partícula formada por la primera generación de quarks, es decir, los más ligeros, suele tener un periodo de vida más larga que aquellas formadas por partículas de generaciones más altas. Protones y neutrones están formados sólo por quarks de primera generación. No es trivial que ambas partículas tengan vidas medias de minutos, años o que sean estables en algunos casos, esto es relevante a la hora de formar núcleos atómicos estables que puedan agruparse en compuestos e ir aumentando en complejidad. No obstante, la diferencia entre las vidas medias de ambas es considerable, siendo que el protón libre tiene una vida media de al menos la edad del universo y el neutrón tiene una vida media de sólo 15 minutos. En la estructura de ambas partículas se encuentra la diferencia entre sus vidas medias.



METODOLOGÍA

El Particle Data Group (PDG) es la principal fuente de consulta para conocer las propiedades de partículas elementales y partículas que surgen a partir de éstas, como lo son el protón y el neutrón. Entonces, lo primero que se hizo fue consultar el PDG para obtener información sobre el quark up. Entre toda la información que hay sobre el quark up, se encuentran los artículos con las mediciones de sus propiedades y estimaciones de éstas, se consultaron y analizaron cuidadosamente. Una vez consultado el Particle Data Group para obtener información básica sobre el quark up, se comenzó con la lectura de libros de texto para obtener un marco más general sobre la partícula. Los libros de texto principales para este fin fueron Introduction to Elementary Particles, David J. Griffiths (2008) y Quarks and Leptons, Francis Halzen (1984). El segundo, aunque antiguo, contiene muy buenas explicaciones sobre la dispersión inelástica profunda, vital para entender cómo se descubrieron los quarks. Terminada la revisión de bibliografía secundaria se volvió a la revisión de artículos relacionados con el PDG, el fin de esto era entender con mayor profundidad los métodos para estimar ciertas propiedades y entender con mayor profundidad cómo, por ejemplo, la masa varía tanto entre estimación y estimación visto desde un punto de vista porcentual. Los artículos más importantes para este respecto fueron los de reglas de suma de la QCD (Domínguez, 2018) y simulaciones no-perturbativas de QCD (Bazavov, 2009). Con todo lo anterior, llega el momento de investigar la estructura del protón y del neutrón. Para esto se empleó, sobre todo, el libro de Halzen anteriormente, prestando especial atención a los detalles sobre los experimentos. Con ello, se entendió mejor cómo es que estas partículas se forman con tres quarks, que no son sólo tres quarks, sino que son los quarks de valencia. La lectura de un par de artículos escritos por el Dr. Matt Strassler sirvieron para clarificar algunas leyes de conservación, leyes de conservación que vienen en demás bibliografía secundaria. Tras analizar la estructura de estas partículas, siguió leer la información que viene en el PDG concerniente a la vida de ambos nucleones. Era de llamar la atención la diferencia de vida entre ambas partículas, por ello era conveniente buscar experimentos donde se midiera esta propiedad de ambas, en particular, sobre el protón. Para esto se consultó el artículo sobre un experimento realizado en el detector de neutrinos Super Kamiokande, donde se recolectaron datos al respecto del decaimiento del neutrino por un par de décadas, de tal forma que era abundante. En conclusión, no se encontró ningún protón que decayera, pero se pudieron establecer cotas para su vida, siendo que tarda en decaer al menos 1034 años. En cambio, la información sobre las estimaciones sobre la vida del neutrón era más abundante, se realizan cálculos y experimentos cada cierto tiempo para tener una estimación más exacta. Terminadas las consultas sobre experimentos, se investigó en bibliografía secundaria las leyes de conservación que una partícula debe seguir al momento de decaer en el otra. Entre estas, estaban la conservación del número bariónico y de la energía. Con ello, queda resuelta la pregunta. La diferencia entre las vidas del protón y el neutrón radica en la diferencia entre sus masas. Ambas partículas son bariones, es decir, partículas con tres quarks de valencia, no obstante, una tiene dos quarks up y un down, la otra tiene dos quarks down y un up, por lo que es más pesada. Al ser más pesada, decae en partículas más ligeras que conserven el número bariónico, como el protón es el barión más ligero, no puede decaer. 


CONCLUSIONES

Durante la estancia en este verano se consiguió aprender los conocimientos teóricos en teoría cuántica de campos necesarios para poder contestar preguntas sobre la vida de partículas. Asimismo, se entendió cómo es que leyes de conservación posibilitan el decaimiento de partículas en otras y cómo esto afecta en las vidas de éstas. En particular, se obtuvo el resultado concerniente a la diferencia entre las vidas medias del protón y el neutrón y cómo es que impacta el quark up en ello. Al contener ambas los mismos quarks de valencia, salvo que una tiene un quark up (protón) y la otra un quark down (neutrón), el neutrón decae porque el quark down emite un W- y un up, formando un protón. Entonces, el protón no decae por no haber un barión más pequeño.
Sandoval Arciga Amauri, Instituto Tecnológico de Morelia
Asesor: Dr. Oscar Hernando Venegas Pereira, Escuela Colombiana de Ingeniería Julio Garavito

CARACTERIZAR EL COMPORTAMIENTO HIDRáULICO DE UN INYECTOR A DIFERENTES CONDICIONES DE PRESIóN DE INYECCIóN Y CONTRAPRESIóN


CARACTERIZAR EL COMPORTAMIENTO HIDRáULICO DE UN INYECTOR A DIFERENTES CONDICIONES DE PRESIóN DE INYECCIóN Y CONTRAPRESIóN

Sandoval Arciga Amauri, Instituto Tecnológico de Morelia. Asesor: Dr. Oscar Hernando Venegas Pereira, Escuela Colombiana de Ingeniería Julio Garavito



PLANTEAMIENTO DEL PROBLEMA

Los motores diesel están lejos de desaparecer. Esto por que no se conocen opciones más eficientes a la hora de emplearse en trabajos de alta carga y alto torque. El mundo avanza hacia tecnologías sustentables y con menos emisiones contaminantes. Es por esto que se busca mejorar las prestaciones y disminuir el impacto ambiental de los motores diésel, reduciendo las emisiones contaminantes al ambiente. Las propiedades físicas y químicas de un combustible afectan directamente al rendimiento, consumo y emisiones contaminantes de un motor. Con esto en mente se busca medir medir experimentalmente algunas propiedades físicas del diésel y la manera en que estas afectan su atomización dentro de la cámara de combustión. Todo esto suponiendo un régimen de trabajo normal.



METODOLOGÍA

En primera instancia se busca y estudia información bibliográfica referente al tema. Tomando las bases de mecánica de fluidos e información sobre los sistemas de inyección de diésel. Se estudian los trabajos del investigador sobre el tema. Posteriormente, para a parte experimental, se miden diversas propiedades del diesel a diferentes temperaturas, se registra y grafican los resltados: Medición de viscosidad y densidad: En baño maría se sumergen una probeta de 1000ml y un viscosímetro. Se establece en la máquina la temperatura y una vez que se alcanza, se realiza la medición. Esto se repite con varias temperaturas (15, 20, 40, 60 y 80C). Curva de destilación e índice de cetano: En una máquina de destilación se intriduce un matraz de destilación. Se calienta y se va midiendo la temperatura de los vapores. Estos vapores condensan en una probeta y se mide el tiempo que transcurre cada que se condensan 5ml. Con este mismo tiempo medido se calcula el índice de cetano. Poder calorífico: en una bomba calorimétrica se introduce una muestra de combustible de 1gr. La máquina enciende la muestra y, al medir la diferencia de temperatura del agua circundante, calcula el poder calorífico del combustible, en J/gr. Medición de diámetro de orificio: el estudio se realiza en base a un inyector común de diésel. Mediante microscopio se visualiza y se saca un pomedio de medida del diámetro de los 6 orificos que lo conforman.  Con los datos obtenidos se realiza un análisis del comportamiento de las propiedades. Se realiza una gráfica que muestre la tendencia del comportamiento de las propiedades y cómo afectan el coeficiente de descarga del orificio del inyector. Finalemnte, y como parte del proyecto, se redacta un documento tipo tesis que describe detalladamente todas las actividades y las conclusiones a la que se llegaron.


CONCLUSIONES

Con los valores obtenidos se busca obtener la gráfica y una ecuación que relacione cada propiedad del diésel con la velocidad del chorro y el coeficiente de descarga de un orificio de un inyector convencional de diésel. También se pretende describir la relación existente y el porqué se comporta de esta manera de acuerdo a los datos obtenidos.
Sandoval Ek Carlos Jesus, Universidad Autónoma de Yucatán
Asesor: Dr. Aurelio Alejandro Santiago Pineda, Universidad Autónoma de Tamaulipas

DISEñO E IMPLEMENTACIóN DE REDES NEURONALES DE PERCEPTRóN MULTICAPA (MLP) Y KOLMOGOROV-ARNOLD (KAN) PARA CLASIFICACIóN.


DISEñO E IMPLEMENTACIóN DE REDES NEURONALES DE PERCEPTRóN MULTICAPA (MLP) Y KOLMOGOROV-ARNOLD (KAN) PARA CLASIFICACIóN.

Sandoval Ek Carlos Jesus, Universidad Autónoma de Yucatán. Asesor: Dr. Aurelio Alejandro Santiago Pineda, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

En inteligencia artificial y aprendizaje automático, la clasificación de datos es crucial para tareas como reconocimiento de patrones y decisiones automatizadas. La investigación en este campo ha avanzado con el aumento de la capacidad de cómputo y la disponibilidad de grandes datos, permitiendo automatizar tareas previamente humanas. Las redes neuronales optimizan procesos, mejoran la precisión de predicciones y reducen costos, siendo útiles en aplicaciones como clasificación de imágenes y predicción de enfermedades. El Perceptrón Multicapa (MLP), una de las arquitecturas más antiguas, utiliza capas de neuronas interconectadas y funciones de activación no lineales. Aunque avanzadas técnicas de optimización han mejorado su rendimiento con librerías como TensorFlow, presentan limitaciones en funciones no lineales complejas. Hace un par de meses, la red Kolmogorov-Arnold (KAN) ha emergido como una alternativa prometedora, ofreciendo un enfoque matemático riguroso para la aproximación de funciones complejas, descomponiendo funciones multivariadas en sumas de funciones univariadas, lo que permite una modelización más precisa. Las KANs tienen ventajas sobre las MLP, ya que utilizan funciones de activación entrenables y B-splines para representar curvas complejas, demostrando mayor eficiencia en entrenamiento y uso de recursos computacionales.



METODOLOGÍA

Se utilizó Python y PyCharm para aplicar redes neuronales en la clasificación del conjunto de datos Iris, que incluye 3 clases y 50 instancias por clase. El objetivo fue predecir el tipo de planta Iris. Bibliotecas usadas: Básicas: numpy: Operaciones numéricas y matrices. time: Medición el tiempo de ejecución. KAN con visualización: sklearn.metrics: Evaluar el rendimiento del modelo. matplotlib: Gráficos 2D. KAN avanzada con PyTorch: torch: Operaciones tensoriales. torch.nn: Rdes neuronales. torch.optim: Optimización. Base de datos: Se utilizó una función para cargar y convertir datos de Iris a una lista de listas, simplificando el manejo de datos.   Perceptrón Multicapa (MLP): Se diseñó un MLP para clasificar datos del conjunto Iris, que tiene 3 clases. Componentes Clave: Capas de Entrada: Reciben los datos; cada nodo representa una característica. Capas Ocultas: Intermedian entre la entrada y la salida; cada nodo aplica una función de activación. Capas de Salida: Producen la salida final; el número de nodos depende del tipo de problema. Pesos y Sesgos: Ajustados durante el entrenamiento para minimizar el error. Funciones de Activación: Introducen no linealidades, como la sigmoide en este caso. Función de Pérdida: Mide el error de predicción. Algoritmo de Optimización: Ajusta los pesos y sesgos, como la retropropagación con descenso de gradiente. Entrenamiento y Clasificación: Se entrenó la red mediante retropropagación y se ajustaron pesos y sesgos en cada época. La clasificación se realizó calculando las salidas y comparándolas con las salidas deseadas. Función Principal: La función main coordina el flujo del programa, desde la carga de datos hasta el entrenamiento y clasificación. Mide el tiempo de ejecución total y utiliza parámetros como tasa de aprendizaje y número de épocas para entrenar y evaluar la red neuronal.   Red Kolmogorov-Arnold (KAN) Inspiradas en el teorema de representación Kolmogorov-Arnold, las KAN modelan relaciones complejas entre datos. Sus componentes clave son: Capas de Entrada: Reciben los datos iniciales. Capas Ocultas con Funciones de Activación Aprendibles: Las funciones de activación son ajustables durante el entrenamiento, proporcionando flexibilidad. Capas de Salida: Generan la respuesta final, ajustadas al tipo de problema. Pesos y Sesgos: Parámetros ajustados para minimizar el error. Teorema Kolmogorov-Arnold: Representa cualquier función continua multivariable como una combinación de funciones continuas de una variable. La implementación incluye normalización de datos, cálculo de funciones de base, entrenamiento y predicción. La visualización de la matriz de confusión y el reporte de clasificación ayudan a evaluar el rendimiento del modelo.


CONCLUSIONES

Se compararon tres modelos para clasificar el conjunto de datos Iris: un MLP, una KAN con librerías básicas y una KAN con PyTorch. Resultados del Perceptrón Multicapa (MLP): Iteración 1000: 75.86 Iteración 10000: 42.72 Total Correctas: 57 de 60 Porcentaje de Aciertos: 95.0% Tiempo de Ejecución: 39.58 segundos El MLP mostró una disminución continua del error, indicando buena capacidad para aprender, aunque con velocidad de convergencia más lenta. Resultados de la Red KAN con Librerías Básicas de Python: Época 1000: 4.7063 Época 10000: 0.0430 Total Correctas: 58 de 60 Porcentaje de Aciertos: 96.67% Tiempo de Ejecución: 46.28 segundos La implementación con La KAN con librerías básicas mostró una reducción rápida de la pérdida y una precisión del 96.67%, aunque con tiempo de ejecución ligeramente mayor. Resultados de la Red KAN con PyTorch: Época 1000: 1.1306 Época 4000: 0.0039 Época 10000: 0.0001 Total Correctas: 58 de 60 Porcentaje de Aciertos: 96.67% Tiempo de Ejecución: 17.80 segundos La implementación con PyTorch, explica la rápida convergencia y el menor tiempo de ejecución. De igual forma, el optimizador Adam también nos permite una eficiente actualización de los pesos, aprovechando las capacidades de hardware y técnicas avanzadas de optimización para una rápida convergencia Reporte de clasificación de ambas KANs:                       precision    recall  f1-score   support     Iris-setosa       1.00      1.00        1.00         20 Iris-versicolor       0.91      1.00        0.95       20  Iris-virginica       1.00      0.90        0.95         20        accuracy                                   0.97        60       macro avg       0.97      0.97      0.97         60    weighted avg       0.97      0.97      0.97        60 Finalmente, el rango de precisión de los modelos varía entre el 95% y el 97%, siendo no significativa. La elección del modelo puede depender más de las necesidades específicas del usuario.
Santiago Apango Lizeth Elena, Universidad Rosario Castellanos
Asesor: Dra. Valentina Davydova Belitskaya, Universidad de Guadalajara

CONTROL DE CALIDAD Y EL ANáLISIS DE LA INFORMACIóN CLIMáTICA EN DETERMINACIóN DE EVENTOS EXTREMOS EN JALISCO


CONTROL DE CALIDAD Y EL ANáLISIS DE LA INFORMACIóN CLIMáTICA EN DETERMINACIóN DE EVENTOS EXTREMOS EN JALISCO

Santiago Apango Lizeth Elena, Universidad Rosario Castellanos. Toncel Manotas Esjeisson Rafael, Universidad de la Guajira. Asesor: Dra. Valentina Davydova Belitskaya, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El cambio climático es una realidad innegable que afecta a todas las regiones del mundo de diversas maneras. En Jalisco, México, la variabilidad climática ha tenido un impacto significativo en sectores como la agricultura, los recursos hídricos y la salud pública. Las temperaturas extremas y los patrones anómalos de precipitación son eventos cada vez más frecuentes que amenazan la estabilidad socioeconómica de la región. Estudios recientes señalan que el cambio climático ha incrementado la frecuencia y la intensidad de los eventos climáticos extremos a nivel global (IPCC, 2021). México enfrenta un desafío de la calidad de los datos climatológicos, ya que la falta de homogeneización puede repercutir en errores que dificultan la detección de los efectos del cambio climático. En Jalisco, esta falta de datos precisos y homogéneos dificulta la comprensión de los patrones climáticos históricos y actuales, lo que ha generado una problemática significativa. Esto se evidencia en prácticas cuestionables como el uso de cañones sónicos para evitar el granizo. La falta de datos y la heterogeneidad en las series temporales de variables como precipitación y temperatura complican la identificación de tendencias claras y la predicción de eventos extremos futuros. La correcta gestión y análisis de estos datos es crucial para entender y mitigar los efectos del cambio climático a nivel local. La Comisión Nacional del Agua (CONAGUA, 2020) ha subrayado la necesidad de mejorar la calidad de los datos climáticos para una mejor gestión del agua y planificación de recursos en México. Este estudio busca abordar estos desafíos mediante un enfoque sistemático de pre-procesamiento y homogeneización de datos climáticos. Utilizando técnicas avanzadas y herramientas específicas. Este enfoque permitirá una evaluación más precisa de los índices climáticos y una identificación más confiable de eventos extremos. Además, la identificación precisa de eventos extremos y sus tendencias es esencial para desarrollar estrategias de adaptación y mitigación frente al cambio climático. La información obtenida puede ayudar a las autoridades locales y regionales a implementar medidas efectivas para reducir los riesgos asociados con fenómenos climáticos extremos. Investigaciones recientes han demostrado que una gestión eficaz de los riesgos climáticos puede mejorar significativamente la resiliencia de las comunidades (UNFCCC, 2019).



METODOLOGÍA

La investigación sobre eventos climáticos extremos en Jalisco se llevó a cabo mediante un enfoque metodológico que combinó el análisis de datos climáticos históricos con la aplicación de herramientas avanzadas para el control de calidad y la homogenización de los datos. En primer lugar, se seleccionaron dos estaciones meteorológicas, la 14044 ubicada en El Bramador, municipio de Talpa de Allende, y la estación 14052, situada en San Gabriel, estas operativas y gestionadas por CONAGUA; proporcionaron datos valiosos para la investigación. Datos históricos de precipitación y temperatura, comprendidos en el período 1961 a 2019, se recuperaron de la página de CONAGUA y se trasladaron a hojas de Excel para un pre-procesamiento inicial. Durante el pre-procesamiento, se reemplazaron valores faltantes por -99.9 y se eliminaron columnas irrelevantes, para asegurar la integridad de la información. Posteriormente, se aplicaron herramientas avanzadas para el control de calidad y la homogenización de los datos, utilizando el software R v. 4.4.1. y herramientas como Rclimdex_extraqc.R, RHtestsV4_20180301 y RHtests_dlyPrcp_20160621.R. Una vez homogeneizados los datos, se generaron 27 índices climáticos recomendados por el Expert Team on Climate Change Detection and Indices (ETCCDI), los cuales incluyen métricas como el número de días con precipitación superior a 10 mm y los índices de días cálidos y noches frías. Para facilitar un análisis comparativo y la identificación de tendencias a largo plazo, los datos se dividieron en cuatro periodos temporales: 1961-1991, 1971-2000, 1981-2010 y 1991-2018. Utilizando el paquete Rclimdex, se procesaron los datos de cada periodo por separado, generando índices como la temperatura máxima del día más cálido y el total anual de precipitación.


CONCLUSIONES

Los índices de ETCCDI son fundamentales para la determinación y toma de decisiones en la lucha contra el cambio climático; estos ayudan a estimar la frecuencia e intensidad de eventos extremos como olas de calor, sequías y lluvias intensas. Los resultados sugieren que la región ha experimentado un cambio significativo en las últimas décadas, con un aumento en la temperatura y cambios en los patrones de precipitación. Esta ha disminuido ligeramente en el período de estudio, especialmente en la segunda mitad del siglo XX; la temperatura mínima ha aumentado significativamente en el mismo período, especialmente en las últimas décadas; la temperatura máxima ha aumentado también, aunque a un ritmo más lento que la temperatura mínima. Además, se idéntico un aumento en la duración de las sequías y un descenso en la duración de las lluvias, y un aumento en la intensidad de las precipitaciones extremas. El análisis de los índices proporcionó una visión detallada de la variabilidad climática en Jalisco. Esta información es relevante para la toma de decisiones informadas y el desarrollo de políticas públicas y estrategias de adaptación al cambio climático. Referencias IPCC. (2021). Climate Change 2021: The Physical Science Basis. Contribution of Working Group I to the Sixth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge University Press. CONAGUA. (2020). Estadísticas del Agua en México, Edición 2020. Comisión Nacional del Agua, Secretaría de Medio Ambiente y Recursos Naturales. UNFCCC. (2019). The Adaptation Finance Gap Report. United Nations Framework Convention on Climate Change.
Saucedo Hernández Ernesto, Universidad Autónoma de Zacatecas
Asesor: Dr. Alfredo Castañeda Hernandez, Universidad de Sonora

ANALISIS DEL SISTEMA DE HADRONTERAPIA, USANDO EL SOFWARE GEANT4


ANALISIS DEL SISTEMA DE HADRONTERAPIA, USANDO EL SOFWARE GEANT4

Saucedo Hernández Ernesto, Universidad Autónoma de Zacatecas. Asesor: Dr. Alfredo Castañeda Hernandez, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema La hardronterapia es una técnica concebida en el año 1954 en el laboratorio nacional Lawrence Berkeley en Estados Unidos. Esta técnica aún novedosa ha experimentado grandes avances en los últimos años, también en 1990 en el NIRS cuando se descubrió una terapia aún mejor, la cual consistía en usar iones de carbono pesado. En la actualidad, se sigue analizando el comportamiento y la relatividad biológica efectiva respecto a los rayos x convencionales de diferentes iones tales como argón, xenón, helio y neón junto a los iones de carbono para poder mejorar esta tecnología. Esta tecnología ha tenido un gran aprovechamiento en laboratorios europeos que se centran en la física de partículas. El CERN es uno de ellos, ya que incluso ha presentado diferentes construcciones de geometrias  en el software de codigo abierto Geant4 para la simulación de entornos dentro de un mundo capaces de simular con gran precisión los efectos y direcciones de las partículas en esta terapia, para lo cual se pone a disposición el analizar cómo es que funciona esta tecnología, las simulaciones y lograr obtener resultados y modificarlos, así como lograr predecirlos antes de simularlos.



METODOLOGÍA

Metodología Análisis PET Geant4. Se comenzó utilizando un ejemplo de PET para que comprendiéramos el entorno del sistema y nos fuéramos relacionando con él. También se comenzó a analizar el documento central README para ver cómo funcionaba el sistema y los volúmenes lógicos y físicos necesarios para correr el programa. También se pasó a analizar metódicamente los documentos .cc, ya que estos contenían los códigos para recrear las geometrías necesarias dentro del entorno. también fueros examinados los archivos encargados de las propiedades físicas de las partículas y su interacción con la materia. Se examinó la construcción de la gamma cámara del PET, incluidos los cristales centelladores, la organización de los materiales y el nivel de detección de estos. Después, se logró obtener resultados variados mediante modificaciones en los parámetros. Aunado a esto, se nos pidió modificar el tamaño de las matrices de cristal del centellador para observar diferentes comportamientos y dar conclusiones respecto a estos. Sistema de hadronterapia Después de haber comprendido el sistema de Geant4 y cómo se creaban las geometrías, tocó analizar el ejemplo dado por Geant4 de hadronterapia. Claro, esto llevó tiempo ya que la lectura del README era simple, pero dentro del ejemplo venían instrucciones para usar el sistema en guiado por láser, la creación del pico extendido de Bragg, la terapia convencional por dispersión pasiva usando protones y la terapia por iones de carbono. Claro, esto llevó tiempo analizar cada una de ellas y ver cómo funcionaban, así como cómo se construía la geometría desde los colimadores primarios y secundarios, los colimadores del paciente, el sistema de la cámara de ionización y el sistema MOPI, así como el modulador y, claro, el sistema generador del haz. No obstante, el sistema de Geant4 proporcionaba una visualización de los eventos, para lo cual se debieron hacer modificaciones al código editable y algunas otras para poder hacer funcionar las diferentes técnicas en nuestros sistemas y visualizarlas. Terminando con esto, se pasó a analizar los archivos .out que contenían la información de salida para, al final, terminar haciendo modificaciones a nuestro sistema y lograr predecir su comportamiento. Algunos movimientos simples como el movimiento del pico de Bragg a diferentes rangos de energía o modificaciones en las densidades lógicas de los materiales para ver cómo se comportaba nuestro sistema. Cabe aclarar que el sistema analizado cumplía su función, ya que el sistema en el que se basaron es para tratamiento de cáncer ocular. Entonces, los materiales simulados y densidades eran menores a las esperadas en grandes sistemas de haz para la hadronterapia.


CONCLUSIONES

Conclusiones Las conclusiones son generadas y leídas por una librería de Pyton Pandas que nos permite analizar los archivos y lograr obtener cosas interesantes como la apertura del haz cónico de la dispersión pasiva, entre otras. Claro, esto puede tener diferentes modificaciones en cuanto a conclusiones propias. El sistema de hadronterpaia es muy útil para el tratamiento de personas con cáncer y es entendible por qué la medicina se ha inclinado a usarlo en personas, ya que el daño causado con rayos x y protones es mucho menor en comparación de ambos y en terapia de iones pesados es similar el daño causado, pero es más reactivo el ion de carbono que el protón, lo cual se traduce en mas daño focalizado en un punto. Pero ambos sistemas presentan el mismo problema. El hecho es que si analizamos los sistemas, en la realidad, nos damos cuenta de que los sistemas mantienen al paciente estático sobre la cama, pero incluso pequeños movimientos como la inhalación y exhalación del cuerpo o los movimientos intestinales modifican las dimensiones del tejido cánceroso, o lo mueven, lo cual termina en afecciones a partes sanas del paciente, lo cual muestra el siguiente paso que debe seguir en esta tecnología, quisas se puedan usar otros mesones devido a que poseen caracteristicas similares y utiles en cuanto a su poder de frenado y su fluecnia en la materia. resultados encontrados en: https://drive.google.com/file/d/1ulbnxKh9oarjA-UgyX4FwUgC-mfLPw-g/view?usp=sharing
Segura Escribano Graciela Guadalupe, Universidad Veracruzana
Asesor: Dr. Carlos Alberto Martínez Félix, Universidad Autónoma de Sinaloa

METODOLOGíA MULTI-EXPERIMENTAL USANDO GNSS-R PARA LA MEDICIóN DEL NIVEL DEL MAR EN ZONAS COSTERAS EMPLEANDO ALTURAS REFLECTORAS MAYORES A 15 METROS.


METODOLOGíA MULTI-EXPERIMENTAL USANDO GNSS-R PARA LA MEDICIóN DEL NIVEL DEL MAR EN ZONAS COSTERAS EMPLEANDO ALTURAS REFLECTORAS MAYORES A 15 METROS.

Segura Escribano Graciela Guadalupe, Universidad Veracruzana. Asesor: Dr. Carlos Alberto Martínez Félix, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El monitoreo continuo del nivel del mar es esencial para la gestión costera, planificación urbana y mitigación del cambio climático. Los mareógrafos tradicionales han sido la herramienta principal durante décadas, pero presentan limitaciones como la necesidad de mantenimiento, fallos mecánicos y cobertura limitada. La técnica de reflectometría de señal GNSS (GNSS-IR) surge como una alternativa prometedora. Utiliza señales reflejadas por la superficie del agua para estimar el nivel del mar, aprovechando la infraestructura GNSS global. Aunque GNSS-IR ofrece ventajas como menor coste de instalación y mantenimiento y datos continuos en tiempo real, su precisión comparada con los mareógrafos requiere validación. Este estudio evalúa si algoritmos avanzados y el entorno Docker Desktop con el software gnnsrefl pueden mejorar la precisión de las mediciones GNSS-IR y permitir su comparación con los mareógrafos tradicionales.



METODOLOGÍA

La investigación utilizó datos GNSS de un receptor geodésico en San Diego, California, con infraestructura GNSS y mareógrafos adecuada para comparar datos GNSS-IR con mareógrafos tradicionales. Se seleccionó un mareógrafo a 8.4 km del receptor GNSS, registrado en el servidor de Sea Level Station Monitoring. El área de estudio, Point Loma, California (LAT 32.6664, LON -117.24394), se definió usando zonas Fresnel con el sitio web de Mapeo de zonas de reflexión GNSS-IR y MATLAB. El mareógrafo seleccionado es San_Diego_CA (LAT 32.713, LON -117.173), con frecuencia de muestreo de 1 min. Los datos se recopilaron del 3 de junio al 3 de julio de 2024, usando: MATLAB para manipulación y análisis de datos. Docker Desktop con gnssrefl (https://github.com/kristinemlarson/gnssrefl) para ejecutar algoritmos GNSS-IR, con funciones rinex2snr, invsnr_input, invsnr y subdaily. Python para automatización, análisis complementarios y post-procesamiento. Las funciones del software gnssrefl son: rinex2snr: Convierte datos RINEX en datos SNR para analizar reflexiones GNSS. invsnr_input: Establece parámetros para invsnr, como límites de altura del reflector y ángulos. invsnr: Estima la altura del reflector a partir de datos SNR. subdaily: Aplica modelos para mejorar los valores de altura del reflector (RH), controla la calidad de datos y elimina valores atípicos usando ajustes de splines. Con apoyo del investigador, se desarrolló un programa para comparar los resultados GNSS-IR con los del mareógrafo, incluyendo correcciones de altura RH, gráficas y análisis estadísticos (regresión lineal y prueba de Van de Casteele). La regresión lineal analiza la relación entre las mediciones de altura del nivel del agua obtenidas por GNSS-R y las del mareógrafo, validando la precisión de GNSS-R. La prueba de Van de Casteele evalúa la calidad de las reflexiones GNSS, midiendo la coherencia y precisión de las estimaciones de altura del reflector, asegurando que las mediciones GNSS-R sean confiables y comparables. Los resultados mostraron una correlación significativa entre los datos GNSS-IR y los del mareógrafo, indicando que GNSS-IR es una herramienta confiable para la monitorización del nivel del mar.


CONCLUSIONES

Los resultados obtenidos indican una correlación moderada entre los datos GNSS-IR y los datos del mareógrafo, demostrando que la técnica GNSS-IR es una alternativa viable y precisa para la monitorización del nivel del mar. Esta correlación sugiere que el GNSS-IR puede complementar o incluso reemplazar los métodos tradicionales de medición del nivel del mar en ciertas condiciones, ofreciendo una herramienta adicional para la investigación y gestión de los recursos marinos.   Además, la implementación de algoritmos avanzados permitió una mejor interpretación de los datos, aumentando la fiabilidad de los resultados. La visualización de los datos a través de gráficos y diagramas proporcionó una comprensión clara de la relación entre las dos fuentes de datos, destacando la precisión y utilidad del GNSS-IR.  Durante la investigación se demostró de que entre más altura tenga una antena GPS Mayor es la cantidad de ruido que se percibe debido a las múltiples señales reflejadas que se pueden presentar. Por lo tanto, se plantea continuar desarrollando metodologías para trabajar con este tipo de estaciones (altura igual o mayor) y de esta forma habilitar mayor cantidad de estaciones para el monitoreo del nivel del mar. Este enfoque tecnológico refuerza la capacidad de respuesta ante los desafíos climáticos, alineándose con los objetivos de reducir la vulnerabilidad y aumentar la resiliencia frente al cambio climático. 
Serrano García Melissa, Instituto Tecnológico Metropolitano
Asesor: Dra. María Azucena Arellano Avelar, Universidad de Guadalajara

IDENTIFICACIóN Y APLICACIóN DE MéTODOS UTILIZADOS PARA EL MONITOREO AMBIENTAL: UN ABORDAJE HOLíSTICO EN AMBIENTES IN VITRO E IN SITU.


IDENTIFICACIóN Y APLICACIóN DE MéTODOS UTILIZADOS PARA EL MONITOREO AMBIENTAL: UN ABORDAJE HOLíSTICO EN AMBIENTES IN VITRO E IN SITU.

Colmenares Padilla Anahí, Benemérita Universidad Autónoma de Puebla. Nava Gutiérrez Samuel Yael, Benemérita Universidad Autónoma de Puebla. Serrano García Melissa, Instituto Tecnológico Metropolitano. Asesor: Dra. María Azucena Arellano Avelar, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Tras la necesidad de comprender y evaluar el cumplimiento de la normativa ambiental ha propiciado el desarrollo del monitoreo ambiental como una herramienta esencial. Esta permite el seguimiento continuo de las actividades, obras y proyectos implementados, facilitando la identificación de sus impactos. El objetivo es adoptar acciones correctivas o de mitigación que promuevan el uso racional de los recursos naturales, así como la conservación y protección del medio ambiente. De este modo, se asegura que las actividades humanas puedan continuar de manera sostenible, garantizando a las futuras generaciones una calidad de vida adecuada para su desarrollo (Hernández et al., 2018) Los gobiernos de todo el mundo comienzan a implementar estrictas normativas ambientales para asegurar el desarrollo sostenible. En el estado de Jalisco, México, las instituciones gubernamentales han establecido un marco normativo riguroso que exige a las organizaciones cumplir con diversas regulaciones ambientales. Estas normativas buscan minimizar el impacto ambiental negativo y garantizar una óptima calidad del agua, suelo y aire. Se propone describir el monitoreo ambiental como una herramienta clave para el seguimiento previsto en la evaluación de impacto ambiental dentro del contexto del Centro Universitario de Tonalá (UDG) y el Río Santiago (Guadalajara, Jalisco). La importancia de este trabajo radica en la necesidad de contar con métodos de monitoreo ambiental precisos y confiables que permitan no solo cumplir con las normativas vigentes, sino también contribuir de manera efectiva al desarrollo sostenible y a la protección del entorno natural.  



METODOLOGÍA

Se desarrollaron técnicas de muestreo en agua, aire y ruido con un enfoque científico en base a las Normas Oficiales Mexicanas (NOM) y las metodologías encontradas en las Normas Mexicanas (NMX). Para el caso de las muestras de aire y ruido, fueron realizadas en puntos de mayor demanda y ubicación de las Zonas Críticas (ZC, de acuerdo con la NOM-011-STPS-2001) ubicados en el Centro Universitario de Tonalá (CUT) perteneciente a la Universidad de Guadalajara (UDG). Para el uso del método de muestreo de referencia de aire se utilizó un Sonómetro modelo CESVA CS260, del cual partimos en la localización de las ZC del CUT, y del instrumento utilizado para el control del aire fue un Monitor de Calidad de Aire modelo Temtop M2000, haciendo un monitoreo de 5 zonas en total. Para obtener muestras en cuerpos de agua, se utilizó el método de muestreo telescópico, una técnica eficaz para recolectar muestras en lugares de difícil acceso o a diversas profundidades. Este método emplea un muestreador telescópico, que es un polo extensible con un recipiente en su extremo. El operador, desde un lugar seguro como la orilla o un puente, extiende el muestreador hasta la profundidad deseada y activa el mecanismo de recolección mediante un gatillo o un sistema de bombeo. Luego, se retira cuidadosamente el muestreador para evitar la contaminación y se transfiere la muestra a un recipiente etiquetado (Scharlab, 2021).


CONCLUSIONES

Este estudio ha logrado abordar de manera integral los objetivos planteados, proporcionando una visión holística del monitoreo ambiental tanto en ambientes controlados (in vitro) como naturales (in situ). En cuanto a la contaminación acústica, se identificaron variaciones significativas en los niveles de ruido entre los puntos de medición, con el punto P1 presentando los niveles más altos (Leq de 73.1 dB y máximo de 84.1 dB). Estos hallazgos sugieren la necesidad de implementar medidas de mitigación del ruido, especialmente en las áreas más afectadas. El análisis del Río Santiago reveló condiciones preocupantes para la vida acuática. El bajo nivel de oxígeno disuelto (tanto en porcentaje de saturación como en mg/L) y el alto valor de conductividad (1331 µS/cm) indican posible contaminación orgánica y presencia elevada de sales disueltas. Además, el potencial de oxidación-reducción negativo (-310.6 mV) sugiere condiciones reductoras que podrían estar asociadas con la descomposición de materia orgánica. La presencia confirmada de coliformes mediante la técnica de NMP refuerza la preocupación sobre la calidad microbiológica del agua. Por otro lado, la evaluación del biorreactor de digestión anaerobia demostró un proceso eficiente, alcanzando una producción máxima de biogás de 1277 unidades en aproximadamente 41 horas. Este resultado es prometedor para la optimización de procesos de tratamiento de aguas residuales y producción de energía renovable. En conjunto, estos hallazgos subrayan la importancia de un enfoque multidisciplinario en el monitoreo ambiental. La combinación de métodos in vitro e in situ ha permitido una evaluación comprensiva de diversos parámetros ambientales, desde la calidad del aire y el agua hasta la producción de biogás en condiciones controladas.  
Simón Cortés Jorge Manuel, Universidad Autónoma de Nayarit
Asesor: Dr. Bernardino Barrientos Garcia, Centro de Investigaciones en Óptica (CONACYT)

DETECCIóN DE DEFECTOS EN PIEZAS AUTOMOTRICES


DETECCIóN DE DEFECTOS EN PIEZAS AUTOMOTRICES

Simón Cortés Jorge Manuel, Universidad Autónoma de Nayarit. Asesor: Dr. Bernardino Barrientos Garcia, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Hoy en día es bastante común encontrar metales en el proceso de fabricación de distintos productos, que los requieran, basta con voltear a ver nuestro alrededor; automóviles, teléfonos celulares, relojes, electrodomésticos, etc., es importante para los fabricantes mantener una calidad alta en sus productos, sin embargo es muy también es muy común encontrar defectos en estas piezas durante el proceso de fabricación de las mismas, esto se debe a una infinidad de factores, desde el tratamiento térmico hasta un mal trato en su transporte. La detección de defectos defectos en piezas metálicas antes de que formen parte del producto final, se cual sea, es crucial por varias razones importantes: garantizar la calidad y durabilidad del producto en cuestión, reducir costos de reparación si es necesaria, cuidar la reputación de la empresa al asegurar la satisfacción del cliente, cumplir con normativas de calidad y seguridad, optimiza la eficiencia de producción al minimizar desperdicios. Por esta y más razones la detección temprana de defectos es fundamental para mantener estándares altos y operaciones eficientes en la fabricación de piezas metálicas.  



METODOLOGÍA

Desarrollo Teórico Al principio, nos enfocamos en entender y escribir la teoría necesaria para el proyecto. Esta teoría se convirtió en la introducción del informe final, sentando las bases para todo el trabajo que vino después. Preparación y Materiales  Durante tres días, definimos cómo tomar las fotografías y qué materiales usar. Decidimos que era crucial usar diodos emisores de luz (LEDs) de diferentes colores para iluminar el objeto. Dado que nuestra cámara era lineal, necesitábamos asegurar que la imagen capturada estuviera bien iluminada. Para resolver la interferencia entre la cámara y la fuente de luz, empleamos un divisor de haz. Este dispositivo permite que la luz se divida en dos caminos: uno ilumina el objeto y el otro llega a la cámara, asegurando una captura adecuada. Los materiales principales fueron LEDs de 3W, que emiten luz en varias longitudes de onda, y la cámara lineal Basler Runner ruL2048-10gm, ideal para capturar imágenes de objetos grandes en una sola línea. Programación en MatLab   Con la teoría y los materiales listos, comenzamos a trabajar en el código de MatLab. Desarrollamos un programa que leía las imágenes, las dividía en partes más pequeñas y mostraba cada sección. Esta parte del código nos permitió ver las imágenes en fragmentos, facilitando el análisis. Adaptación del Código por Problemas de Compatibilidad Aunque el código funcionaba bien, enfrentamos un problema con el software de la cámara Basler, que no era compatible con nuestros equipos. Decidimos adaptar el código para trabajar con una cámara matricial. Esto permitió seleccionar y trabajar con regiones específicas de las imágenes. . Binarización para Resaltar Defectos  Para identificar defectos en las imágenes, implementamos un método de binarización. Primero convertimos las imágenes a escala de grises con `rgb2gray` en MatLab. Luego, establecimos un umbral para que los píxeles con poca luz se convirtieran en negro y los demás en blanco. Este proceso ayudó a destacar claramente los defectos al mostrar áreas oscuras donde había imperfecciones. Integración y Aplicación Final   Finalmente, combinamos todos los elementos del proyecto y aplicamos el código para procesar las imágenes. Verificamos que las imágenes se leyeran, procesaran y binarizaran correctamente, permitiendo una visualización efectiva de los defectos. La binarización demostró ser una herramienta valiosa para la detección de defectos, ofreciendo una solución más clara y precisa en comparación con la simple conversión a escala de grises.


CONCLUSIONES

El objetivo de este experimento era determinar la eficiencia en la detección de defectos en piezas mecánicas con medios ópticos y softwares de cálculo.. Tras analizar los resultados obtenidos, se concluye que el método de binarización resultó ser el más eficaz, dando un resultado significativamente mayor en comparación a únicamente cambiar a escala de grises.  En conclusión, el método de binarización demuestra ser superior al simple cambio a escala de grises en el ámbito de la detección de defectos mediante técnicas ópticas.  Mientras que la escala de grises ofrece una representación visual basada en diferentes intensidades de luz, la binarización transforma la imagen en una representación binaria que resalta de manera más eficaz los contrastes entre defectos y áreas sin defectos.  Este enfoque no solo mejora la precisión en la identificación de defectos al eliminar la influencia de variaciones de intensidad, sino que también simplifica el procesamiento y análisis de las imágenes, facilitando la implementación de algoritmos de detección y clasificación. Por lo tanto, la binarización se presenta como una herramienta más robusta y eficiente para la detección de defectos, optimizando la eficacia de los sistemas ópticos en aplicaciones industriales y de control de calidad.  
Siordia Ortiz Valeria Catalina, Universidad de Guadalajara
Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional

CALIBRACIóN DOSIMéTRICA APLICADA A RADIOTERAPIA EXTERNA


CALIBRACIóN DOSIMéTRICA APLICADA A RADIOTERAPIA EXTERNA

Siordia Ortiz Valeria Catalina, Universidad de Guadalajara. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La dosimetría en radioterapia es una disciplina esencial en el campo de la física médica, crucial para la planificación y administración precisa de tratamientos contra el cáncer. Este reporte explora la importancia de la selección adecuada de dosímetros, herramientas fundamentales para medir la dosis de radiación y evaluar la exposición tanto en pacientes como en el entorno clínico. Se abordan los principios de física médica relacionados con la interacción de la radiación ionizante con los tejidos biológicos y la necesidad de aplicar técnicas precisas para garantizar mediciones exactas. La correcta elección y manejo de dosímetros no solo asegura que las dosis administradas sean precisas, sino que también facilita la planificación efectiva del tratamiento y cumple con las normativas de radioprotección. La radioterapia, como método de tratamiento para el cáncer, requiere una planificación meticulosa y una ejecución precisa para maximizar la eficacia del tratamiento mientras se minimizan los riesgos para la salud. En este contexto, la dosimetría permite ajustar y verificar las dosis de radiación, protegiendo tanto a los pacientes como al personal clínico.



METODOLOGÍA

1. Introducción El análisis dosimétrico es fundamental para asegurar que las dosis de radiación administradas en los tratamientos de radioterapia sean precisas y seguras para los pacientes. Esta metodología describe los pasos necesarios para realizar un análisis dosimétrico completo, desde la selección de dosímetros hasta la interpretación de los datos obtenidos. 2. Selección de Dosímetros La selección de dosímetros adecuados es crucial para obtener mediciones precisas y fiables. En este estudio se utilizaron dosímetros termoluminiscentes (TLD-100) debido a su alta sensibilidad y precisión en la medición de la dosis de radiación. 3. Preparación de los Dosímetros Calibración Inicial: Los TLD-100 fueron calibrados utilizando una fuente de radiación estándar para establecer una relación precisa entre la señal termoluminiscente y la dosis de radiación recibida. Tratamiento Térmico de Borrado: Antes de cada uso, los TLD-100 se sometieron a un tratamiento térmico en una mufla a una temperatura específica para borrar cualquier señal residual de radiación. Irradiación de Referencia: Los dosímetros se irradiaron con dosis conocidas para crear curvas de calibración que permitan convertir las lecturas termoluminiscentes en dosis absorbida. 4. Colocación de los Dosímetros Los dosímetros se colocaron estratégicamente en un fantoma antropomórfico para simular la distribución de la dosis de radiación en un paciente. Se aseguraron de cubrir las áreas de interés, incluyendo puntos críticos y órganos sensibles. 5. Irradiación El fantoma, con los dosímetros posicionados, fue irradiado utilizando un acelerador lineal Elekta a una energía de 10 MeV. Se siguieron los protocolos clínicos estándar para la administración de la dosis, asegurando que el procedimiento replicara las condiciones de tratamiento reales. 6. Lectura de los Dosímetros Después de la irradiación, los dosímetros fueron leídos utilizando un lector Harshaw 3500. Este dispositivo mide la luz emitida por los TLD-100 cuando se calientan, que es proporcional a la dosis de radiación recibida. 7. Análisis de Datos Conversión de Señales: Las señales termoluminiscentes obtenidas se convirtieron en dosis absorbida utilizando las curvas de calibración previamente establecidas. Análisis Estadístico: Se realizó un análisis estadístico de las dosis medidas para evaluar la precisión y repetibilidad de las mediciones. Se aplicaron criterios de calidad para identificar y excluir mediciones atípicas. Evaluación Comparativa: Las dosis medidas se compararon con las dosis planificadas para evaluar la precisión del tratamiento. Se analizaron las desviaciones y se identificaron posibles causas de discrepancias.


CONCLUSIONES

El análisis dosimétrico realizado en este estudio subraya la importancia de la correcta selección y preparación de los dosímetros para garantizar mediciones precisas y fiables. Los resultados obtenidos confirman que la metodología aplicada, que incluye la calibración, irradiación y análisis estadístico de los TLD-100, es efectiva para evaluar la distribución de dosis en tratamientos de radioterapia.
Soberanes Reyes Grecia, Universidad Estatal de Sonora
Asesor: Dr. Omar Delgado Rodriguez, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)

DETECCIóN DE FALLAS Y ZONAS POTENCIALES DE SUBSIDENCIA CON EL MéTODO PERFILAJE ELECTROMAGNéTICO (PEM).


DETECCIóN DE FALLAS Y ZONAS POTENCIALES DE SUBSIDENCIA CON EL MéTODO PERFILAJE ELECTROMAGNéTICO (PEM).

Grijalva Jimenez Martin Rodolfo, Universidad Estatal de Sonora. Soberanes Reyes Grecia, Universidad Estatal de Sonora. Asesor: Dr. Omar Delgado Rodriguez, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las zonas de subsidencia pueden tener como causas factores naturales (ej. fallas geológicas), como antropogénicas (ej. sobreexplotación de las aguas subterráneas). Es de gran relevancia delimitar las zonas de futuro desarrollo de agrietamientos en superficie y cavidades en el subsuelo que resultarán en el colapso del terreno y la aparición de socavones. La acción preventiva de controlar el uso de suelo en estas zonas evitaría pérdidas económicas considerables y hasta de vidas humanas. Los métodos geofísicos, en particular los métodos geoeléctricos, han jugado un papel importante en el estudio de fracturas y en la modelación de zonas en desarrollo de cavidades. El método de perfilaje electromagnético (PEM) destaca por su alta productividad en campo, siendo un método de rápido avance para llevar a cabo levantamientos de resistividad en áreas de estudios de gran extensión. En el presente trabajo se aplica el método PEM en dos sitios de estudios, presa El Hundido, SLP y Banco de Materiales, Gto, con el fin de localizar en superficie fallas geológicas y delimitar zonas de alto nivel de fracturamiento propensas al desarrollo de cavidades, zonas colapso y subsidencia del terreno.



METODOLOGÍA

El método PEM consiste en el uso de una bobina transmisora (Tx) y una receptora (Rx) cerca de la superficie del suelo, ya sea en planos horizontales o verticales. La señal electromagnética de frecuencia f emitida se detecta directamente como campo magnético primario en Rx. La corriente alterna generada en la bobina transmisora ​​induce corrientes en el subsuelo, que a su vez crean un campo magnético secundario que también se detecta en Rx. La relación entre ambos campos magnéticos (primario y secundario) en Rx. El CMD MiniExplorer 6L es un equipo multifrecuencia de PEM compuesto por un dispositivo sensor que contiene una bobina transmisora ​​(Tx) y seis bobinas receptoras (Rx) ubicadas en diferentes separaciones (S) de Tx. Diferentes valores de S y f permiten obtener en un mismo punto, simultáneamente, seis valores de s a del suelo, para seis profundidades de estudio diferentes, para cada tipo de polarización del campo electromagnético. Un portasonda con unidad Bluetooth permite un fácil manejo del equipo, mediante unidad de control con GPS se registran valores georreferenciados de s a en mS/m, tanto en modo manual como automático. Los valores de s a se convierten a valores de r a en Ohm.m mediante: r a = 1000 / s a. la profundidad de estudio 2.3 m fue la utilizada para la confección de los mapas de r a , mientras que las seis profundidades de estudios fueron consideradas para la realización de las tomografías eléctricas a partir del método PEM. Para esta investigación se realizaron levantamientos en dos áreas de estudio: presa El Hundido, San Luis Potosí, con una extensión de 17.4 ha, y Banco de Materiales, Guanajuato, con una extensión de 4.3 ha. Con el fin de obtener mapas de r a , una velocidad promedio de caminata de 4 Km/h fue considerada, y una adquisición automática de mediciones georreferenciadas cada 2 s fue programada, lo que garantizó tener puntos de medición cada 2 m aproximadamente a lo largo del recorrido. Los recorridos, separados entre sí alrededor de 8 m, se realizaron en direcciones perpendiculares a las fracturas visibles en cada sitio de estudio. Los datos obtenidos en cada sitio fueron procesados y construido el mapa de r a , utilizado el programa Surfer v.16. Para la realización de perfiles de Tomografía de Resistividad Eléctrica a partir del método PEM (TRE-PEM), se realizaron mediciones automáticas cada 1.2 s a lo largo de una línea o perfil. Posteriormente, los datos adquiridos a lo largo del perfil fueron procesados utilizando el programa Res2DInv, obteniéndose una sección geoeléctrica hasta una profundidad máxima de 2.3 m.


CONCLUSIONES

En la primera área de estudio, Presa El Hundido, se puede observar en la imagen de satélite, una zona de alto fracturamiento tipo reticular. Como resultado del levantamiento de resistividad utilizando el equipo MiniExplorer 6L, el mapa de r a muestra, en su mitad SW, una zona anómala de alta resistividad (entre 55 y 110 Ohm.m) con un ancho variable entre 100 y 200 m, como indicativo de un alto nivel de fracturamiento del terreno y el predominio de material disgregado, con incremento en el volumen de espacio vacío. No se observan lineamientos de anomalías de alta o baja resistividad como evidencias de macrofracturas. En la segunda área de estudio, Banco de Materiales, con un ambiente geológico superficial más calichoso, la imagen satelital muestra la existencia de una fractura que, si bien se observa que entra desde el norte de nuestra área de estudio, ésta desaparece hacia el centro y sur de la misma. El mapa de resistividad muestra de manera muy clara, dos anomalías alineadas de alta resistividad (entre 65 y 150 Ohm.m), ambas de orientación N-S. La del lado Oeste, muestra la continuación de la fractura visible en la imagen del satélite, mientras que la del lado Este se refiere a una segunda fractura bastante paralela a la primera. Un perfil de TRE-PEM fue realizado perpendicular a ambas fracturas pudiéndose modelar hasta una profundidad de estudio de 2.3 m. Entre ambas fracturas, la sección de TRE-PEM muestra otras fracturas menores y zonas de vacío (alta resistividad). Este último resultado nos permite entender que entre ambas fracturas se encuentra un bloque del subsuelo sujeto a crecientes fracturamiento y, como consecuencias de esto, su subsidencia.
Soberanis Cáceres José Emmanuel, Universidad Autónoma de Yucatán
Asesor: Dra. Luz Adriana Cordero Cid, Benemérita Universidad Autónoma de Puebla

ANáLISIS DEL MODELO ESTáNDAR Y SUS IMPLICACIONES


ANáLISIS DEL MODELO ESTáNDAR Y SUS IMPLICACIONES

Soberanis Cáceres José Emmanuel, Universidad Autónoma de Yucatán. Asesor: Dra. Luz Adriana Cordero Cid, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se analiza el Modelo Estándar (SM), la cual es una teoría de norma basada en el grupo de norma SU(3)c X SU(2)L X U(1)Y. Dicho modelo permite describir las interacciones entre los bosones de norma y las partículas de materia, así como ha permitido predecir la existencia del bosón de Higgs.



METODOLOGÍA

El SM describe las interacciones fuertes, débiles y electromagnéticas, y el contenido de materia fermiónica. Las interacciones se generan mediante los bosones de norma que son los gluones para el caso de la interacción fuerte; los fotones para la interacción electromagnética; y los bosones W y Z para la interacción débil. La materia fermiónica se divide en quarks y leptones. Los quarks se presentan en tres familias, cada una con dos tipos diferentes de quarks. Para la familia I los quarks son up y down; para la II son charm y strange; y para la III son top y bottom. Los quarks up, charm y top poseen carga eléctrica de 2/3, y el resto de -1/3. Los leptones también se presentan en tres familias, cada una con dos partículas distintas. Para la familia I los leptones son el electrón y el neutrino electrónico; para la II son el muón y el neutrino muónico; y para la III son el tau y el neutrino tauónico. Los neutrinos no poseen carga eléctrica, mientras que para el resto de los leptones es -1.   El SM es descrito por lo que llamamos el sector de norma, el sector fermiónico o de Yukawa y el sector escalar. El Lagrangiano de la teoría incluye términos que se relacionan con cada sector y a partir de los cuales se deduce la forma en que las partículas del modelo interactúan entre sí. Por ejemplo, del sector de norma podemos deducir las interacciones entre bosones de norma W, Z o fotón y fermiones. Para representar visualmente las interacciones se usan los diagramas de Feynman, que exigen una serie de reglas que se deben cumplir. De manera general, los diagramas de Feynman lucen como líneas que convergen en un punto. Cada línea representa una partícula o bosón. Cuando se quiere representar un bosón de norma se usan líneas onduladas, y para los fermiones son líneas rectas. El punto de convergencia de las líneas se llama vértice de interacción. Adicionalmente, sobre las líneas se añade una flecha para indicar hacia dónde se mueve el bosón o fermión respectivo. Las interacciones entre bosones de norma W y fermiones reciben el nombre de interacciones de corrientes cargadas. Los diagramas de Feynman serán tres líneas de las cuales una será ondulada (bosón W) y dos serán rectas (fermiones). De estos diagramas se interpretará que la carga que tendrá el bosón W será positiva si su movimiento es en dirección al vértice de interacción; por el contrario, será negativa si su movimiento es en dirección opuesta al vértice de interacción. La suma de la carga eléctrica de las partículas que participen en la interacción debe ser igual a la que tenga el bosón W, para que exista una conservación de la carga. Para ello, si la partícula tiene dirección entrante al vértice de interacción, esta conservará el signo original de su carga; pero si la partícula tiene una dirección saliente del vértice de interacción, entonces tendrá la misma magnitud de su carga original, pero con signo opuesto. De igual manera, cuando en las interacciones participen neutrinos, estos deben participar con su leptón correspondiente. A las interacciones de un fotón o bosón Z y fermiones se les llaman interacciones de corrientes neutras. Los diagramas de Feynman serán tres líneas de las cuales una será ondulada (fotón o bosón Z) y dos serán rectas (fermiones). En este caso, el fotón y bosón Z no poseen un sentido de movimiento, ya que no poseen carga eléctrica. Las reglas que aplican para estas interacciones son, en general, las mismas que aplican para el bosón W; debe existir una conservación de la carga eléctrica en la interacción. Debido a que el fotón y el bosón Z no tienen carga, entonces los dos fermiones que participen en la interacción deben tener la misma magnitud de carga eléctrica.   Una parte importante del modelo es el sector escalar, que ha permitido predecir la existencia del bosón de Higgs, partícula que permite generar términos de masa para bosones de norma y fermiones. La expresión para definir el potencial de Higgs, elemento de suma importancia en esta parte del SM, tiene la forma: V(ϕ) = μ2ϕ†ϕ + λ(ϕ†ϕ)2 donde ϕ es el campo de Higgs, μ2 es un parámetro que se espera sea negativo, y λ es una constante positiva. Cuando μ2 es negativo el valor de expectación del vacío está degenerado. Con el fin de dar una interpretación física a este mínimo de potencial, se elige un solo valor de estado de vacío como estado de mínima energía, con lo cual se induce un rompimiento espontáneo de la simetría del sector electrodébil. Después de la ruptura de simetría, el bosón de Higgs tiene un término de masa obtenido de la expansión del potencial. Los bosones de gauge débiles y los fermiones adquieren masa al interactuar con el campo de Higgs. Los términos de acoplamiento en el Lagrangiano que representan estas interacciones contribuyen a las masas de estas partículas después de la ruptura de simetría. Algunos de los acoplamientos que es posible encontrar en el Lagrangiano del sector escalar del SM son acoplamientos del campo de Higgs con bosones de norma, acoplamiento del campo de Higgs con fermiones y autoacoplamientos del bosón de Higgs. La interacción de los bosones W y Z con el bosón de Higgs es fundamental para explicar cómo estos bosones adquieren masa. Los fermiones adquieren masa a través de sus interacciones con el campo de Higgs, descritas por términos de acoplamiento de Yukawa en el Lagrangiano. El bosón de Higgs también se acopla a sí mismo a través de términos que provienen del potencial de Higgs.


CONCLUSIONES

En este trabajo analizamos el Modelo Estándar, que permite entender las interacciones entre las partículas elementales. Se hizo una descripción de los sectores del modelo y se describieron las interacciones entre partículas que se pueden deducir en este caso.
Solano González Levi Isai, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

ESTUDIO DE LAS PROPIEDADES ELECTRóNICAS POR DFT DE SISTEMA DE LIBERACIóN DE FáRMACOS DE SE6 Y 5-FLUOROURACILO


ESTUDIO DE LAS PROPIEDADES ELECTRóNICAS POR DFT DE SISTEMA DE LIBERACIóN DE FáRMACOS DE SE6 Y 5-FLUOROURACILO

Solano González Levi Isai, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En este estudio se investiga la estabilidad y reactividad de un sistema de liberación de fármacos utilizando nanopartículas de selenio (Se6) como portadores para el 5-fluorouracilo (5-flu), un fármaco utilizado en el tratamiento de varios tipos de cáncer. La combinación de Se6 y 5-flu busca mejorar la eficacia del tratamiento reduciendo la toxicidad y potenciando la absorción del fármaco. Se emplea la Teoría del Funcional de la Densidad (DFT) para analizar las propiedades electrónicas y moleculares del sistema, optimizando así su diseño a nivel cuántico.



METODOLOGÍA

Para la construcción de los modelos, se consideraron las geometrías moleculares optimizadas del Se6 y del 5-flu en su estado basal. Las simulaciones se llevaron a cabo utilizando el software GaussView 6.0.16 y Gaussian 9, empleando el funcional híbrido B3LYP con la base de cálculo 6-31G. Se realizaron cálculos de optimización de geometrías moleculares y de frecuencias a 298.15 K para validar que las geometrías representaran mínimos verdaderos en la superficie de energía potencial. Además, se llevaron a cabo cálculos de energía para obtener los niveles de energía y la distribución de la densidad electrónica de los orbitales moleculares HOMO y LUMO, y se generaron mapas de potencial electrostático (MEP) en medio vacío. Basado en el teorema de Koopmans, se calcularon descriptores cuánticos moleculares, incluyendo el potencial químico (μ), la dureza global (η) y el índice de electrofilicidad (ω), determinando la reactividad y estabilidad de los sistemas. También se evaluaron los criterios de adsorción para determinar si la interacción correspondía a physisorción o quimisorción, y la energía de cohesión para evaluar la geometría molecular y la fuerza de interacción


CONCLUSIONES

Los resultados destacan la estabilidad y reactividad del sistema, sugiriendo que el anillo de Se6 actúa como un buen portador para el fármaco 5-flu, protegiéndolo de reacciones externas durante su transporte y liberación. La alta energía de formación negativa y la característica de adsorción física indican que el sistema es estable y eficiente para la liberación controlada del fármaco. Además, el comportamiento aceptor de electrones del Se6 y su capacidad para recombinarse después de la liberación del 5-flu subrayan su potencial en aplicaciones farmacéuticas y de transporte de drogas​.
Solar Becerra Beleni, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Mayra Mabel Valerdi Negreros, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DESCOMPOISICIóN MULTICOMPONENTE MULTIFRECUENCIAS Y ANáLISIS DE ESTRUCTURA INTERNA EN LAS GALAXIAS DE KINGFISH


DESCOMPOISICIóN MULTICOMPONENTE MULTIFRECUENCIAS Y ANáLISIS DE ESTRUCTURA INTERNA EN LAS GALAXIAS DE KINGFISH

Solar Becerra Beleni, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Mayra Mabel Valerdi Negreros, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Se propone comparar el efecto de estructura interna tales como barra y brazos cuando se estudian parámetros como magnitud y radio efectivo de las componentes clásicas de bulbo y disco en las galaxias. Se propone que este efecto de la barra y brazos será según la intensidad de los mismos.



METODOLOGÍA

-Modelado de bulbo, disco, barra y brazos de 10 galaxias en las bandas J, H y Ks de 2MASS y en la banda W1 de WISE. -Obtención de radio efectivo y magnitud de cada galaxia con bulbo y disco sin y con las componentes extras de barras y brazos según el caso.


CONCLUSIONES

Se propone que este efecto de la barra y brazos será según la intensidad de los mismos.
Solorio León Emilio Antonio, Instituto Tecnológico de La Piedad
Asesor: Dr. Elder de la Rosa Cruz, Universidad La Salle Bajío

SíNTESIS DE NANOBARRAS DE ORO PARA EL DISEñO DE BIOSENSORES PARA LA DETECCIóN DE ARN/ADN


SíNTESIS DE NANOBARRAS DE ORO PARA EL DISEñO DE BIOSENSORES PARA LA DETECCIóN DE ARN/ADN

Solorio León Emilio Antonio, Instituto Tecnológico de La Piedad. Asesor: Dr. Elder de la Rosa Cruz, Universidad La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

La pandemia de Covid-19, generada a raíz del virus SARS CoV-2, surgido en China en 2019, supuso devastadoras consecuencias en los ámbitos social, económico y sanitario que se siguen viviendo hasta el día de hoy. Desde su surgimiento, se han buscado maneras de combatir, detectar y prevenir el virus que provocó esta contingencia. Investigadores de la Universidad Politécnica de Hong Kong, en el año 2022, desarrollaron una estrategia de detección rápida, sensible e in situ de la proteína S del SARS-CoV-2, basada en la aplicación de la nanociencia y la nanotecnología. Inspirados en lo anterior, hemos estudiado la posibilidad de detectar el Covid-19 a partir de su ADN o ARN, empleando para ello un novedoso método que implicaría la utilización de un biosensor, desarrollado a partir de nanobarras de oro con control de tamaño, y que funciona en base a la técnica de transferencia de energía con nanopartículas fluorescentes o efecto FRET. Para lograr esto, es necesario desarrollar un protocolo para la síntesis de nanobarras de oro, capaz de determinar las condiciones necesarias para el desplazamiento del plasmón de resonancia longitudinal, correspondiente a las nanobarras, y lograr su traslape con la fluorescencia de los llamados puntos cuánticos, para poner en prueba el concepto del biosensor.



METODOLOGÍA

El procedimiento realizado durante el desarrollo de esta investigación consistió primeramente en sintetizar las nanobarras de oro. Tras consultar diversas estrategias, se determinó que sintetizaríamos las nanobarras mediante la elaboración de semillas de oro, como generadoras de las nanopartículas de oro, y la utilización de hidroquinona, como agente reductor de las semillas de oro para generar nanobarras. La elaboración de las semillas de oro se realiza mediante la mezcla de una solución de CTAB, con una solución de HAuCl4 (0.5 mM), así como la adición de una solución de NaBH4 (10 mM); mezcla que, tras 15 minutos de agitación, da origen a semillas de oro. Posteriormente, teniendo las semillas de oro preparadas, se procede con la síntesis de las nanobarras, empleando hidroquinona. Para ello, el procedimiento consiste en mezclar en una solución de CTAB e hidroquinona, una solución de HAuCl4 (1 mM), una solución de AgNO3 (4 mM) y una porción de las semillas de oro sintetizadas anteriormente. Tras una agitación de 30 minutos, y su posterior centrifugación y resuspención, las nanobarras de oro quedarán sintetizadas. Una vez lograda la síntesis de las nanobarras de oro, y realizado su análisis con un dispositivo UV-Vis que mide la absorbancia de la luz, se procedió con el desarrollo de un protocolo que nos indicaría las condiciones necesarias para desplazar el plasmón de resonancia longitudinal, y hacerlo traslapar con la fluorescencia de puntos cuánticos; condiciones necesarias para la prueba de concepto del biosensor. Este traslape se logró con la modificación de las cantidades de reactivos utilizados en la síntesis de nanobarras, por lo que tras una serie de experimentos donde se alteró la cantidad de reactivos, se llegó al establecimiento de una nanobarra estándar, cuyo plasmón de resonancia longitudinal efectivamente se traslapa con el plasmón de fluorescencia de los puntos cuánticos. De este modo, una vez establecido el método más eficaz para la síntesis de nanobarras con las condiciones previamente mencionadas, se procedió con la prueba de concepto del biosensor, en la cual, se removió el CTAB restante en la nanobarra y se sustituyó con MPA, una molécula compatible con compuestos orgánicos, como el ADN y el ARN. Hecho lo anterior, se realizó la adición de oligos, compuestos químicos necesarios para unir la nanobarra con los mencionados puntos cuánticos, así como la prueba de fluorescencia, logrando así concluir con la prueba de concepto.


CONCLUSIONES

Gracias a lo realizado durante esta estancia de verano se logró desarrollar un protocolo capaz de determinar la cantidad de reactivos necesarios para lograr el desplazamiento del plasmón de resonancia longitudinal de las nanobarras de oro, y hacer que este se traslape adecuadamente con la fluorescencia de los puntos cuánticos, para su posterior uso en el desarrollo de un biosensor. La posterior prueba de concepto nos permitió determinar que efectivamente las nanobarras se traslapan con los puntos cuánticos, generando el efecto FRET esperado desde un inicio, lo que abre las puertas al óptimo desarrollo del biosensor de ADN y ARN.
Somarriba Icabalzeta Perla Nahomy, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Esp. Ricardo Antonio Tobón Rojas, Fundación Universitaria Agraria de Colombia

CARACTERIZACIóN DE SEQUíA METEOROLóGICA Y SU IMPACTO EN EL RELIEVE DEL MUNICIPIO DE MANí, CASANARE, COLOMBIA.


CARACTERIZACIóN DE SEQUíA METEOROLóGICA Y SU IMPACTO EN EL RELIEVE DEL MUNICIPIO DE MANí, CASANARE, COLOMBIA.

Somarriba Icabalzeta Perla Nahomy, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Esp. Ricardo Antonio Tobón Rojas, Fundación Universitaria Agraria de Colombia



PLANTEAMIENTO DEL PROBLEMA

  El municipio de Maní perteneciente al departamento del Casanare en la República de Colombia se localiza a 82 kilómetros de la capital Departamental. Este municipio consta de bastas sabanas y zonas de pastizales donde se desenvuelve una gran actividad ganadera, agrícola y petrolera importante para el desarrollo económico de la región como del país. En los últimos años, fenómenos naturales como la sequía meteorológica han afectado tanto las zonas urbanas como rurales, influyendo en su recurso hídrico, vital para el desarrollo de las actividades económicas descritas anteriormente, ocasionado pérdidas de cultivos, animales y bosque. Estas afectaciones han ocasionado que las comunidades rurales cambien de actividades económicas influyendo en el recurso suelo, dándole un uso no adecuado y aumentando las condiciones de erosión   de la zona. Por ende, cada que sufren periodo de sequías meteorológica, las condiciones del suelo y del relieve de la región se ven afectadas, cada vez con mayor impacto y severidad. Se espera entonces con la presente investigación, determinar el nivel de amenaza por sequía meteorológica en el municipio de Maní y las afectaciones que estas conllevan en el relieve y suelo de la zona. Debido a lo antes mencionado es necesario plantearnos la siguiente pregunta ¿Cuál es el índice de sequía meteorológica en el municipio de maní y como ha afectado en el relieve de la zona?



METODOLOGÍA

La investigación tiene un enfoque mixto, de carácter descriptivo- analítico que busca cuantificar valores de precipitación en una escala de tiempo dada, para obtener valores de comportamiento de sequía meteorológica y analizar su impacto en el relieve y las actividades del municipio de Maní, Casanare. El proyecto consto de varias fases. Para la primera fase se realizó una búsqueda y revisión detallada de al menos 20 fuentes bibliográficas y páginas de carácter científico usando herramientas y gestores bibliográficos como Mendeley para la elaboración de una caracterización geológica, geomorfológica, ambiental, fisiográfica y poblacional del puntual del departamento de Casanare localizado en Colombia y Maní municipio de Casanare. Asimismo, una descripción del método y uso del Índice de Precipitación estandarizado (SPI) para realizar una memoria de cálculo, la cual se utilizó para determinar el índice de sequía en el área de estudio. Posteriormente en la segunda fase se elaboraron mapas base o preliminares utilizando herramientas SIG y Shp descargados de la página oficial de Colombia e Mapas, sitio oficial utilizado para descargar información en formato de rastrer y vectores en Colombia. Contar con esto fue de suma ayuda, ya que, gracias al servicio Geológico de Colombia se logró la digitalización de mapas de ubicación, geológicos y de pendientes. Además, gracias a la página del Servicio Geológico de Estados Unidos, luego de haber adquirido una cuenta se descargaron modelos de elevación, bases para alguno de los mapas generados.  Por otra parte, se procedió a realizar una memoria de cálculo en Excel, en ella se han incluido los datos anuales de precipitación por cada estación dentro y en los alrededores de Maní, tomando en cuenta desde el año 1995 hasta 2021 y se aplicaron las ecuaciones para determinar los valores de SPI para cada una de ellas. Luego se obtuvieron gráficos los cuales se correlacionaron y analizaron en base al comportamiento de valores de sequía con respecto a la zona en la que se localiza cada una de las estaciones, tomando en cuenta el relieve y la cercanía a la cordillera oriental Andina obteniendo valores anómalos en casi todos los gráficos. La ecuación utilizada principal fue la siguiente: SPI= Xi-Xm/SX Donde Xi = Valor inicial Xm= Promedio de todas las estaciones por año Sx = Desviación estándar En la última etapa se procedió a realizar mapas de Índice de sequía meteorológica en Qgis y ArcMap obteniendo así almenos 10 mapas de SPI más los antes mencionados. 


CONCLUSIONES

El municipio de Maní consta de bastas sabanas y zonas de pastizales donde se desenvuelve una gran actividad ganadera, agrícola y petrolera importante para el desarrollo económico de la región como del país. Gracias a los fenómenos naturales que han azotado a la región en los últimos años la sequía Meteorológica a afectado directamente no solo el relieve, suelos y los recursos hídricos del municipio, sino que también ha afectado directamente a las zonas urbanas como rurales, ocasionando pérdidas económicas, de cultivos, animales y bosque. Con la caracterización del área de estudio se determinó el tipo de suelo, las actividades que caracterizan a la región y la población afectada, además de lograr obtener la memoria de cálculo para el SPI y la metodología a usar. Gracias a los cálculos de SPI se logró realizar una correlación y valorar el comportamiento de la sequía meteorológica que se presenta en el área observando que las zonas más alejadas de la cordillera tienen menor precipitación ósea mayor sequía presentando valores cercanos a -2 lo que indica áreas sumamente secas en los últimos años. Además, que los datos obtenidos concuerdan con los años en donde los fenómenos del niño y la niña se hacen presentes en el país. Así mismo luego de tener los cálculos, valorar y analizar los valores anómalos según su localización y como estos influyen directamente en el relieve y actividades agrícolas ganaderas, mineras y petroleras llevadas a cabo en dicho municipio, se generaron mapas que presentaban a detalle en Qgis y ArcMap el comportamiento anómalo de la sequía meteorológica. 
Sotelo Carrillo Diego Ariel, Universidad Autónoma de Zacatecas
Asesor: Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo

CONSTRUCCIóN DE ÁLGEBRAS MULTIFOTóNICAS PARA UN POTENCIAL UNIDIMENSIONAL CUANTIZADO


CONSTRUCCIóN DE ÁLGEBRAS MULTIFOTóNICAS PARA UN POTENCIAL UNIDIMENSIONAL CUANTIZADO

Sotelo Carrillo Diego Ariel, Universidad Autónoma de Zacatecas. Asesor: Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las álgebras de Heisenberg polinomiales,  han emergido como una herramienta poderosa para el estudio de sistemas cuánticos unidimensionales. Estas álgebras son generalizaciones de las álgebras de Heisenberg estándar. Un subtipo de estas álgebras son las llamadas álgebras multifotónicas, en las que los operadores de aniquilación y creación intrínsecos se elevan a potencias superiores, lo que resulta en estructuras algebraicas más complejas y ricas. Esta propiedad las hace útiles en diversas áreas de la física cuántica, incluyendo la teoría de información cuántica y la óptica cuántica. Hasta la fecha, la mayoría de los estudios sobre álgebras multifotónicas se han centrado en el oscilador armónico y sus compañeros supersimétricos. En estos casos, se ha demostrado que los operadores de aniquilación y creación multifotónicos generan álgebras de Heisenberg polinomiales . Sin embargo, existe una necesidad de extender estos estudios a otros potenciales unidimensionales para explorar la generalidad y aplicabilidad de las álgebras multifotónicas. El presente proyecto se propone abordar esta pregunta utilizando el potencial cuántico de Morse, el cual es un modelo relevante en la descripción de moléculas diatómicas y otros sistemas físicos y ofrece una oportunidad ideal para esta extensión. Específicamente, se investigará la construcción de álgebras multifotónicas para este potencial unidimensional de espectro discreto y finito. Esto incluye la identificación de las estructuras algebraicas multifotónicas y el estudio de sus propiedades.



METODOLOGÍA

Se comenzó estudiando las matemáticas necesarias para abordar el potencial. Álgebra Multifotónica Para abordar el álgebra multifotónica, primero se estudió la estructura del álgebra intrínseca de un hamiltoniano unidimensional, denotado como H0. Álgebra Intrínseca de H0​ Se consideraron los eigenestados y eigenvalores del hamiltoniano unidimensional H0​​. Los operadores intrínsecos de aniquilación y creación, a y a†, actúan sobre estos eigenestados, cambiándolos a estados adyacentes con coeficientes dependientes de los eigenvalores. Las reglas de conmutación describen cómo interactúan estos operadores. Álgebra Multifotónica de H0​ Se definieron los operadores multifotónicos de creación y aniquilación como potencias de los operadores intrínsecos. Estos operadores también actúan sobre los eigenestados con una dependencia más compleja en los eigenvalores. Las reglas de conmutación para el álgebra multifotónica son más complicadas debido a esta naturaleza. Posteriormente se eligió un potencial y se estudiaron sus características. Potencial de Morse El potencial de Morse, introducido por Philip Morse en 1929, es un modelo que describe las interacciones entre átomos en una molécula diatómica. Este potencial es útil porque incluye la disociación molecular, a diferencia del oscilador armónico. Solución de la Ecuación de Schrödinger para el Potencial de Morse Se resolvió la ecuación de Schrödinger para el potencial de Morse usando variables reducidas, lo que simplifica la forma del potencial y permite obtener los eigenvalores de energía. Álgebra Multifotónica del Potencial de Morse Al sustituir los eigenvalores del potencial de Morse en las expresiones del álgebra multifotónica, se obtuvieron las reglas de conmutación específicas. Estos resultados muestran que los saltos entre niveles de energía no son constantes, lo cual se espera debido a la dependencia cuadrática de los eigenvalores. Comparado con el oscilador armónico, el Potencial de Morse introduce correcciones adicionales en los conmutadores.


CONCLUSIONES

En este trabajo, se han estudiado las álgebras intrínseca y multifotónica que rigen el potencial de Morse, un hamiltoniano unidimensional con un espectro discreto finito. Se ha encontrado que los conmutadores del hamiltoniano con los operadores de creación y aniquilación, tanto intrínsecos como multifotónicos, no tienen factores constantes, lo que implica que los saltos entre dos niveles de energía consecutivos no son uniformes. Por lo que, las álgebras intrínseca y multifotónica de este potencial presentan una generalización respecto a la del oscilador armónico.
Soto Lopez Julian Santiago, Pontificia Universidad Javeriana
Asesor: Dr. Santiago Arceo Díaz, Instituto Tecnológico de Colima

ESTUDIO DE LA INCIDENCIA Y CORRELACIóN DE CáNCER Y SARCOPENIA EN PERSONAS ADULTAS MAYORES EN MéXICO MEDIANTE TEORíA DE CONJUNTOS RUGOSOS E INTELIGENCIA ARTIFICIAL


ESTUDIO DE LA INCIDENCIA Y CORRELACIóN DE CáNCER Y SARCOPENIA EN PERSONAS ADULTAS MAYORES EN MéXICO MEDIANTE TEORíA DE CONJUNTOS RUGOSOS E INTELIGENCIA ARTIFICIAL

Soto Lopez Julian Santiago, Pontificia Universidad Javeriana. Asesor: Dr. Santiago Arceo Díaz, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

La población adulta mayor en México supera los 14 millones de habitantes, donde la mayoría son mujeres con un 54.2%. Este sector de la población alcanzó poco más de 11% de la población total de México y se prevé que para el 2030 aumente a 15% y alrededor del 23% en el 2050. Es por ello que los síndromes geriátricos van a ser más prevalecientes en el futuro con el aumento de la población adulta mayor, uno de ellos es la sarcopenia, la cual es la pérdida de masa muscular esquelética y funcionalidad relacionada con la edad. Además de la prevalencia de los síndromes geriátricos también tenemos otras enfermedades que entre más vivamos más es probable es de portar como el cáncer. El estudio Nacional de salud y Envejecimiento en México (ENASEM) es un estudio longitudinal que se lleva a cabo en adultos de 50 años y más, el cual está diseñado para recoger datos sobre la salud, bienestar y condiciones de vida de la población adulta mayor teniendo en promedio 15.000 registros en cada encuesta. Lo interesante de esta encuesta es que contiene datos que pueden ser útiles para determinar entre la sarcopenia y el cáncer anteriormente mencionados, sin embargo, al ser tantos datos se requieren técnicas de analítica de datos y machine learnig para determinar patrones, modelos y relaciones que existan en la base de datos teniendo en cuenta la gran cantidad de datos que se maneja en el estudio.



METODOLOGÍA

Para llevar a cabo verificación de la hipótesis se usó los datos proporcionados ENASEM, 2021, 2018 y 2015 con 15.739, 17.114 y 14.779 registros, respectivamente La herramienta que se usó es Python 3.9 con librerías especializadas en el tratamiento de datos. Los pasos aplicados fueron: Tratamiento de datos: Renombramiento de variables de interés para estandarizar. Remplazo de valores en las columnas de interés con respuestas de Si/No por 1 y 0 respectivamente. Creación de variable que indica nivel de riesgo. Creación de variable que indica si la persona registra algún tipo de cáncer en al menos los dos últimos años Personas dentro del rango de edad de 60 y 120 años. Personas sin respuesta vacías en las variables relacionadas con SARC-F. Personas sin respuesta vacías en la variable cáncer. Personas sin extremidad faltante. Posterior a este preprocesamiento y depuración los registros disminuyeron considerablemente a: 6.039 en la base de datos de la ENASEM 2021, 5.840 en la base de datos de la ENASEM 2018 y 6.675 en la base de datos de la ENASEM 2015. Ahora se puede plantear los siguientes para la metodología: Creación de relaciones de indiscernibilidad: Se usa la teoría de conjuntos rugosos para detectar perfiles en los datos para pacientes con y sin cáncer, con gráficos de radar en los ítems del SARC-F, en ambas categorías. Calcular el reducto: Permite conocer que variable del SARC-F podría obviarse sin comprometer la predicción del nivel de riesgo. Se usaron 4 modelos de clasificación: regresión logística, árbol de decisión, bosques aleatorios y potenciación del gradiente, ya que estos permiten medir la importancia de las variables. Luego se correrá nuevamente el modelo simplificado para validar. Prueba de hipótesis: Se usará la prueba Chi-cuadrado para evaluar si hay una asociación significativa entre cáncer y sarcopenia, las hipótesis son: H_0: No existe relación. H_1: Existe una relación.


CONCLUSIONES

De acuerdo con el análisis hecho, la prevalencia de cáncer es poco más del 3%. Algo interesante de percibir es como este porcentaje aumentó en 2018 y volvió a disminuir en 2021, hasta alcanzar casi el mismo nivel que en 2015, provocando dos hipótesis: que estas personas se curaron (hipótesis 1) o que fallecieron para 2021 (hipótesis 2). Los perfiles predominantes en las 3 ediciones de la encuesta varían de acuerdo a si la persona tiene cáncer o no. Los perfiles predominantes, casi de forma unánime, son los del riesgo severo con fallas en los ítems h5, h6, h11 y c37, a excepción del año 2021 en la población con cáncer. Luego, lo que diferencia a los pacientes con y sin cáncer es el perfil para cada grupo predominante, ya que en las personas con cáncer hay perfiles de más riesgo mientras que en las personas que no tienen cáncer hay presencia de perfiles más leves. Para medir la importancia de las variables en la determinación del nivel de riesgo se usaron los siguientes modelos: regresión logística (LR), arboles de decisión (DT), bosques aleatorios (RF) y potenciación del gradiente (GB). La variable que menor peso tiene en los modelos es h15a por ende se concluye que esta variable puede ser prescindible, igual se comprobará con las métricas de los modelos. Las métricas de todos los modelos son buenas, pues están por encima del 0.90 por ende se puede predecir los niveles de riesgo con 4 variables sin la necesidad de h15a. Antes de realizar la prueba de hipótesis es importante analizar con proporciones como cambian los niveles de riesgo: riesgo leve (RL), riesgo moderado (RM), riesgo severo (RS) y sin riesgo (SR). cuando entra la variable cáncer. Un comportamiento que se repite en las 3 ediciones es el aumento en proporción de riesgo moderado y riesgo severo, y la reducción de sin riesgo y riesgo leve, cuando son personas con cáncer. Lo cual de forma descriptiva puede darnos una idea de que efectivamente hay un factor que modifica la presencia del cáncer en las personas con relación al tipo de riesgo, pero es especulativo, es pertinente comprobar esta hipótesis con la prueba propuesta en metodología. Con los resultados obtenidos no hay una correlación generalizada. En las encuestas del 2021 y 2018 no existe evidencia de una relación, pero en 2015 sí. Además, se aprecia un efecto de cambio con la presencia del cáncer, por lo tanto, es posible que haya que tomar más variables o realizar un estudio más detallado. Lo importante de este resultado es que fue a través de datos abiertos de la encuesta ENASEM en 3 ediciones lo cual abarca los datos disponibles a nivel nacional en México.
Soto López Mahli Jasmin, Universidad de Sonora
Asesor: Dr. Jesús Roberto Vidal Solano, Universidad de Sonora

GEO Y BIOIDENTIDAD DEL CERRO JOHNSON, HERMOSILLO, SONORA


GEO Y BIOIDENTIDAD DEL CERRO JOHNSON, HERMOSILLO, SONORA

Soto López Mahli Jasmin, Universidad de Sonora. Asesor: Dr. Jesús Roberto Vidal Solano, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con la información existente sobre el Cerro Johnson en artículos científicos, documentos del gobierno estatal y municipal, entre otras fuentes literarias, es notable la diferencia en el detalle y la cantidad de la información biológica, en comparación a la existente sobre aspectos geológicos. La información bio-científica que se proporciona en dichas fuentes es suficiente con respecto a la vegetación que se encuentra en el cerro Johnson, sin embargo, la geo-científica generaliza sobre el tipo de roca y suelo en la ciudad de Hermosillo. Se menciona que el tipo de suelo en Hermosillo es predominantemente leptosol y regosol; mientras que en cuanto a rocas son ígneas del tipo granito. Por otro lado, un aspecto importante es la relación que existe entre el tipo de suelo, y/o roca, con el crecimiento de determinada vegetación, lo cual en ninguna de las fuentes consultadas se menciona. La finalidad de este proyecto es conocer la geo y bio-identidad que se manifiesta en el cerro Johnson, a partir de la distribución y la diversidad de los suelos, las rocas y la vegetación, así como de la relación que existe entre estos dos grandes aspectos. De igual forma, se busca proporcionar la información suficiente de manera clara y comprensible a la comunidad o cualquier visitante del Cerro Johnson, con el objetivo de que puedan conocer la gran diversidad de suelos, rocas y vegetación que brinda este lugar.



METODOLOGÍA

Para tener un contexto del área de estudio (Cerro Johnson), se realizaron una serie de investigaciones en distintas fuentes como documentos de gobierno, libros y artículos de investigación. Gracias a dichas fuentes fue posible realizar un listado de la vegetación que se encuentra en el cerro Johnson. Sin embargo, para el caso del aspecto geológico fue necesario realizar salidas de campo para el reconocimiento de suelo y rocas. En el trabajo de campo, se realizó una primera salida bajo un recorrido por una de las rutas principales del cerro Johnson, esta ruta se ubica al este en la zona con mayor vegetación y es la zona donde no da el sol directamente. Se tomaron fotografías panorámicas para documentar la localización del lugar, así como los afloramientos de rocas, donde fuera posible ver su estructura, constitución y su ubicación que permitiera una identificación más sencilla. Se realizó una segunda salida de campo con el propósito de identificar la vegetación presente en la misma ruta recorrida bajo la primera salida al sitio de estudio. Previamente se hizo un listado de la vegetación que se podía encontrar por medio de la Paleta Vegetal de Hermosillo elaborado en 2020 por el Instituto de Planeación Urbana y del Espacio Público de Hermosillo y el artículo Entre Palo verdes, Torotes y Siviris: Las plantas del Parque Central de Hermosillo (Cerro Johnson), Hermosillo, Sonora, México publicado en 2021 por Sánchez Escalante y Van Devender. La identificación de la vegetación fue apoyada por ecólogos, tomando en cuenta las dificultades que representan su realización en verano, cuando gran parte de la vegetación no cuenta con hojas y/o frutos.


CONCLUSIONES

Durante la estancia de verano fue posible reconocer el crecimiento y distribución vegetal está ligado con el suelo y rocas que se encuentran en el Cerro Johnson, un claro ejemplo es un sitio donde se logran identificar algunas características de rocas como la presencia de minerales verdosos en este caso epidota y clorita, dichos minerales permiten que las rocas puedan tomar esa tonalidad verde; en toda la extensión de este sitio sólo se encuentra en mayor abundancia el Palo verde (Parkinsonia microphylla) y Torote papelillo (Jatropha cordata), claramente existe una simbiosis entre el suelo, la roca y la planta para que ésta última fructifique en este sitio. El hecho de que en las partes más bajas del área se encuentran bloques rocosos, o afloramientos descubiertos por la erosión promueve la concentración de especies de árboles ya que representan zonas estables y resistentes que favorecen en su desarrollo. De igual modo, en el Cerro Johnson es posible notar algunos lugares de suelo con tonos oscuros, es ahí donde se encuentran las piedras verdes y donde se encuentran en mayor cantidad el Palo verde (Parkinsonia microphylla) y el Torote papelillo (Jatropha cordata). Claramente es muy notoria la diferencia de color de suelo de estos sitios a comparación al resto. Otra característica vegetal del Cerro Johnson, es la diferencia de abundancia en distintos sectores, como es el caso de la Rama blanca (Encelia farinosa), sin embargo, dicha variación de abundancia puede deberse a varios factores tanto biológicos como geológicos, comenzando por el tipo de suelo que puede proporcionarle mejores nutrientes a la planta para un mejor crecimiento, otro factor puede ser la disponibilidad de sombra que obtiene por el cerro que se encuentra al este, lugar donde hay mayor abundancia de este arbusto. En el caso de las herbáceas, a excepción del Zacate buffel (Pennisetum ciliare), todas se encuentran distribuidas en la ladera del Cerro Johnson, algunas de las herbáceas que se encuentran en esta zona es el Zacate tres barbas (Ariistida adscensionis), Peludita (Johnstonella angustifolia) y Euphorbia sp.
Soto Martínez Arely, Instituto Politécnico Nacional
Asesor: Dr. Hernani Tiago Yee Madeira, Instituto Politécnico Nacional

ELECTROHILADO


ELECTROHILADO

Soto Martínez Arely, Instituto Politécnico Nacional. Asesor: Dr. Hernani Tiago Yee Madeira, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La técnica de electrohilado se originó en experimentos de electrospray de Rayleigh y Zeleny, pero fue Formhals quien la patentó en 1934.Inventó un aparato electrostático para formar fibras delgadas a partir de una solución polimérica con un campo eléctricoa un voltaje de 57kV.Durante el verano de investigación se estudiarán los principales parámetros para llevar a cabo el proceso de electrohilado.



METODOLOGÍA

Descripción del proceso de electrohilado. El proceso parte con un capilar metálico en el cual se hace fluir lentamente una disolución polimérica de tal manera que se forme una gota en la punta. Mediante una conexión eléctrica entre el ánodo de una fuente de alto voltaje conectado al capilar, se eleva el potencial eléctrico de la disolución para generar una repulsión entre las cargas eléctricas de la superficie de la gota, provocando una fuerza que actúa contraría a la tensión superficial, con lo cual se deforma la geometría de dicha gota hasta la formación de una geometría cónica nombrada cono de Taylor. Después de cierta magnitud de potencial eléctrico el cono de Taylor se vuelve inestable y a partir de su punta se emite un filamento de fluido. El filamento seguirá una trayectoria que lo lleve a depositarse sobre un cuerpo metálico conectado al cátodo de la fuente de voltaje. Etapas de la tecnica de electrohilado: Etapa 1: carga eléctrica de la disolución. La carga eléctrica en el proceso de electrohilado ocurre por el contacto entre la disolución y el ánodo de la fuente de alto voltaje. Etapa 2: formación del cono y filamento. Esta es la etapa inicial en la formación de las fibras. Para cada disolución polimérica existe un nivel de potencial eléctrico con el cual se consigue que la gota adopte la forma de un cono (cono de Taylor). Por encima de este nivel de potencial eléctrico se consigue expulsar un filamento de fluido a partir de la punta del cono. Etapa 3: adelgazamiento del filamento. Esta etapa consiste en la formación de un delgado filamento de fluido continuo que se forma a partir de la punta del cono de Taylor. El filamento sigue una trayectoria en dirección al colector de fibras. Etapa 4: inestabilidades del filamento. Durante el viaje del filamento hacia el colector de fibras, este sucumbe ante una o más inestabilidades que distorsionan su movimiento. Dos de las inestabilidades más comunes son la de latigazos (whipping) y la del rompimiento de gota (droplet break-up).Etapa 5: recolección del filamento (solidificación). Se trata de la última etapa del proceso de electrohilado, ocurre cuando el filamento de fluido que viaja por el aire se impacta con un cuerpo conductor conectado eléctricamente con el cátodo de la fuente de voltaje. Dentro del argot del electrohilado el cuerpo conductor se conoce como colector de fibras y es uno de los elementos con más posibilidades de innovación ya que puede utilizarse para manipular las líneas de campo eléctrico con el fin de guiar la deposición de fibras. Elementos:(a) bomba de infusión (b) Capilar (c) fuente de alto voltaje (d) un colector de fibras (d) cabina. El control de los diferentes parámetros proporciona características únicas a la fibra obtenida por electrohilado por lo que el proceso de ejecución es muy importante. Cabe resaltar, que para cada polímero y disolvente utilizado será diferente sus parámetros de disolución. Parámetros de solución. Concentración de la solución polimérica:  Si la concentración está muy diluida las fibras se rompen antes de llegar al plato colector debido a la tensión superficial, por el caso contrario si está muy concentrada no se podrá formar la fibra por su alta viscosidad, impedimento para el paso de solución a través del capilar. La conductividad de disolución: Cuando se adiciona sales a la solución se incrementa la conductividad y por ende la fuerza eléctrica para el estiramiento de la fibra, esto influye directamente en el diámetro de la fibra. Efecto dieléctrico del disolvente: El disolvente cumple dos funciones importantes en el proceso de electrohilado, uno es disolver las moléculas del polímero para formar el chorro con una carga eléctrica, el segundo es llevar estas mismas moléculas de polímero disueltas hasta el tubo colector. Parámetros de procesamiento; Voltaje: Principal parámetro, ya que únicamente un voltaje que supere el umbral podrá generar el cono de Taylor que será expulsado hacia el tubo colector; Flujo de salida: Cuando el flujo de salida es de mayor diámetro incrementa el tamaño de la fibra, produciendo defectos en ella. Por el contrario, un mínimo valor de diámetro del flujo de salida ayudaría a mantener el cono de Taylor estable dando tiempo necesario para la evaporación del solvente antes de llegar al tubo colector; Distancia entre la punta de la aguja y el plato colector: La variación de la distancia entre aguja-colector puede o no tener efecto en el grosor y forma de la fibra, ocasionando apariciones de grumos o fibras húmedas. Una distancia pequeña evitará que el solvente se evapore y el polímero salga en forma de hilo. El proceso de electrohilado se basa principalmente en la aplicación de un alto voltaje a una solución polimérica que se extruye a través de una boquilla. Cuando la tensión aplicada supera la tensión superficial del líquido, se forma un chorro delgado de la solución que se estira y solidifica en fibras a medida que se deposita sobre un colector. 


CONCLUSIONES

Durante el verano adquirí conocimientos teóricos sobre la técnica de electrohilado, especialmente sobre su fuente de alimentación.Es un tema complejo y poco común, lo que limita la información disponible.
Suárez Santizo Andrés Gabriel, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dr. José Luis Maldonado Rivera, Centro de Investigaciones en Óptica (CONACYT)

DISEñO, FABRICACIóN Y CARACTERIZACIóN ELéCTRICA-óPTICA DE CELDAS FOTOVOLTAICAS ORGáNICAS


DISEñO, FABRICACIóN Y CARACTERIZACIóN ELéCTRICA-óPTICA DE CELDAS FOTOVOLTAICAS ORGáNICAS

Suárez Santizo Andrés Gabriel, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. José Luis Maldonado Rivera, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los dispositivos fotovoltaicos son aquellos que transforman la luz solar en energía eléctrica mediante el efecto fotovoltaico. Durante mucho tiempo, las celdas solares basadas en silicio han sido un referente en el campo de las energías renovables, sin embargo, debido a su alto costo de producción actualmente se estudian alternativas a este tipo de dispositivos, por ejemplo: las celdas solares basadas en materiales orgánicos o celdas solares orgánicas (OSCs) Este tipo de celdas solares son de gran interés y se espera que en el futuro sean una alternativa más viable y económica que sus contrapartes inorgánicas.



METODOLOGÍA

Materiales: Sustratos de vidrio con ITO (óxido de indio estaño) (ánodo) PEDOT:PSS (Polímero semiconductor para capa portadora de huecos) P3HT:PC71BM y PM6:Y7 (electrodonadores y aceptores para capas activas) PFN (Polímero semiconductor para capa colectora de electrones) Field´s Metal (FM) (aleación euctéctica compuesta de In, Sn y Bi, cátodo) Spin coater (centrifugador para el depósito de películas delgadas)   Métodos Se fabricaron OSCs con la configuración  vidrio/ITO/PEDOT:PSS/capa activa/PFN/FM. Utilizando dos diferentes tipos de capa activa:  P3HT:PC71BM (polímero electro-donador:molécula aceptora) PM6:Y7 (polímero electro-donador:molécula aceptora) Limpieza de sustratos Los sustratos se limpiaron utilizando agua con jabón y etanol a través de agitación ultrasónica y plasma de O2. Depósito de películas delgadas Las diferentes capas de las OSCs se depositaron mediante la técnica spin coating. Depósito del cátodo El FM se depositó mediante drop cast. Caracterización La caracterización eléctrica-óptica de las OSCs se llevó a cabo con un simulador solar, donde se determinaron los parámetros fotovoltaicos: Densidad de corriente de corto circuito  (Jsc), voltaje de circuito abierto (Voc), Factor de llenado o Fill Factor (FF) y la eficiencia de conversión energética o power conversion efficiency (PCE). El espesor y la rugosidad de las capas activas se estudió mediante un Microscopio de Fuerza Atómica (AFM). Y finalmente, se obtuvo el espectro de absorción de las capas activas mediante espectrofotometría UV-Vis.


CONCLUSIONES

Con las OSC de P3HT:PC71BM se obtuvieron, en promedio, los siguientes parámetros fotovoltaicos: PCE:  1.24% Voc: 0.72 V Jsc: -4.13 mA/cm2 FF: 0.42 Por otro lado, con las OSCs de PM6:Y7 se obtuvieron, en promedio, los siguientes parámetros fotovoltaicos: PCE:  9.35% Voc: 0.84 V Jsc: -20.86 mA/cm2 FF: 0.53 En conclusión, las celdas solares basadas en materiales orgánicos demuestran su potencial aplicación en el campo de las energías renovables. Sin embargo, la eficiencia de estas depende de algunos factores, como la técnica de fabricación y los diferentes tipos de capa activa que pueden usarse. Obteniendo así diferentes valores en los parámetros fotovoltaicos. Además, para establecer a este tipo de dispositivos en nuestra vida diaria deben de superarse distintos retos, como lograr un mayor tiempo de vida y mayores eficiencias. Por eso es importante el estudio de nuevos materiales que puedan implementarse en OSCs y así mejorarlas.
Suarez Solares Queila Hedisa, Universidad Autónoma del Estado de México
Asesor: Dr. Gregorio Posada Vanegas, Universidad Autónoma de Campeche

COMPORTAMIENTO DE PLAYAS POR MEDIO DE PERFILES PLAYEROS, ANáLISIS GRANULOMéTRICOS Y DRONES


COMPORTAMIENTO DE PLAYAS POR MEDIO DE PERFILES PLAYEROS, ANáLISIS GRANULOMéTRICOS Y DRONES

Rivas García Marisol, Universidad de Ciencias y Artes de Chiapas. Suarez Solares Queila Hedisa, Universidad Autónoma del Estado de México. Asesor: Dr. Gregorio Posada Vanegas, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

La playa es un área costera formada por sedimentos, es una franja de terreno costero que se forma a lo largo de las orillas de mares, océanos, ríos o lagos. Pero en ella influyen distintos cambios tanto naturales como suelen ser: Erosión y sedimentación, variaciones estacionales, eventos climáticos extremos, cambios en el nivel del mar, actividades biológicas, entre otros. Y cambios antropogénicos como suelen ser: urbanizaciones, actividades recreativas, construcciones de infraestructuras, extracción de arena, entre otros. Estos cambios pueden interactuar entre sí, tanto cambios naturales como antropogénicos que a menudo determinan la condición y evolución de una playa. La combinación de perfiles playeros y análisis granulométricos con ayuda de la tecnología de drones y otros programas nos proporcionan una herramienta poderosa para el monitoreo detallado y la gestión eficiente de las playas. Facilita la obtención de datos precisos y actualizados, mejora la planificación, ofrece beneficios en términos de seguridad, eficiencia y comunicación. Una manera de estudiar su variación es realizar mediciones periódicas con equipo topográfico sobre secciones de playa previamente definidas (perfiles), esto permite comparar si un perfil ha ganado o perdido arena, en los últimos años, estas mediciones se pueden completar a través del uso de drones, con los cuales se obtiene, como primer producto, el modelo digital de elevaciones de la zona que a su vez permite calcular el perfil en las secciones definidas



METODOLOGÍA

Para llevar a cabo este proyecto, llevamos una introducción a lo que son los procesos costeros y los fenómenos que influyen en él, al igual de las partes que conforman una playa. El área de estudio fue Playa Bonita y Playa Tortugueros ubicados en el estado de Campeche. Los materiales que utilizamos fueron: GPS Leica, Dron (VANT) DJI FANTHON 4, tablas de 0.45m*0.45m, laptop y los programas: Pix4D (capture y mapper), Excel, Leica Geo Office, ArcGis. Nos ubicamos en el área de estudio y estacionamos el GPS en un lugar despejado pues así no tendrá interferencia con la señal que le envíen los satélites, hacemos las configuraciones de trabajo y dejamos el debido tiempo para que haga las correcciones, en lo que el GPS está procesando ubicamos las tablas dentro del área de estudio ya que tomaremos las medidas de dichas tablas para georreferenciar la orto foto que obtendremos con el vuelo de dron (VANT), después hacemos el vuelo de dron por el área, configurándolo con el software Pix4D Capture. También se hace el levantamiento de los perfiles de playa con el equipo topográfico para ubicarlos en el MDE que obtendremos al final. Una vez que tenemos el vuelo y los puntos del GPS, descargamos los datos y hacemos las correcciones de los puntos con el programa Leica Geo Office. Una vez listo procesamos las imágenes obtenidas con el vuelo con el programa Pix4D Mapper, con el cual nos dará un reporte con las correcciones que hace al momento de georreferenciarlos con los puntos del GPS, y como resultado nos dará un mosaico el cual procesaremos con el programa ArcGis para obtener un modelo digital de elevación (MDE). En el cual ubicaremos los perfiles que se levantaron con el equipo topográfico. Al igual se hizo un estudio en el campus 6 EPOMEX (en el cual realizamos levantamiento topografico, con dron y GPS.) Complementariamente al trabajo topográfico se toman muestras de arena y se llevan al laboratorio para ver conocer la variación granulométrica.


CONCLUSIONES

Al final obtuvimos los resultados esperados con la metodología empleada, la relación entre la teoría y la practica fueron muy estrechas, hicimos comparaciones entre datos que ya tenían de tiempo atrás sobre el área de estudio y los datos que nosotros obtuvimos en campo, así logramos observar el cambio de elevaciones que hubo por distintos factores ya mencionados.
Tamayo Castillo Irvin de Jesus, Universidad Autónoma de Yucatán
Asesor: Dr. Edgar Alejandro León Espinoza, Universidad Autónoma de Sinaloa

RELATIVIDAD GENERAL Y COSMOLOGíA: BASES HACIA TEORíAS EXTRADIMENSIONALES.


RELATIVIDAD GENERAL Y COSMOLOGíA: BASES HACIA TEORíAS EXTRADIMENSIONALES.

Tamayo Castillo Irvin de Jesus, Universidad Autónoma de Yucatán. Asesor: Dr. Edgar Alejandro León Espinoza, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La mecanica Newtoniana ha sido ampliamente útil para describir fenómenos propios de la cinématica y dinámica. Sin embargo, esta mecánica comenzó a tambalearse al considerar velocidades muy altas o campos gravitatorios intensos. Einstein llegó a plantear la relatividad especial y posteriormente la relatividad general. Esta teoría planteó una nueva percepción del espacio y el tiempo, transformando la gravitación de una fuerza a una propiedad del espacio-tiempo. Estas teorías marcaron un parteaguas en la historía de la física y abrió el camino de la cosmología a pasos agigantados. Con el desarrollo de la teoría de gravitación surgieron nuevas teorías e hipótesis, algunas de las cuales postulaban la existencia de dimensiones adicionales



METODOLOGÍA

Relatividad especial:  Se demostró experimentalmente que la velocidad de la luz es constante, independientemente del marco de referencia. Este hallazgo fue uno de los postulados de Einstein para su teoría, junto con la idea de que el espacio y el tiempo no son absolutos, rechazando la simultaneidad entre marcos inerciales. Es conveniente considerar el espacio y el tiempo como una única entidad: el espacio-tiempo. En esta teoría se establece el espacio de Minkowski, el cual está dado por el objeto de línea: ds2= -c2dt2 + dx2 + dy2 + dz2 Este espacio es tetradimensional y se considera un espacio plano. El espacio de Minkowski también es comúnmente representado como: ds2= nµvdxµdxven el cual se introduce el tensor métrico (se explicará más adelante). Relatividad general: En esta teoría aborda la gravitación, puesto que el concepto de gravitación en la mecánica newtoniana no encajaba con la relatividad especial, ya que esta considera un marco inercial en el que no se aplican aceleraciones ni fuerzas. Einstein propuso que el espacio y tiempo estaban ligados, proponiendo que, en presencia de una masa, el espacio-tiempo se deforma, de modo que cualquier otra masa nota ese espacio deformado, y se ve obligada a seguir trayectorias diferentes a cuando estaba el espacio sin deformar. Un concepto fundamental para entender y facilitar los cálculos relativistas son los tensores. Por definición: Un tensor de tipo (o rango) (k,l) es un mapeo multilinear de una colección de vectores (o contravectores  y vectores duales (o covectores ).T=Tµ1...µkv1....vleµ1x.......xeµkxØv1x....xØv1 Siendo x el producto tensorial.  De igual manera, presentamos una de las ecuaciones tensoriales más bonitas y útiles de la física, las ecuaciones de campo de Einstein: Rµv-1/2 Rgµv + Agµv​ = (8piG/C2)Tµv​.  Estas ecuaciones relacionan la estructura geométrica del espacio-tiempo con la distribución de la materia y la energía. Por ello, se dice que "la materia le indica al espacio cómo curvarse, y el espacio le indica a la materia cómo moverse". En esta ecuación podemos observar los siguientes componentes: Rµv - Tensor de Ricci. Describe cómo se curva el espacio-tiempo debido a la presencia de materia y energía. gµv - Tensor métrico. Define las distancias y los ángulos en el espacio-tiempo. R - Escalar de Ricci. Representa la curvatura total de espacio-tiempo. G - Constante de gravitación universal A -  Constante cosmológica C  - Velocidad de la luz en el vacío Tµv​ - Tensor energía-momento, que describe la densidad y el flujo de energía y momento en el espacio-tiempo. Esta ecuación tiene soluciones las cuales describen diferentes configuraciones del espacio-tiempo bajo la influencia de diversas distribuciones de materia y energía. Cada solución representa una métrica particular que satisface la ecuación de campo en condiciones específicas. La primera solución obtenida fue la solución de Schwarzschild, la cual describe el campo gravitatorio en el exterior de una masa esféricamente simétrica, no rotante y no cargada. La métrica de Schwarzschild se expresa como: ds2=-(1-(2GM/C2r))C2dt2 + (1-(2GM/C2r))-1 dr2+ r2do2 + r2sen2odØ2 Donde:  M - Es la masa del objeto central. r - Es la coordenada radial. o y Ø - Son las coordenadas angulares. t - es la coordenada temporal. Está métrica revela propiedades importantes del campo gravitatorio. En particula, predice la existencia de un horizonte de eventos en r=2GM/C2 , conocido como el radio de Schwarzschild. Este radio define una región más allá de la cual nada, ni siquiera la luz, puede escapar, característica básica de los agujeros negros


CONCLUSIONES

La relatividad general ha revolucionado nuestra comprensión del universo, transformando nuestra percepción del espacio, el tiempo y la gravedad. La exploración de dimensiones adicionales y la búsqueda de una teoría cuántica de la gravedad representan las fronteras actuales de la investigación en física.  El estudio de estas teorías no solo busca resolver inconsistencias actuales, sino que también abre la puerta a nuevas predicciones y experimentos que podrían revolucionar nuestra comprensión del cosmos. Las ecuaciones de campo de Einstein han sido fundamentales para predecir fenómenos como la expansión acelerada del universo y la existencia de agujeros negros. En conclusión, la relatividad general ha sido un pilar de la física moderna, y su legado sigue vivo en la investigación actual. Las teorías extradimensionales y la búsqueda de una teoría cuántica de la gravedad prometen llevarnos más allá de nuestra comprensión actual, abriendo nuevas y emocionantes posibilidades para el futuro de la física y la cosmología. Estas investigaciones podrían no solo resolver algunos de los misterios más profundos del universo, sino también cambiar para siempre nuestra percepción de la realidad.
Tapia Gutiérrez Mariana Josefina, Universidad Autónoma del Estado de México
Asesor: Dra. Beatriz Edith Vega Serratos, Universidad Autónoma de Campeche

ANáLISIS DEL PELIGRO Y RIESGO HIDROMETEOROLóGICO EN LA CIUDAD DE CAMPECHE


ANáLISIS DEL PELIGRO Y RIESGO HIDROMETEOROLóGICO EN LA CIUDAD DE CAMPECHE

Perez de Aquino Hilary Michel, Universidad Autónoma de Guerrero. Tapia Gutiérrez Mariana Josefina, Universidad Autónoma del Estado de México. Asesor: Dra. Beatriz Edith Vega Serratos, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

La prevención de desastres es crucial debido a la variedad de fenómenos perturbadores existentes. Los Atlas de Peligros y Riesgos son herramientas esenciales en la gestión del riesgo de desastres y la planificación del desarrollo, proporcionando un sistema integral de información que ayuda a la toma de decisiones, planificación y preparación para posibles desastres. Este trabajo se centra en los riesgos hidrometeorológicos, especialmente las lluvias e inundaciones, principales riesgos en Campeche, y busca aplicar estos atlas en la planificación urbana y rural, la gestión de emergencias y la educación pública, contribuyendo a los Objetivos de Desarrollo Sostenible de las Naciones Unidas.



METODOLOGÍA

Insumos y procedimientos para un atlas de peligros y riesgos: 1. Información cartográfica y geoespacial:    - Mapas topográficos, geológicos, hidrológicos, de uso del suelo, MDT, MDE. 2. Datos históricos y estadísticos:    - Registro de eventos pasados, series de tiempo de precipitaciones, temperaturas, vientos y otros parámetros meteorológicos.    - Modelos climáticos para anticipar cambios futuros y su impacto. 3. Información sobre la población:    - Distribución, densidad y características socioeconómicas. 4. Inventario de infraestructura:    - Datos sobre edificaciones, redes de transporte, servicios públicos y áreas críticas. Análisis de peligro, vulnerabilidad y exposición: - Peligro: Probabilidad de ocurrencia de eventos dañinos. Se identifican mediante estudios geológicos, meteorológicos, inspecciones y registros históricos. Mapas de peligros representan gráficamente las áreas susceptibles. - Vulnerabilidad: Susceptibilidad de comunidades e infraestructuras a sufrir daños. Factores físicos, sociales, económicos y ambientales influyen. - Exposición: Presencia de personas, bienes y servicios en áreas de riesgo. Mayor exposición implica mayores pérdidas potenciales   Actividades complementarias: 1. Levantamiento de canales: Análisis de riesgos de inundación y desarrollo de un modelo numérico de la ciudad. 2. Manejo de dron: Calibración y vuelos de prueba para recopilación de datos en Playa Bonita. 3. Monitoreo en Playa Bonita: Estudio de morfodinámica y cambios en la playa. 4. Oleaje direccional: Identificación de movimiento de boya para conversión de energía del oleaje.


CONCLUSIONES

El análisis de peligro y riesgo hidrometeorológico en Campeche revela que las lluvias e inundaciones son los principales riesgos. La aplicación de Atlas de Peligros y Riesgos proporciona información vital para la planificación urbana y rural, la gestión de emergencias y la educación pública. La integración de datos cartográficos, históricos y socioeconómicos permite una evaluación precisa de la vulnerabilidad y exposición de la comunidad. Las actividades complementarias, como el levantamiento de canales y el manejo de drones, contribuyen a mejorar la precisión y la planificación ante eventos hidrometeorológicos, promoviendo ciudades y comunidades más resilientes y sostenibles como se propone en el Objetivo de Desarrollo Sostenible número 11.
Tello Lozano Daniela, Universidad de Investigación y Desarrollo
Asesor: Dra. Anne Warren Johnson, Universidad Iberoamericana, Ciudad de México

INFORME DE INVESTIGACIÓN CUALITATIVA LA INFLUENCIA DE LOS AVANCES CIENTíFICOS EN LAS REPRESENTACIONES ARTíSTICAS DEL COSMOS


INFORME DE INVESTIGACIÓN CUALITATIVA LA INFLUENCIA DE LOS AVANCES CIENTíFICOS EN LAS REPRESENTACIONES ARTíSTICAS DEL COSMOS

Tello Lozano Daniela, Universidad de Investigación y Desarrollo. Asesor: Dra. Anne Warren Johnson, Universidad Iberoamericana, Ciudad de México



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el desarrollo científico en la astronomía ha sido un constante a lo largo de la historia, la indagación espacial ha proporcionado nuevos enfoques que han sido de inspiración a los artistas para generar nuevas perspectivas. La presente investigación se enfoca en como estos avances científicos han intervenido en las representaciones artísticas del cosmos, y las técnicas utilizadas resaltando la contribución entre artistas y científicos que han hecho asequible esta noción astronómica. El presente informe contempla conceptualizaciones y estructuras metodológicas en el área de las representaciones artísticas del cosmos. La intención es explorar como los avances científicos impactan en dichas interpretaciones, y que elementos son utilizados y evidenciados a lo largo de nuevos conocimientos e instrumentos que permiten la indagación del cosmos de manera precisa a los artistas. La indagación espacial y los hallazgos astronómicos han modificado nuestra comprensión y percepción del universo. La unión de arte y ciencia, ha sido un campo de exploración a lo largo de la historia, desde la pintura rupestre hasta la creación virtual del universo en el arte contemporáneo, lo que ha llevado a una admiración por el cosmos y a la inspiración de variedad de artistas. La investigación se centra en como estos hallazgos científicos han impactado a los artistas en la incorporación de estos conceptos en sus obras y de cómo afecta en la apreciación visual del público.  



METODOLOGÍA

El método que se llevó a cabo para esta investigación fue una entrevista semiestructurada con Ale de la Puente, una artista mexicana que explora los fundamentos del tiempo por medio de las experiencias dadas por el espacio. Este método busca que el investigador logre contemplar una perspectiva minuciosa y profunda en temas como lo son el impacto y los misterios del cosmos en las representaciones artísticas del universo. Por medio de esto, se opta por una entrevista semiestructurada puesto que permite abordar una exploración más profunda y se ajusta a las respuestas y vivencias del entrevistado, de este modo recopilar datos con una investigación de obras y elementos vinculados con Ale de la Puente contribuye al entendimiento desde el punto de vista personal.


CONCLUSIONES

Quedan muchos aspectos por explorar, como lo es la realidad virtual, la inteligencia artificial y de qué forma estas tecnologías pueden ser utilizadas para crear experiencias educativas y contribuir a la comprensión del cosmos. Implementar más investigaciones sobre las comunidades indígenas y locales de cómo sus inicios en el conocimientos y tradiciones astronómicas fueron avanzando desde la parte científica y cultural haciendo una práctica más efectiva entre ciencia y arte en América Latina.  La investigación realizada sobre como los avances científicos han influido en las representaciones artísticas del cosmos, ha sido analizada desde el renacimiento hasta la actualidad, teniendo artistas como Vermeer y Chandin donde se incorporaron herramientas científicas y conceptos astronómicos en sus obras, se observa la compresión del universo originados por Galieo Galilei y Nicolas Copérnico en cual sigue evolucionando en nuevas respuestas a descubrimientos científicos. Desde los inicios de estos descubrimientos, artistas han realizado nuevas estrategias innovadoras para recrear conceptos tan complejos en obras artísticas que sean impactantes, un gran ejemplo de ello, es la obra de arte de Joseph Cornell en los 60, donde fue inspirada para educar mediante sus creaciones. Es importante resaltar la comunicación entre artistas y científicos, ya que no solo enriquece ambas disciplinas, además tienen un papel muy importante en la educación y comunicación.
Telpalo Islas Cristal, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Fermin Salomon Granados Agustin, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

PRUEBA ABSOLUTA DE UNA ESFERA USANDO UN INTERFERóMETRO TIPO FIZEAU CON ELEMENTOS óPTICOS SIMPLES


PRUEBA ABSOLUTA DE UNA ESFERA USANDO UN INTERFERóMETRO TIPO FIZEAU CON ELEMENTOS óPTICOS SIMPLES

Telpalo Islas Cristal, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Fermin Salomon Granados Agustin, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

De acuerdo a estadísticas publicadas por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), México dedica únicamente 0.5% de su Producto Interno Bruto (PIB) a las áreas de investigación y desarrollo, adicionalmente, sólo 30% del gasto en investigación y desarrollo del país proviene del sector privado comercial, mientras que 38% proviene del gobierno y 26% de las universidades (el resto corresponde al sector privado sin fines de lucro). (Villalbaz, 2017). Es por ello que hay ocasiones en que contar con el presupuesto necesario para comprar maquinaria ya sea para investigación o enseñanza se vuelve muy complicado de obtener, en especial nos referimos a un instrumento que use la interferometría como herramienta de medición, la cual es una excelente manera de hacer mediciones. Sin embargo, en los laboratorios de enseñanza, principalmente de universidades, no cuenten con los recursos necesarios para comprar equipo especializado para la realización de estas medidas, es por eso que el proponer un sistema interferométrico que nos ayude a poder obtener este tipo de mediciones que son de gran utilidad. Sin embargo, existe el problema en el que se debe corroborar que tan confiable es el montaje para que nos de una medición precisa y muy cercana al valor que nos daría usando un instrumento comercial.



METODOLOGÍA

Se comparó la medición de la calidad óptica de una superficie esférica mediante el uso de un interferómetro tipo Fizeau montado en el laboratorio con elementos ópticos simples, en el cual aplicamos el método de Prueba absoluta para no depender del sistema de medición, contra un interferómetro comercial de la marca Zygo. Estas mediciones se llevaron a cabo gracias a la interferencia de ondas, dando pie a la interferometría como herramienta de medición, en donde tenemos que garantizar ciertas condiciones como la coherencia, polarización y las intensidades relativas de las fuentes. Esto se logró, con un interferómetro tipo Fizeau en donde se usa una fuente de luz coherente (en este caso un láser de 532 nm) paralela a la mesa, de tal forma que la luz pase por un objetivo de microscopio para expandirla y que después pase por un pinhole para lograr una fuente puntual, de esta manera se dirija al divisor y así la luz seguirá su camino hasta llegar a la lente colimadora en donde debemos garantizar que el haz de salida, este bien colimado. Para ello, nos ayudaremos de una placa plano paralela puesta aproximadamente a 45° para que proyecte la luz y podamos ver líneas verticales, estas líneas se verán cuando la distancia entre la lente colimadora y el divisor de haz sea igual al foco, una vez logrado quitamos la placa plano paralela para que la luz siga su camino hasta llegar a la lente de referencia. De esta forma la luz cubrirá la superficie de prueba la cual debe estar alineada con la luz que proyecta la lente de referencia, esta superficie de prueba debe estar de preferencia sobre una placa de desplazamiento tanto en x-y-z ya que se debe alejar o acercar la prueba hasta que coincida con el foco de la lente y de esta manera la luz regresará por el mismo camino y podremos ver la interferencia de las ondas. Como resultado se observa como anillos concéntricos, los cuales deben estar lo más al centro de toda la imagen observada. Una vez obteniendo los interferogramas con un número de franjas reducidas (entre 10 y 14), se le da un poco de inclinación a la prueba de tal forma que de anillos concéntricos pasen a ser franjas casi verticales. Se toma la foto del interferograma, y se repite el proceso dos veces, una de ellas girando 180° la superficie bajo prueba y una tercera colocando el vértice de la superficie bajo prueba en el foco de la lente colimadora. Una vez que se obtiene las 3 imágenes de los interferogramas, se analizan con el software Apex, dicho programa nos dará los coeficientes de los polinomios de Zernike, estos se usaran en el programa Mathematica para la obtención del error total de la esfera (usando el método de prueba absoluta mediante la fórmula: Wesf = (1/2)(W0 + W180 gir - Wfoc - Wfocgir) Esta fórmula se usa ya que el interferómetro como tal presenta errores intrínsecos que no pueden ser corregidos con facilidad, uno de ellos es el error que ocasiona la lente o que no se llega al foco realmente ya que se presenta el fenómeno de cintura entre otros errores posibles, entonces la fórmula nos eliminará estos datos no deseados dejándonos sólo con el error puro de la prueba.  


CONCLUSIONES

Al realizar todo el procesamiento y obteniendo los resultados, se llega a la conclusión de que el montaje del arreglo interferométrico propuesto si proporciona medidas muy cercanas a las obtenidas en la maquina de la marca Zygo, por lo que es confiable para realizarse en un laboratorio que no cuente con el recurso para la compra de la maquinaria y que solo cuente con elementos ópticos simples.
Terrazas Martínez Miguel Ángel, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Alfredo Castañeda Hernandez, Universidad de Sonora

CLASIFICACIóN DE LA PRODUCCIóN DE PARES DE QUARKS B EN COLISIONES DE ALTAS ENERGíAS USANDO REDES NEURONALES EN ACARUS: DIFERENCIACIóN ENTRE RUIDO QCD Y SEñALES DEL DECAIMIENTO DEL BOSóN DE HIGGS CON DATOS DEL CERN OPEN DATA


CLASIFICACIóN DE LA PRODUCCIóN DE PARES DE QUARKS B EN COLISIONES DE ALTAS ENERGíAS USANDO REDES NEURONALES EN ACARUS: DIFERENCIACIóN ENTRE RUIDO QCD Y SEñALES DEL DECAIMIENTO DEL BOSóN DE HIGGS CON DATOS DEL CERN OPEN DATA

Terrazas Martínez Miguel Ángel, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Alfredo Castañeda Hernandez, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

En colisiones de altas energías como las del LHC se estudia el decaimiento del bosón de Higgs del cual se producen partículas elementales que se detectan posteriormente al producirse los jets conformados por diferentes tipos de hadrones. Dentro de los hadrones lo más comunes son los pares de quarks b (bottom quarks - 58% de probabilidad) debido a que son más masivos y tienen una mayor interacción con el campo de Higgs. Sin embargo, encontramos dificultades al momento de detectar estos pares de quarks b debido a la presencia de ruido QCD (cromodinámica cuántica), dentro del cual se encuentran quarks y gluones que después forman jets que también pueden crear hadrones de par de quarks b. Debido a que la cantidad de datos del ruido QCD es mucho mayor que la del decaimiento del bosón de Higgs se busca una manera de analizar los eventos, en este caso, con una red neuronal implementada con Python para clasificar si la producción de los pares de quarks b se originan del ruido QCD o del bosón de Higgs.



METODOLOGÍA

En el servidor ACARUS en Open OnDemand se creó un escritorio remoto dentro del cual se configuró el ambiente de ROOT mediante la terminal de Linux para que funcione la librería de ROOT, una vez activado el ROOT se descargaron los datos del CERN OpenData en la carpeta deseada con el comando wget y la dirección de los datos ROOT, después se abrió un notebook de Jupyter desde la misma terminal. En el notebook creado se importaron las respectivas librerías para el análisis de los archivos ROOT, se observó la estructura de los archivos ROOT y se compararon variables para escoger candidatos y mejorar la red neuronal, las variables seleccionadas fueron analizadas con etiquetas que discriminan los datos dependiendo si provienen de ruido QCD o del bosón de Higgs y luego comparadas en histogramas. Finalmente se escogieron fj_mass (la masa del jet sin aplicar técnicas de limpieza), fj_phi (el ángulo azimutal es la dirección del jet en el plano transversal al haz del colisionador), fj_pt (el momento transversal es el componente del momento del jet perpendicular al eje del haz del colisionador.), fj_sdmass (la masa del jet después de aplicar el algoritmo de soft drop, que elimina partículas de baja energía del jet), fj_ptDR (esta variable combina el momento transversal del jet con la separación angular (ΔR) entre dos subjets dentro del jet) y fj_sdsj1_mass (la masa del primer subjet identificado dentro del jet). Posteriormente se volvió a la interfaz de ACARUS y se abrió directamente un servidor de Jupyter lab, dentro de la terminal de Jupyter lab se activó el amiente tf24 permitiendo que se pueda utilizar la librería necesaria para trabajar con la red neuronal: tensorflow y se descargaron los archivos previamente analizados, pero ahora en formato HDF5. Se obtuvo un ejemplo del CERN open lab mediante git clone en la terminal que modela la base de la red neuronal. En la red neuronal nueva, y con las librerías respectivas importadas, se agregaron las variables seleccionadas del análisis anterior. Además, se identificaron variables como espectadores, fj_sdmass y fj_pt, que se utilizaron para disminuir la cantidad de eventos a analizar con respecto a estos parámetros, así como etiquetas para clasificar los eventos QCD y decaimientos del bosón de Higgs en quarks b. A continuación, se creó una función para cargar los datos desde archivos HDF5. Esta función abre el archivo, lee las variables, espectadores y etiquetas, y las almacena es específicos tipos de arreglos. Se filtraron las variables con los espectadores y las etiquetas, y se eliminaron eventos que no pertenecen a una clase especifica (QCD o bosón de Higgs). La preparación del modelo de la red neuronal implicó la definición de una red con capas de normalización y densas, utilizando las funciones de activación ReLu (devuelve 0 para valores negativos y la propia entrada para valores positivos) y softmax (para distribución de probabilidad cuya suma es uno) para la salida. El modelo se construyó utilizando el optimizador Adam (para ajustar los pesos adecuadamente). Una vez definido el modelo, se procedió a su entrenamiento con los datos filtrados, utilizando un conjunto de estos datos para la validación y así monitorear el desempeño. Después, se cargaron los datos de prueba de otro archivo HDF5 y se utilizaron para evaluar el modelo. Se generó la curva ROC para medir los verdaderos positivos y los falsos positivos. El desempeño del nuevo modelo se comparó con el modelo original sin las variables que se analizaron y se agregaron. Finalmente se graficaron ambas curvas en un solo gráfico mostrando el área bajo la curva (AUC) de cada una.


CONCLUSIONES

En el periodo de la estancia se consiguió ampliar el conocimiento teórico sobre las colisiones de altas energías y el manejo de técnicas computacionales para el análisis de datos, así como un mejor entendimiento en la construcción y funcionamiento de redes neuronales. Poniendo a prueba el conocimiento adquirido obtuvimos que el modelo construido significó una mejora con respecto al modelo original que consiguió un AUC de 91.7% y el modelo nuevo obtuvo un 96.2% demostrando, parcialmente, que el análisis previo presentó una manera de aumentar la efectividad de modelos de redes neuronales en este contexto.
Terrero Mariano Rafael, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Carlos Alberto Ochoa Ortíz, Universidad Autónoma de Ciudad Juárez

TECNOLOGíAS IOT PARA LA EFICIENCIA EN EL MONITOREO DE CAPTURA DE CO₂ POSTCOMBUSTIóN


TECNOLOGíAS IOT PARA LA EFICIENCIA EN EL MONITOREO DE CAPTURA DE CO₂ POSTCOMBUSTIóN

Terrero Mariano Rafael, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Carlos Alberto Ochoa Ortíz, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

La crisis climática y la contaminación ambiental, agravadas por las emisiones industriales de CO₂, representan una amenaza significativa para la sostenibilidad global. Las industrias que dependen de combustibles fósiles, como la producción de acero y la generación de energía, son grandes contribuyentes a estas emisiones. Las tecnologías de captura de CO₂ post-combustión son vitales para mitigar estos impactos, pero enfrentan desafíos como la regeneración de solventes y la corrosión. Este trabajo de investigación presenta la captura de CO₂ post-combustión mediante la integración de tecnologías IoT. El objetivo es desarrollar y evaluar una plataforma IoT que utilice microcontroladores ESP32 para monitorear y administrar el proceso de captura en tiempo real, optimizando así la eficiencia operativa y la toma de decisiones basada en datos.



METODOLOGÍA

La metodología para el monitoreo del proceso de post-combustión se realiza por las etapas del proceso, desde la mezcla de flujos hasta la captura y separación de CO₂. Para obtener los datos del sistema del proceso postcombustión se utilizan dos microcontroladores ESP32, uno en la columna de absorción y otro en la columna de desorción, para recopilar y transmitir datos en tiempo real a un servidor Node.js mediante Socket.io. El sistema postcombustión incluye diferentes experimentaciones que involucran la mezcla de flujos, la introducción del solvente, la recuperación y calentamiento del solvente, la separación de CO₂ en la columna de desorción y la condensación y almacenamiento del CO₂. Cada etapa es monitoreada mediante sensores y actuadores. La plataforma IoT se implementa utilizando microcontroladores ESP32 que recopilan datos de sensores y controlan actuadores. Estos datos se transmiten en formato JSON a través de HTTP a un servidor Node.js, donde se procesan y visualizan en tiempo real. El uso de la biblioteca Socket.io permite la actualización continua de gráficos y la gestión de datos en tiempo real. Se identifican y describen diferentes tipos de experimentaciones, incluyendo absorción continua y saturación, desorción y combinaciones de estos procesos. Cada tipo de experimentación proporciona datos cruciales para optimizar el ciclo completo de captura y liberación de CO₂. Las herramientas y tecnologías utilizadas para asegurar el desarrollo y la implementación segura de la plataforma IoT, incluyendo Balsamiq para diseño de interfaces, Node.js para el backend, y bibliotecas como Axios, Bcrypt y Cors para gestión de datos y seguridad.


CONCLUSIONES

La implementación de la plataforma IoT para el monitoreo del proceso de captura de CO₂ ha demostrado ser eficaz en la mejora de la eficiencia operativa. La recopilación y análisis en tiempo real de datos permiten una toma de decisiones más precisa y ajustes dinámicos en el proceso. Este enfoque innovador no solo mejora la eficiencia del proceso de captura de CO₂, sino que también establece un precedente para la integración de tecnologías IoT en la industria. Las futuras investigaciones podrían explorar la expansión de esta tecnología a otros procesos industriales y la mejora continua de las técnicas de captura y separación. Para maximizar los beneficios de la plataforma IoT, se recomienda continuar con la optimización de los algoritmos de análisis de datos y la integración de más sensores y actuadores para un monitoreo aún más detallado. Además, la cooperación con la industria para adaptar y escalar esta tecnología será crucial para su éxito a gran escala.
Tiznado Valenzuela Ana Julissa, Universidad de Sonora
Asesor: Dr. Joel Carvajal Soto, Universidad de Sonora

DESARROLLO Y APLICACIóN DE UNA METODOLOGíA INTEGRAL PARA LA OBTENCIóN DE ESPECTROS DE RESPUESTA SíSMICA


DESARROLLO Y APLICACIóN DE UNA METODOLOGíA INTEGRAL PARA LA OBTENCIóN DE ESPECTROS DE RESPUESTA SíSMICA

Tiznado Valenzuela Ana Julissa, Universidad de Sonora. Asesor: Dr. Joel Carvajal Soto, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Los terremotos en México varían en magnitud y frecuencia, lo que plantea desafíos significativos para los ingenieros civiles encargados de diseñar y construir estructuras seguras y duraderas. El terremoto de 1985 en la Ciudad de México fue uno de los eventos sísmicos más destructivos en la historia reciente de la región, con una magnitud de 8.1 y efectos devastadores en la infraestructura y la población. Este evento ha servido como un caso de estudio crítico para la ingeniería sísmica y la dinámica estructural. Para mejorar la comprensión y la preparación ante futuros sismos, es esencial analizar y obtener espectros de respuesta sísmica detallados basados en los registros de aceleraciones del suelo obtenidos durante el sismo de 1985. El objetivo de este estudio es desarrollar una metodología para la obtención de espectros de respuesta sísmica del sismo de 1985 en la Ciudad de México, utilizando herramientas matemáticas y de simulación. Esto incluye el análisis de acelerogramas, la integración numérica para obtener velocidades y desplazamientos, y la evaluación de las respuestas de sistemas de un grado de libertad (SDOF) sometidos a las excitaciones sísmicas registradas por medio del programa MATLAB.



METODOLOGÍA

Para la obtención de registros sísmico, se localizaron los registros de aceleración del suelo del sismo de Ciudad de México de 1985. Estos registros están disponibles en bases de datos sísmicas, instituciones de investigación sismológica y universidades. Después se verifico que el registro esté en un formato adecuado (por ejemplo, aceleración en m/s² en función del tiempo en segundos) y que tenga una frecuencia de muestreo suficiente para capturar la dinámica del movimiento. Configuración del Modelo de SDOF (Sistema de Un Grado de Libertad): Se establecieron los parámetros necesarios para su correcto análisis: Masa (m): Se asume una masa unitaria (m = 1 kg) para simplificación. Amortiguamiento: Usar un amortiguamiento típico del 2%  Períodos de Interés: Definir un rango de períodos naturales de vibración desde 0.1 segundos hasta 4.0 segundos, con incrementos de 0.2 segundos. Para el cálculo de la respuesta del sistema se utilizó la ecuación de movimiento para el sistema SDOF Donde: m es la masa. c es el coeficiente de amortiguamiento. k es la rigidez. p(t) es la excitación sísmica Frecuencia Angular Natural (ωn):  Para cada período T, calcular la frecuencia angular natural  Rigidez (k): Calcular la rigidez  Por último, se hizo uso del software MATLAB realizar los cálculos, y generar los espectros de respuesta: Espectro de Desplazamiento Espectro de Velocidad Espectro de Aceleración


CONCLUSIONES

Los resultados obtenidos validan la importancia de utilizar registros históricos de aceleración del suelo, y muestran cómo el uso de métodos numéricos avanzados puede mejorar significativamente la precisión en la evaluación de la respuesta sísmica de las estructuras. Estos espectros de respuesta son cruciales para identificar los periodos de vibración críticos y las intensidades máximas de respuesta, lo que a su vez permite optimizar el diseño sísmico y evaluar la vulnerabilidad de las edificaciones existentes. Además, la metodología desarrollada no solo contribuye al conocimiento académico y técnico, sino que también tiene implicaciones prácticas significativas para la preparación y mitigación de riesgos sísmicos en la Ciudad de México. Al proporcionar datos detallados y precisos, se facilita la implementación de medidas de diseño más efectivas y la planificación de estrategias de emergencia más robustas, aumentando la resiliencia de la infraestructura ante futuros eventos sísmicos.
Toncel Manotas Esjeisson Rafael, Universidad de la Guajira
Asesor: Dra. Valentina Davydova Belitskaya, Universidad de Guadalajara

CONTROL DE CALIDAD Y EL ANáLISIS DE LA INFORMACIóN CLIMáTICA EN DETERMINACIóN DE EVENTOS EXTREMOS EN JALISCO


CONTROL DE CALIDAD Y EL ANáLISIS DE LA INFORMACIóN CLIMáTICA EN DETERMINACIóN DE EVENTOS EXTREMOS EN JALISCO

Santiago Apango Lizeth Elena, Universidad Rosario Castellanos. Toncel Manotas Esjeisson Rafael, Universidad de la Guajira. Asesor: Dra. Valentina Davydova Belitskaya, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El cambio climático es una realidad innegable que afecta a todas las regiones del mundo de diversas maneras. En Jalisco, México, la variabilidad climática ha tenido un impacto significativo en sectores como la agricultura, los recursos hídricos y la salud pública. Las temperaturas extremas y los patrones anómalos de precipitación son eventos cada vez más frecuentes que amenazan la estabilidad socioeconómica de la región. Estudios recientes señalan que el cambio climático ha incrementado la frecuencia y la intensidad de los eventos climáticos extremos a nivel global (IPCC, 2021). México enfrenta un desafío de la calidad de los datos climatológicos, ya que la falta de homogeneización puede repercutir en errores que dificultan la detección de los efectos del cambio climático. En Jalisco, esta falta de datos precisos y homogéneos dificulta la comprensión de los patrones climáticos históricos y actuales, lo que ha generado una problemática significativa. Esto se evidencia en prácticas cuestionables como el uso de cañones sónicos para evitar el granizo. La falta de datos y la heterogeneidad en las series temporales de variables como precipitación y temperatura complican la identificación de tendencias claras y la predicción de eventos extremos futuros. La correcta gestión y análisis de estos datos es crucial para entender y mitigar los efectos del cambio climático a nivel local. La Comisión Nacional del Agua (CONAGUA, 2020) ha subrayado la necesidad de mejorar la calidad de los datos climáticos para una mejor gestión del agua y planificación de recursos en México. Este estudio busca abordar estos desafíos mediante un enfoque sistemático de pre-procesamiento y homogeneización de datos climáticos. Utilizando técnicas avanzadas y herramientas específicas. Este enfoque permitirá una evaluación más precisa de los índices climáticos y una identificación más confiable de eventos extremos. Además, la identificación precisa de eventos extremos y sus tendencias es esencial para desarrollar estrategias de adaptación y mitigación frente al cambio climático. La información obtenida puede ayudar a las autoridades locales y regionales a implementar medidas efectivas para reducir los riesgos asociados con fenómenos climáticos extremos. Investigaciones recientes han demostrado que una gestión eficaz de los riesgos climáticos puede mejorar significativamente la resiliencia de las comunidades (UNFCCC, 2019).



METODOLOGÍA

La investigación sobre eventos climáticos extremos en Jalisco se llevó a cabo mediante un enfoque metodológico que combinó el análisis de datos climáticos históricos con la aplicación de herramientas avanzadas para el control de calidad y la homogenización de los datos. En primer lugar, se seleccionaron dos estaciones meteorológicas, la 14044 ubicada en El Bramador, municipio de Talpa de Allende, y la estación 14052, situada en San Gabriel, estas operativas y gestionadas por CONAGUA; proporcionaron datos valiosos para la investigación. Datos históricos de precipitación y temperatura, comprendidos en el período 1961 a 2019, se recuperaron de la página de CONAGUA y se trasladaron a hojas de Excel para un pre-procesamiento inicial. Durante el pre-procesamiento, se reemplazaron valores faltantes por -99.9 y se eliminaron columnas irrelevantes, para asegurar la integridad de la información. Posteriormente, se aplicaron herramientas avanzadas para el control de calidad y la homogenización de los datos, utilizando el software R v. 4.4.1. y herramientas como Rclimdex_extraqc.R, RHtestsV4_20180301 y RHtests_dlyPrcp_20160621.R. Una vez homogeneizados los datos, se generaron 27 índices climáticos recomendados por el Expert Team on Climate Change Detection and Indices (ETCCDI), los cuales incluyen métricas como el número de días con precipitación superior a 10 mm y los índices de días cálidos y noches frías. Para facilitar un análisis comparativo y la identificación de tendencias a largo plazo, los datos se dividieron en cuatro periodos temporales: 1961-1991, 1971-2000, 1981-2010 y 1991-2018. Utilizando el paquete Rclimdex, se procesaron los datos de cada periodo por separado, generando índices como la temperatura máxima del día más cálido y el total anual de precipitación.


CONCLUSIONES

Los índices de ETCCDI son fundamentales para la determinación y toma de decisiones en la lucha contra el cambio climático; estos ayudan a estimar la frecuencia e intensidad de eventos extremos como olas de calor, sequías y lluvias intensas. Los resultados sugieren que la región ha experimentado un cambio significativo en las últimas décadas, con un aumento en la temperatura y cambios en los patrones de precipitación. Esta ha disminuido ligeramente en el período de estudio, especialmente en la segunda mitad del siglo XX; la temperatura mínima ha aumentado significativamente en el mismo período, especialmente en las últimas décadas; la temperatura máxima ha aumentado también, aunque a un ritmo más lento que la temperatura mínima. Además, se idéntico un aumento en la duración de las sequías y un descenso en la duración de las lluvias, y un aumento en la intensidad de las precipitaciones extremas. El análisis de los índices proporcionó una visión detallada de la variabilidad climática en Jalisco. Esta información es relevante para la toma de decisiones informadas y el desarrollo de políticas públicas y estrategias de adaptación al cambio climático. Referencias IPCC. (2021). Climate Change 2021: The Physical Science Basis. Contribution of Working Group I to the Sixth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge University Press. CONAGUA. (2020). Estadísticas del Agua en México, Edición 2020. Comisión Nacional del Agua, Secretaría de Medio Ambiente y Recursos Naturales. UNFCCC. (2019). The Adaptation Finance Gap Report. United Nations Framework Convention on Climate Change.
Toral Gamez Jorge Luis, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE DATOS ABIERTOS DEL CMS PARA LA DETECCIóN DEL BOSóN W POR COLISIONES PROTóN PROTóN A √S = 7 TEV


ANáLISIS DE DATOS ABIERTOS DEL CMS PARA LA DETECCIóN DEL BOSóN W POR COLISIONES PROTóN PROTóN A √S = 7 TEV

Toral Gamez Jorge Luis, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El presente trabajo busca determinar qué tipo de partícula decae con base en la preselección de datos de un experimento registrado en el CMS. Para determinar el tipo de partícula, se utilizó el hecho de que la base de datos contenía un leptón (electrón o positrón) y momento transversal perdido, asociado a neutrinos.



METODOLOGÍA

Para la manipulación de los datos, se usó Python junto con las librerías de pandas, numpy, scipy y matplotlib. Se logró obtener una media en la masa transversal de 80.43 GeV, por lo que se clasifica como un candidato a bosón W, y se realizó un ajuste Breit-Wigner, donde se encontró Γ = 24.24 GeV.


CONCLUSIONES

Se obtuvo un valor muy cercano al obtenido en la literatura; sin embargo, usando a Γ como medida de dispersión, podemos ver que es una curva demasiado amplia.
Toribio Segura Alejandro, Instituto Politécnico Nacional
Asesor: Dr. José Carlos Jiménez Escalona, Instituto Politécnico Nacional

MAPEO DE PROBABILIDAD DE AFECTACIÓN AERONÁUTICA POR CENIZA VOLCÁNICA DEL VÓLCAN POPOCATÉPETL PARA EL PERIODO JULIO A DICIEMBRE DE 2022 UTILIZANDO IMAGENES MODIS Y EL MODELO HYSPLIT.


MAPEO DE PROBABILIDAD DE AFECTACIÓN AERONÁUTICA POR CENIZA VOLCÁNICA DEL VÓLCAN POPOCATÉPETL PARA EL PERIODO JULIO A DICIEMBRE DE 2022 UTILIZANDO IMAGENES MODIS Y EL MODELO HYSPLIT.

Toribio Segura Alejandro, Instituto Politécnico Nacional. Asesor: Dr. José Carlos Jiménez Escalona, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las nubes de ceniza volcánica, que afectan las aerovías en el espacio aéreo (rutas de los aviones) pueden ocasionar daños a las aeronaves en áreas específicas que son de gran importancia a la misma hora que se encuentran en el aire y por consiguiente hay probabilidades de accidentes aéreos. Los efectos más graves son en los motores, donde la ceniza puede erosionar los alabes del compresor del motor reduciendo su eficiencia, bloquear las boquillas de inyección de combustible, obstruir los filtros de aire, fundirse con el calor y luego que este se solidifique en un esmalte vítreo que recubre componentes vitales del motor como son los alabes de la turbina o las paredes de las cámaras de combustión, cubrir y aislar los sensores de temperatura del sistema de combustible lo que provoca lecturas incorrectas en cabina y contamina el sistema de aceite y afectar el sistema. En diversos trabajos de investigación se han reportado más de 240 incidentes aéreos con ceniza volcánica, desde 1953 hasta el 2021. De los incidentes confirmados 20 fueron de bajo grado de afectación y al menos 26 de ellos con daños o afectaciones graves a los motores y fuselaje, mientras que un total de 9 eventos generaron fallas críticas de motores, apagándose estos.  



METODOLOGÍA

Para introducirnos en el tema, se hizo una revisión bibliográfica del tema monitoreo de ceniza volcánica con imágenes satelitales, posteriormente se creó un taller de técnicas de detección de la ceniza con imágenes MODIS (Moderate-Resolution Imaging Spectroradiometer), este es un instrumento científico lanzado en órbita terrestre por la NASA en 1999 a bordo del satélite Terra (EOS AM) y en 2002 a bordo del satélite Aqua. Posteriormente a esto, tuvimos un principal objetivo que era monitorear las erupciones del volcán Popocatépetl. Para esto se utilizaron los reportes que emite la VAAC de Washington (Volcanic Ash Advisory Centers), este centro nos permite monitorear la actividad volcánica las 24 horas del día, los 7 días de la semana en una región que abarca desde los Estados Unidos hasta América central, el Caribe y hasta los 10 grados de latitud sur en América del Sur. Estos datos son valiosos e importantes para aerolíneas nacionales e internacionales, control de tráfico aéreo y otros grupos que operan en esta región de América. En mi caso lo ocupe para registrar todas las erupciones del volcán Popocatépetl en un periodo de julio a diciembre del año 2022 y algunos datos como son la fecha de erupción, hora de erupción, altitud que alcanzo la nube y la velocidad con la que se desplazó. Seguido de esto consultamos con LAADS DAAC (Level-1 and Atmosphere Archive & Distribution System Distributed Active Archive Center) de la NASA, que es un recurso valioso para acceder a datos científicos globales relacionados con la atmosfera de la tierra. En sitio web obtuvimos las imágenes satelitales de los sensores MODIS de acuerdo con las erupciones que anteriormente habíamos registrado de la VAAC y aproximadamente tener una imagen con la fecha y hora de erupción que coincida con el momento cuando el satélite está tomando la imagen del volcán Popocatépetl para así poder observar la nube de ceniza volcánica. Con relación a lo anterior se realizó un procesamiento de las imágenes satelitales que descargamos de LAADS DAAC de NASA para extraer la información de la nube de ceniza, este procesamiento se hizo con el software ENVI. Cabe resaltar que de las bandas que nos ofrece el software para ver las nubes de ceniza volcánica, las que ocupamos nosotros para poder observarlas y son las recomendadas para este tipo de imágenes es la banda 31 y 32. Nosotros ocupamos ENVI para obtener de cada imagen: La temperatura de brillo de la banda 31 y 32, diferencia de temperatura de brillo y la imagen georreferenciada. Después utilizamos el modelo HYSPLIT Volcanic Ash Model (Hybrid Single Particle Lagrangian Integrated Trajectory), para reconstruir las nubes de ceniza volcánica y es un modelo on-line que utiliza datos meteorológicos archivados del NCEP (National Centers for Environmental Prediction) de NOAA. Es decir que de este modelo obtuvimos una carpeta que nos da una información de una simulación de la nube de ceniza volcánica que corrimos por 8 horas de lo que se desplaza la nube del cráter del volcán hacia el aire. Por último, con la información anterior que obtuvimos en el modelo HYSPLIT (corridas de Hysplit), en mi caso y la parte que se me asigno hicimos 2 mapas donde se puede ver la afectación del espacio aéreo por ceniza volcánica del año 2022, en un periodo de julio-diciembre. Estos mapas se realizaron con la ayuda de 2 software, el primero es SURFER lo utilizamos para la reconstrucción de la nube de ceniza volcánica y por consiguiente hacer unos ajustes en la nube para después descargar este archivo de la nube. Y el segundo es QGIS, este lo ocupamos para poner en un mapa de aerovías de México la nube que anteriormente habíamos reconstruido con todos los procesos anteriores y así poder observar el comportamiento de la nube de ceniza volcánica en un periodo y tiempo determinado, al igual que nos sirve como instrumento para poder ver y analizar que aerovías se encuentran afectadas por este fenómeno natural.


CONCLUSIONES

Durante la estancia de verano del programa delfín, logre adquirir conocimientos teóricos de la mitigación de riesgos en la aviación por fenómenos naturales como la presencia de nubes de ceniza volcánica en el aire y estar consciente que este fenómeno es un gran peligro para la aviación ya que puede ocasionar los famosos accidentes aéreos. Sin embargo, al ser un trabajo que nuestro investigador ha desarrollado por años, en lo personal creo que este problema puede ser prevenido con las medidas e instrumentos que nuestro investigador está llevando a cabo para ayudar en esta parte a la aviación, realizando mapas donde se puede observar las aerovías que NO pueden ser ocupadas o están afectadas por la presencia de ceniza volcánica.
Tornez Membrila Jose Carlos, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Valeriy Dvoeglazov, Universidad Autónoma de Zacatecas

TEORíA DE MAJORANA PARA PARTíCULAS RELATIVISTAS NEUTRALES


TEORíA DE MAJORANA PARA PARTíCULAS RELATIVISTAS NEUTRALES

García Márquez Iván, Benemérita Universidad Autónoma de Puebla. Tornez Membrila Jose Carlos, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Valeriy Dvoeglazov, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Recientemente, el interés en la mecánica cuántica relativista ha aumentado debido a que la teoría de supercuerdas no ofrece una explicación física a los problemas antiguos en la física de neutrinos. Hay muchos escenarios teóricos en el Universo; sin embargo, las discrepancias se mantienen con observaciones actuales. En este trabajo presentamos una interpretación moderna de los artículos de Ettore Majorana de los años 30, que sirve para la descripción de los espines altos y partículas neutras. Recientemente, se han descubierto algunas paradojas las cuales analizamos.  



METODOLOGÍA

Durante la estancia, se llevó a cabo una revisión del artículo "A Symmetric Theory of Electrons and Positrons" de Ettore Majorana (1937). Se inició con la traducción del artículo al español, utilizando como base la traducción al inglés publicada por una revista japonesa. Esta traducción se realizó con precisión para garantizar la fidelidad del contenido original.   Se continuó con el estudio del libro *Quantum Field Theory* de L. H. Ryder, donde se abordaron temas clave como la notación relativista, la ecuación de Klein-Gordon, los grupos SU(2) y SO(3), así como la relación entre SO(1,3) y SL(2,C). Se introdujo la ecuación de Dirac y sus interpretaciones, y se trabajó en el desarrollo de las ecuaciones pertinentes, comparando la notación empleada en el artículo de Majorana con la traducción realizada en colaboración con el Dr. Cazares.   El análisis del artículo de Majorana incluyó la deducción y contraste de las fórmulas presentadas con la notación actual. Se partió de ciertas expresiones y se estudió, en particular, ciertos conceptos dentro de un cubo de lado específico, utilizando un sistema de funciones periódicas. Al comparar, se hallaron relaciones que se analizan en el documento.   Se continuó con la lectura y el análisis del artículo, afinando la comprensión y la interpretación de los resultados obtenidos. Se calcularon los eigenvalores de una ecuación importante, resultando en cuatro posibles valores, dos positivos y dos negativos. Mediante una transformación unitaria, se reexpresaron ciertas cantidades para simplificar la Hamiltoniana.


CONCLUSIONES

En el artículo revisado, se presenta una innovadora forma de cuantización desarrollada por Ettore Majorana. A diferencia del enfoque de Dirac, que parte de un principio variacional clásico y se aplica a las ondas de materia y los potenciales electromagnéticos, la propuesta de Majorana busca una generalización del método variacional, en la que las variables del Lagrangiano asuman su significado final desde el principio y, por lo tanto, representen cantidades no necesariamente conmutativas. Además, la teoría de Majorana elimina la necesidad de abordar estados negativos, la cancelación de cantidades divergentes y la existencia de antipartículas, simplificando la interpretación de los resultados cuánticos. Aunque los experimentos actuales no han logrado determinar cuál de las dos teorías, la de Dirac o la de Majorana, es más adecuada para el tratamiento de los neutrinos, la propuesta de Majorana ofrece una perspectiva alternativa que podría resultar en avances significativos en nuestra comprensión de la física de partículas y la teoría de campos. Referencias    E. Majorana, Nuovo Cimento 14, 171 (1937). Majorana, E. (1937). A symmetric theory of electrons and positrons (L. Maiani, Trans.). Soryushiron Kenkyu, 63(3), 149-153. Majorana, E. (1937). *Teoría simétrica del electrón y del positrón* (D. A. Sinclair, Trad.). En J. A. Cazares Montes, *Estudio de las diferentes construcciones teóricas en el espacio de representación (j,0) ⊕ (0,j)* (Apéndice, pp. 150-160). Universidad Autónoma de Zacatecas. (Trabajo original publicado en 1937). Ryder, L. H. (1996). *Quantum Field Theory* (2nd ed.). Cambridge University Press.  Neumann, J. von., & Wheeler, N. A. (Eds.). (2018). *Mathematical Foundations of Quantum Mechanics* (New ed., Trans. R. T. Beyer). Princeton University Press.
Torres Jimenez Edwin Ali, Instituto Politécnico Nacional
Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara

ESTUDIO DE GRANULOMETRíA EN PLAYAS URBANAS DE LA BAHíA BANDERAS, NAY.-JAL., MEX., EN EL PERIODO DE JUN-JUL DEL 2024.


ESTUDIO DE GRANULOMETRíA EN PLAYAS URBANAS DE LA BAHíA BANDERAS, NAY.-JAL., MEX., EN EL PERIODO DE JUN-JUL DEL 2024.

Torres Jimenez Edwin Ali, Instituto Politécnico Nacional. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Existen diferencias entre las playas, aunque estén conectadas entre sí. Tienen distintas características, como la línea de costa, topografía, forma, tamaño, color y composición de sus arenas. El cambio constante tanto en la forma de la playa, la acumulación y erosión de los sedimentos y en la estructura de la arena se debe principalmente a las corrientes costeras del mar, la altura y frecuencia del oleaje, el paso de tormentas y los cambios realizados por el hombre para su aprovechamiento. La zona de playa de la Bahía de Banderas es el principal atractivo turístico de la región, lo que la hace el tercer lugar de importancia en el país. Conocer las características de la arena de sus playas y registrar los cambios, aporta información importante para entender la dinámica costera, realizar mejores prácticas de aprovechamiento, protección y conservación. 



METODOLOGÍA

La recolección de arena se realizó en 4 playas urbanas de la Bahía de Banderas; Playa de Oro y Flamencos en Jalisco y, Litibu y Punta de Mita en Nayarit. La recolección se realizó durante el mes de junio de 2024. Se utilizó el método de Granulometría en dos etapas, la recolección en campo y proceso en aboratorio. La recolección de arena: Se divide la zona de recolección en 3 secciones, 2, 4 dependiendo de la distancia que se tiene pegada a la zona rocosa  hasta donde rompen las olas. Se realiza un agujero de 20cm. Con una pala y bolsa se recolectan 1 kg de arena aproximadamente. Una vez obtenido las muestras se procede con la segunda parte del trabajo. Pesamos las muestras a 300 gr. Cada habitad debe tener una réplica, que de igual manera pesará 300 gr. Se colocan en vasos de precipitado y se lleva al horno a 135°C durante 24 horas. Se vuelve a pesar para el peso en seco.  Para de clasificar la arena se procede a colocar en cada muestra Peróxido de hidrógeno al 10% agitando y dejando reposar durante 24h, buscando así eliminar los granos de sal. Este procedimiento se repitió 3 veces. Para eliminar los rastros del Peróxido de hidrógeno, se procede a realizar el mismo procedimiento anterior pero ahora con agua bidestilada. Se llevan al horno a 135°C por 24h. Se vuelve a pesar para sacar el porcentaje de sal se logró disolver. Las muestras resultantes en el proceso se dividen en 4 partes iguales y se toma una, para lograr obtener una arena lo más homogénea posible. Las muestras se pesan en 50 gr. Para luego llevarlas por 10 min. A la Meza agitadoras, después pensarlas y anotar los resultados en una tabla. Ya con los datos de la tabla obtenida, procederemos a realizar la última parte del trabajo. Interpretar la tabla y poder dar una caracterización detallada se procede a realizar las fórmulas granulométricas. Las fórmulas se dividen y se nombran momentos: Cada momento calculado es analizado en su respectiva tabla de valores, así se logra el análisis granulométrico estadístico de cada muestra. El primer momento (Xa) determina el tamaño promedio del grano; el segundo momento (Oa) representa el grado de selección de la muestra, indicando que tan similares son los tamaños de todas las partículas que componen la muestra; el tercer momento (Ska) mide la tendencia de las partículas hacia un tamaño determinado, por ejemplo una asimetría negativa significa un exceso de partículas de tamaño fino en la muestra, mientras que una positiva indica el exceso de granos gruesos; y el cuarto momento (Ka) mide el grado de concentración de los granos en relación con el promedio, éste momento más que una cualidad geológica es una comprobación de la estadística que ayuda a corroborar la asimetría y la selección de la muestra.


CONCLUSIONES

La tabla de muestras ya procesada logramos observar cómo en cada playa independientemente de su sección se identifica una tendencia a un cierto tipo de tamaño de grano, logrando así obtener la media, desviación estándar, asimetría y la curtosis.Se representan las tendencias de los tipos de tamaños de arena en las zonas exploradas. Solo falta realizar la última parte del trabajo con los resultados obtenidos en cada una de las muestras.
Torres Tejeda Efren Said, Universidad de Guadalajara
Asesor: Dr. Daniel Ignacio Salgado Blanco, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)

SIMULACIóN DE LA LISOZIMA EN SOLUCIóN ACUOSA: ANáLISIS DE DES-AMBER Y AMBER03 CON MODELOS TIP4P-D Y TIP3P


SIMULACIóN DE LA LISOZIMA EN SOLUCIóN ACUOSA: ANáLISIS DE DES-AMBER Y AMBER03 CON MODELOS TIP4P-D Y TIP3P

Gutiérrez Castillo Raúl Emilio, Universidad Autónoma de Baja California. Macias Magallanes Lucia de Jesús, Universidad de Guadalajara. Torres Tejeda Efren Said, Universidad de Guadalajara. Asesor: Dr. Daniel Ignacio Salgado Blanco, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La lisozima es una enzima con una estructura bien definida y un papel crucial en la defensa del organismo. Este proceso es vital para proteger contra infecciones bacterianas, lo que hace de la lisozima un modelo ideal para estudiar las interacciones proteína-agua. En este proyecto, utilizamos la dinámica molecular para observar las interacciones dinámicas y estructurales en un sistema de lisozima-agua. La dinámica molecular es una técnica computacional que permite simular el movimiento de átomos y moléculas a lo largo del tiempo, proporcionando una visión detallada de las interacciones a nivel atómico. En este proyecto simulamos la dinámica molecular de un sistema compuesto por lisozima y agua, y los resultados obtenidos  se comparararon posteriormente con los resultados reportados en un artículo del año 2012, en el cual NA Ping estudia dos sistemas de lisozima-agua.



METODOLOGÍA

Se partió de la estructura cristalina de la lisozima obtenida del Protein Data Bank , utilizando específicamente el modelo 1AKI para las simulaciones. Las simulaciones se realizaron utilizando unidades de procesamiento gráfico para acelerar los cálculos. Se llevaron a cabo dos simulaciones independientes con diferentes campos de fuerza y modelos de agua. La primera simulación utilizó el campo de fuerza AMBER03 junto con el modelo de agua TIP3-D. La segunda simulación empleó el campo de fuerza DES-Amber y el modelo de agua TIP4P-D. En ambas simulaciones, se añadieron iones CL para equilibrar las cargas del sistema. La simulación con DES-Amber y TIP4P-D incluyó 25 ns de relajación seguidos de 5 ns de producción, sumando un total de 30 ns. La simulación con AMBER 03 y TIP3-D consistió en 20 ns de relajación y 5 ns adicionales de producción, alcanzando un total de 25 ns. Finalmente, se realizó una comparación con el estudio de NA Ping , para lo cual se llevaron a cabo cálculos adicionales siguiendo los mismos parámetros temporales que en la primera simulación con el campo de fuerza AMBER03 . Solamente que en esta ocasión, se empleó el campo de fuerza DES-Amber junto con el modelo de agua TIP3-D. Esta comparación permitió evaluar las diferencias en las fluctuaciones y la estabilidad estructural de la lisozima entre los dos conjuntos de simulaciones, proporcionando una comprensión más profunda sobre cuál de los enfoques resulta ser más adecuado para describir el comportamiento de la proteína en su entorno acuoso.


CONCLUSIONES

Se analizaron los datos y se construyeron curvas, en las cuales obtenemos una media de las temperaturas configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. La gráfica mostró que, en ambas simulaciones, las curvas de temperatura se mantienen consistentemente cerca de la línea de referencia de 300 K. Posteriormente se analizaron los datos y se construyeron curvas, en las cuales obtenemos una media de las presiones configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. La gráfica mostró que, en ambas simulaciones, las curvas de temperatura se mantienen consistentemente cerca de la línea de referencia de 1 bar. Se analizaron los datos y se construyeron curvas que promedian la desviación cuadrática media configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. Los resultados apuntaron a que la desviación cuadrática media es mayor en el sistema con el FF1, en este caso se espera que el RMSD sea lo más pequeño posible, por lo que en este caso la menor RMSD la obtuvo el sistema con el FF2. Se analizaron los datos y se construyeron curvas que promedian el radio de giro configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. En las gráficas pudimos observar que el sistema con el FF2, contaba con un radio de giro menor al que se obtiene en el sistema con FF1. En este caso se analizaron los resultados, pero no se calcularon promedio, ambas gráficas son consistentes, ya que comienza a contar una gran cantidad de moléculas, esto quiere decir que la proteína se envuelve y por eso las moléculas están más cerca. los resultados que se obtuvieron con los cálculos producidos en el campo FF1 y FF2, se hicieron promedios en ambos campos y estos nos dieron resultados en donde el FF1 nos dio un valor inicial de aproximadamente 277 y fue subiendo hasta llegar a un valor final de aproximadamente a 284 mientras el FF2 nos dio un valor inicial de aproximadamente 295 y fue escalando hasta llegar a un valor final de aproximadamente de 290 lo que nos quiere decir que al haber más átomos en el FF2 este tiene mayor interacción de puentes de hidrógeno por lo que el FF1 como tiene menor numero de atomos este no tiene muchas interacciones de puente de hidrógeno. Se analizaron los datos y se construyeron curvas que promedian el SASA configurando el promedio móvil, seleccionando un intervalo de 1500 ps alrededor de cada punto. En las gráficas pudimos observar que el sistema con el FF2 tiene un área de superficie menor que la que se mide en el sistema con el FF1, podemos decir que una se envuelve más que otra. Se encontraron diferencias notables en ambos sistemas, sin embargo también hay que aclarar que también contaban con un modelo de agua distinto, por lo que las diferencias en los resultados no sólo se deben a que se usó un campo de fuerzas distinto. Conclusion: Estos resultados destacan como la elección del campo de fuerza y el modelo del agua impacta las propiedades del sistema en simulaciones de dinámica molecular. Las diferencias observadas en densidad, estabilidad estructural, compactación de la proteína, interacción de puentes de hidrógeno y exposición al solvente muestra que en el sistema FF2 no afecta negativamente la estabilidad proteica, ya que exhibe características más estables en comparación a sistema FF1, y con esto subrayamos la importancia de considerar estos factores para obtener una representación precisa de los sistemas biomoleculares en simulaciones.
Trejo Hernandez Gretel Fernanda, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Paulo César Cárdenas Montoya, Universidad Autónoma de Manizales

SIMULACIóN DE ALGORITMOS CUáNTICOS


SIMULACIóN DE ALGORITMOS CUáNTICOS

Trejo Hernandez Gretel Fernanda, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Paulo César Cárdenas Montoya, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Durante la estancia de verano, se adquirieron conocimientos sobre circuitos y algoritmos cuánticos para resolver problemas simples y complejos, comprendiendo su superioridad frente a los métodos clásicos. Se revisaron artículos científicos que muestran la importancia de estas herramientas en áreas como Machine Learning y Quantum Machine Learning, destacando el Reinforcement Learning en termodinámica cuántica.



METODOLOGÍA

Revisión de Literatura y Trabajo en Jupyter Notebook Se aprendió que un qubit es el sistema mecánico más simple de 2 niveles. Su estado se representa como ( |psi angle = alpha |0 angle + eta |1 angle ), pudiendo estar en una superposición arbitraria de ( |0 angle ) y ( |1 angle ) con probabilidad ( |alpha|^2 ) y ( |eta|^2 ). En la esfera de Bloch, un qubit se visualiza como una flecha desde el centro a la superficie, representada por ( |psi angle = cos{frac{ heta}{2}} |0 angle + sin{frac{ heta}{2}} e^{ivarphi} |1 angle ). Un sistema puede tener múltiples qubits y requiere interacción con un observador para medición, alterando el estado del sistema. Las mediciones cuantifican observables, propiedades físicas representadas por operadores hermitianos en el espacio de Hilbert. El estado de un qubit se puede modificar con quantum gates, representadas por operadores descritos por matrices actuando sobre los vectores de estado. Las gates importantes incluyen NOT ((180^circ) en el eje (x)), Y ((180^circ) en el eje (y)), Z ((180^circ) en el eje (z)), Hadamard (superposición), S ((phi=frac{pi}{2})), T ((phi=frac{pi}{4})), CNOT (aplica (X) si el qubit de control está en ( |1 angle )), CZ (fase (pi) al estado ( |11 angle ) si el control está en ( |1 angle )), CY (rotación (pi) en (y) si el control está en ( |1 angle )), Toffoli (NOT si ambos controles están en ( |1 angle )), y SWAP (intercambia estados de dos qubits). Estas gates se combinan en circuitos cuánticos, aplicados a un conjunto de qubits en un estado inicial, y luego medidos para ejecutar una tarea específica. Algunas gates y circuitos son reversibles; aplicar una gate y su inversa devuelve el qubit a su estado inicial. Los circuitos grandes pueden subdividirse en más pequeños, útil cuando solo se necesita una parte. La teleportación cuántica permite transferir el estado cuántico de un qubit a otro distante usando entrelazamiento y comunicación clásica. Esto se logra con circuitos cuánticos y puertas como Hadamard, CNOT, X, Z, etc., y mediciones específicas. La Transformada Cuántica de Fourier (QFT) es crucial. Si la medición se basa en el módulo al cuadrado de la amplitud de cada estado de qubit, ¿cómo predecir el resultado? Configurando las amplitudes antes de medir, se puede influir en el resultado. La QFT usa gates Hadamard, de fase y Swap para cada qubit, además de mediciones particulares. Se estudió la estimación de fase cuántica, un algoritmo para estimar la fase ((Phi)) de un eigenvalor ( e^{2pi i Phi} ) de un operador unitario ( U ), esencial en varios algoritmos cuánticos como el de Shor y algunos de simulación. Este algoritmo usa la QFT. Finalmente, se analizaron los algoritmos cuánticos de Shor, Deutsch-Jozsa y Bernstein-Vazirani.


CONCLUSIONES

RESULTADOS Algoritmo de Shor Factoriza enteros en tiempo polinómico. Dado un número ( N ), el algoritmo tiene una parte clásica y una cuántica. La parte cuántica encuentra el periodo de Shor ( r ) usando un circuito con 8 qubits, H-gates, control-gates para la estimación de fase, y una QFT inversa. Resultados para ( N = 15 ): ( p = 3 ) y ( q = 5 ). Algoritmo de Deutsch-Jozsa Determina si una función booleana ( f: {0,1}^n ightarrow {0,1} ) es constante o equilibrada. Con ( n = 4 ) qubits en ( |0 angle ) y un qubit en ( |1 angle ), se aplican H-gates, el operador ( U_f ), y H-gates nuevamente, seguidos de mediciones. Resultados: ( f = 1 ) constante, ( f = x mod 2 ) equilibrada, ( f = (1,0,0,1) ) equilibrada. Algoritmo Bernstein-Vazirani Determina la naturaleza de una función booleana de blackbox. Dada ( f(x_{n-1}, ldots, x_0) ) con ( a < 2^n ), donde ( f(x) = a cdot x ). Se genera una cadena secreta ( a = (1,0,1,0,1,1,1) ). Con 7 qubits en ( |0 angle ) y un objetivo en ( |1 angle ), se aplican H-gates, un oráculo con XOR-gates, y H-gates nuevamente. Resultado: ( 1010111 ), la cadena secreta ( a ). PERSPECTIVAS DE TRABAJO Reinforcement Learning en termodinámica cuántica Se busca reducir la producción de entropía en un sistema cuántico cerrado fuera del equilibrio, usando Reinforcement Learning. Se propone un Hamiltoniano de control externo y la técnica de gradiente de políticas para optimizar el control del sistema, sin depender de herramientas cuantitativas específicas ni de un conocimiento profundo de la dinámica del sistema. Esto representa un avance en el control de procesos cuánticos fuera del equilibrio. CONCLUSIONES Durante la estancia de verano, se adquirieron conocimientos sobre circuitos y algoritmos cuánticos para resolver problemas simples y complejos, comprendiendo su superioridad frente a los métodos clásicos. Se revisaron artículos científicos que muestran la importancia de estas herramientas en áreas como Machine Learning y Quantum Machine Learning, destacando el Reinforcement Learning en termodinámica cuántica.
Treviño Martinez Miguel Daniel, Universidad Autónoma de Coahuila
Asesor: Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS ANALíTICO Y NUMéRICO DE UN ELECTRóN DE DIRAC MOVIéNDOSE A TRAVéS DE GRAFENO PRíSTINO BAJO UN CAMPO MAGNéTICO CON EXPONENCIAL DECADENTE.


ANáLISIS ANALíTICO Y NUMéRICO DE UN ELECTRóN DE DIRAC MOVIéNDOSE A TRAVéS DE GRAFENO PRíSTINO BAJO UN CAMPO MAGNéTICO CON EXPONENCIAL DECADENTE.

Treviño Martinez Miguel Daniel, Universidad Autónoma de Coahuila. Asesor: Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El grafeno prístino es una forma pura de grafeno que no contiene defectos, impurezas ni átomos de otros elementos y se caracteriza principalmente  por su estructura hexagonal de una sola capa de átomos de carbono. Desde su aislamiento a temperatura ambiente en el 2004 ha causado gran furor dentro de la física debido a sus grandes propiedades como lo son la alta conductividad eléctrica y térmica, gran resistencia mecánica, entre otras; las cuales tienen una gran valoración para aplicaciones tecnológicas en el desarrollo de dispositivos electrónicos de mayor calidad.  En la estructura de banda electrónica del grafeno, visto desde el espacio de momentos, existen puntos en donde la banda de valencia y de conducción se intersecan. Cerca de estos puntos la relación entre la energía y el momento de los electrones es lineal, lo cual en parte implica que los electrones se comportan como partículas relativistas sin masa ( de aquí que se les llame electrones de Dirac) y que se puedan describir mediante la ecuación de Dirac en 2 +1 dimensiones. La velocidad a la que se mueven estos electrones es de aproximadamente c/300 y está característica única es la que le da al grafeno muchas de sus propiedades electrónicas, de ahí la importancia de su estudio. Para este proyecto se decidió analizar el comportamiento de un electrón de Dirac bajo la influencia de un campo magnético con exponencial decadente mediante la ecuación de Dirac-Weyl.



METODOLOGÍA

Nuestro interés es obtener soluciones de forma analítica y numérica de este problema. Para alcanzar dicho objetivo se adaptó el método de factorización y técnicas de SUSY-QM (Supersymmetric Quantum Mechanics) a la ecuación de Dirac-Weyl en 2 +1 dimensiones. Puesto que solo estamos interesados al momento en estados estacionarios entonces obtenemos la ecuación de Dirac-Weyl independiente del tiempo. Luego,  con la intención de introducir la interacción del electrón con un campo magnético descrito por una exponencial decadente y con simetría traslacional en la dirección y (esto para que el problema tenga solución analítica), utilizamos la regla del acoplamiento mínimo. A partir de esto obtenemos un sistema de ecuaciones desacoplado, cada una descrita por un hamiltoniano distinto que están relacionados mediante la ecuación de Dirac-Weyl.  El sistema está conformado por dos ecuaciones de segundo orden lineales tipo Shrodinger, por lo que para resolverlas analíticamente hay que resolver el problema de eigenvalores y eigen vectores que estas ecuaciones representan. Por otro lado, para realizar el análisis numérico se utilizó el método matricial de Numerov, el cual consiste representar matricialmente los hamiltonianos obtenidos para luego resolver numéricamente el problema de eigenvalores. Con todo esto lo que buscamos obtener son funciones de onda cuadrado integrables que son  una solución física a nuestro problema inicial . Además también buscamos obtener los eigenvalores de energía que representen estados ligados.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos teóricos a cerca de la mecánica cuántica, en especial sobre las ecuaciones de Shrodinger y de Dirac. Además, se aprendieron nuevas técnicas tanto analíticas ( método de factorización y SUSY-QM) como numéricas (método de Numerov) para resolver problemas de este tipo. Con los resultados obtenidos, se pudo observar que las funciones de onda dependen de los polinomios asociados de Laguerre y para que estas sean cuadrado integrables deben cumplir con un par de condiciones.  La más interesante nos dice que el número de estados ligados, o de eigenvalores, depende del momento canónico en y, es decir, el número de estados ligados crecerá con este parámetro. Además, encontramos que la amplitud del campo magnético no afecta en lo absoluto a la energía, únicamente afecta a las funciones de onda desplazándolas.  Por otro lado, el método de Numerov proporciona una buena precisión acerca de los estados ligados, sin embargo, esta depende mucho de parámetros propios del método como lo son la longitud del intervalo, el número de puntos, etc.
Urbán Tovar Diana Itzel, Instituto Tecnológico de Pachuca
Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional

ELIMINACIÓN DE CONTAMINANTES EMERGENTES Y PATÓGENOS ATMOSFÉRICOS MEDIANTE PROCESO DE OXIDACIÓN AVANZADA


ELIMINACIÓN DE CONTAMINANTES EMERGENTES Y PATÓGENOS ATMOSFÉRICOS MEDIANTE PROCESO DE OXIDACIÓN AVANZADA

Urbán Tovar Diana Itzel, Instituto Tecnológico de Pachuca. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La necesidad de preservar el medio ambiente ha llevado a la búsqueda de nuevos métodos para la eliminación eficiente de los compuestos químicos que alteran la estabilidad de nuestros recursos La contaminación del agua es un hecho de gran importancia ya que los contaminantes pueden acumularse y transportarse tanto las aguas superficiales como subterráneas para las cuales la fuente principal del daño son las aguas residuales. Estas mismas forman parte de los contaminantes emergentes, los cuales son mezclas complejas de contaminantes químicos y peligrosos biológicos. En términos generales, provienen de la industria, residuos agrícolas, municipales, hospitales y laboratorios. Sin embargo, el nivel de amenaza radica en que todavía no se ha estudiado la toxicología humana y ambiental de la mayoría de estos mismos. 



METODOLOGÍA

Para el presente proyecto se llevó a cabo el ensamblaje de un reactor PFR en espiral con el objetivo de llevar a cabo el proceso de oxidación avanzada, recubriendo todo el interior del tubo espiral con TiO2, de modo que la cobertura del catalizador se optimizara con respecto a la cantidad de transmisión de luz UV. Primeramente, se inició con la síntesis de ZnO en zeolita por el método sol-gel. Este consistió en dos etapas, para la primer etapa se pesó 40 g de zeolita en un vaso de precipitado de 100 mL, posteriormente se lavó con agua de la llave hasta obtener agua casi incolora, se vertió una solución de 2.85 mL de ácido acético, fue calentada a 100°C en una parrilla de calentamiento durante 1, después se dejó enfriar para después lavar la zeolita con agua destilada 8 veces hasta eliminar la solución de ácido acético, seguidamente se tapó el vaso de precipitado con papel aluminio para eso fue necesario hacer orificios en el papel para dejarlo secar en la estufa durante 24 h. En la segunda etapa se colocó la zeolita en una solución de 200 mL de etanol-agua 2:3, luego de calentó a 90°C durante 20 min, transcurrido el tiempo se desechó la solución etanol-agua, se pesó y añadió 0.6508 g de acetato de zinc, 4.26 ml de trietanolamina y 1 mL de solución etanol-agua 2:3. Después se dejó inmerso el sustrato en la solución durante 24 h a 100°C en la estufa, seguidamente fue necesario remover el líquido excedente para introducirlo a la mufla a 500° durante 4h. Con respecto a la caracterización de la muestra del agua del municipio de Zapotitlán (Puebla), se llevó a cabo la medición de solidos a partir de la NMX AA—034-SCFI-2015. Para la preparación de capsulas, primeramente, se colocaron 3 de estas mismas a la mufla a una temperatura de 550°C ± 50°C durante 20 minutos, posteriormente se trasladaron a un horno a una temperatura de 105°C±2°C en un tiempo de 20 minutos, luego se transfirieron a un desecador para dejar enfriar por 10 minutos, se pesaron las capsulas y seguidamente se registraron los datos. Este proceso se repitió 3 ciclos cada uno con el objetivo que mantuvieran un peso constante. En este caso, sus respectivos pesos fueron 51.8727 g, 52.8153 g y 44.5927 g. Para la preparación de crisoles, se ocuparon respectivamente 3 y fue fundamental introducir inicialmente un papel filtro en la parte inferior y este mismo se adhirió con agua. De igual manera se realizó el mismo procedimiento de las capsulas para los crisoles hasta mantener un peso contante, en donde el peso final de cada uno fue de 20.3525 g, 19.9755 g y 20.2515 g. Por otra parte, para la medición de DBO de acuerdo a NMX-AA-028-SCFI-2001 se preparó una solución de 1:200 con la muestra de agua residual para posteriormente sembrar 3 muestras en los recipientes de winkler, después se incubaron a 20°C en obscuridad durante 5 días y se registraron los resultados. En cuanto a la prueba de DQO de acuerdo a STANDARD METHODS, el ensayo se llevó a cabo calentando en condiciones de reflujo total una muestra de volumen determinado con un exceso conocido de Dicromato de potasio, en presencia de ácido sulfúrico durante un periodo de 2 horas. La medición se realizó por el método colorimétrico utilizando el espectrofotómetro, donde la concentración está en función de la absorción y se realizó la curva de calibración. Con respecto a las pruebas hidráulicas, fue indispensable utilizar un motor, de tal forma que el líquido fluyera continuamente, sin anomalías y por ende el caudal real correspondiera con el caudal teórico. Para lo anterior se contempló el reactor con una inclinación de 45° de tal manera que el líquido fluyera desde la parte inferior con el objetivo que la gravedad repercutirá con respecto la presión y no existiera fugas o burbujas de aire con el trayecto del reactor. También se consideraron las dimensiones del reactor, el cual presento un volumen de 73 mL, 12 mm de diámetro externo y 126 cm de longitud, con el propósito de calcular el TRH y comparar el tiempo teórico con respecto el real. Para esto, se tomó en cuenta como tiempo teórico 10, 20 y 30 minutos. Para comprobar la degradación de la materia orgánica, fue indispensable realizar la cinética en el reactor, primeramente, se centrifugó el agua residual durante 15 minutos a 1500 rpm y se contempló un tiempo de residencia de 1 hora y posteriormente con recirculación con un pH de agua residual de 5.


CONCLUSIONES

Con la elaboración de este proyecto se sustenta la base de la degradación de contaminantes emergentes, en donde de acuerdo a los resultados obtenidos se presentó una degradación significativa contemplando en el sistema recirculación por un tiempo de 20 horas y el agua residual a un pH modificado de 5. El mayor porcentaje de degradación se presentó durante las primeras 2 horas. La fotocatálisis, como proceso de oxidación avanzada (POA), representa una tecnología prometedora y efectiva para la degradación de contaminantes orgánicos y la desinfección de agua y aire.
Valdés Guajardo Abigail del Pilar, Universidad Autónoma de Coahuila
Asesor: Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS DEL COMPORTAMIENTO DE LA MASA DEL FERMIóN CON LA ECUACIóN DE GAP


ANáLISIS DEL COMPORTAMIENTO DE LA MASA DEL FERMIóN CON LA ECUACIóN DE GAP

Valdés Guajardo Abigail del Pilar, Universidad Autónoma de Coahuila. Asesor: Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las ecuaciones de Schwinger-Dyson (SDEs) son ecuaciones integrales infinitas acopladas entre sí, correspondientes a las funciones de Green en QED (quantum electrodynamics), que nos describe la propagación de la partícula a través del espacio-tiempo y cuentan con aplicaciones desde la física de altas energías hasta como en estado sólido, etc. En este trabajo consideraremos las SDEs para el propagador del fermión o la ecuación de gap. Para materiales bidimensionales, tales como el grafeno (popularizado por sus capacidades conductivas), al estar un electrón cerca los llamados conos de Dirac, este fermión se comporta como una partícula relativista. Con la ecuación de gap podemos obtener un análisis del comportamiento de la masa del electrón viajando en el material bidimensional.



METODOLOGÍA

Existen distintas formas de obtener las ecuaciones, para este trabajo se tomo en cuanta los diagramas de Feynman, considerando la auto-energía, la sumatoria de todos los posibles sucesos que pueden ocurrir en un propagador de fermiones al interactuar con un campo. Se expresó matemáticamente cada parte del diagrama de Feynman (propagador del fermión, propagador del fermión y vértice fotón electrón); tal como la aproximación de arcoíris para el vértice fotón-electrón, que se utiliza en estudios de generación de masa dinámicas. A su vez tuvo distintas consideraciones para truncar las ecuaciones y obtener solución para 2+1 dimensiones. Después se hizo uso de la traza para desacoplar las dos ecuaciones independientes en la SDE. Luego se utilizó la rotación de Wick al espacio euclidiano, obteniendo una sola ecuación y se integró en tres dimensiones. Después de trabajar con la ecuación integral obtenida, llega a una ecuación diferencial no lineal en la que se consideran dos casos: M2(P) = 0 y M2(P) = constante.


CONCLUSIONES

Durante mi estadía se hizo conocimiento sobre los diagramas de Feynman, física de partículas entre otros temas. Con estos conocimientos se pudo llegar al resultado de las ecuaciones: Para ambas ecuaciones se encontró solución de la forma y = exp(1/raiz(x)), donde y es una relación de las divergencias ultravioleta e infrarroja y x es una expresión que depende de un parámetro proveniente de la ecuación de gap, de manera que la masa dinámica sea proporcional a este término. 
Valdivia López Laxmi Emilia, Universidad de Guadalajara
Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima

DEDUCCIóN DE LA MATRIZ DE CABIBBO-KOBAYASHI-MASKAWA


DEDUCCIóN DE LA MATRIZ DE CABIBBO-KOBAYASHI-MASKAWA

Valdivia López Laxmi Emilia, Universidad de Guadalajara. Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Se sabe que las partículas fundamentales del Modelo Estándar no existen de forma "determinada". Estas constantemente están transmutándose unas en otras, pero estos cambios no son tan arbitrarios, pues tienen asignada cierta probabilidad de ocurrir, la cual, para los fermiones (los bloques fundamentales de la materia) puede obtenerse a partir de una matriz de Yukawa. Para el caso de los quarks, que forman a los protones y los neutrones, entre muchas otras partículas, esta matriz es la de Cabibbo-Kobayashi-Maskawa (CKM), que surge de forma natural al analizar el Lagrangiano del Modelo Estándar



METODOLOGÍA

A partir de la parte de interacciones de Yukawa y expandiendo algunos de los términos cinéticos del Lagrangiano del Modelo Estándar de la física de partículas, es posible definir la matriz CKM como el producto de transformaciones unitarias que "cambian el punto de vista" desde una base de interacciones, donde cada quark es una combinación lineal de tres, a una base de masas, que contiene a los quarks tal cual los considera el Modelo Estándar.


CONCLUSIONES

Los elementos de la matriz CKM son valores relacionados con la probabilidad de que un quark específico decaiga en otro. La matriz, al ser el producto de otras matrices unitarias, esta también lo debe ser. Sin embargo, con esta información, los elementos de la matriz son ambiguos y por tanto, la teoría no dice cuál es su valor. Se sabe cuáles son porque se han medido en experimentos que involucran decaimientos de partículas compuestas de quarks.
Valenzuela Moreno Maricarmen, Universidad Politécnica de Sinaloa
Asesor: Dra. Claudia Martínez Alonso, Universidad Autónoma de Guerrero

NANOTECNOLOGíA EN LA AGRICULTURA: PEQUEñOS MATERIALES, GRANDES BENEFICIOS.


NANOTECNOLOGíA EN LA AGRICULTURA: PEQUEñOS MATERIALES, GRANDES BENEFICIOS.

Valenzuela Moreno Maricarmen, Universidad Politécnica de Sinaloa. Asesor: Dra. Claudia Martínez Alonso, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la sobrepoblación a nivel mundial es un problema debido a que se requieren mayor cantidad de recursos naturales en especial en el área de la alimentación, la cual en las últimas décadas se ha enfrentado a diversas inquietudes en la producción de alimentos, siendo el caso del aumento de los precios por estos alimentos debido a las inversiones o condiciones difíciles en las que los productores se ven envueltos para la producción de dichos alimentos.  Es por eso que se han buscado alternativas que ayuden en la producción en masa, libre de plagas, contaminantes, sobre todo económicas y a su vez en la reparación de suelos aumentando así la producción de los alimentos. Es aquí cuando entramos en la nanotecnología y sus aplicaciones en esta área, ofreciendo y prometiendo grandes avances y mejoras para una agricultura sostenible.



METODOLOGÍA

Se realizaron exhaustivas lecturas e investigaciones de diversas fuentes y artículos de divulgación (principalmente de google académico), entre otros medios; de los cuales se buscó obtener información y conocimiento de los avances nanotecnológicos en la agricultura en los últimos años hasta la actualidad, con el fin de que la recopilación de toda esta información fuese plasmada e interpretada en un artículo de divulgación, con el objetivo de informar y dar a conocer las ventajas que tenemos hoy en la actualidad con estos diversos nanomateriales y su integración a la vida cotidiana.  Se obtuvieron datos sobre temas de interés y las capacidades de estos mismos, por ejemplo: nanomateriales en la agricultura, nanofertilizantes, nanopesticidas, regeneración de suelos, se aborda cómo estos se ven involucrados en la agricultura y la función que desempeñan. De igual forma se abordan los desafíos y consideraciones que se pueden presentar al emplear diversos nanomateriales en alimentos, suelos e inclusive en el agua.  Se abordó un interrogativo que plantea mostrar que el uso de la nanotecnología hoy en día es más común de lo que se cree y es el ´futuro de la nanotecnología en la agricultura´, donde se habla de manera breve de los muchos beneficios que esta trae consigo en un futuro no muy lejano.


CONCLUSIONES

Se muestran diversas alternativas para controlar la problemática a las que se enfrenta el sector agrícola y deproducción de alimentos, mostrando alternativas que ayudan a que haya una producción más eficiente con menos perdidas, a mayores cantidades, en mejores condiciones y sobre todo con menos contaminantes, buscando que se mantenga un equilibrio con el ambiente y cuidando de los recursos naturales.   
Valle Cárdenas Ramsés Salvador, Instituto Tecnológico de Colima
Asesor: Dr. Manuel de Jesús Bermúdez Guzmán, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias

CARACTERIZACIóN MOLECULAR DE CEPAS DE TRICHODERMA SPP. Y PSEUDOCERCOSPORA FIJIENSIS AISLADAS DEL CULTIVO DE PLáTANO


CARACTERIZACIóN MOLECULAR DE CEPAS DE TRICHODERMA SPP. Y PSEUDOCERCOSPORA FIJIENSIS AISLADAS DEL CULTIVO DE PLáTANO

Valle Cárdenas Ramsés Salvador, Instituto Tecnológico de Colima. Asesor: Dr. Manuel de Jesús Bermúdez Guzmán, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias



PLANTEAMIENTO DEL PROBLEMA

El cultivo de plátano en Colima es una de las principales actividades agrarias en el estado, siendo el segundo lugar en producción a nivel estatal, teniendo un aporte de aproximadamente de 200 mil toneladas al año, posicionando al estado como el 4° mayor productor a nivel nacional.   Para mantener una producción saludable, es fundamental controlar las enfermedades que afectan al plátano, como la Sigatoka negra, causada por el hongo Pseudocercospora fijiensis. Esta enfermedad reduce el peso de los frutos y puede provocar la madurez prematura, dañando la cosecha.   Es en este contexto que la presencia del hongo Trichoderma spp. Se tienen como un posible auxiliar en el control biológico del banano. Este hongo, ha mostrado tener relaciones antagónicas contra otros microorganismos fungí presentes en el medio, así como también ha demostrado tener efectos positivos en la planta del plátano, ayudando en el desarrollo de raíces saludables mejorando la nutrición en el banano. Es por todas estas razones que durante esta estancia de verano de investigación se buscará aislar y caracterizar a los microorganismos anteriormente mencionados, mediante el uso de técnicas de extracción de ácidos nucleicos y PCR.



METODOLOGÍA

Para la caracterización de los microorganismos de interés se utilizaron algunas cepas previamente aisladas y otras más que se aislaron extrayendo pequeños segmentos de lesiones por crecimiento de hongos, a estos se les aplicó un tratamiento en cámara húmeda a temperatura ambiente durante un periodo aproximado de 36 horas; finalmente a estos segmentos se les colocó en gradillas de cristal de forma que quedasen por encima de placas con agar agua. Una vez en esta posición, se dejaron esporular durante 30 minutos y estas mismas posteriormente se extrajeron con ayuda de un estereoscopio y se implantaron en placas con medios Agar Papa Dextrosa y Agar jugo V8, dejándose crecer durante varias semanas y cambiando los medios de cultivo para tratar de aislar una única cepa del respectivo hongo.   Para poder realizar la extracción de material genético se tomó de las muestras obtenidas un inóculo de los microorganismos: P. fijiensis y Trichoderma spp. Estos inóculos se le aplicaron a 50 ml de Caldo Papa Dextrosa, con el fin de obtener micelio en suspensión con el cual se trabajó para la obtención de material genético aplicando el siguiente procedimiento:   Se molió el tejido con 2 ml de buffer CTАВ [100 mM de Tris-HCI pH 8, 50 mM de EDTA pH 8, 1.4 M de NaCl, 3% (p/v) de CTAB y 1% (p/v) de PVP 40] precalentado a 65°C. Luego se adicionaron 20 µl de 2-β-mercaptoetanol concentrado y se mezcló el material en Vortex. La mezcla resultante se incubó por 40 minutos a 65°C en baño María y se mezclaron por inversión cada 5 minutos. A continuación, se centrifugó a 14,000 rpm durante 5 minutos. Posterior a la centrífuga se extrajeron 600 µl de la fase acuosa en tubos de 1.5 m, se agregaron 10 µL de RNasa A (10 mg/mL) y finalmente se incubaron durante 15 minutos a 37°C. Una vez pasados los 15 minutos en incubación, se agregó 1 vol. de la solución fenol:cloroformo:alcohol isoamílico (25:24:1), una vez agregado se mezcla vigorosamente usando un Vortex y se centrifuga a 14,000 rpm durante 10 minutos. Terminado la centrifugación se recuperó el sobrenadante en tubos de 1.5 ml y se precipitó el DNA con 0.6 volúmenes de isopropanol frío y 0.1 volúmenes de acetato de sodio 3M, pH 5.2. Una vez agregados estos reactivos, se mezclaron los tubos por inversión y se incubaron durante 30 minutos a -20°C para precipitar el DNA. Después se le aplicó una centrifugación a 14,000 rpm durante 10 minutos. Se decantó el sobrenadante y se agregaron 500 µl de etanol al 70%. El resultado se agitó manualmente hasta desprender la pastilla de DNA. Una vez desprendida la pastilla se centrifugó a 14,000 rpm durante 3 minutos y se decantó la fase acuosa. Se invirtieron los tubos abiertos sobre papel absorbente para retirar el exceso de etanol y se mantuvieron los tubos de esta forma para secarlos a temperatura ambiente por aproximadamente 10 minutos. Este DNA se resuspendió en aproximadamente 60 µl de agua grado molecular según el tamaño de la pastilla y estos tubos con el DNA resuspendido se almacenaron a 4°C. Al DNA extraído se le realizó una cuantificación y determinación de la pureza con el NanoDrop 2000.


CONCLUSIONES

Durante esta estancia de verano de investigación, se logró alcanzar parcialmente algunos objetivos planteados al comienzo de la misma. Se logró de forma exitosa el aislamiento de algunas cepas de Trichoderma spp. y de Pseudocercospora fijiensis. Hasta la fecha se aislaron un total de 7 cepas: 5 de Trichoderma spp. y 2 de P. fijiensis. Todas las cepas tuvieron un crecimiento óptimo en medio líquido PDB para la extracción del DNA genómico.   Tras la extracción de DNA se determinó la cuantificación y pureza de las muestras. Las cepas de Trichoderma spp. tuvieron un rango de concentración de 377-918 ng/µL con un valor medio de 552 ng/µL y su relación de pureza de acuerdo a la relación de A260/A280 estuvo en un rango de 1.91-1.98 con un valor medio de 1.94. En el caso de las cepas de P. fijiensis, la muestra SKC (P. fijiensis de Colima) tuvo un valor de pureza muy bajo (1.25), por lo que se desechó la muestra y se realizará posteriormente su extracción de DNA. La muestra SKM (P. fijiensis de Mazatlán) tuvo una concentración de 112.6 ng/µL y una pureza de 1.84. Los valores obtenidos de estas muestras son óptimos para continuar con el PCR.   Solo fue posible cumplir de manera parcial con las metas planteadas para esta estancia, ya que, por desgracia, por falta de tiempo para las actividades, no fue posible realizar la PCR y secuenciación de las muestras, por lo que tampoco fue posible realizar un análisis bioinformático de los resultados obtenidos. Fuera de estas circunstancias, es de destacar nuevamente el éxito parcial de las actividades, el cual aún puede ser aprovechado para la continuación posterior a la estancia de este proyecto investigativo.
Vallejos Araujo Karol Daniela, Universidad de Caldas
Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua

MODELAMIENTO NUMéRICO HIDROLóGICO, ACUIFERO BACANUCHí


MODELAMIENTO NUMéRICO HIDROLóGICO, ACUIFERO BACANUCHí

Vallejos Araujo Karol Daniela, Universidad de Caldas. Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El modelamiento numérico hidrológico es una herramienta que permite, a partir de datos recolectados en campo, estudiar y analizar matemáticamente las características y el comportamiento de un acuífero. Este proceso facilita la obtención de datos numéricos precisos para predecir y percibir propiedades, relacionado con la dinámica del agua subterránea. La cuenca hidrográfica Bacuachi, ubicada en el Estado de Sonora ha sido objeto de estudios previos, específicamente en el año 2017, mediante la recopilación de datos de pozos de monitoreo de y pozos de extracción. Como desarrollo del planteamiento del problema se recopilan y analizan datos hidrológicos actuales de la cuenca de Bacuachi para el año 2024, y compararlos con los datos recolectados en 2017, para identificar cambios en las propiedades hidrológicas.



METODOLOGÍA

Metodología   Usando datos recolectados a partir de 21 pozos de monitoreo del Instituto Mexicano de Tecnología del Agua (IMTA) con datos de los años 2017 y 2024 del nivel estático, y 103 pozos de extracción de la base de datos del Registro Público de Derechos de Agua (REPDA. Para generar un modelo numérico hidrológico con el software Visual Modflow Flex versión 6.1, se ingresan datos como; el área de estudio, la base y el techo del acuífero, curvas isostáticas del nivel estático, conductividad hidráulica, pozos de observación y pozos de extracción. El área de estudio fue delimitada a partir de la distribución de los pozos en el acuífero de Bacanuchi. Seleccionando los pozos más representativos y con información más relevante, se definen los límites de la zona de estudio teniendo en cuenta la geomorfología y las superficies hidrológicas impermeables. Posteriormente se genera un modelo conceptual, definiendo el modelo estructural asignando límites físicos o condiciones de frontera del acuífero, del mismo modo se asignan propiedades de la zona, como es la conductividad hidráulica (m/d) y valores de condiciones iniciales en unidades de metro.  Configuración de la malla   En el diseño de la malla, se utiliza un método de interpolación para representar el área de interés. Es importante considerar la densidad con la que se genera la malla, ya que las distancias entre las celdas afectan la precisión de la interpolación, cuanto más cercanas estén, mayor será la precisión. Además, la malla debe cubrir completamente el área de estudio para obtener resultados precisos. En este estudio, se ha optado por una resolución de 500 metros con una rotación de 30 grados. Propiedades de la zona   Conductividad hidráulica Este parámetro se considera un modelo idealizado, por lo tanto, los valores estimados de conductividad son basados en la geología. Se identifican tres zonas según el tipo de roca, las cuales son: Basalto fracturados con un valor de 0.864 m/d Toba con un valor de 0.000864 m/d Conglomerados con valor de 0.5 m/d   Condiciones iniciales A partir de los datos obtenidos de los pozos de monitoreo, y utilizando las coordenadas de cada pozo junto con los valores respectivos del nivel estático en el software Surfer, se generan curvas isostáticas. Estas curvas se utilizan en el modelo conceptual para definir las propiedades de la zona. Condiciones del diseño   Pozos Generados a partir de las coordenadas de los pozos del Registro Público de Derechos de Agua (REPDA) y los valores correspondientes de extracción por pozo, expresados en metros cúbicos por día (m³/día). Zona de recarga Se estima una región en la superficie terrestre donde el agua se infiltra en el suelo y se mueve hacia abajo, recargando así un acuífero. Para el área de estudio, la zona de recarga se determina utilizando una lámina de lluvia, calculada a partir del modelo de elevación digital. Condiciones de frontera Restricciones impuestas en los límites de un área de estudio o modelo hidrológico, se usa condiciones para la correcta simulación y predicción del comportamiento del sistema hidrológico.   Geoquímica El proceso de análisis de datos en hidrogeoquímica implica varias etapas que permiten interpretar la información obtenida de muestras de agua y comprender los procesos hidrogeoquímicos en un acuífero Recolección de Datos    Muestreo: Se toman muestras de agua de diferentes puntos del acuífero, considerando variables como la profundidad, el tipo de acuífero y las condiciones ambientales.    Mediciones: Se registran parámetros físicos y químicos, como pH, temperatura, conductividad eléctrica, alcalinidad, y concentración de iones (Ca²⁺, Mg²⁺, Na⁺, Cl⁻). Análisis Químico    Laboratorio: Las muestras se analizan en un laboratorio para determinar su composición química. Esto puede incluir técnicas como espectrometría de masas, cromatografía, y análisis de titulación.    Calidad de los Datos: Se verifica la calidad de los datos obtenidos, asegurando que sean precisos y representativos.


CONCLUSIONES

Se crea un modelo numérico hidrológico en función de las propiedades y condiciones del acuífero para realizar su calibración, finalmente se efectúa la corrida del modelo donde se consideran los resultados del comportamiento de la elevación del nivel estático, velocidad y nivel freático estimadas. Finalmente, el modelo reprodujo de manera adecuada las estimaciones para el año 2024 y no se modelaron escenarios futuros. Para el modelamiento geoquímico se aplican métodos estadísticos para identificar patrones y tendencias en los datos se categoriza el agua según su composición, lo que ayuda a identificar procesos geoquímicos específicos.
Varela Ku Nataly Guadalupe, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. Jorge Alejandro Ávila Olivera, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS DEL ESCURRIMIENTO NATURAL DE LA CUENCA DEL RíO TUXPAN EN EL ORIENTE DE MICHOACáN


ANáLISIS DEL ESCURRIMIENTO NATURAL DE LA CUENCA DEL RíO TUXPAN EN EL ORIENTE DE MICHOACáN

Varela Ku Nataly Guadalupe, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dr. Jorge Alejandro Ávila Olivera, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Actualmente existe una carencia de datos de escurrimiento en la cuenca del Río Tuxpan, dado que no se tienen suficientes estaciones hidrométricas distribuidas a lo largo de la extensión de la cuenca, lo que representa un problema ya que es necesario conocer el comportamiento del escurrimiento natural, sobre todo en la parte alta de la cuenca donde se ubica el campo geotérmico conocido como Los Azufres. Un método que permite estimar el escurrimiento natural que se presenta en la cuenca es por medio de la relación lluvia-escurrimiento, es decir, a partir de los datos de precipitación es posible conocer con se comporta el escurrimiento natural en una cuenca determinada. Por lo anterior, en este trabajo de investigación se analizó el comportamiento de la precipitación en la cuenca del Río Tuxpan, para posteriormente estudiar el escurrimiento natural en la cuenca. El análisis hidrológico es esencial para modelar y predecir el comportamiento hídrico de la cuenca, ya que sin esta información las estimaciones sobre los volúmenes de agua en los cauces principales, tanto en época de sequia como en temporada de precipitaciones abundantes, se vuelven imprecisas o inciertas en algunos casos, por lo tanto, el llevar a cabo este tipo de análisis permite recopilar y estimar datos confiables para poder realizar una buena gestión de los recursos hídricos en la cuenca.



METODOLOGÍA

Se recopilaron datos climáticos tanto en la Secretaría del Medio Ambiente y Recursos Naturales (SEMARNAT) como en la Comisión Nacional del Agua (CONAGUA) de las estaciones meteorológicas ubicadas en la cuenca del Río Tuxpan, en el Estado de Michoacán de Ocampo. Se descargaron del Servicio Meteorológico Nacional (SMN) dependiente de la CONAGUA, las series de datos históricos de precipitación mensual y temperatura media mensual, de las estaciones meteorológicas ubicadas tanto en la cuenca del Río Tuxpan, como en sus alrededores. Se acomodaron series de datos históricos que se descargaron, tanto de precipitación mensual, como de temperatura media mensual, en un par de archivos de Excel para su análisis y procesamiento posterior. Se revisaron los conceptos de homogeneidad de una serie de datos, y posteriormente se realizaron las pruebas estadísticas de homogeneidad no paramétricas, tales como la prueba de Helmert y la prueba de las Secuencias, a las series de datos de precipitación anual de las estaciones meteorológicas ubicadas tanto en la cuenca del Río Tuxpan, como en sus alrededores. También se realizaron pruebas estadísticas de homogeneidad paramétricas, tales como la prueba de la t de Student y la prueba de Cramer, a las series de datos de precipitación anual de las estaciones meteorológicas ubicadas tanto en la cuenca del Río Tuxpan, como en sus alrededores. Se calcularon los datos de precipitación con ayuda de los diferentes métodos para calcular la precipitación media anual en una cuenca, tales como el método Aritmético, el método de los Polígonos de Thiessen, el método de las Isoyetas.  


CONCLUSIONES

Durante la estancia del verano se logró adquirir conocimientos nuevos como lo fueron los métodos para realizar pruebas de homogeneidad de la serie de datos de las estaciones meteorológicas, al igual que el proceso de obtener la precipitación media anual de la cuenca a través de los métodos Aritmético, Polígonos de Thiessen e Isoyetas.  Precipitación media anual de cada método: Aritmético: 1048.99 mm Polígonos de Thiessen: 1091.51 mm Isoyetas: 1063.16 mm En general la estancia y el aprendizaje obtenido fueron muy positivos, es una experiencia que contribuye a la formación integral de los estudiantes, sobre todo de aquellos que les llama la atención la investigación.
Varela Solis Dalila, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Valeriy Dvoeglazov, Universidad Autónoma de Zacatecas

TEOREMA DE NOETHER Y LAGRANGIANOS EN TEORíA CUáNTICA DE CAMPOS


TEOREMA DE NOETHER Y LAGRANGIANOS EN TEORíA CUáNTICA DE CAMPOS

González Lona Juan Ariel, Benemérita Universidad Autónoma de Puebla. Varela Solis Dalila, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Valeriy Dvoeglazov, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Actualmente las teorías modernas de la física se basan en un principio de acción que tienen a su vez asociado un lagrangiano. Este lagrangiano se construye de tal manera que sea invariante bajo ciertas transformaciones. A las transformaciones que dejan invariantes los lagrangianos hasta un término de superficie se les dice que son simetrías varacionales o simplemente simetrías. Por otro lado, el teorema de Noether nos dice que por cada simetría vamos a tener una constante de movimiento que también reciben el nombre de cantidades conservadas o invariantes dinámicos.  Durante el verano de investigación se calcularon los invariantes dinámicos asociados con ciertos lagrangianos que son de gran importancia en lo que se conoce como teoría cuántica de campos.



METODOLOGÍA

Se buscó en la literatura más información sobre el tema para tener una base más sólida. Comenzamos buscando información primero sobre sistemas de partículas y la transición de la formulación Newtoniana a la Lagrangiana que es donde el teorema de Noether se puede expresar con mayor facilidad. En particular se estudiaron los conceptos de acción, lagrangiano, grado de libertad, constante de movimiento, lagrangianos equivalentes y transformación de simetría. El próximo paso fue estudiar la transición de sistemas de partículas a campos (sistemas con un infinito, no numerable, grado de libertad) y como el papel de la lagrangiana era ahora sustituido por una densidad lagrangiana. También, como en teoría cuántica de campos  (QFT por sus siglas en inglés) se trata con campos relativistas, se hizo un repaso de relatividad especial. Se estudiaron principalmente los conceptos de cuadrivectores y transformaciones de Lorentz. Con esto ya se pasó a generalización del Teorema de Noether ahora para campos. Los lagrangianos sometidos a estudio fueron los de campo escalar real campo escalar complejo campos electromagnéticos libres (y lagrangianos equivalentes) campo de Dirac (espinorial) campo de Dirac y Maxwell interactuando Debido a que el campo de Dirac es un campo espinorial, se estudió la naturaleza de los espinores como el espacio de representación de la representación espinorial del grupo de Lorentz con unos ciertos generadores. También para los campos electromagnéticos libres se estudió la notación relativista de las ecuaciones de Maxwell y un poco sobre las transformaciones de norma o gauge que son transformaciones hechas en el cuadripotencial de campo electromagnético pero que dejan los campos eléctrico y magnético invariantes. Al usar las ecuaciones de Euler-Lagrange para los lagrangianos de campo electromagnético libre, lo que se hace usualmente en la literatura es fijar la norma, sin embargo, en este trabajo no se fijó la norma para calcular los invariantes dinámicos y se tomó todo en función del cuadripotencial y no del tensor de Faraday. Con estos detalles en cuanta se procedió a calcular los invariantes dinámicos por medio del teorema de Noether, siendo el invariante más interesante el tensor de energía-momento de cada tipo de campo.


CONCLUSIONES

Durante la estancia de verano se logró obtener un conocimiento más profundo de algunas teorías (aún es su versión clásica) de campos que posteriormente se volverán importantes en QFT. Un resultado que puede ser interesante es el hecho que los tensores de energía-momento no necesariamente tienen que ser simétricos. La justificación usual que se encuentra en la literatura para que el tensor de energía momento sea simétrico es que debe ser proprcional a la derivada del lagrangiano respecto al tensor métrico, el cual es simétrico. Sin embargo, para el campo electromagnético la variación es respecto al cuadripotencial por lo que esta justificación no resulta adecuada. También hay un metódo más "artesanal" para adquirir el tensor de energía momento directamente de las ecuaciones de Maxwell y este resulta simétrico. Sin embargo, este tensor es totalmente equivalente al que se encuentra con el teorema de Noether ya que conducen a la misma cantidad conservada, aunque aparentemente las densidades de energía o de momento sean diferentes. Aún con lo anterior siempre es posible simetrizar el tensor obtenido por el teorema de Noether sin embargo esto parece no ser un requisito indispensable. Otros resultados que se planean obtener en el futuro es aprovechar la experiencia con los campos electromagnéticos para estudiar ahora el campo  de Kalb-Ramond.
Vargas Alberto, Universidad de Guadalajara
Asesor: Dra. Carolina Andrea Ochoa Martínez, Universidad Veracruzana

ANáLISIS DE LA PERCEPCIóN DEL CAMBIO CLIMáTICO EN XALAPA, VERACRUZ


ANáLISIS DE LA PERCEPCIóN DEL CAMBIO CLIMáTICO EN XALAPA, VERACRUZ

Vargas Alberto, Universidad de Guadalajara. Asesor: Dra. Carolina Andrea Ochoa Martínez, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

Actualmente, el cambio climático es el mayor desafío al que la sociedad mundial se enfrenta. Su existencia es inequívoca y sus efectos -directos e indirectos- afectan la calidad de vida humana y la integridad de los ecosistemas. Bajo este escenario, es que el presente estudio analiza la percepción del cambio climático en la ciudad de Xalapa, Veracruz.



METODOLOGÍA

Utilizando una muestra de 83 encuestados, a quienes se les aplicó un cuestionario para medir la percepción de la existencia del fenómeno, así como la magnitud del mismo en la vida cotidiana. Posteriormente se realizó un análisis climático para ver si lo que están percibiendo está relacionado con lo que está sucediendo. Para ello, se analizaron los datos observacionales de tres estaciones meteorológicas de la ciudad de Xalapa: Estación Animas (1961-1990), Observatorio (1981-2010) y CFE (2005-2024).


CONCLUSIONES

Los resultados muestran que el rango de edad predominante es de 26 a 35, con 39.8% y 25% de la población muestreada son estudiantes. El 84.3% señalaron que el cambio climático era un tema muy urgente,seguido del 13.31% dijeron que era urgente y sólo el 1.2% señalan que es nada urgente y poco urgente cada uno. Cerca del 85% comprende los conceptos básicos de cambio climático y calentamiento global, además de que señalan como las principales consecuencias a las sequías, aumento de temperatura y derretimiento de los polos; siendo las de menor puntaje incremento del nivel del mar, agricultura y ganadería y la acidificación del mar. Por último, se identificó que las principales fuentes de información consultadas son: Noticieros y Televisión; artículos y revistas de divulgación, redes sociales y con un porcentaje menor aquella información que la misma universidad genera relacionados al tema.   Lo anterior señala la importancia de que la investigación y comunicación del cambio climático no puede reducirse a solo transmitir información, por lo que se debe pensar en una estrategia de mayor alcance que permita construir conocimiento, tomar acciones que redirecciones los comportamientos de la población xalapeña.
Vargas Hernández Aura Tamara, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Emmanuel Ríos López, Universidad Autónoma de Sinaloa

ANáLISIS FOTOMéTRICO BIDIMIENSIONAL DE GALAXIAS BCG PARA ESTIMAR LA MASA DE AGUJEROS NEGROS SUPERMASIVOS


ANáLISIS FOTOMéTRICO BIDIMIENSIONAL DE GALAXIAS BCG PARA ESTIMAR LA MASA DE AGUJEROS NEGROS SUPERMASIVOS

Vargas Hernández Aura Tamara, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Emmanuel Ríos López, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Las galaxias son concentraciones de estrellas, gas, polvo y materia oscura, que se unen gravitacionalmente. La formación e interacción de las galaxias con el medio interestelar ocasiona que se altere su composición e incluso adopten distinta morfología con el transcurso del tiempo, es así que los astrónomos las clasifican dentro de tres categorías principales: elípticas, espirales e irregulares. Aún dentro de las tres categorías principales las galaxias suelen tener distintas características y propiedades entre sí. Las galaxias elípticas representan un tercio de las galaxias observadas y su forma puede variar, desde unas casi circulares a otras con una elipticidad considerable. Debido a la baja cantidad de gas y polvo que contienen, este tipo de galaxias tienen una baja formación de estrellas, siendo las estrellas viejas, la población estelar predominante. Existen galaxias elípticas de gran tamaño y luminosidad que dominan los centros de cúmulos galácticos, estas galaxias que destacan por su brillo se conocen como BCG por sus siglas en inglés. Es en la mayoria de galaxias, tanto elípticas como espirales, en las que se pueden encontrar Agujeros Negros, en especial los Supermasivos (SMBH, por sus siglas en inglés), cuya masa va de 106 a 1010 masas solares. Las galaxias, cuyo SMBH se encuentra acretando material de sus alrededores, se clasifican como galaxias activas (AGN, por sus siglas en inglés) por sus siglas en inglés. Estas regiones de la galaxia emiten una enorme cantidad de radiación en todo el espectro electromagnético, debido a el material que es arrastrado hacia el Agujero Negro. Es tal la energía que se produce del arrastre de gas y polvo, que termina por volverse la región más brillante de la galaxia, superando el brillo emitido por la población estelar de la galaxia. La interacción de un SMBH con el centro de la galaxia permite estudiar los ’core’ de las galaxias elípticas gigantes. El ’core’ es la región central de una galaxia donde la distribución de brillo superficial, gráficamente, se identifica por un aplanamiento. Se propone que la interacción de dos galaxias, que dio lugar a una binaria de Agujero Negro y provocó la eyección de estrellas desde el centro. Los astrónomos han determinado correlaciones entre la masa del SMBH y propiedades fundamentales de la galaxia anfitriona. Una manera de estimar la masa de un Agujero Negro Supermasivo es mediante unaa relación lineal entre la masa del SMBH y la luminosidad de la componente central de la galaxia. Es precisamente la correlación antes mencionada la que se busca obtener en esta investigación.



METODOLOGÍA

GALFIT es un programa que genera modelos bidimensionales del brillo superficial de objetos astronómicos a partir de sus imágenes digitales. Para ello, GALFIT utiliza funciones paramétricas como Nuker, Sérsic, Gaussiana, entre otras; el uso y combinación de cada función dependerá del objeto que se desee ajustar, esto con el objetivo de encontrar el modelo más adecuado. Las galaxias seleccionadas para este análisis son galaxias clasificadas como core o BCG en artículos donde se reportan las masas de Agujeros Negros. Las imágenes de las galaxias se obtienen de la base de datos de 2MASS (Two Micron All Sky Survey), específicamente de la banda Ks. Estas imágenes se visualizan con SaoImageDs9, software que permite obtener parámetros como las coordenadas en píxeles de la galaxia, magnitud, radio efectivo y magnitud zero point. Para el caso de las galaxias elípticas se utilizan dos funciones Sérsic para obtener el modelo, una de ellas para ajustar la componente central y la segunda para ajustar el halo de bajo brillo superficial que suele estar presentes en galaxias con ’core’. Cada una de las funciones requiere de parámetros iniciales como la posición del objeto en píxeles, la magnitud integrada, el índice de Sérsic (n=4 para la primera componente y n=1 para la segunda), la razón entre el semieje mayor y el semieje menor, y el ángulo de posición. Si la galaxia tiene algun tipo de actividad AGN, se le agrega una PSF como una componente adicional. Por lo general, todos los parámetros de las funciones se dejan como par ́ametros libres al generar el modelo con GALFIT. Al cumplir con todos los parámetros, GALFIT comenzará a ejecutarse, realizando iteraciones hasta que converja en un modelo. Al final GALFIT genera tres archivos, el primero es una imagen que consta de tres capas: Imagen original, modelo de GALFIT y el ’residuo’, que es la resta del modelo a la imagen original. Tres filtros que ayudan a determinar el mejor ajuste generado con GALFIT para la galaxia analizada son el chi2 (que sea alrededor de 1), una inspección visual de la imagen residual y el perfil de brillo que se obtiene con la función EllipSect. Si el modelo parece no ser el más adecuado, se recomienda revisar los resultados para confirmar que tan bueno es, o en el caso contrario reconsiderar los parámetros de entrada. Si los parámetros no son adecuados o son erróneos, GALFIT no se ejecuta correctamente, dando como resultado un error. GALFIT tiene un máximo de 100 iteraciones, una vez realizadas dichas iteraciones el programa se detendrá y arrojará un modelo, sin embargo este modelo no necesariamente representa el mejor ajuste y se recomienda revisar los parámetros de entrada y volver a correr GALFIT.


CONCLUSIONES

Con la metodología previamente descrita, se realizó el análisis de 26 galaxias elípticas con el programa GALFIT, con el cual se obtuvieron los modelos que consideramos adecuados. Los parámetros del modelo final nos proporcionan los datos necesarios para realizar los cálculos para obtener la magnitud aparente, la magnitud absoluta y, junto con la distancia luminosa, poder calcular la luminosidad de cada galaxia. Como resultados preliminares de este trabajo, se presenta la gráfica de la correlación entre la masa del Agujero Negro y la luminosidad en la banda Ks ,el cual era el objetivo principal de este estudio de verano científico. Los puntos rojos representan la muestra total de galaxias elípticas analizadas y la recta negra corresponde a una regresión lineal, la cual ajusta la muestra de galaxias de este trabajo, y galaxias espirales con pseudobulbos, analizadas y presentadas por mi compañero de proyecto.
Vargas Otálvaro María Camila, Instituto Tecnológico Metropolitano
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

MORTEROS ALTERNATIVOS HECHOS DE TIERRA, CENIZA DE ENCINO Y AGUA DE NEJAYOTE PARA LA CONSTRUCCIóN SOSTENIBLE


MORTEROS ALTERNATIVOS HECHOS DE TIERRA, CENIZA DE ENCINO Y AGUA DE NEJAYOTE PARA LA CONSTRUCCIóN SOSTENIBLE

Rodriguez Ramírez Johan Daniel, Instituto Tecnológico Metropolitano. Vargas Otálvaro María Camila, Instituto Tecnológico Metropolitano. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El cambio climático es uno de los mayores problemas en la actualidad. La actividad industrial, especialmente la de la construcción y la producción de materiales convencionales como el cemento o el acero, contribuyen significativamente a las emisiones de gases de efecto invernadero. Ante esta problemática, se genera la necesidad del desarrollo de materiales sostenibles para la construcción que reduzcan las emisiones de CO2 y que aprovechen los recursos locales y de bajo impacto ambiental. Por ende, se propone el desarrollo e investigación de un mortero de revestimiento alternativo que utiliza tierra, agua de nejayote y ceniza de encino, con el objetivo de identificar sus características y cualidades, para brindar una solución que ayude a mitigar las problemáticas relacionadas con el cambio climático.



METODOLOGÍA

La metodología se divide en etapas cruciales las cuales son: diseño de mezcla, desarrollo del mortero, pruebas y análisis de resultados. Primero, se plantea el diseño de mezcla para conocer las cantidades y proporciones a utilizar de cada material, a continuación, para el desarrollo del mortero, se recolecta el agua de nejayote por medio de tiendas locales encargadas de la elaboración de tortillas de forma masiva, esta agua se pasa por una colador para que haya menor presencia de impurezas, en cuanto a la ceniza, arena y tierra; se tamizan y secan para obtener una mezcla adecuada. De ser necesario, el diseño de mezcla se ajusta de acuerdo con la manejabilidad y fluidez que presente.  Se realizan 6 cubos de mortero de 10x10cm; 3 con materiales convencionales (cemento, arena, cal y aguda) y 3 con los materiales alternativos mencionados, los cuales se someten a una prueba de compresión utilizando una máquina universal de compresión axial. Para asegurar que la prueba se haga correctamente, se toma como referencia la norma N-CMT-2-01-004-02, de este modo, se cumple con los estándares de calidad y los criterios establecidos. 


CONCLUSIONES

Comparando las propiedades mecánicas y ambientales de los morteros de revestimiento convencionales y alternativos, se anticipa que los cubos de mortero elaborados con la mezcla alternativa (tierra, agua de nejayote y ceniza de encino) presenten propiedades de resistencia a la compresión comparables a los cubos de mortero convencionales, confirmando la hipótesis planteada en esta investigación. En términos de impacto ambiental, se proyecta el aprovechamiento de subproductos de la industria alimentaria y agrícola, como el agua de nejayote y la ceniza de encino,lo que promovería un enfoque de economía circular, reduciendo la generación de residuos y aprovechando recursos locales. Al realizar las pruebas de compresión conforme a la norma "N-CMT-2-01-004-02", se espera que el mortero alternativo cumpla con los estándares de calidad requeridos, reforzando su aceptación y uso en la industria de la construcción. Esta investigación podría abrir nuevas vías para el desarrollo de materiales de construcción sostenibles, alineados con los objetivos globales de reducción de emisiones de gases de efecto invernadero y promoción de la sostenibilidad. 
Vasquez Salazar Kathia Angela, Universidad de Guadalajara
Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara

ANáLISIS DEL CAMPO DE VIENTO EN PUERTO VALLARTA, JAL, EN MESES CONTRASTANTES SECOS Y HúMEDOS DE 2011-2019


ANáLISIS DEL CAMPO DE VIENTO EN PUERTO VALLARTA, JAL, EN MESES CONTRASTANTES SECOS Y HúMEDOS DE 2011-2019

Vasquez Salazar Kathia Angela, Universidad de Guadalajara. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La dinámica del viento es un factor crucial fundamental en la meteorología y tiene un impacto significativo en diversas áreas como la planificación urbana, la navegación aérea y marítima, y la generación de energía eólica. En las zonas costeras, como Puerto Vallarta Jalisco, la comprensión de los patrones de viento es crucial debido a su influencia en el clima local y en actividades económicas y sociales. El objetivo es analizar la influencia de la temperatura en la dirección del viento en Puerto Vallarta en el mes más seco (enero) y más húmedo (agosto). A través de este análisis, se espera identificar patrones de viento que puedan mejorar la predicción meteorológica y la planificación urbana en la región. Además, los resultados de este estudio pueden ser una base para futuras investigaciones en meteorología costera y estudios relacionados con el cambio climático.



METODOLOGÍA

Se analizaron datos de dos estaciones meteorológicas automáticas locales, marca Davis modelo Vantage Pro Plus 2, una ubicada en Puerto Vallarta, Jal., y la segunda ubicada en San Sebastián del Oeste, Jal. Los datos registrados de velocidad y dirección del viento y la temperatura, en intervalos de 10 minutos. Se procesaron en Python, calculando los promedios mensuales de la temperatura, y la velocidad y dirección del viento. Con esos promedios calculados se han generado gráficos de "peinetas de viento" que muestran la relación entre la temperatura, y la velocidad y dirección del viento a lo largo del día por mes. También diagramas de "rosas de viento" que representan en coordenadas polares, la frecuencia y dirección dominante del viento, así como su magnitud dentro de varios intervalos de velocidad.


CONCLUSIONES

Actualmente hemos obtenido los gráficos para los años 2011-2019 para la estación del Centro Universitario de la Costa y de los años 2011-2015 para San Sebastián del Oeste, estos gráficos permitirán identificar las diferencias en los patrones de viento entre las épocas seca y húmeda, y cómo la temperatura influye en estos patrones. En las gráficas de peinetas se identifica claramente la circulación de brisa a lo largo del día. Las rosas de viento indican la circulación preferencial de noroeste -sureste. Se espera que los hallazgos proporcionen una comprensión más profunda de la dinámica del viento en Puerto Vallarta, contribuyendo a una mejor predicción de los patrones de viento y a la optimización de la planificación urbana en la región.
Vázquez Angulo Ekaterina, Universidad Autónoma de Baja California
Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara

VARIABILIDAD CLIMáTICA DEL 2011 AL 2020 EN LA CIUDAD PUERTO VALLARTA, JAL.


VARIABILIDAD CLIMáTICA DEL 2011 AL 2020 EN LA CIUDAD PUERTO VALLARTA, JAL.

Vázquez Angulo Ekaterina, Universidad Autónoma de Baja California. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La variabilidad climática se entiende como las fluctuaciones en las condiciones climáticas predominantes de una zona. Las cuales son causadas por procesos naturales de la dinámica interna océano-atmósfera o por forzamientos externos, ya sean naturales o antropogénicos. La variabilidad y el cambio climático son conceptos distintos, el cambio climático hace referencia a variaciones sistemáticas que perduran por largos periodos de tiempo; sin embargo, el análisis de variabilidad climática es imperativo para la identificación de procesos de cambio climático. Aunque existe evidencia inequívoca del calentamiento global, se desconoce su impacto en cada región del globo, por lo que es necesario el análisis regional de las fluctuaciones de variables climatológicas para conocer los impactos locales del cambio climático. Adicionalmente, el estudio localizado del clima, permite mejorar las estrategias de planeación urbana y de aprovechamiento de recursos naturales, además de impactar en materia de salud y seguridad hidrometeorológica. En México la mayoría de estaciones meteorológicas con acceso al público registran datos diarios que se compilan de manera mensual, de forma que existe una gran pérdida de información para describir los procesos del clima a lo largo del día. Por ello, es relevante el análisis de variabilidad climática con datos en sitio de estaciones meteorológicas automáticas que registran datos con mayor frecuencia. Esta investigación tiene como objetivo conocer la variabilidad climática de la ciudad de Puerto Vallarta, así como describir el comportamiento de la temperatura y humedad en la década de 2011 a 2020. Esta ciudad tiene un clima cálido subhúmedo con temperatura promedio anual de 25ºC y humedad relativa oscilante entre 60% y 99%. Es reconocida por su actividad turística y ha experimentado un acelerado crecimiento poblacional y explotación de sus recursos naturales.



METODOLOGÍA

Se usó la base de datos de los años del 2011 al 2020 de la estación meteorológica automática marca DAVIS modelo Vantage ProPlus-2, ubicada en el Centro Universitario de la Costa de la Universidad de Guadalajara, localizada en 20° 41’ 25 N y 105° 12’ 35 O. Se utilizaron los datos de temperatura y humedad relativa registrados cada 10 minutos, por cuestiones de mantenimiento y conexión a internet no se cuenta con el 100% de estos. Se reacomodo la información, para un análisis de completitud, seguido de un procesamiento estadístico para la realización de gráficas de isotermas e isohigras, así como de su oscilación mensual. De faltar algún dato, se utilizó el método de interpolación lineal para inferir su valor, por segmentos de quince días por mes. Con los datos seleccionados se calcularon promedios horarios por mes, de temperatura y humedad relativa, con lo cual fue posible realizar las gráficas propuestas para cada año del periodo de análisis seleccionado.


CONCLUSIONES

Se adquirieron conocimientos teóricos sobre climatología que fueron aplicados a la ciudad de Puerto Vallarta para el análisis de la década comprendida del 2011 al 2020. Se encontraron fluctuaciones respecto a los datos históricos de temperatura y humedad relativa, los cuales pudieron en cierta medida relacionarse al fenómeno El Niño Oscilación del Sur. Con el análisis realizado se busca contribuir al desarrollo de posteriores investigaciones en la región, dado que el estudio climático localizado es de gran importancia para identificar riesgos hidrometeorológicos, aprovechar los recursos naturales y realizar una adecuada planeación urbana.
Vazquez Marin Alexander Guadalupe, Universidad Autónoma de Baja California
Asesor: Dr. Carlos Castaño Bernard, Universidad de Colima

CURVAS MODULARES


CURVAS MODULARES

Mendoza Torres José Alejandro, Universidad Autónoma de Baja California. Vazquez Marin Alexander Guadalupe, Universidad Autónoma de Baja California. Asesor: Dr. Carlos Castaño Bernard, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

El estudio de campos finitos provenientes de soluciones a curvas elípticas es un problema fundamental en el área de la criptografía. Algoritmos criptográficos que emplean campos finitos sobre curvas elípticas, como el Elliptic Curve Digital Signature Algorithm (ECDSA), ofrecen un nivel de seguridad mayor al de algoritmos tradicionales, y son utilizados por compañías e instituciones para cifrar información privada, y así prevenir que terceros puedan acceder a ella. Por lo anterior, las curvas elípticas son un objeto matemático cuyo estudio tiene relevancia en la sociedad. Sin embargo, las curvas elípticas resultan ser también un nexo entre diversos ámbitos dentro de las propias matemáticas, como análisis, teoría de números, álgebra, y topología. Las curvas elípticas pueden ser parametrizadas por funciones llamadas formas modulares, lo cual facilita su estudio, pero son las formas modulares en particular las que ilustran las inesperadas conexiones entre las áreas mencionadas. El objetivo de esta investigación es el estudio de estas formas modulares, y los conceptos matemáticos que tienen a estas como base. Como preliminar, se hará un estudio de la función P de Weierstrass, las series de Eisenstein, la Ley de Reciprocidad Cuadrática de Gauss, y las unidades modulares, para motivar lo anterior.



METODOLOGÍA

Se estudió la función P de Weierstrass, y su derivada P', y se utilizó para parametrizar curvas elípticas en el plano complejo. Dicha función P de Weierstrass tiene una expansión de Laurent alrededor del 0 cuyos coeficientes están dados por las series de Eisenstein, ejemplos fundamentales de la teoría de formas modulares. Se estudió también la función Eta de Dedekind, el cual da a pie a las sumas de Dedekind. Se estudiaron dos funciones: la función discriminante, y la función j de Klein. Se observó la conexión de la función discriminante con las curvas elípticas en el plano complejo, y se notó las propiedades de congruencia de los coeficientes de las expansiones de Fourier de cada función. Con esto se motivan los operadores de Hecke. Se reveló la estructura algebraica de las soluciones racionales de una curva elíptica, dándole la estructura de un grupo abeliano por medio de una construcción geométrica que involucra la intersección de rectas con la curva elíptica en específico. De ello, se abordó la cuestión de puntos con orden finito sobre la curva elíptica. Se expuso la Ley de Reciprocidad Cuadrática de Gauss, así como la generalización de este por parte de Ernst Schering, y dos demostraciones de este, una por medio de sumas de Gauss, y otra por medio del argumento de Schering. El método que utiliza Schering para extender dicha ley tiene relevancia en la siguiente sección. Se estudia la parte básica de la teoría de unidades modulares, partiendo de funciones similares a la función de P de Weierstrass, como las funciones zeta y sigma, también de Weierstrass. Dentro de esta teoría se estudia la función f de Ogg y Ligozat, y, en base al método de Schering antes mecionado, se le da significado a este como una unidad modular asociada a cualquier campo cuadrático real. Finalmente, se estudiará una curva elíptica de Shimura sobre K, donde K es el campo cuadrático real generado por la raiz cuadrada de 6 sobre el campo de los números racionales. Se describirá una parametrización explícita, basada en la unidad modular asociada a dicho campo cuadrático.


CONCLUSIONES

Desafortunadamente no se consiguió completar la investigación dentro del periodo del programa, por lo que no se llegó a la parte final de la metodología en donde se parametriza una curva de Shimura. Sin embargo, el investigador seguirá trabajando con alumnos de la Universidad de Colima para desarrollar la investigación.
Vázquez Pérez Adriana Sofia, Universidad Autónoma de Chiapas
Asesor: Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla

INSTRUMENTACIóN Y DETECTORES DE PARTíCULAS


INSTRUMENTACIóN Y DETECTORES DE PARTíCULAS

Hernández Reyna Enrique Imanol, Benemérita Universidad Autónoma de Puebla. Pulido Rosales Sergio, Benemérita Universidad Autónoma de Puebla. Ramos Moreno Diego, Benemérita Universidad Autónoma de Puebla. Vázquez Pérez Adriana Sofia, Universidad Autónoma de Chiapas. Asesor: Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los rayos cósmicos son partículas provenientes del universo con energías extremadamente altas, superando ampliamente las alcanzadas por los aceleradores de partículas más potentes creados por la humanidad. Estas partículas ingresan a la atmósfera terrestre desde el espacio exterior, y aunque sus orígenes exactos son inciertos, se cree que podrían provenir de supernovas y otros eventos astronómicos. Cuando estos rayos cósmicos interaccionan con la atmósfera generan una cascada de subproductos entre los que están fotones, electrones, positrones y muones. El estudio experimental de partículas subatómicas es esencial en la física de altas energías, astrofísica y física nuclear. Se suelen utilizar muchos tipos de detectores en conjunto para analizar rayos cósmicos y colisiones energéticas. Este Verano de Investigación estuvo enfocado en uno en específico, la RPC. Una Cámara de Placas Resistivas (RPC, por sus siglas en inglés) es un detector de radiación ionizante que, por su gran resolución temporal, confiabilidad y bajo costo es uno de los detectores que se utilizan actualmente en grandes proyectos científicos como lo son el Observatorio Pierre-Auger en Argentina, ALICE en el CERN o FOPI-GSI en Alemania. Estos dispositivos, integrados en sistemas de detección de partículas, proporcionan información precisa sobre las partículas detectadas, mejorando nuestra comprensión del universo y ofreciendo aplicaciones prácticas en diversos campos. En principio, una RPC se compone de dos placas resistivas sometidas a muy alto voltaje (unos 10-20 kV) que encierran un gas con propiedades específicas. Cuando una partícula ionizante, como el Muón, pasa por la cámara ioniza las moléculas del gas arrancándoles electrones en cadena de modo que se generan avalanchas de iones positivos y electrones cada una viéndose atraídas por el campo eléctrico a una respectiva placa. Cuando se acumulan suficientes cargas, se genera una descarga medible (como la de un capacitor). Dependiendo de la señal de corriente obtenida a la salida se puede determinar la carga, energía y con ello el tipo de partícula. El Objetivo del Programa es la construcción de una RPC de dos gaps (dos espaciamientos para el gas) con una eficiencia mínima de 80%. Para posteriormente caracterizarla y realizar algunas mediciones básicas en conjunto con el equipo del laboratorio de pruebas RPCs ALICE en el Ecocampus, BUAP (Benemérita Universidad Autónoma de Puebla).



METODOLOGÍA

El proyecto se compone de 4 etapas principales: - Preparación de materiales. - Ensamblaje de la RPC. - Medición de la resistividad con gas Argón. - Mediciones con gas Freón. Para las placas de la RPC se utilizan vidrios soda-lime de 20x20 cm^2, que se cortan a las medidas estrictamente exactas con herramientas especiales. Después se limpian meticulosamente (cualquier tipo de suciedad, por pequeña que sea, genera ruido y pueden llegar a reducir el tiempo de vida del detector) y se pintan con una pintura negra resistiva a través del método de aerosol, que garantiza una buena homogeneidad estructural en una capa muy delgada (y por lo tanto homogeneidad en la resistividad). • Para la fabricación de la Caja de Aluminio: Se cortan y ensamblan dos placas de 31x33 cm y cuatro barras de aluminio, dos de 29 cm y dos de 33cm utilizando una sierra caladora y un taladro. Se realizan perforaciones en una de las barras de 29 cm para colocar los conectores de voltaje y gas al igual una perforación para los cabes del canal. • Construcción de la Cámara: Incluye la creación de piezas mediante impresión 3D, que forman parte del marco y los separadores de gas. Se colocan conectores de gas y alambres en el marco, y se aplica resina para sellar, eso evita futuras fugas. Se cortan tapas de acrílico que se ajustan al marco. Se aplican capas de acrílico para sellar los bordes y asegurar las placas de vidrio. Se ensamblan las placas de vidrio pintado dentro de la cámara, utilizando hilo de pescar para mantener la separación entre ellas. Finalmente, hay que soldar los electrodos. • Construcción del pad El pad se construye a partir de una placa de cobre la cual se corta de un tamaño de 20 cm por lado con la ayuda de una sierra. Posteriormente se le realiza un corte para tener un 'canal' de manera que el área efectiva dentro de él sea un cuadrado de 19 cm por lado, esto se hace con la máquina y Mach3 CNC, para mejorar la efectividad de las señales que se pueden recibir. Para la medición de la resistividad del sistema primero es necesario limpiar la cámara con gas Argón, ir administrando diferentes niveles de voltaje a la placa y ver cuál es el consumo de corriente. Finalmente, para la etapa de medición se usa gas Tetrafluoroetano. Se colocan cristales centelladores con PMTs (Tubos fotomultiplicadores) de alta eficiencia funcionando como triggers (activadores) y se cuentan la cantidad relativa de eventos detectados por la RPC frente a los detectados por los triggers obteniendo de esta manera la eficiencia y curva de funcionamiento para hallar el voltaje óptimo. Las mediciones se realizan con ayuda de un Osciloscopio Teledyne LeCroy Wavepro 715Zi-A para la visualización de voltaje y los datos pueden ser guardados en una USB para un análisis más exacto.


CONCLUSIONES

La construcción de un detector RPC de vidrio de dos gaps fue exitosa, logrando los objetivos planteados en cuanto a la funcionalidad del detector. La elección de vidrio soda lime como material de las placas resistivas y el uso de pintura de grafito conductivo proporcionaron una buena resolución en la detección de eventos. Además, las pruebas de adquisición de datos confirmaron la capacidad del detector para capturar y registrar señales de partículas ionizantes. La adquisición de datos mostró señales claras de ionización, permitiendo la identificación de eventos de partículas cargadas.
Vazquez Ramirez Ramon, Universidad de Guadalajara
Asesor: Post-doc David Eugenio Andrade Perez, Universidad del Rosario

DESARROLLO DE SOLUCIONES ANALíTICAS DE PRIMER ORDEN DE LA ECUACIóN DE SCHRODINGER NO LINEAL


DESARROLLO DE SOLUCIONES ANALíTICAS DE PRIMER ORDEN DE LA ECUACIóN DE SCHRODINGER NO LINEAL

Montes Fuentez Victor Emilio, Universidad de Guadalajara. Vazquez Ramirez Ramon, Universidad de Guadalajara. Asesor: Post-doc David Eugenio Andrade Perez, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

Partiendo de la ecuación de Schrodinger no lineal se buscó proponer soluciones analíticas, muy diferentes a las soluciones numéricas qué son comunes en este tipo de ecuaciones. 



METODOLOGÍA

Se propuso una solución compleja para la ecuación de Schrodinger no lineal, para después de una serie de cambios de variables llegar a 3 ecuaciones diferenciales ordinarias, las cuales estaban en términos de funciones especiales llamadas "funciones elípticas de Jacobi".


CONCLUSIONES

Al sustituir los resultados de las EDO's en la solución propuesta se obtienen las soluciones exactas y analíticas de la ecuación no lineal de Schrodinger, la cual puede ser modificada según las condiciones iniciales del sistema. Una de las principales aplicaciones es en las ondas oceanicas, ya que se puede explicar la aparición repentina de ciertas olas de gran tamaño. 
Vega Lirios Omar, Universidad de Guadalajara
Asesor: Dra. Vianney Muñoz Jimenez, Universidad Autónoma del Estado de México

DETECCIóN DE CáNCER EN IMáGENES DE MAMOGRAFíA UTILIZANDO EL ALGORITMO C-UNET


DETECCIóN DE CáNCER EN IMáGENES DE MAMOGRAFíA UTILIZANDO EL ALGORITMO C-UNET

Vega Lirios Omar, Universidad de Guadalajara. Asesor: Dra. Vianney Muñoz Jimenez, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

El cáncer es una de las principales causas de muerte a nivel mundial, entre las técnicas de detección, una de las más comunes y más efectivas, es la utilización de mamografías. En específico, las mamografías digitales. Los primeros enfoques de segmentación se centraron en técnicas de procesamiento de imágenes clásicas, como la umbralización, la detección de bordes y el crecimiento de regiones. Estas metodologías, aunque simples y computacionalmente eficientes, presentaban limitaciones significativas en términos de precisión, especialmente en casos de imágenes ruidosas o con bajo contraste. La introducción de las Redes Neuronales Convolucionales (CNN) ha marcado un hito en la segmentación de imágenes médicas. Las CNNs, con su capacidad de aprender representaciones jerárquicas y características de alto nivel directamente a partir de los datos de imagen, han demostrado un rendimiento superior en la segmentación de estructuras anatómicas complejas en mamografías. Modelos como U-Net, Mask R-CNN y sus variantes han establecido nuevos estándares en términos de precisión y eficiencia.



METODOLOGÍA

La base de imágenes que se utilizaron para el entrenamiento del algoritmo corresponde a la base Curated Breast Imaging Subset of Digital Database for Screening Mammography o CBIS-DDSM contiene 2,620 estudios de mamografía en película escaneada, incluyendo casos normales, benignos y malignos con información de patología verificada. Además la base incluye archivos CSV que contienen información detallada sobre los estudios de mamografía. Incluye una evaluación y el diagnóstico patológico, que puede ser benigno o maligno. Para la parte de segmentación de las mamografías se optó por un enfoque de redes neuronales convolucionales (CNN) específicamente una variante del algoritmo de segmentación U-Net llamada así por su arquitectura en forma de U, fue propuesto por Olaf Ronneberger, Philipp Fischer y Thomas Brox en 2015. La variante que se utilizó fue el Connected U-Net, también conocido como Connected Convolutional Neural Network C-Unet. Los datos de entrada fueron las mamografías completas, las máscaras binarias y la información referente a la patología de las masas de los pacientes. Se utilizaron un total de 1231 mamografías, el 80% se dividió aleatoriamente para el entrenamiento del algoritmo y el 20% para la validación. Se emplearon 321 mamografías adicionales para prueba. Estas imágenes se sometieron a predicción utilizando el modelo entrenado.


CONCLUSIONES

La mejor validation loss se alcanzó en la epoch 16 con un valor de 0.4581. Los datos del modelo guardado para las predicciones son los siguientes: Métricas de Entrenamiento Accuracy de Clasificación de Salida: 0.9688 Accuracy de Segmentación de Salida: 0.9918 Pérdida: 0.1527 Métricas de Validación Accuracy de Clasificación de Validación: 0.8340 Accuracy de Segmentación de Validación: 0.9904 Pérdida de Validación: 0.4581 Se obtuvieron las máscaras para las 361 mamografías de prueba. A continuación se muestran algunos ejemplos. Ejemplos de Patologías Predichas Mass-Test_P_00016_LEFT_CC y Mass-Test_P_00016_LEFT_MLO tienen una patología BENIGN. Mass-Test_P_00017_LEFT_CC y Mass-Test_P_00017_LEFT_MLO tienen una patología BENIGN. Mass-Test_P_00032_RIGHT_CC tiene una patología MALIGNANT. Mass-Test_P_00032_RIGHT_MLO tiene una patología BENIGN. Mass-Test_P_00037_RIGHT_CC y Mass-Test_P_00037_RIGHT_MLO tienen una patología BENIGN_WITHOUT_CALLBACK. Mass-Test_P_00056_LEFT_MLO tiene una patología BENIGN. Mass-Test_P_00066_LEFT_CC tiene una patología MALIGNANT. Resultados de las Pruebas de Patología Falsos Negativos: 46 Falsos Positivos: 96 Verdaderos Negativos: 122 Verdaderos Positivos: 97 Estos resultados muestran que la clasificación tiene un 60.66% de exactitud. El entrenamiento del modelo muestra una mejora inicial en la métrica de pérdida y en la precisión de las salidas de clasificación y segmentación, pero luego alcanza un punto donde la pérdida de validación ya no mejora y, en algunos casos, empeora. Las precisiones de salida de clasificación y segmentación muestran una mejora constante durante las épocas. A partir de la epoch 17, la pérdida de validación deja de mejorar y, de hecho, empeora en las epochs siguientes. Esto sugiere un posible sobreajuste del modelo a los datos de entrenamiento. La mayoría de las máscaras predichas coinciden con las originales en el set de prueba, sin embargo, la clasificación tiene un 60% de exactitud. Es un buen valor para una primera aproximación, sin embargo, teniendo en cuenta que para la clasificación solo se usó una categoría en este caso la patología, se podría aumentar este porcentaje agregando otras categorías como la forma y los márgenes de las masas.
Vela Hernández Anel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Raúl Cuauhtémoc Baptista Rosas, Universidad de Guadalajara

INTRODUCCIóN A LA DETECCIóN DE HETEROPLASMIA MITOCONDRIAL: UN ENFOQUE BIOLóGICO Y COMPUTACIONAL


INTRODUCCIóN A LA DETECCIóN DE HETEROPLASMIA MITOCONDRIAL: UN ENFOQUE BIOLóGICO Y COMPUTACIONAL

Vela Hernández Anel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Raúl Cuauhtémoc Baptista Rosas, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La heteroplasmia es la coexistencia de múltiples variantes del ADN mitocondrial (mtDNA) dentro de una célula, es un fenómeno biológico que tiene importantes implicaciones para la salud humana. Las mitocondrias, conocidas por su importancia en la síntesis de ATP, tienen su propio ADN, y las variaciones en este ADN pueden influir en su función y contribuir al desarrollo de enfermedades como trastornos neurológicos, metabólicos y ciertos tipos de cáncer.  La detección precisa y eficiente de heteroplasmia es esencial para entender estas condiciones y desarrollar intervenciones terapéuticas adecuadas. Sin embargo, las técnicas tradicionales para la detección de heteroplasmia son laboriosas, costosas y limitadas en su capacidad para analizar grandes volúmenes de datos. Por lo tanto, existe una necesidad urgente de desarrollar métodos automatizados y computacionales que puedan superar estas limitaciones y proporcionar resultados precisos y reproducibles.



METODOLOGÍA

Para abordar el problema de la detección de heteroplasmia, se requiere un enfoque biológico y computacional que integra el uso de herramientas bioinformáticas y análisis estadísticos. En particular, aplicamos esta metodología al proyecto de investigación "Búsqueda de patrones no lineales en región control mitocondrial en individuos con diabetes tipo 2 de origen mexicano y otras poblaciones". Esta metodología permite una detección precisa y eficiente de heteroplasmia mitocondrial, proporcionando una base sólida para el análisis de variantes mitocondriales y su relación con la diabetes tipo 2 y se divide en las siguientes etapas: Identificación de Secuencias: Se utilizaron boleados y palabras clave en la cadena de búsqueda para encontrar secuencias de la región control de cromosomas mitocondriales disponibles en la base de datos NCBI Nucleotide. Exploración y Validación de Metadatos: Se incluyeron solo las secuencias que contaban con las características requeridas para el proyecto: Cita de referencia del artículo asociado. Origen de la secuencia como individuo de grado de control en un estudio publicado sobre T2D. Etiqueta de diagnóstico de diabetes tipo 2 o definida como no dependiente de insulina. Etiqueta de especie Homo sapiens. Longitud de secuencia de 16,569 +/- 10 pb.      3. Identificación de Haplogrupos y Polimorfismos: Utilizando la Secuencia de Referencia de Cambridge se alinearon las secuencias para encontrar los posibles haplogrupos y polimorfismos. Con ayuda de MITOMASTER para determinar haplotipos y polimorfismos, se creó una base de datos con los polimorfismos identificados y después Phylotree para la clasificación de haplogrupos.      4. Alineamiento Manual: A través del sistema UCSC Genome Browser se analizó manualmente la presencia de polimorfismos. Así como un registro de eliminaciones, inserciones y sustituciones a partir de la secuencia de referencia rCRS. 5. Análisis Estadístico: Se utilizó R para el análisis descriptivo y estadístico obteniendo los siguientes datos de un código automatizado para analizar variables cualitativas nominales (Cálculo de frecuencias absolutas y relativas, análisis de chi-cuadrado de Pearson con p < 0.05 y estimación de razón de momios (OR) y riesgo relativo con IC 95%.) y conteos de variantes de una sola secuencia (Estadísticos de tendencia central: media, mediana y moda, estadísticos de dispersión: desviación estándar, error estándar, varianza, cuartiles, rango intercuartil (RIC), valores máximos y mínimos, métricas de asimetría, exploración de normalidad, exploración de homocedasticidad: prueba de Levene y análisis comparativo: prueba U de Mann-Whitney con p < 0.05 para confirmar diferencias significativas).


CONCLUSIONES

Aunque los resultados completos están en proceso de obtención, los estudios preliminares indican que el enfoque biológico y computacional ofrece varias ventajas sobre los métodos tradicionales: Mayor Precisión y Eficiencia: Los métodos computacionales permiten la detección precisa de variantes de mtDNA con una mayor eficiencia, reduciendo significativamente el tiempo y el esfuerzo necesarios en comparación con las técnicas tradicionales. Análisis a Gran Escala: La automatización y el uso de herramientas bioinformáticas facilitan el análisis de grandes volúmenes de datos, permitiendo estudios a gran escala que antes eran inviables. Flexibilidad y Escalabilidad: El enfoque es flexible y escalable, lo que permite su adaptación a nuevas tecnologías de secuenciación y desarrollos en algoritmos computacionales. En el contexto del proyecto "Búsqueda de patrones no lineales en región control mitocondrial en individuos con diabetes tipo 2 de origen mexicano y otras poblaciones", hemos aplicado estos métodos para identificar variaciones en el mtDNA que podrían estar asociadas con la diabetes tipo 2. La combinación de técnicas de secuenciación avanzada y análisis computacional nos ha permitido detectar patrones de heteroplasmia que no eran evidentes con los métodos tradicionales, abriendo nuevas vías para la comprensión de la relación entre el mtDNA y la diabetes tipo 2. En resumen, la integración de la biología y la computación en la detección de heteroplasmia mitocondrial representa un avance significativo en la ciencia. Este enfoque no solo mejora la precisión y eficiencia del análisis, sino que también abre nuevas posibilidades para investigaciones futuras en el estudio de enfermedades relacionadas con el mtDNA. El objetivo es continuar refinando estos métodos y validar sus aplicaciones en estudios clínicos y de investigación a gran escala
Velasquez Salinas Mildreth Mariam, Universidad de Sonora
Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México

ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO Y SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS


ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO Y SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS

Amezcua Hernández Daniela, Universidad Autónoma de Baja California. Castro Gonzalez Yuliana Estefanía, Universidad de Sonora. Ku Nah Mariana, Universidad Autónoma de Baja California. Nova Guinchin Juan Felipe, Universidad de Caldas. Velasquez Salinas Mildreth Mariam, Universidad de Sonora. Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La migración magmática durante el Cretácico tardío-Eoceno, en relación con la subducción de la placa oceánica Farallón bajo la placa norteamericana, es un proceso geológico complejo que aún no se comprende completamente. Esta subducción ha generado magmas que, al ascender, se contaminan con los basamentos precámbricos antiguos presentes en el noroeste de México (Baja California, Sonora y Chihuahua) y el suroeste de Estados Unidos (California, Arizona y Nuevo México). Entender este fenómeno es crucial para reconstruir la evolución tectónica y magmática de estas regiones, ya que la interacción entre los magmas y los basamentos antiguos afecta significativamente la composición final de los magmas, influenciando la formación de minerales y la geología regional. Sin embargo, la caracterización detallada de estos procesos y sus implicaciones geológicas no ha sido completamente documentada. Durante la estancia de verano de investigación, se busca abordar este problema mediante una serie de actividades centradas en la recolección y análisis de muestras geológicas, así como en la capacitación en técnicas avanzadas de geoquímica y geocronología. Estos esfuerzos están dirigidos a proporcionar una comprensión más profunda de cómo la subducción y la contaminación magmática han moldeado la estructura geológica del noroeste de México y el suroeste de Estados Unidos, contribuyendo así a un mayor conocimiento de los procesos tectónicos y magmáticos globales.



METODOLOGÍA

Durante la estancia de verano, se han llevado a cabo diversas actividades enfocadas en la separación mineral para determinar la evaluación de la migración magmática y la contaminación de magmas con basamentos precámbricos. Las principales actividades incluyen: Organización y manejo de muestras: Se ha realizado el inventariado y almacenamiento de muestras geológicas, asegurando una correcta catalogación y preservación de cada muestra para su posterior análisis. Preparación de secciones delgadas: Se han preparado secciones delgadas de rocas plutónicas, permitiendo la observación detallada de las texturas y composiciones minerales mediante técnicas de microscopía. Capacitación en separación mineral: Los estudiantes han recibido entrenamiento en técnicas de separación mineral, esenciales para estudios geocronológicos específicos como U-Pb y Ar-Ar. Este conocimiento es crucial para determinar las edades de cristalización y eventos térmicos de las rocas estudiadas. Preparación de muestras: Las muestras previamente recolectadas se han pulverizado, tamizado, etiquetado y almacenado adecuadamente para su análisis geoquímico. Caracterización de circones: Utilizando métodos de microscopía óptica y electrónica (SEM), se han caracterizad circones, lo cual es fundamental para entender los procesos de cristalización y evolución magmática de las rocas. Seminarios semanales: Se han llevado a cabo seminarios semanales en los que se discuten diversas temáticas relacionadas con el proyecto. Estos seminarios incluyen presentaciones de doctores del instituto, estas ayudan a fomentar el intercambio de conocimientos y el desarrollo de habilidades de comunicación científica. Ablación de zircones: Se han llevado a cabo procesos de ablación láser de zircones para análisis de geoquímica isotópica. Esta técnica permite la medición precisa de las concentraciones de elementos traza y las relaciones isotópicas, proporcionando información crucial sobre la edad de las rocas.


CONCLUSIONES

Hasta el momento, las actividades han permitido una mejor comprensión de los procesos de migración magmática y la interacción de los magmas con los basamentos precámbricos. Se espera que los resultados finales contribuyan significativamente a la geocronología y geoquímica regional, proporcionando datos valiosos para futuros estudios tectónicos y magmáticos. Estos hallazgos podrían ofrecer nuevas perspectivas sobre la evolución geológica de la región y ayudar a resolver preguntas clave sobre la dinámica de subducción y la formación de magmas contaminados.
Velázquez Alor Astrid Karina, Instituto Politécnico Nacional
Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara

IMPLEMENTACIóN DE UN ALGORITMO CLASIFICADOR PARA IDENTIFICAR LA POSICIóN CORRECTA PARA DORMIR EN BEBéS


IMPLEMENTACIóN DE UN ALGORITMO CLASIFICADOR PARA IDENTIFICAR LA POSICIóN CORRECTA PARA DORMIR EN BEBéS

Velázquez Alor Astrid Karina, Instituto Politécnico Nacional. Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La seguridad y el bienestar de los bebés mientras duermen es un tema de gran preocupación para los padres y cuidadores en todo el mundo. Esta preocupación se ve alimentada por condiciones potencialmente peligrosas como el Síndrome de Muerte Súbita del Lactante (SMSL) y las variaciones extremas de temperatura, las cuales pueden tener consecuencias fatales. La incidencia del SMSL, por ejemplo, aunque ha disminuido significativamente desde la introducción de campañas de concienciación sobre dormir boca arriba, sigue siendo una causa importante de muerte en bebés menores de un año en varios países. Según datos de centros de control y prevención de enfermedades, aún se registran miles de casos al año, lo que subraya la importancia de un monitoreo efectivo y constante. Sin embargo, los métodos tradicionales de monitoreo, incluidos los monitores de audio y video, no están equipados para abordar estos riesgos de manera efectiva. Aunque pueden proporcionar una vigilancia visual y auditiva, carecen de la capacidad para analizar la posición de sueño del bebé en tiempo real o detectar cambios sutiles en su temperatura corporal. Los dispositivos actuales que ofrecen estas capacidades suelen requerir la instalación de sensores directamente en el bebé o en su entorno inmediato, lo que puede ser invasivo, incómodo para el bebé, y generar ansiedad adicional para los padres.  El uso de técnicas de visión artificial y algoritmos de procesamiento de imágenes en un sensor a distancia mejorará significativamente la precisión y fiabilidad en la detección de situaciones de riesgo para los bebés, comparado con los dispositivos de monitoreo actuales.



METODOLOGÍA

Para este proyecto, se inició con la creación de un conjunto de datos destinado a entrenar un modelo clasificador. El objetivo del modelo es identificar entre buenas y malas posturas al dormir. Para ello, el set de datos fue dividido en dos subcarpetas: una con ejemplos de buenas posturas al dormir y otra con ejemplos de malas posturas. Estas imágenes fueron seleccionadas y clasificadas tras una búsqueda exhaustiva en Internet. Dado que el set de datos empleado es pequeño (alrededor de 600 ejemplos para cada caso) en comparación con los conjuntos de datos más grandes que suelen contener alrededor de 20,000 imágenes o más, se decidió utilizar un modelo de transferencia de aprendizaje. La transferencia de aprendizaje implica tomar una red neuronal convolucional ya entrenada y adaptar su capa de salida a los ejemplos específicos que queremos clasificar. Para este proyecto, se eligió el modelo "MobileNet" en su segunda versión, debido a su preentrenamiento con más de un millón de imágenes. Posteriormente, se adecuó su capa de salida a un formato binario de dos neuronas para discernir entre dos clasificaciones claras: si el bebé duerme en una posición correcta que no comprometa su salud o no. Una vez seleccionada la red neuronal y adaptada su capa de salida, se procedió a generar más datos de entrenamiento mediante "data augmentation". Este proceso consiste en tomar las imágenes existentes en el set y aplicarles operaciones morfológicas que ayuden a distorsionar la imagen original, creando nuevas imágenes con diferentes condiciones. Estas operaciones pueden incluir rotaciones, cambios de escala, traslaciones, y ajustes en brillo y contraste, entre otras. Antes de entrenar la red neuronal, se realiza un "congelamiento" de las capas ocultas del modelo "MobileNet". Esto significa que las capas previamente entrenadas no modificarán su aprendizaje inicial, sino que solo adecuarán el aprendizaje para clasificar los casos de nuestro interés. Las capas ocultas en una red neuronal convolucional suelen incluir capas de convolución, capas de pooling y capas completamente conectadas, que son responsables de extraer características relevantes de las imágenes. El entrenamiento de la red neuronal se llevó a cabo realizando diferentes pruebas, variando parámetros como el tamaño de lote (batch size), el número de épocas de entrenamiento, la cantidad de imágenes y las transformaciones aplicadas en el data augmentation. El objetivo era optimizar el rendimiento del modelo, asegurando que su precisión mejorara sin caer en sobreajuste (overfitting), donde el modelo se ajusta demasiado a los datos de entrenamiento y pierde capacidad de generalización. Finalmente, se validó el modelo utilizando un conjunto de imágenes diferentes a las utilizadas en el entrenamiento. Este paso fue crucial para verificar si el modelo podía clasificar correctamente las imágenes nuevas y asegurar que el algoritmo cumplía con su propósito de identificar correctamente la posición del bebé al dormir.


CONCLUSIONES

A lo largo de esta estancia de verano, se adquirieron valiosas herramientas en procesamiento computacional, programación e inteligencia artificial, que son fundamentales para diversos ámbitos de la ciencia. Estas habilidades permiten procesar una mayor cantidad de información en menos tiempo y obtener datos más concluyentes. Particularmente en este proyecto, se aprendieron técnicas avanzadas de procesamiento de imágenes, entrenamiento de redes neuronales y comprensión de parámetros clave para la validación de experimentos. Además, se exploró la implementación práctica de estas técnicas en casos reales, lo que fortalece la capacidad para aplicar estas tecnologías en proyectos futuros y contribuir significativamente al avance científico. El modelo clasificador implementado, haciendo uso de modelos de transferencia de aprendizaje, demostró ser un sistema que, bajo las consideraciones explicadas en la metodología, funciona de manera correcta. Sin embargo, al ser un modelo que requiere de múltiples consideraciones para clasificar adecuadamente, tiene una alta susceptibilidad a caer en sobreajuste (overfitting) o a obtener datos erróneos. Esto resalta la importancia de seguir refinando los métodos de validación y de continuar ajustando los parámetros para mejorar la robustez y precisión del modelo en aplicaciones futuras.
Vera Guerrero Elihu Josué, Instituto Tecnológico de Tepic
Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla

EFECTO DE LOS INCENDIOS SOBRE LA CALIDAD DEL AIRE DE LA ZONA METROPOLITANA DE TEPIC EN EL PERIODO 2021-2024.


EFECTO DE LOS INCENDIOS SOBRE LA CALIDAD DEL AIRE DE LA ZONA METROPOLITANA DE TEPIC EN EL PERIODO 2021-2024.

Vera Guerrero Elihu Josué, Instituto Tecnológico de Tepic. Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los incendios forestales son una fuente significativa de material particulado (PM) que contribuye a agravar las enfermedades respiratorias y cardiovasculares. En los últimos cuatro años los incendios forestales y del relleno sanitario "El Iztete" han deteriorado la calidad del aire y la visibilidad de la zona metropolitana de Tepic Nayarit. Sin embargo, hasta donde sabemos no existen estudios para evaluar el alcance de las emisiones de PM de estos incendios.



METODOLOGÍA

En este estudio se utilizó una combinación de datos satelitales, mediciones in situ y modelos de trayectoria para determinar el impacto de los incendios de la zona metropolitana de Tepic en los últimos 4 años (2021-2024) sobre la calidad del aire donde habitan alrededor de 425 mil habitantes. Se emplearon datos satelitales de incendios (FIRMS) para identificar la localización e intensidad de incendios. Se realizaron simulaciones numéricas con el modelo de trayectoria (HYSPLIT) para determinar el destino de las emisiones de los incendios más intensos de la región. Las concentraciones de material particulado se obtienen de los datos de la estación de monitoreo de Instituto tecnológico de Tepic del gobierno estatal y se empleó información satelital del espesor óptico (AOD) para tener un aproximado de la cantidad de PM en la zona de estudio


CONCLUSIONES

Se observo que en el año 2024 la intensidad de los incendios fue mayor, la dirección que tomaban las emisiones tenía una tendencia con dirección este-sureste y 2021 presento las mayores concentraciones de PM en base al AOD.
Vera Jao Ariadna Jocelin, Universidad Politécnica de Guanajuato
Asesor: Dr. Luis Armando Diaz Torres, Centro de Investigaciones en Óptica (CONACYT)

EXFOLIACIóN DE MOS2 + WS2 PARA GENERACIóN FOTOCATALíTICA DE HIDROGENO


EXFOLIACIóN DE MOS2 + WS2 PARA GENERACIóN FOTOCATALíTICA DE HIDROGENO

Vera Jao Ariadna Jocelin, Universidad Politécnica de Guanajuato. Asesor: Dr. Luis Armando Diaz Torres, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La contaminación por CO₂ (dióxido de carbono) debido a la quema de combustibles fósiles es uno de los problemas ambientales más graves que enfrenta el mundo hoy en día. Los combustibles fósiles, como el carbón, el petróleo y el gas natural, son las principales fuentes de energía global, pero su uso intensivo está asociado con emisiones significativas de CO₂ y otros gases de efecto invernadero (GEI), que contribuyen al cambio climático. La exfoliación de compuestos de molibdeno y tungsteno, especialmente los disulfuros de molibdeno (MoS₂) y tungsteno (WS₂), ha sido un área de investigación intensiva debido a sus propiedades electrónicas, ópticas y catalíticas únicas. Estos materiales son parte de una clase más amplia de materiales bidimensionales (2D), similares al grafeno, que han capturado la atención de la comunidad científica. La exfoliación de MoS₂ y WS₂ es un campo de investigación dinámico con antecedentes en la lubricación sólida y un futuro prometedor en la electrónica, la optoelectrónica y la catálisis. Los avances en técnicas de exfoliación y la comprensión de sus propiedades continúan impulsando el desarrollo de aplicaciones innovadoras.



METODOLOGÍA

Se realizó el proceso de exfoliación por el proceso hidrotermal, se preparó la muestra hasta provocar una heterounion, ambos bultos se pusieron en agitación por 15 minutos y después se puso en el autoclave, se metió en un horno al vacío por 24 horas a 180°C, al pasar ese lapso de tiempo se puso a enfriar en una cubeta con hielo, cuando alcanzo la temperatura ambiente, se centrifugo y se lavó en ultrasonido. Una vez que se recuperó la mayor cantidad de material, se puso a secar en una hot play a 80°C y el material fue recolectado en viales. El proceso de exfoliación fue repetido dos veces a diferencia de la cantidad de surfactante, se decidió intentar con el 50% menos para saber si de esa manera se perdía menos material o en la manera de lavar y secar, base a eso encontré un método mas eficiente para perder menos material, se obtuvieron 6 síntesis diferentes a 3 velocidades  diferentes en el método de lavado,5000 RPM, 7000 RPM y 10,000 RPM   Se obtuvieron 6 muestras de exfoliación a diferentes cantidades a diferentes revoluciones. Con cada una de ellas se generó hidrogeno a partir de la fotocatálisis para la producción de la misma con cada uno de los materiales, el componente clave del proceso es el fotocatalizador, un material que puede absorber luz y utilizar esa energía para llevar a cabo reacciones químicas, la solución se preparó con 50 mg del material sintetizado y 200 ml de agua desionizada. La taza de producción menor del hidrogeno fue con la muestra de 1000 RPM  generando 15.3 µmol/g.h y la mayor taza de producción  fue con la muestra de 5000 RPM generando casi 90 µmol/g.h, esto debido a que las partículas son más pequeñas y la posibilidad de ser excitadas es mayor, las partículas de la muestra de 5000 RPM son de hasta 6.1 nm,mientras que las de 10000 RPM son de hasta 25 nm. Cada una de las muestras fueron caracterizadas  por DRX, FTIR,SEM Y UV-VIS.


CONCLUSIONES

Se obtuvieron los resultados esperados ya que se hizo una segunda síntesis y se logró perder menos material a comparación de la primera síntesis, además de que las partículas fueron más pequeñas y estuvieron mejor ubicadas en el material. Agradezco el apoyo de la Dra. Sandra Castañeda y la Dra. Patricia García fueron un apoyo fundamental para la generación de hidrogeno de cada una de mis muestras y el aprendizaje de cada una de ellas. Finalmente y no menos importante a la M.C Cristian Albor por el apoyo en cada una de las caracterizaciones de mis materiales  
Vera Pinares Danna Paola, Universidad de Guadalajara
Asesor: Dr. Luis Armando Diaz Torres, Centro de Investigaciones en Óptica (CONACYT)

SÍNTESIS VERDE DE NANOPARTÍCULAS DE BISMUTO POR MÉTODO DE PRECIPITADO PARA LA FOTOCATÁLISIS DE DICLOFENACO EN AGUAS CONTAMINADAS


SÍNTESIS VERDE DE NANOPARTÍCULAS DE BISMUTO POR MÉTODO DE PRECIPITADO PARA LA FOTOCATÁLISIS DE DICLOFENACO EN AGUAS CONTAMINADAS

Vera Pinares Danna Paola, Universidad de Guadalajara. Asesor: Dr. Luis Armando Diaz Torres, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La contaminación de aguas por productos farmacéuticos, como el diclofenaco, representa un problema ambiental creciente debido a la persistencia de estos compuestos en el medio ambiente y sus posibles efectos tóxicos en organismos acuáticos y humanos. La eliminación eficiente de estos contaminantes de las aguas residuales es, por tanto, una prioridad ambiental. En respuesta a este desafío, se ha investigado y desarrollado la síntesis de materiales con capacidad fotocatalítica. La fotocatálisis es una técnica prometedora para la degradación de contaminantes en agua, ya que permite la generación de especies reactivas de oxígeno (ROS) bajo irradiación lumínica. Estas especies reactivas facilitan la descomposición de moléculas complejas en compuestos menos nocivos, ofreciendo una solución efectiva y sostenible para el tratamiento de aguas contaminadas.



METODOLOGÍA

El proceso experimental se desarrolló en varias fases. Inicialmente, se produjo un extracto que actuó como agente reductor en la síntesis de las nanopartículas. Este extracto se preparó ajustando el pH y la concentración hasta obtener las condiciones ideales. Posteriormente, se disolvió nitrato de bismuto en hidróxido de amonio, y la solución resultante se añadió al extracto reductor. Esta mezcla se dejó reposar durante 16 horas, permitiendo la formación del producto deseado. Una vez concluida la síntesis, el producto fue cuidadosamente lavado para eliminar cualquier residuo orgánico, lo cual es crucial para evitar interferencias en la siguiente fase del estudio. A continuación, se procedió a la caracterización del material obtenido utilizando varias técnicas analíticas: Difracción de Rayos X (DRX) para determinar la estructura cristalina, Microscopía Electrónica de Barrido (SEM) para observar la morfología, Espectroscopía de Energía Dispersiva de Rayos X (EDS) para analizar la composición elemental, y Espectroscopía Infrarroja por Transformada de Fourier (FTIR) para identificar grupos funcionales presentes. Finalmente, se llevaron a cabo pruebas de fotocatálisis utilizando diclofenaco como contaminante modelo. Para iniciar el proceso, las muestras fueron irradiadas con luz UV. Durante periodos de tiempo determinados, se extrajeron alícuotas para realizar mediciones de absorbancia UV-Vis, con el fin de monitorear el decaimiento de la concentración de diclofenaco, evaluando así la eficiencia del material fotocatalítico sintetizado.


CONCLUSIONES

Se logró un alto rendimiento en la degradación del diclofenaco utilizando nanopartículas de bismuto. Este resultado sugiere una oportunidad significativa para el estudio más profundo de este material en aplicaciones fotocatalíticas, dado que actualmente hay una escasez de investigaciones específicas sobre su uso en la degradación de contaminantes. Este enfoque no solo permite un mejor entendimiento de las propiedades fotocatalíticas del bismuto, sino que también ofrece una estrategia potencialmente más sostenible para el tratamiento de aguas contaminadas con productos farmacéuticos.
Verdín Gutiérrez Lisandro Leonardo, Instituto Politécnico Nacional
Asesor: Dra. Mayra Mabel Valerdi Negreros, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

CLASIFICACIóN AUTOMáTICA DE CURVAS DE LUZ CON ALGORITMOS DE APRENDIZAJE AUTOMáTICO


CLASIFICACIóN AUTOMáTICA DE CURVAS DE LUZ CON ALGORITMOS DE APRENDIZAJE AUTOMáTICO

Verdín Gutiérrez Lisandro Leonardo, Instituto Politécnico Nacional. Asesor: Dra. Mayra Mabel Valerdi Negreros, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El instituto en el que participe en esta edición del verano de investigación fue en el instituto nacional de astrofísica, óptica y electrónica, y a mi llegada teníamos ya unas tareas relacionadas a los artículos científicos que se escribirán al parecer para publicar los avances de los estudiantes y también de las cosas que se han hecho o se van haciendo. para detener los rodeos, de las primeras cosas que fuimos aprendiendo fueron la manipulación del sistema operativo linux, esto con la razón de usar varios programas, un eje principal fue el programa de funciones: Galfit, este es un programa que se utiliza para seleccionar y ajustar según la fotometría, y con integrales imágenes obtenidas de observaciones en el espacio, en específico con galaxias, a mi se me asignaron limpiar un total de 15 imagenes que se dividían en 5 galaxias que se multiplicaban por tres espectros diferentes en los que se escanearon, los tres filtros h,,j y k, únicamente significa que son diferentes valores de luz de diferentes colores según qué luz proyectan estas galaxias. la instalación de galfit fue un gran reto debido a las trabas que tiene para funcionar en óptimas condiciones, tarde una semana y media en que funcionara al 100% pero a la par fui viendo mi proyecto principal que en mi caso era el de la clasificación automáticas de curvas de luz con algoritmos de aprendizaje automático, aqui se me planteo el, con una base de datos que contiene fechas y magnitudes sobre alguna estrella, conseguir graficar curvas de luz, la parte del machine learning es básicamente una rama extra del conocimiento en programacion que si dedica mucho mas tiempo y equipos más preparados para los algoritmos de aprendizaje automático



METODOLOGÍA

  para lo primero la limpieza de las galaxias se necesita experimentar mucho con la herramienta de galfit viendo el resultado de las funciones aplicadas a las imágenes, los resultados se van manipulando dependiendo del residuo, de la imagen que incertamos se debe de separar la galaxia en un espacio negro y el fondo con estrellas y ruido para ser considerado limpio, las funciones varian entre sersic, gaussian, expdisk y mas dependiendo del tipo de galaxia, las galaxias de mi repertorio fueron tres dos elipticas y tres en espiral, el programa necesita de nuestra imagen original una limpieza de una estrella cercana, se le asigna el nombre de psf, una mascara que admitira a una funcion que es el cielo que no incluye a la galaxia y  los datos de la fotometria de la imagen sacado de la pagina del 2mass  y para lo que es el proyecto de las curvas de luz, el primer paso fue instalar spyder para editar el python y luego de los datos que se me dieron de tiempo y magnitud conseguir la gráfica de solo la diferencia entre el tiempo y la magnitud de luz de las estrellas, para lo siguiente se necesita conseguir el valor del periodo ideal, esto se logra con valores propuestos, en mi caso fue de 0.2 a 0.8 e ir variando, con la librería de python matplotlib y pandas variar en centésimas o milésimas, entre más resolución la fase obtenida será más exacta, la fase se describe en la ecuación de la variación de luz de una señal periódica: fase(Φ) = dia juliano con mayor magnitud(t)    -    dia juliano con menor magnitud  (To)                                                              periodo(P) el mejor periodo se consigue con una métrica menor, de python de las librerías con módulos se consigue el ajustar la métrica pero si es una operación compleja de la que tuve que consultar el como realizar esta operación, pero una vez obtenido este valor se reemplaza el valor del periodo para obtener la fase, la fase ermite por último graficar las curvas de luz respecto al tiempo y conseguir algo más parecido a señales más ordenadas que nos dicen qué tipo de estrella es con la que estamos lidiando. como agregado fuimos a visitar el antena del Gran Telescopio Milimétrico en Puebla, México, el que es parte de un radiotelescopio que se dedica a la observación en longitudes de onda milimétricas como parte de un evento del fin de la estancia y se nos explico todas sus funciones e importancia asi como su ultimo descubrimiento que fue el descubrimiento del potencial agujero negro supermasivo mas masivo detectado hasta la fecha, en tono de tentativa.


CONCLUSIONES

como conclusión de los resultados es que galfit definitivamente es una herramienta eficiente pero con una curva de aprendizaje bastante aguda que sí necesita de entendimiento del programa y de astrofísica en general. para la parte de las curvas de luz fui progresando paso por paso, concluyó que python es un lenguaje que me fue muy eficiente para lo que fue clasificacion y ciencias de datos, sin embargo aunque sí se puede implementar lo de algoritmos de aprendizaje automático todavía se ve distante, al menos si se necesitan varios meses más para un estudio amplio de los algoritmos, para implementarlo y para que el algoritmo tenga tiempo de estudiar y conseguir un resultado presentable, y como estudiante explorar en varias posibilidades como una librería que me permitía ocupar interfaces para elegir archivos ejecutando el programa externamente, son tentadoras, por lo que el propósito es que haya seguimiento  
Vergara Eslava Oswaldo Alan, Benemérita Universidad Autónoma de Puebla
Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE MODELOS PREDICTIVOS PARA EL MERCADO DE DIVISAS.


DESARROLLO DE MODELOS PREDICTIVOS PARA EL MERCADO DE DIVISAS.

Vergara Eslava Oswaldo Alan, Benemérita Universidad Autónoma de Puebla. Watko Zerecero Diego Alexander, Benemérita Universidad Autónoma de Puebla. Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En este estudio, investigamos la aplicación de redes neuronales para la predicción de datos en el mercado de divisas. Este mercado, caracterizado por su naturaleza caótica y datos altamente interrelacionados, proporciona una abundancia de información accesible, lo cual facilita el entrenamiento de arquitecturas de deep learning. El objetivo es mejorar la precisión de las predicciones, lo que podría tener aplicaciones significativas en otros campos como la agricultura y la gestión de recursos.



METODOLOGÍA

Primero, se extraen los datos de la aplicación MetaTrader, la cual proporciona información sobre operaciones de entrada y salida, así como los máximos y mínimos alcanzados en intervalos de tiempo específicos. Luego, se realiza una limpieza y optimización de estos datos para su procesamiento en Python, utilizando la biblioteca Pandas. Posteriormente, se desarrolla un código en Python que, con base en la biblioteca Technical Analysis (especializada en el análisis técnico de datos representados mediante velas japonesas), procesa los datos para obtener información adicional sobre su comportamiento antes de ingresarlos al modelo de entrenamiento. Para entrenar el modelo, se lleva a cabo un preprocesamiento de los datos con las bibliotecas de scikit-learn. A continuación, se utilizan las bibliotecas de TensorFlow para construir y entrenar el modelo, empleando el 80% de los datos para el entrenamiento y el 20% restante para la evaluación.


CONCLUSIONES

Se considera necesario seguir mejorando en el desarrollo de estas arquitecturas con datos acoplados, ya que la naturaleza caótica del sistema estudiado exige una mejora continua de su estructura, utilizando características y patrones más específicos de dicho sistema. Sin embargo, se logró corregir situaciones que no se presentarían en los gráficos del mercado de divisas, permitiendo que el modelo genere datos plausibles en este mercado, aunque con una precisión temporal limitada.
Vidales Ayala Gabriela Yasmin, Universidad Autónoma de Yucatán
Asesor: Dr. Osvaldo Carvente Muñoz, Universidad Autónoma de Yucatán

ANáLISIS COMPUTACIONAL DEL MECANISMO DE AUTOENSAMBLAJE EN MATERIALES GRANULARES INTELIGENTES


ANáLISIS COMPUTACIONAL DEL MECANISMO DE AUTOENSAMBLAJE EN MATERIALES GRANULARES INTELIGENTES

Vidales Ayala Gabriela Yasmin, Universidad Autónoma de Yucatán. Asesor: Dr. Osvaldo Carvente Muñoz, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Se conoce como materiales inteligentes a aquellos capaces de autoensamblarse y adaptar sus propiedades físicas en respuesta a estímulos externos. Dichos materiales son fundamentales para el avance de la tecnología y la ciencia, debido a la escasez de materiales tradicionales y la creciente demanda en diversos sectores industriales. Por tales motivos, el presente estudio está enfocado en comprender el mecanismo de autoensamblaje de materiales granulares inteligentes mediante simulaciones de dinámica molecular (DM), analizando por medio de Python y Mathematica cómo las propiedades estructurales, el número de coordinación y el dimensionamiento determinan la formación de estructuras cristalinas cúbicas centradas en las caras (FCC) y tetragonales centradas en el cuerpo (BCT). Todo ello con el objetivo de proporcionar una comprensión profunda de estos mecanismos y de este modo, facilitar el desarrollo de nuevos materiales energéticamente eficientes y funcionales. 



METODOLOGÍA

Se caracterizaron las condiciones iniciales usando esferas con un radio de 1.19 mm y una masa de 5.54 × 10^(-5) kg, las cuales fueron colocadas en un contenedor sometido a una vibración vertical variable. Seguidamente, se utilizaron programas en Mathematica para determinar el número óptimo de esferas y visualizar la formación de estructuras cúbicas centradas en las caras (FCC) y tetragonales centradas en el cuerpo (BCT). Cabe señalar que las dimensiones del contenedor se ajustaron para ser compatibles con estas estructuras, variando el número de celdas unitarias. Después, se realizaron simulaciones avanzadas de dinámica molecular (DM) usando un programa en Fortran desarrollado por el Dr. O. Carvente Muñoz, el Dr. M. Salazar Cruz, F. Peñuñuri y J. C. Ruiz-Suárez en el año 2016. Dichas simulaciones generaron cristales FCC y BCT a partir de las condiciones iniciales, ejecutando 30 simulaciones para cada estructura y registrando posiciones, velocidades lineales y angulares de las partículas. Estos resultados permitieron evaluar la estabilidad y los patrones de comportamiento de las partículas durante el autoensamblaje. Los datos obtenidos se analizaron mediante un programa en Python que los convirtió en archivos .csv, facilitando su evaluación y visualización. Se generaron gráficos bidimensionales y tridimensionales para mostrar la disposición de las partículas, y se calculó el factor de empaquetamiento, parámetro de red, número de coordinación, entre otros valores, los cuales proporcionaron información relevante sobre la densidad de las estructuras cristalinas. Cabe destacar que este cálculo se basó en las dimensiones de la celda unitaria y el volumen atómico de las partículas. Por su parte, el código Python permitió generar coordenadas de estructuras BCC y visualizarlas en 2D y 3D, mejorando la comprensión de la distribución de las partículas. Finalmente, los resultados se documentaron en archivos CSV e imágenes, permitiendo la replicación del estudio y proporcionando una base sólida para futuras investigaciones en materiales granulares inteligentes. 


CONCLUSIONES

Se concluyó que las estructuras cristalinas FCC presentan una mayor densidad y estabilidad en comparación con las BCT, corroborando resultados experimentales con los cálculos realizados en el programa. De igual forma, las simulaciones mostraron que el autoensamblaje granular está altamente influenciado por la interacción entre partículas y las condiciones iniciales de vibración, los cuales se fueron modificando constantemente durante la ejecución de las mismas. El algoritmo computacional desarrollado en Python ofreció una herramienta efectiva para analizar y visualizar las estructuras cristalinas, mejorando la comprensión del proceso de nucleación. Estos resultados tienen implicaciones significativas para el diseño y fabricación de nuevos materiales granulares inteligentes, contribuyendo a los Objetivos de Desarrollo Sostenible (ODS) de la ONU, especialmente al ODS 9 (Industria, Innovación e Infraestructura) y el ODS 12 (Producción y Consumo Responsables), al promover el uso eficiente y sostenible de los recursos materiales y energéticos. 
Vilchis Dávila Luis Ángel, Universidad Autónoma del Estado de México
Asesor: Dr. Oscar Gilberto Cárdenas Hernández, Universidad de Guadalajara

MAPA DE RIESGOS PARA EL MUNICIPIO DE AUTLÁN DE NAVARRO, JALISCO. METODOLOGÍAS Y APLICACIONES PARA LA GESTIÓN DEL TERRITORIO


MAPA DE RIESGOS PARA EL MUNICIPIO DE AUTLÁN DE NAVARRO, JALISCO. METODOLOGÍAS Y APLICACIONES PARA LA GESTIÓN DEL TERRITORIO

Ibarra Moroyoqui Jiovanny Manuel, Universidad Autónoma de Sinaloa. Martinez Parra José Alejandro, Universidad Autónoma de Sinaloa. Vilchis Dávila Luis Ángel, Universidad Autónoma del Estado de México. Asesor: Dr. Oscar Gilberto Cárdenas Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La gestión de riesgos es esencial para el desarrollo sostenible de los municipios. En el municipio de Autlán de Navarro, Jalisco, existen diversos riesgos naturales y antrópicos que requieren una evaluación y manejo adecuados para salvaguardar tanto a la población como al medio ambiente. Un mapa de riesgos es una herramienta esencial para identificar, evaluar y reducir los riesgos potenciales, lo que facilita la toma de decisiones y la implementación de estrategias de prevención y respuesta. El estudio busca desarrollar un mapa de riesgos detallado para el municipio de Autlán de Navarro, Jalisco. Este mapa servirá como una herramienta fundamental para identificar las zonas más propensas a sufrir desastres naturales y antrópicos, como deslizamientos de tierra. A través de la recopilación y análisis de datos geográficos, se pretende evaluar la susceptibilidad y vulnerabilidad de cada localidad. El objetivo final es contribuir a una mejor gestión de riesgos y a la planificación territorial del municipio, promoviendo así un desarrollo más seguro y sostenible. La metodología empleada incluye el uso de sistemas de información geográfica (SIG) y otras técnicas de análisis espacial. Este tipo de estudios son cruciales para fortalecer la resiliencia de las comunidades ante eventos adversos y pueden servir como modelo para otros municipios con características similares. El proyecto sigue en vigencia, analizando la vulnerabilidad de cada localidad para presentar un mapa que represente el riesgo a deslizamientos.



METODOLOGÍA

Cuando mencionamos deslizamientos, hacemos referencia a los desplazamientos de rocas, suelos, materiales artificiales o una mezcla de estos, que ocurren a lo largo de una superficie inclinada (Hernández Sánchez et al. 1998). La aparición de deslizamientos temporales está vinculada a momentos de intensa acumulación de agua, que se producen debido a lluvias prolongadas o aguaceros torrenciales (Reisenbach et al., 2018). Los deslizamientos son provocados por varios factores, incluyendo las características del material y del terreno, la resistencia al movimiento, la gravedad, la presión hidrostática, sismos y la actividad humana (Cordero, 2000). Estos eventos están estrechamente relacionados con lluvias intensas, la cobertura del suelo, la geología y la inclinación del terreno. Los terrenos deforestados y con pendientes pronunciadas son especialmente propensos a sufrir deslizamientos o erosión (Cordero, 2000). La magnitud del peligro de un evento específico en una zona está determinada por la combinación de estos factores, los cuales pueden ser analizados por separado para entender mejor las características que influyen en la inestabilidad de los taludes. Para este análisis, se utilizaron como datos base los siguientes mapas temáticos: Geología Tipos de suelo Pendientes del terreno Uso de suelo y vegetación. Las capas de información utilizadas como base para el análisis fueron editadas en el software QGIS, utilizando datos proporcionados por fuentes como el Instituto de Información Estadística y Geográfica de Jalisco, GeoInfoMex, el Banco de Datos del Servicio Geológico Mexicano y el INEGI. Cada una de las unidades presentes en los mapas fue analizada de forma individual, considerando su influencia en la generación o desencadenamiento de deslizamientos. De esta manera, se estudió la relación entre las características y condiciones del terreno, y el potencial de ocurrencia de derrumbes. Para ello, se asignaron valores de peso (del 1 al 5) a cada una de las unidades contenidas en los diferentes mapas temáticos utilizados, transformando los mapas de clases en mapas de valores mediante un proceso de reclasificación. Posteriormente, estos mapas fueron integrados a través de un proceso de adición, dando como resultado final el mapa de amenazas por deslizamientos, clasificado en 5 categorías: Muy baja, Baja, Moderada, Alta y Muy alta. En cuanto a los valores de peso asignados a los mapas, los valores más altos corresponden a la mayor influencia que puedan ejercer en la aceleración del mecanismo de disparo del deslizamiento.


CONCLUSIONES

Durante la estancia de verano pudimos generar un mapa con una representación aproximada de la susceptibilidad a deslizamientos en el municipio de Autlán de Navarro. Esta información resulta crucial para la gestión del riesgo geológico, la planificación territorial y la toma de decisiones en materia de protección civil. La susceptibilidad a deslizamientos no se distribuye de manera homogénea en el territorio municipal. Se observan concentraciones de zonas de alta y muy alta susceptibilidad en las áreas montañosas y con pendientes pronunciadas, lo cual es coherente con los factores geomorfológicos que condicionan este tipo de procesos. Las localidades de Autlán de Navarro y Mezquitan se encuentran asentadas en zonas con niveles variables de susceptibilidad, lo que implica un riesgo diferencial para estas comunidades. Es necesario considerar la susceptibilidad a deslizamientos en la planificación de nuevos desarrollos urbanos, evitando la ocupación de zonas de alto riesgo y promoviendo prácticas de construcción seguras. La población debe ser informada sobre los riesgos asociados a los deslizamientos y capacitada para actuar de manera adecuada ante eventos de este tipo. El mapa de susceptibilidad a deslizamientos constituye una herramienta valiosa para la gestión del riesgo geológico en esta región. Sin embargo, es importante complementar esta información con otros estudios y análisis para tomar decisiones informadas y efectivas. La identificación de las zonas de mayor peligro permite priorizar las acciones de prevención y mitigación, contribuyendo a reducir la vulnerabilidad de la población y los bienes ante este tipo de eventos naturales. Se requieren investigaciones adicionales para profundizar en el conocimiento de los factores que controlan la susceptibilidad a deslizamientos en la región y evaluar la eficacia de las medidas de mitigación implementadas.
Villa Alatorre Johan Manuel, Universidad de Guadalajara
Asesor: Dr. Abraham Espinoza García, Instituto Politécnico Nacional

MODELO COSMOLóGICO DE CAMPOS ESCALARES NO CONMUTATIVOS


MODELO COSMOLóGICO DE CAMPOS ESCALARES NO CONMUTATIVOS

Villa Alatorre Johan Manuel, Universidad de Guadalajara. Asesor: Dr. Abraham Espinoza García, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Desde que fueron introducidas por Einstein las algunas vez demasiado abstractas para tener relación con el mundo, las geometrías no euclideanas, son una parte esencial de la física como la conocemos hoy en día. Conceptualmente estas ideas generalizan el cálculo diferencial, que es esencial para realizar física, a espacios que tienen una curvatura, entre otras cosas son espacios donde la distancia más corta ya no es la recta que conecta dos puntos sino una curva llamada geodésica. Siglos antes de que Einstein introdujera para siempre estos conceptos abstractos de la geometría en una teoría física, de manera aparentemente sin conexión con ello Lagrange y Hamilton desarrollaron sus formulaciones de la mecánica clásica las cuales contienen los mismos fenómenos que las teorías de Newton pero son mucho más profundas matemáticamente. En estas "versiones" de las leyes de Newton las simetrías de un problema y las cantidades que se conservan, como la energía, se ven y se relacionan manifiestamente. Sorprendentemente la formulación matemática de Hamilton forma quizá sin quererlo una estructura geométrica, un espacio llamado espacio de fases donde la geometría es no euclidea. Entre muchas aplicaciones en este proyecto se elige esta geometría de forma que represente una especie de asimetría entre las coordenadas, una no conmutatividad a partir de la cual se puedan explicar fenómenos físicos que normalmente se atribuyen a otras cosas, como los relacionados con la expansión del universo.



METODOLOGÍA

Se propone un modelo donde en el fondo se tiene la métrica  FLRW que describe el universo en expansión además de un lagrangiano que está formado por el escalar de curvatura y otros términos relacionados a dos campos escalares; las coordenadas generalizadas son el factor de escala y los mismos campos. Esta elección describe la dinámica de un universo en expansión que depende de la curvatura del espacio-tiempo, como es usual, y de dos funciones escalares adicionales. En el espacio de fases se propone una métrica, también llamada estructura simpléctica, que es la que daría las ecuaciones canónicas de Hamilton pero adicionada con términos que describen no conmutatividad entre los campos escalares (que son coordenadas de este problema). Posteriormente se calculan las ecuaciones de movimiento correspondientes. Se resuelven las 6 ecuaciones de movimiento acopladas y se comparan con las que obtendríamos si los campos conmutaran para deducir este efecto en nuestro modelo del universo en expansión. Para esto se consideran diversos valores del parametro k de la métrica, que determina la forma del universo.


CONCLUSIONES

Con k = 0, el universo plano, el resultado es el mismo que sin no conmutatividad: el valor de los campos crece linealmente con el tiempo. Para un universo con k = 1 (esfera) la no conmutatividad cambia la solución de una oscilación simple de coseno a una función más complicada, también añade la posibilidad de encontrar soluciones no periodicas. Con k = -1 (silla de montar), las soluciones son oscilaciones amortiguadas siendo la amortiguación una consecuencia de la no conmutatividad de los campos. Los campos escalares juegan roles fundamentales en la física teórica, siendo una herramienta para obtener un universo en expansión acelerada o en teorías del nacimiento del universo, estas teorías necesitan ajustes experimentales . Por lo tanto concluimos que la no conmutatividad estudiada añade generalidad al comportamiento de los campos cosa que añade libertad para ajustar mejor las soluciones de las ecuaciones a los datos observacionales.
Villa Gonzalez Gabriel Martin, Universidad de Guadalajara
Asesor: Dr. Manuel David Morales Altamirano, Universidad de Guadalajara

GENERACIóN DE DATASETS PARA ALGORITMOS DE DETECCIóN DE ONDAS GRAVITACIONALES DE SUPERNOVAS CON DIFERENTES ORIENTACIONES


GENERACIóN DE DATASETS PARA ALGORITMOS DE DETECCIóN DE ONDAS GRAVITACIONALES DE SUPERNOVAS CON DIFERENTES ORIENTACIONES

Villa Gonzalez Gabriel Martin, Universidad de Guadalajara. Asesor: Dr. Manuel David Morales Altamirano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La detección de ondas gravitacionales emitidas por supernovas de colapso de núcleo (CCSNe) es desafiante debido al ruido y la naturaleza estocástica de las señales. A pesar de los avances de LIGO/Virgo, la detección precisa sigue siendo un área de investigación activa, con algoritmos de machine learning como una herramienta prometedora. Este proyecto examina cómo la orientación y la distancia de las fuentes afectan la detección de ondas gravitacionales (GW). El objetivo fue generar datasets que incluyan señales de GW con variabilidad en orientación y distancia. Mediante un código que inyecta señales en ruido real de LIGO-Virgo, se procesaron ventanas de tiempo convertidas en espectrogramas. El proyecto también se enfoca en las polarizaciones h+​ y h×​ derivadas de las Ec. de Einstein linealizadas, esenciales para la interacción de las GW con los detectores. Se utilizaron ecuaciones de patrones de antena para diseñar estrategias de detección.



METODOLOGÍA

1ra Parte: Teoría En la parte teórica, se dedujeron las polarizaciones h+ y hx a partir de las Ec. de campo de Einstein linealizadas en un espacio-tiempo plano. Se expandieron estas ecuaciones alrededor de la métrica plana, considerando perturbaciones pequeñas representadas por el tensor hµν, y se analizaron las transformaciones de coordenadas que preservan las propiedades del tensor, como las transformaciones de Lorentz y cambios infinitesimales de coordenadas. Se procedió a la linealización de las Ec. de campo, expandiendo los tensores de Riemann, Ricci y el escalar de Ricci en términos lineales de hµν. Esto resultó en la versión linealizada de las Ec. de campo de Einstein. Para simplificar la derivación, se utilizó la gauge de Lorenz, lo que redujo las Ec. a una forma más simple. El estudio continúo analizando cómo las GW afectan la separación entre partículas de prueba usando la ecuación de desviación geodésica. Además, se exploró la propagación y detección de estas ondas en el gauge Transverse-Traceless (TT) mediante la transformada de Fourier. Finalmente, se derivan las funciones de patrón de antena, que describen la respuesta de un detector de ondas gravitacionales, como un interferómetro de Michelson-Morley, a diferentes orientaciones de la onda. Estas funciones se obtienen proyectando las componentes del tensor de perturbación en el sistema de coordenadas del detector y se expresan en términos de los ángulos de Euler.  La deducción matemática y graficas se encuentran en el siguiente enlace https://drive.google.com/drive/folders/1i5dZ9EoMj2UDRvxAJFbTnl1wy3sUQmnd?usp=sharing 2da Parte: Práctica El proceso comenzó con la carga y remuestreo  de una forma de onda generada por simulaciones numéricas basadas en el modelo de Radice et al. (2018). Estas formas de onda, fueron remuestreadas a una frecuencia de 4096 Hz para su análisis posterior.  Se ajustaron estas señales para considerar distintas distancias (10, 5 y 1 Kpc) y orientaciones las cuales  se distribuyeron en los cuadrantes norte y sur, utilizando ángulos de ascensión recta y declinación. Esto se logró mediante el uso de las funciones de patrones de antena. Estas señales fueron visualizadas mediante espectrogramas y escalogramas generados con transformadas de Fourier de tiempo corto (STFT) y transformadas Wavelet (Morlet), las cuales permitieron una visualización clara y detallada de las características de las GW dentro del ruido de fondo. Posteriormente, se seleccionaron datos de ruido real obtenidos de interferómetros gravitacionales como LIGO y Virgo, sobre los cuales se inyectaron las señales de GW. Las inyecciones se realizaron a intervalos de tiempo de 8 segundos, con tiempo GPS inicial de 1264332800, y la duración de las inyecciones estuvo controlada por la duración de las formas de onda y los segmentos de ruido. El desplazamiento aleatorio (jitter) fue configurado a cero, asegurando así que las inyecciones se realizaran en tiempos precisos y sin variaciones aleatorias. Tras la inyección de las señales, estas fueron sometidas a un proceso de blanqueamiento y filtrado de pasa banda. Finalmente, los resultados fueron visualizados y almacenados para su posterior análisis. Las inyecciones se aplicaron a la mitad de los segmentos de ruido de 4096 segundos. Además, se extrajeron ventanas de tiempo para analizar tanto las señales inyectadas como los segmentos de ruido puro. Los espectrogramas y escalogramas generados proporcionaron una representación precisa de cómo las GW se presentan en los datos de ruido. Estos datos fueron organizados y guardados de manera sistemática para ser utilizados en futuras investigaciones de machine learning.


CONCLUSIONES

Las funciones de patrón de antena F+ y Fx​, se derivaron expresiones que describen la respuesta de un detector de GW a diferentes orientaciones y polarizaciones. Las gráficas revelan que F+ tiene una estructura simétrica dependiente del ángulo de polarización ψ, mientras que F× presenta una distribución más compleja y variable según la orientación, confirmando que la respuesta del detector no es uniforme en todas las direcciones. En la parte computacional, se generó un dataset robusto que simula señales de ondas gravitacionales (GW) inyectadas en ruido realista. Se realizaron 255 inyecciones distribuidas en la primera mitad de un segmento de ruido de 4096 segundos, dejando la otra mitad sin inyecciones para clasificación binaria. Estas inyecciones incluyeron tanto señales simuladas como ruido puro, extrayéndose ventanas de 0.82001 segundos. Los espectrogramas obtenidos muestran cómo las señales de GW se manifiestan en diferentes condiciones de ruido, destacando la influencia crítica de la distancia y la orientación de las fuentes en la variabilidad en frecuencia y tiempo. Este nivel de detalle es esencial para entrenar y evaluar algoritmos de machine learning, ya que permite que los modelos aprendan a identificar señales en un entorno de ruido estocástico y variable. El éxito en la creación de este dataset proporciona una base sólida para futuras investigaciones en la detección de ondas gravitacionales.
Villalobos Hernandez Diana Sofía, Universidad de Guadalajara
Asesor: Dr. Ruben Ramos Garcia, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

PINZAS ÓPTICAS


PINZAS ÓPTICAS

Arellano Valdenebro Janeth, Universidad de Guadalajara. Rosas Benavides Natalia Jackeline, Universidad de Guadalajara. Villalobos Hernandez Diana Sofía, Universidad de Guadalajara. Asesor: Dr. Ruben Ramos Garcia, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las pinzas ópticas, son una herramienta poderosa en la manipulación y estudio de pequeñas partículas, como células, bacterias y moléculas. Lo cual usamos en este caso para suspender particulas de silicio de 1 micra



METODOLOGÍA

Se utilizó un láser de 509 nm que pasó por un filtrado espacial, compuesto por un objetivo de 20x y un pinhole de 15 micrómetros. Después del filtro, se usó una lente colimadora de 2.5 cm, que dirigía el haz hacia un espejo posicionado a 45 grados. Este espejo redirigía el haz hacia arriba en un ángulo de 90 grados. Al ser dirigido hacia arriba, el haz pasaba por un objetivo de 100x, enfocándose en la celda que contenía la solución con micropartículas de 1 micrómetro, suspendiendo así una de ellas con un láser fuertemente enfocado.


CONCLUSIONES

Las pinzas ópticas han transformado la manera en que los científicos manipulan y estudian las partículas a nivel microscópico. Es por eso que nuestro proyecto enfocado a las pinzas opticas se espera tener resultados basicos como, suspension de particulas de 1 micra y el monitoreo de la misma conun fotodetector de cuadrante.
Villalobos Vazquez Consuelo, Universidad Autónoma de Baja California
Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla

DESARROLLO METODOLóGICO DE UN ANáLISIS FíSICO-SOCIAL Y CLIMáTICO DE MUNICIPIOS VULNERABLES ANTE ALGúN RIESGO EN EL ESTADO DE PUEBLA (CASO DE ESTUDIO SIERRA NORTE Y VOLCáN POPOCATéPETL)


DESARROLLO METODOLóGICO DE UN ANáLISIS FíSICO-SOCIAL Y CLIMáTICO DE MUNICIPIOS VULNERABLES ANTE ALGúN RIESGO EN EL ESTADO DE PUEBLA (CASO DE ESTUDIO SIERRA NORTE Y VOLCáN POPOCATéPETL)

Loera Lafont Serrano Ana Lucía, Universidad Autónoma de Baja California. Mazorra Renza Mariana, Universidad de Caldas. Millan Salgado Ariadna Carmin, Universidad Autónoma de Guerrero. Villalobos Vazquez Consuelo, Universidad Autónoma de Baja California. Zarza Vilchis Miriam Paola, Universidad Autónoma del Estado de México. Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El riesgo, mide que tan probable es que se presente un suceso o evento en un lugar específico. Este suele poner en peligro la condición de los habitantes, lo que los convierte en una población vulnerable. El Estado de Puebla, según la Secretaría de Medio Ambiente, Desarrollo Sustentable y Ordenamiento Territorial (2019-2024), nos dice que el Estado de Puebla se ha visto muy afectado por la actividad sísmica y volcánica, en donde la actividad sísmica se vuelve constante y que cada 3 o 5 años genera daños catastróficos. De igual forma se presentan deslizamientos de laderas, incendios e inundaciones provocando así pérdidas tanto económicas como humanas. Esta problemática se presenta en la Sierra Norte y en el Volcán Popocatépetl, en donde en este verano de investigación se obtienen y procesan datos que nos permitan entender el comportamiento del medio con la sociedad, y con ello poder determinar posibles riesgos para que las autoridades correspondientes puedan tomar decisiones a futuro.



METODOLOGÍA

Se llevó a cabo la delimitación del volcán Popocatépetl, para eso se hizo uso del software libre Google Earth Pro, en el cual se delimitaron 40 km de radio a partir del cráter y se guardó como archivo kml, mismo que nos permite visualizar información en un contexto geográfico, ya que puede contener datos de entidades de diferentes tipos de geometría y puede ser en formato vectorial y ráster. En el software libre QGIS, se obtuvo el polígono del cráter del volcán a partir del archivo kml, el cual se reproyecto considerando el correspondiente al Estado de Puebla (EPSG: 32614-WGS 84 / UTM zona 14N). A través del Continuo de Elevaciones Mexicano (INEGI), se obtuvieron los DEM de los cinco Estados (Estado de México, Ciudad de México, Puebla, Tlaxcala y Morelos) que conforman el radio de interés. En el software de QGIS se reproyectaron y se agregaron al software de ArcMap, en el cual se realizó la unión de estos a un archivo ráster y con la capa del polígono se hizo un corte para obtener solo el radio de interés. Derivado de lo anterior se obtuvieron las curvas de nivel, las cuales nos permiten visualizar como se encuentra la superficie, es decir si es una zona plana o inclinada, al igual que las diferentes alturas y geoformas como valles, entre otros, para así poder entender el comportamiento de cierto espacio. También se calculó el área y perímetro, con la finalidad de saber que tanto espacio abarca la zona de estudio. Por medio del uso de un TIN (Triangular Irregular Network), el cual es un medio digital usado para poder representar la morfología de la superficie, se obtuvo el volumen a partir de un punto de referencia, que en este caso fue la cota de los 2000 msnm. Se llevó a cabo la obtención de pendientes, tanto en grados como en porcentaje por medio del DEM del área de estudio, esto para saber la inclinación que tiene la superficie. Se obtuvieron datos de la página del Censo de Población y Vivienda, 2020 del Instituto Nacional de Estadística y Geografía (INEGI), esto para saber que tanta población podrían encontrarse en una condición vulnerable ante algún riesgo, ya sea natural o antrópico en el Estado de Puebla. Los datos que se utilizaron son: Total de población. Total de población femenina y masculina. Total de población con discapacidades. Total de población que cuentan y no con servicios de salud Total de viviendas. Total de viviendas particulares habitadas con o sin modos de transporte. Total de viviendas particulares habitadas que disponen y no de energía eléctrica. Total de viviendas particulares habitadas que disponen de algún bien. En el software de QGIS se realizó la unión de la base de datos con el shape de los municipios del Estado, el cual se obtuvo del Marco Geoestadístico de INEGI. Dentro del radio de los 40 km, se seleccionaron los municipios de interés y se exportó esa información como capa shape y se reproyecto. Por medio de la Red Nacional de Caminos del Instituto Mexicano del Transporte, el cual se procesó en QGIS, se obtuvieron las vías de comunicación del Estado y de los municipios de interés, con la finalidad de conocer la superficie de rodamiento, es decir, si estas se encuentran pavimentadas, sin pavimento o si es diferente a una carretera o camino. Derivado de lo anterior, se procedió a realizar la cartografía correspondiente para un análisis de contexto social de los municipios de interés, esto para poder entender por medio de mapas el comportamiento de la población ante diferente variable.


CONCLUSIONES

Por medio de este estudio, se espera poder comprender y realizar un análisis de la condición física, social y climática en la que se encuentran ciertos municipios, considerando las diferentes zonas de estudio y junto con ello poder brindar la información necesaria ante posibles riesgos que presenta el medio y la sociedad a las autoridades correspondientes y a la misma población, para que en futuras tomas de decisiones el bien de la población sea lo primordial en el Estado.
Villaverde Morales Sofia Alejandra, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. David Antonio Pérez Carlos, Universidad Autónoma de Zacatecas

FORMULACIóN MAXWELLIANA DE LAS ECUACIONES DE LA TEORíA DE RASTALL HASTA EL SEGUNDO ORDEN DE APROXIMACIóN.


FORMULACIóN MAXWELLIANA DE LAS ECUACIONES DE LA TEORíA DE RASTALL HASTA EL SEGUNDO ORDEN DE APROXIMACIóN.

González Franco Leonardo Missael, Universidad Autónoma de Baja California. Gutierrez de Jesus Carlos Eduardo, Universidad Michoacana de San Nicolás de Hidalgo. Villaverde Morales Sofia Alejandra, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. David Antonio Pérez Carlos, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

La teoría de Rastall propone una generalización de la teoría de la relatividad general al permitir que la divergencia del tensor energía momento de la materia no sea necesariamente nula, esto implica una modificación significativa respecto a la teoría de la relatividad general de Einstein. Lo que significa que la variación del tensor energía momento de la materia está relacionada con la variación del escalar de curvatura, sugiriendo una dependencia de la energía y el momento con la curvatura del espacio-tiempo. La implicación principal de esta modificación es que, en presencia de materia, el campo gravitacional puede comportarse de manera diferente comparado con las predicciones de la relatividad general. Esta variación permite explorar nuevas posibilidades en la cosmología y la física de altas energías, donde las condiciones de curvatura extrema podrían hacer visibles los efectos de esta teoría modificada. El presente trabajo tiene como propósito utilizar los métodos de expansión Post-newtoniana a las ecuaciones de campo de la teoría de Rastall hasta un segundo orden, y escribirlas en el lenguaje del cálculo vectorial. Una vez obtenidas, exploraremos sus implicaciones en la física.



METODOLOGÍA

Formulación de la Justificación del Proyecto: Este trabajo se justifica en el hecho de que, dentro de esta línea de investigación, no se ha realizado un trabajo similar anteriormente, lo que puede resultar en una contribución importante a la literatura científica. Consideramos que los resultados serán novedosos e interesantes. Diseño Metodológico: Nuestra metodología a seguir es la siguiente: Estudiar los enfoques de la linealización y de las expansiones Post-Newtonianas de las ecuaciones de campo de Einstein, aplicar estos métodos a las ecuaciones de campo de la teoría de Rastall, pasar las ecuaciones de su forma tensorial a forma vectorial y realizar un análisis de las ecuaciones obtenidas. Redacción del Marco Teórico: La teoría de Rastall constituye una generalización de la teoría de la relatividad general. Se utilizan las ecuaciones de Rastall y se aplican métodos perturbativos por medio de expansiones para obtener una aproximación a segundo orden de dichas ecuaciones, esto es, ecuaciones de campo no lineales utilizando la aproximación Post-newtoniana. Interpretación Física: Se buscará una interpretación física de las ecuaciones obtenidas junto con la ecuación de onda de Rastall inhomogénea y se analizarán sus implicaciones en fenómenos gravitacionales y astrofísicos. Redacción de la Discusión y Conclusiones: Se comienza con la redacción de la discusión y las conclusiones del proyecto, interpretando los resultados obtenidos y su relevancia en el campo de la gravitación, la cosmología y la astrofísica.


CONCLUSIONES

Con este proyecto de investigación queremos analizar las implicaciones físicas de que las ecuaciones de Rastall en la formulación maxwelliana a segundo orden. Se realizará un análisis exhaustivo de las ecuaciones encontradas para así dar su interpretación física, tanto de las ecuaciones que describen los campos gravitacionales, como la ecuación de onda inhomogénea. Estos resultados pueden tener implicaciones significativas en la comprensión de la interacción gravitacional. Los resultados obtenidos hasta ahora sugieren que estas modificaciones pueden ofrecer nuevas perspectivas en el estudio de sistemas gravitacionales. Futuras investigaciones se centrarán en buscar otros métodos que nos permitan analizar sistemas gravitacionales muy masivos como agujeros negros o el universo primitivo.
Villegas Miramontes Brenda Noemi, Universidad de Guadalajara
Asesor: Dra. Araceli Sánchez Martínez, Universidad de Guadalajara

DEPóSITO DE PELíCULAS DE ZNO DOPADAS CON LA (3%, 5% Y 10%)


DEPóSITO DE PELíCULAS DE ZNO DOPADAS CON LA (3%, 5% Y 10%)

Chacon Cardenas Carlos Omar, Universidad de Guadalajara. Villegas Miramontes Brenda Noemi, Universidad de Guadalajara. Asesor: Dra. Araceli Sánchez Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El aprovechamiento y mejoramiento de las energías renovables es uno de los retos actuales más importantes en cuestión de energía. Una de las tecnologías de energías renovables más conocidas son las celdas solares, las cuales permiten la obtención de energía mediante la absorción de la luz solar, y constantemente se busca la optimización de las celdas solares mediante diferentes métodos, siendo uno de ellos, la mejora de los materiales utilizados en ellos. La implementación del óxido de zinc (ZnO) en celdas solares puede traer grandes ventajas, como son la capacidad de absorción de la radiación uv-vis y la conductividad eléctrica. Además, métodos como el dopaje del material permiten que estas propiedades tengan una mejora en el material. Es por ello que durante el verano de investigación se estudian las propiedades de películas de ZnO dopadas con La mediante distintos métodos de caracterización.



METODOLOGÍA

Se llevó a cabo el depósito de películas de ZnO dopadas con La a 3%, 5% y 10%. Se realizaron los cálculos para la obtención de 0.5 g de producto en cada uno de los dopajes, teniendo como reactivos principales el acetato de zinc (ZnAc) y el nitrato de lantano (LaN3O9). Los resultados de los cálculos obtenidos fueron:  Para ZnO puro: 1.3663 g de ZnO. Para el dopaje a 3%: 1.2818 g de ZnO y 0.0575 g de LaN3O9. Para el dopaje a 5%: 1.2341 g de ZnO y 0.0943 g de LaN3O9.  Para el dopaje a 10%: 1.1289 g de ZnO y 0.1821 g de LaN3O9. Para la síntesis por método sol-gel se dispersó el ZnAc (y el LaN3O9 si es dopaje) en 2 ml de etilenglicol manteniendo una agitación constante por 5 minutos a 35° C. Después se añadió 1 ml de HNO3 gota a gota hasta disolver el ZnAc para posteriormente mantener en agitación por 15 minutos. Una vez disuelto el ZnAc se añadieron 0.2 ml de glicerol manteniendo una agitación constante por 15 minutos. Finalmente se dejó reposar la solución durante 1 hora antes de su depósito por spin coating. Y se realizaron películas de 1 hasta 4 capas de cada uno de los dopajes, incluyendo una de 4 capas con FTO para cada dopaje. Para el depósito de películas, se programaron 2 ciclos en el spin coating para cada una de las capas. Para la primera capa, el primer ciclo se programó a 2000 rpm durante 30 segundos, tras esto, se depositó una capa fina de la solución y se dejó en reposo durante 1 minuto antes de pasar al segundo ciclo. El segundo ciclo se programó a 3000 rpm durante 1 minuto. Mientras que para la segunda capa en adelante se depositó la solución primero y se programó el primer ciclo a 1000 rpm durante 30 segundos y el segundo ciclo a 2000 rpm durante 30 segundos. Tras cada una de las capas se llevaron las películas a secado, pasando por una primera plancha a 150° C durante 3 minutos a una segunda plancha a 300° C por 6 min. Una vez realizado el depósito de las películas, se llevó a cabo su caracterización por difracción de rayos X (XRD) y espectroscopia ultravioleta-visible (UV-Vis).


CONCLUSIONES

El objetivo de estos depósitos es conseguir un dopaje de lantano en el ZnO. Al revisar los resultados de la caracterización por el método UV-VIS pudimos comparar cómo se vería nuestros depósitos si solo contienen ZnO contra los que están dopados, a revisar teníamos que asegurarnos de conseguir un dopaje en la red cristalina de ZnO y no otro compuesto que interfiera con los resultados. Al analizar las gráficas de transmitancia y absorbancia pudimos deducir que efectivamente teníamos ZnO y al comparar los dopajes vimos que su transmisión y absorción es muy similar per la pendiente de la curva de absorción cambió a diferente dopaje, al ajustar una recta que empata con la mayor cantidad de puntos en la región pudimos llegar al valor del band gap que para cada dopaje fue diferente; observamos una disminución en el band gap según él el dopaje iba incrementando con excepción del dopaje de ZnO-La(10%).
Watko Zerecero Diego Alexander, Benemérita Universidad Autónoma de Puebla
Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE MODELOS PREDICTIVOS PARA EL MERCADO DE DIVISAS.


DESARROLLO DE MODELOS PREDICTIVOS PARA EL MERCADO DE DIVISAS.

Vergara Eslava Oswaldo Alan, Benemérita Universidad Autónoma de Puebla. Watko Zerecero Diego Alexander, Benemérita Universidad Autónoma de Puebla. Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En este estudio, investigamos la aplicación de redes neuronales para la predicción de datos en el mercado de divisas. Este mercado, caracterizado por su naturaleza caótica y datos altamente interrelacionados, proporciona una abundancia de información accesible, lo cual facilita el entrenamiento de arquitecturas de deep learning. El objetivo es mejorar la precisión de las predicciones, lo que podría tener aplicaciones significativas en otros campos como la agricultura y la gestión de recursos.



METODOLOGÍA

Primero, se extraen los datos de la aplicación MetaTrader, la cual proporciona información sobre operaciones de entrada y salida, así como los máximos y mínimos alcanzados en intervalos de tiempo específicos. Luego, se realiza una limpieza y optimización de estos datos para su procesamiento en Python, utilizando la biblioteca Pandas. Posteriormente, se desarrolla un código en Python que, con base en la biblioteca Technical Analysis (especializada en el análisis técnico de datos representados mediante velas japonesas), procesa los datos para obtener información adicional sobre su comportamiento antes de ingresarlos al modelo de entrenamiento. Para entrenar el modelo, se lleva a cabo un preprocesamiento de los datos con las bibliotecas de scikit-learn. A continuación, se utilizan las bibliotecas de TensorFlow para construir y entrenar el modelo, empleando el 80% de los datos para el entrenamiento y el 20% restante para la evaluación.


CONCLUSIONES

Se considera necesario seguir mejorando en el desarrollo de estas arquitecturas con datos acoplados, ya que la naturaleza caótica del sistema estudiado exige una mejora continua de su estructura, utilizando características y patrones más específicos de dicho sistema. Sin embargo, se logró corregir situaciones que no se presentarían en los gráficos del mercado de divisas, permitiendo que el modelo genere datos plausibles en este mercado, aunque con una precisión temporal limitada.
Wong Ovando Georgina, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE EVENTOS DIMUóNICOS Y RECONSTRUCCIóN DE J/PSI, Z Y UPSILON (1S) EN COLISIONES PROTóN-PROTóN CON DATOS DEL DETECTOR CMS


ANáLISIS DE EVENTOS DIMUóNICOS Y RECONSTRUCCIóN DE J/PSI, Z Y UPSILON (1S) EN COLISIONES PROTóN-PROTóN CON DATOS DEL DETECTOR CMS

Wong Ovando Georgina, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Se realizó una reconstrucción e identificación de eventos dimuonicos utilizando un subconjunto de datos filtrados recopilados en colisiones pp en el LHC en 2011. Los datos tomados fueron previamente seleccionados para fines educativos y divulgativos, de los cuales se usaron criterios de selección en base al momento transverso, el tipo de muon, la pseudorapidez, la masa invariante y la carga de los muones. Las distribuciones observadas de todas las cantidades se reproducen mediante Python, en donde se realizaron cortes más específicos para determinar la desintegración de J/psi, Z y Upsilon(1S).



METODOLOGÍA

-Cargar y preprocesar los datos: Los datos se cargaron en un DataFrame de Pandas y se realizaron filtrados iniciales para seleccionar los eventos dimuónicos. -Aplicar cortes de selección: Se aplicaron cortes en el momento transverso (p_T), pseudorapidez, y masa invariante de los pares de muones para seleccionar los candidatos a J/psi, Z y Upsilon(1S). -Reconstrucción de masas invariantes: Se calculó la masa invariante de los pares de muones seleccionados y se generaron histogramas para visualizar los picos correspondientes a las desintegraciones de J/psi, Z y Upsilon(1S). 


CONCLUSIONES

El análisis realizado permitió la identificación y reconstrucción de los picos de desintegración de J/psi, Z y Upsilon(1S) en colisiones protón-protón,  utilizando datos del detector CMS del LHC. La aplicación de cortes de selección en el momento transverso y pseudorapidez de los muones permitió mejorar la señal y reducir el fondo, obteniendo una alta eficiencia de selección. Estos resultados demuestran la capacidad del detector CMS y de las técnicas de análisis utilizadas para estudiar las propiedades de las partículas elementales y sus interacciones. 
Zamarripa Hernández Héctor Alejandro, Instituto Tecnológico de Pachuca
Asesor: Mg. Hernán Darío Castaño Castrillón, Institución Universitaria Pascual Bravo

HACIA UNA ECONOMíA CIRCULAR EN LA CONSTRUCCIóN: HORMIGONES GEOPOLIMéRICOS Y AGREGADOS RECICLADOS PROMOVIENDO CIUDADES SOSTENIBLES Y PRODUCCIóN RESPONSABLE (ODS 11 Y 12)


HACIA UNA ECONOMíA CIRCULAR EN LA CONSTRUCCIóN: HORMIGONES GEOPOLIMéRICOS Y AGREGADOS RECICLADOS PROMOVIENDO CIUDADES SOSTENIBLES Y PRODUCCIóN RESPONSABLE (ODS 11 Y 12)

Zamarripa Hernández Héctor Alejandro, Instituto Tecnológico de Pachuca. Asesor: Mg. Hernán Darío Castaño Castrillón, Institución Universitaria Pascual Bravo



PLANTEAMIENTO DEL PROBLEMA

A nivel global, la industria de la construcción es una de las principales responsables del consumo de recursos naturales y de la generación de residuos. La producción tradicional de hormigón, basada en el cemento Portland, conlleva un alto consumo de energía y la emisión de una cantidad significativa de gases de efecto invernadero, contribuyendo al cambio climático y al deterioro ambiental. Paralelamente, el crecimiento urbano descontrolado y la generación masiva de residuos de construcción y demolición representan un desafío para la sostenibilidad de las ciudades. En este contexto, surge la necesidad de desarrollar materiales de construcción alternativos que reduzcan el impacto ambiental de la industria y promuevan una economía circular. Los hormigones geopoliméricos, obtenidos a partir de la reacción alcalina de aluminosilicatos, se presentan como una alternativa prometedora al hormigón tradicional, ya que requieren menor energía para su producción y generan menores emisiones de CO2. Además, la incorporación de agregados reciclados en las mezclas de hormigón geopolimérico permite reducir la demanda de recursos naturales y disminuir la cantidad de residuos enviados a vertederos. Sin embargo, a pesar de su potencial, la aplicación a gran escala de los hormigones geopoliméricos con agregados reciclados en la construcción aún enfrenta diversos desafíos, como la falta de normativas y estándares específicos, la necesidad de optimizar las mezclas para obtener propiedades mecánicas adecuadas y la escasa información sobre su comportamiento a largo plazo. Es por ello que la relevancia de esta investigación radica en su contribución a la búsqueda de soluciones sostenibles para los desafíos ambientales y sociales planteados por la industria de la construcción, teniendo como principal enfoque de estudio a la ciudad de Pachuca; Hgo, México y buscando su propagación educativa y aplicativa en el país.  



METODOLOGÍA

Se propone una metodología teórico - práctica que incluirá los siguientes aspectos: Revisión bibliográfica: Revisión exhaustiva de la literatura científica sobre hormigones geopoliméricos, agregados reciclados y sostenibilidad en la construcción. Diseño de mezclas: Diseño y elaboración de diferentes mezclas de hormigón geopolimérico con distintos tipos de agregados reciclados. Ensayos experimentales: Evaluación de las propiedades mecánicas, durabilidad y comportamiento a largo plazo de los hormigones desarrollados. Análisis del ciclo de vida: Evaluación del impacto ambiental de los hormigones geopoliméricos a lo largo de su ciclo de vida. Análisis económico: Evaluación de la viabilidad económica de la producción y utilización de estos materiales. Pese a que la determinación de resultados de esta investigación requiere de un tiempo considerable en los ensayos, se ha propuesto comenzar con la creación de materiales próximos que puedan ser empleados en viviendas tales como muebles o utensilios que puedan permitir un uso eficiente en el día a día de las personas, así como un medio inicial para la disminución de materiales de desperdicio, buscando también que, mediante la práctica, se pueda incluir en el sistema de educación básica, media superior y superior de algunos centros educativos en México.  


CONCLUSIONES

Resultados obtenidos: Diseño de muebles: Desarrollo de prototipos de muebles a partir de residuos de la construcción, como fragmentos de hormigón y acero, combinados con materiales sostenibles como la madera y el vidrio reciclado, los cuales garantizan el cumplimiento de las normativas de uso. Conservación de recursos naturales: Demostración de cómo el uso de estos materiales contribuye a la conservación de recursos naturales no renovables, como arena y grava. Reducción de costos: Evaluación del potencial de reducción de costos en la construcción, gracias a la utilización de materiales reciclados y a la optimización de los procesos productivos. Resultados esperados a largo plazo: El uso de hormigones geopoliméricos en la rehabilitación de edificios existentes ante desastres naturales y desgastamiento. La aplicación de técnicas de impresión 3D para la fabricación de elementos arquitectónicos con hormigones geopoliméricos. La creación de una plataforma digital para facilitar el intercambio de información y buenas prácticas en el sector. Estos resultados podrían tener un impacto significativo en la industria de la construcción, al promover el desarrollo de materiales más sostenibles y eficientes, y contribuir a la construcción de ciudades más resilientes y sostenibles.  
Zamora Espinoza Karolina, Universidad Politécnica de Sinaloa
Asesor: Dra. Magdalena Elizabeth Bergés Tiznado, Universidad Politécnica de Sinaloa

PREPARACIóN DE MUESTRAS DE SUELO Y PLANTAS PARA DETERMINAR PARáMETROS FíSICOS Y ELEMENTOS POTENCIALMENTE TóXICOS EN SITIOS IMPACTADOS POR ZONAS MINERAS DEL SUR DE SINALOA


PREPARACIóN DE MUESTRAS DE SUELO Y PLANTAS PARA DETERMINAR PARáMETROS FíSICOS Y ELEMENTOS POTENCIALMENTE TóXICOS EN SITIOS IMPACTADOS POR ZONAS MINERAS DEL SUR DE SINALOA

Aramburo Rodriguez Paloma Aracely, Universidad Politécnica de Sinaloa. Lopez Jimenez Marla Sofia, Universidad Politécnica de Sinaloa. Zamora Espinoza Karolina, Universidad Politécnica de Sinaloa. Asesor: Dra. Magdalena Elizabeth Bergés Tiznado, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En México, el sector minero constituye uno de los pilares fundamentales de la economía, ofreciendo beneficios significativos a las comunidades, tales como la generación de empleo, la obtención de ingresos y el desarrollo de infraestructura. En el estado de Sinaloa, la minería está experimentando un crecimiento económico notable, con indicios de mineralización en prácticamente todo su territorio. Según datos de 2021, Sinaloa se situó en el doceavo lugar a nivel nacional en producción de oro, el onceavo en plata y el décimo en cobre. Por lo tanto, en zonas afectadas por actividades industriales y mineras, es crucial realizar estudios preliminares sobre las propiedades fisicoquímicas de los residuos, en particular su concentración de Elementos Potencialmente Tóxicos (EPTs) y su impacto ambiental. La presencia de EPTs en el ambiente es una preocupación crítica debido a la toxicidad, persistencia, abundancia y biomagnificación de estos en el medio ambiente y su posterior acumulación en el hábitat acuático, sedimentos, suelo y biota (plantas y animales). Estos estudios son fundamentales para evaluar y diseñar procedimientos de remediación o prevención destinados a mitigar los daños ecológicos asociados.



METODOLOGÍA

Para el análisis de la calidad de suelos y la evaluación de metales y metaloides en laboratorio comienza con la preparación del material de laboratorio. Inicialmente, los recipientes de polipropileno y los materiales de vidrio se lavan con agua corriente y jabón para eliminar cualquier residuo visible. Posteriormente, estos recipientes se enjuagan con agua destilada para asegurar que no queden restos de jabón. A continuación, se sumergen en una solución de ácido nítrico 2 M durante tres días para eliminar posibles contaminantes metálicos. Tras este tratamiento, se realiza un nuevo enjuague con agua destilada y agua milli-Q para asegurar la completa eliminación del ácido. Finalmente, los recipientes se secan a temperatura ambiente en un entorno limpio y libre de polvo. En cuanto a la preparación de las muestras de suelo y plantas, el proceso para las muestras de suelo comienza con el secado a temperatura ambiente en una superficie para eliminar la humedad. Una vez secas, las muestras se homogenizan y se tamizan a través de una malla de 2 mm para obtener una muestra uniforme. Para las muestras de plantas, se lleva a cabo una maceración que asegura una consistencia homogénea, seguido de una homogenización adicional para garantizar que el material esté bien distribuido. Tanto las muestras de suelo como las de plantas se pesan con precisión para su posterior tratamiento en las digestiones ácidas. Para determinar las propiedades del suelo, como el pH, la textura y el contenido de materia orgánica o carbono orgánico (NOM-121-RECNAT-2000), se inicia con el tamizado de las muestras a través de una malla de 2 mm. Este tamizado inicial facilita la evaluación del pH y la textura del suelo. Para la determinación de la textura, se elimina la materia orgánica del suelo mediante un tratamiento con peróxido de hidrógeno. Luego, se realiza un tamizado adicional con una malla de 0.5 mm para preparar la muestra para la medición del carbono orgánico. El pH del suelo se determina utilizando el método AS-02, mientras que el contenido de materia orgánica se mide empleando el método AS-07 de Walkley y Black. Finalmente, la textura del suelo se determina mediante el procedimiento de la pipeta (AS-28). En el proceso de digestión ácida de las muestras de plantas y suelos, se añade una mezcla de ácidos fuertes a las muestras para disolver los metales y metaloides presentes. La digestión se realiza bajo condiciones controladas de temperatura y presión para asegurar una disolución completa. Tras la digestión, las muestras se ajustan a un volumen final con agua destilada o milli-Q, lo que permite una concentración adecuada para el análisis posterior.


CONCLUSIONES

El sector minero en Sinaloa, con su creciente actividad y significativa producción de metales preciosos y base, juega un papel esencial en la economía regional. Sin embargo, la expansión de estas actividades presenta riesgos ambientales considerables, especialmente en términos de la posible liberación de elementos potencialmente tóxicos en el suelo y en la vegetación circundante. La metodología propuesta para la preparación y análisis de muestras de suelo y plantas tiene como fin evaluar el impacto ambiental de la minería en el sur de Sinaloa. Al determinar los parámetros físicos del suelo y la concentración de metales y metaloides, se podrá obtener una visión clara del grado de contaminación y de los riesgos asociados. Estos datos son cruciales para diseñar e implementar estrategias eficaces de remediación y prevención, que minimizarán los efectos negativos sobre el medio ambiente y la salud de las comunidades locales. En este estudio, se abordó la evaluación de las propiedades fisicoquímicas de los residuos en zonas afectadas por actividades industriales y mineras en el estado de Sinaloa, México. Se implementó una metodología detallada para el análisis de la calidad de suelos y la evaluación de metales y metaloides en laboratorio. Sin embargo, las investigaciones aún no han concluido y, por lo tanto, no se han obtenido resultados finales. Se continuará trabajando en este proyecto para obtener conclusiones precisas y contribuir al conocimiento sobre el impacto ambiental de la minería en la región.
Zamora Flores Guillermo Armando, Benemérita Universidad Autónoma de Puebla
Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla

PREDICCIóN DE SERIES TEMPORALES DE MANCHAS SOLARES UTILIZANDO REDES NEURONALES.


PREDICCIóN DE SERIES TEMPORALES DE MANCHAS SOLARES UTILIZANDO REDES NEURONALES.

Moran Alvarado Luis Andrés, Benemérita Universidad Autónoma de Puebla. Moreno Santiago Jose Miguel, Benemérita Universidad Autónoma de Puebla. Zamora Flores Guillermo Armando, Benemérita Universidad Autónoma de Puebla. Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El estudio de la actividad solar ha sido crucial para la humanidad desde las primeras civilizaciones, que observaban al astro rey para medir el tiempo y predecir eventos astronómicos. En la actualidad, enfrentamos desafíos que afectan nuestra tecnología y sociedad, ya que la actividad solar juega un papel significativo en la variación del clima espacial. Comprender y predecir estas variaciones nos ayudará a prevenir daños en nuestros satélites y en la infraestructura de comunicación global. A lo largo de los años, se ha trabajado arduamente para entender mejor al Sol. La física solar nos ha proporcionado un punto de partida importante: la relación entre la aparición de manchas solares y la actividad solar. Estas manchas son regiones del Sol con una temperatura más baja que sus alrededores y una intensa actividad magnética. Afectan la cantidad de radiación solar que llega a la Tierra y están vinculadas a fenómenos como las tormentas solares.  Por ello, se han desarrollado diversos métodos matemáticos para contar las manchas solares, basándose en observaciones registradas desde 1610. Estas observaciones describen un patrón regular de fluctuaciones en la actividad solar que se repite aproximadamente cada 11 años, conocido como el ciclo solar. Proponemos: Encontrar un modelo de red neuronal y entrenar con los datos historicos para predecir el número de manchas solares de los proximos 12000 días.



METODOLOGÍA

Recopilación de Datos Comenzamos buscando el conjunto de datos que registra el número de manchas solares a lo largo del tiempo. Estos recuentos existen desde 1610, aunque la numeración no está bien definida durante el mínimo de Maunder (un periodo de 1645 a 1715, cuando las manchas solares prácticamente desaparecieron de la superficie del Sol, tal como lo observaron los astrónomos de la época). Maunder estudió los archivos de esos años, por ello recibe su nombre, y se dice que no es bien definida ya que durante este tiempo se observaron cerca de 50 manchas solares, en contraste con las 40,000 a 50,000 manchas típicas. Hemos encontrado el ISN v2 (International Sunspot Number versión 2), una serie de datos que reemplazó los datos originales del número de manchas solares desde el 1 de julio de 2015. Esta nueva serie de datos ha sido completamente revisada y presenta valores adicionales que no estaban presentes en la serie original. Descargamos la base de datos en formato .csv desde la página https://www.sidc.be/SILSO/datafiles. Es importante mencionar que la base de datos fue proporcionada por "WDC-SILSO, Real Observatorio de Bélgica, Bruselas", y sin su colaboración, esta investigación no habría sido posible. Preprocesamiento de Datos Con nuestra base de datos, fue necesario hacer un preprocesamiento de los datos. Como primer objetivo, escogimos las fechas en que se realizaron las observaciones y el conteo de manchas solares a lo largo de esos días. La base de datos proporciona información adicional como el número de observaciones realizadas para calcular el valor diario, entre otras cosas. Considerando el mínimo de Maunder y que los datos fueron bien revisados hasta cierto año, optamos por recortar los datos inicialmente. Escogimos el periodo de tiempo desde el 1 de enero de 1823 hasta el 31 de mayo de 2024, dando un total de 73,566 datos. Al analizar la base de datos, encontramos que existen 3247 días dispersos en los que no hubo registro alguno de las manchas solares en este periodo de tiempo. Ante este problema, optamos por modificar el conteo de esos días tomando el registro del día anterior o el más cercano del pasado. Elegimos esta estrategia debido a que los días sin registro estaban dispersos y los datos más cercanos seguían la tendencia general de los registros, por lo que no se perdió información al hacer esto, considerando que teníamos 70,319 días con registro de manchas solares. Entrenamiento de Modelos Una vez hecha la limpieza de los datos, optamos por usar una plataforma como servicio (PaaS), específicamente Google Colab, para el entrenamiento de las Redes Neuronales que creamos. Utilizamos diferentes librerías de Python como Numpy, TensorFlow y Optuna, entre otras. Con ayuda de Optuna, un marco de optimización de hiperparámetros de código abierto que automatiza la búsqueda de hiperparámetros utilizando sintaxis, bucles y condicionales en Python, verificamos 30 arquitecturas diferentes de Redes Neuronales. Estos modelos variaban los siguientes hiperparámetros: número de capas, número de neuronas, dropout, optimizador, tasa de aprendizaje, batch size y seq_length. Los tipos de capas que utilizamos fueron LSTM, Dense, Batch Normalization y Flatten. De estos 30 modelos, se escogieron los 15 mejores según su comportamiento en la predicción de casi 3 ciclos (12000 datos) en comparación con los ciclos históricos y aquellos que lograron reducir la función de costo del set de datos para test. Teniendo las 15 arquitecturas diferentes, se entrenaron y posteriormente se escogieron las 4 que tenían mejor comportamiento. Estas 4 arquitecturas se entrenaron haciendo la variación de épocas de entrenamiento con ayuda de más poder computacional, incluyendo tarjetas gráficas T4, L4 y A100. Utilizamos las predicciones del mes de junio de 2024 de todas estas Redes Neuronales y las comparamos con las observaciones del mes de junio publicadas por el Real Observatorio de Bélgica el día 1 de julio de 2024, con la intención de buscar la Red Neuronal que predice mejor.


CONCLUSIONES

Analizando las predicciones del mes de junio del año correspondiente, observamos que las 4 arquitecturas logran predecir de forma cercana las observaciones del Real Observatorio de Bélgica. El porcentaje de precisión de las 4 fue el siguiente: Modelo 4: Precisión = 85.34% Modelo 15: Precisión = 84.76% Modelo 20: Precisión = 81.71% Modelo 30: Precisión = 83.72% Con estos 4 candidatos, pretendemos seguir mejorando la arquitectura para aumentar la precisión de las predicciones.  Debido a la limitación del poder computacional, no pudimos continuar optimizando estos modelos. Sin embargo, tenemos la intención de seguir modificando estas arquitecturas y alcanzar al menos una precisión del 90%. Además, continuaremos verificando su precisión con los datos que publica mensualmente el Real Observatorio de Bélgica.
Zarza Vilchis Miriam Paola, Universidad Autónoma del Estado de México
Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla

DESARROLLO METODOLóGICO DE UN ANáLISIS FíSICO-SOCIAL Y CLIMáTICO DE MUNICIPIOS VULNERABLES ANTE ALGúN RIESGO EN EL ESTADO DE PUEBLA (CASO DE ESTUDIO SIERRA NORTE Y VOLCáN POPOCATéPETL)


DESARROLLO METODOLóGICO DE UN ANáLISIS FíSICO-SOCIAL Y CLIMáTICO DE MUNICIPIOS VULNERABLES ANTE ALGúN RIESGO EN EL ESTADO DE PUEBLA (CASO DE ESTUDIO SIERRA NORTE Y VOLCáN POPOCATéPETL)

Loera Lafont Serrano Ana Lucía, Universidad Autónoma de Baja California. Mazorra Renza Mariana, Universidad de Caldas. Millan Salgado Ariadna Carmin, Universidad Autónoma de Guerrero. Villalobos Vazquez Consuelo, Universidad Autónoma de Baja California. Zarza Vilchis Miriam Paola, Universidad Autónoma del Estado de México. Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El riesgo, mide que tan probable es que se presente un suceso o evento en un lugar específico. Este suele poner en peligro la condición de los habitantes, lo que los convierte en una población vulnerable. El Estado de Puebla, según la Secretaría de Medio Ambiente, Desarrollo Sustentable y Ordenamiento Territorial (2019-2024), nos dice que el Estado de Puebla se ha visto muy afectado por la actividad sísmica y volcánica, en donde la actividad sísmica se vuelve constante y que cada 3 o 5 años genera daños catastróficos. De igual forma se presentan deslizamientos de laderas, incendios e inundaciones provocando así pérdidas tanto económicas como humanas. Esta problemática se presenta en la Sierra Norte y en el Volcán Popocatépetl, en donde en este verano de investigación se obtienen y procesan datos que nos permitan entender el comportamiento del medio con la sociedad, y con ello poder determinar posibles riesgos para que las autoridades correspondientes puedan tomar decisiones a futuro.



METODOLOGÍA

Se llevó a cabo la delimitación del volcán Popocatépetl, para eso se hizo uso del software libre Google Earth Pro, en el cual se delimitaron 40 km de radio a partir del cráter y se guardó como archivo kml, mismo que nos permite visualizar información en un contexto geográfico, ya que puede contener datos de entidades de diferentes tipos de geometría y puede ser en formato vectorial y ráster. En el software libre QGIS, se obtuvo el polígono del cráter del volcán a partir del archivo kml, el cual se reproyecto considerando el correspondiente al Estado de Puebla (EPSG: 32614-WGS 84 / UTM zona 14N). A través del Continuo de Elevaciones Mexicano (INEGI), se obtuvieron los DEM de los cinco Estados (Estado de México, Ciudad de México, Puebla, Tlaxcala y Morelos) que conforman el radio de interés. En el software de QGIS se reproyectaron y se agregaron al software de ArcMap, en el cual se realizó la unión de estos a un archivo ráster y con la capa del polígono se hizo un corte para obtener solo el radio de interés. Derivado de lo anterior se obtuvieron las curvas de nivel, las cuales nos permiten visualizar como se encuentra la superficie, es decir si es una zona plana o inclinada, al igual que las diferentes alturas y geoformas como valles, entre otros, para así poder entender el comportamiento de cierto espacio. También se calculó el área y perímetro, con la finalidad de saber que tanto espacio abarca la zona de estudio. Por medio del uso de un TIN (Triangular Irregular Network), el cual es un medio digital usado para poder representar la morfología de la superficie, se obtuvo el volumen a partir de un punto de referencia, que en este caso fue la cota de los 2000 msnm. Se llevó a cabo la obtención de pendientes, tanto en grados como en porcentaje por medio del DEM del área de estudio, esto para saber la inclinación que tiene la superficie. Se obtuvieron datos de la página del Censo de Población y Vivienda, 2020 del Instituto Nacional de Estadística y Geografía (INEGI), esto para saber que tanta población podrían encontrarse en una condición vulnerable ante algún riesgo, ya sea natural o antrópico en el Estado de Puebla. Los datos que se utilizaron son: Total de población. Total de población femenina y masculina. Total de población con discapacidades. Total de población que cuentan y no con servicios de salud Total de viviendas. Total de viviendas particulares habitadas con o sin modos de transporte. Total de viviendas particulares habitadas que disponen y no de energía eléctrica. Total de viviendas particulares habitadas que disponen de algún bien. En el software de QGIS se realizó la unión de la base de datos con el shape de los municipios del Estado, el cual se obtuvo del Marco Geoestadístico de INEGI. Dentro del radio de los 40 km, se seleccionaron los municipios de interés y se exportó esa información como capa shape y se reproyecto. Por medio de la Red Nacional de Caminos del Instituto Mexicano del Transporte, el cual se procesó en QGIS, se obtuvieron las vías de comunicación del Estado y de los municipios de interés, con la finalidad de conocer la superficie de rodamiento, es decir, si estas se encuentran pavimentadas, sin pavimento o si es diferente a una carretera o camino. Derivado de lo anterior, se procedió a realizar la cartografía correspondiente para un análisis de contexto social de los municipios de interés, esto para poder entender por medio de mapas el comportamiento de la población ante diferente variable.


CONCLUSIONES

Por medio de este estudio, se espera poder comprender y realizar un análisis de la condición física, social y climática en la que se encuentran ciertos municipios, considerando las diferentes zonas de estudio y junto con ello poder brindar la información necesaria ante posibles riesgos que presenta el medio y la sociedad a las autoridades correspondientes y a la misma población, para que en futuras tomas de decisiones el bien de la población sea lo primordial en el Estado.
Zavala Artiga Hector Ulises, Instituto Politécnico Nacional
Asesor: Dr. Félix Francisco Ramos Corchado, Instituto Politécnico Nacional

CREACION DE "ESPACIO INTELIGENTE" PARA EL CUIDADO DE PERSONAS.


CREACION DE "ESPACIO INTELIGENTE" PARA EL CUIDADO DE PERSONAS.

Zavala Artiga Hector Ulises, Instituto Politécnico Nacional. Asesor: Dr. Félix Francisco Ramos Corchado, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

A medida que envejecemos, muchas personas se vuelven incapaces de realizar ciertas tareas que antes podían hacer en cuestión de segundos. Esto también ocurre cuando una persona tiene una discapacidad que le impide desenvolverse libremente. Esta situación afecta tanto a la persona como a sus seres cercanos, quienes a veces no logran satisfacer sus necesidades, tales como revisiones regulares, actividad física diaria, alimentación equilibrada y cuidado personal. Aunque los asilos brindan algunas comodidades, no todos los adultos mayores tienen las mismas discapacidades o horarios, lo que dificulta su cuidado personalizado. Por lo tanto, se identificó que los adultos mayores requieren de una supervisión constante para salvaguardar su integridad tanto física como mental. Sin este cuidado la calidad de vida de los adultos mayores se ve afectada, así como como el de sus seres queridos quienes requieren invertir periodos de tiempo prolongados reduciendo su tiempo disponible para realizar otras actividades



METODOLOGÍA

Conforme a la problemática anterior se pensó en las necesidades y limitaciones que pueda tener un adulto mayor, las cuales se pueden automatizar y así hacer su día con día más sencillo. Para la entrega de resultados se optó por una metodología de trabajo ágil denominada Scrum. Donde diariamente se realizaban reuniones breves para analizar los avances e inconvenientes que se presentaban. Los avances se realizaban acorde a objetivos que se planeaba en reuniones más objetivas cada 15 días. Las principales funcionalidades que se abordaron fueron considerando los siguientes sensores: Sensor ultrasónico HC-R04: Sensor que envía pulsos de ultrasonido por transmisor (llamado Trigg), rebotan al entrar en contacto con un objeto y son detectadas por un receptor (llamado Echo).  Sensor de temperatura DHT-11:  Utiliza un sensor capacitivo de humedad y un termistor para medir el aire circundante. Sensor infrarrojo HW-511: El diodo emisor de infrarrojos del sensor TCRT5000 emite continuamente rayos infrarrojos.  Cuando el objeto detectado aparece en el rango de detección, el rayo infrarrojo se refleja. Sensor de sonidos modelo KY-037: Detecta cualquier tipo de sonido siendo su principal característica una alta sensibilidad.  Sensor de sonidos modelo KY-038: Detecta sonido siendo su principal característica una baja sensibilidad.  Sensor de movimiento PIR HC-SR501: detectan el movimiento de personas o animales a través de la radiación infrarroja emitida por el cuerpo.  Se realizo a diversas pruebas a estos sensores para medir su funcionalidad y comprobar ciertas restricciones. Para hacer las pruebas se utilizó microcontrolador, se consideraron opciones como Rasberry pi, Arduino UNO y ESP-32. Se analizaron en base a sus características como numero de pines, conexiones (Wifi y/o Bluetooth) y tamaño. se concluyo que la mejor opción era el Esp-32 ya que tenia menor tamaño y su conexión Wifi era más eficiente. Para su programación se utilizo el IDE de Arduino en el que se utiliza el lenguaje de programación C# (recomendando por su fácil comprensión y sintaxis se implementó código en los sensores para que pudieran responder acorde a los objetivos a las entradas que se recibían del ambiente Durante las pruebas se recopilo información de lo que se mandaban los sensores mediante los microcontroladores y se ajustaban a ciertos parámetros establecidos (temperatura: 20°c, distancia: 20 cm, etc). Para la mayoría de los casos, la respuesta física era el encendido de un Led. Se realizo una integración de los microcontroladores una red local via wi-fi mediante la IP de cada microcontrolador, él envió de mensajes entre los microcontroladores se realizó mediante un Esp-32 que gestiono la información. Adicionalmente se realizó un prototipo de prueba de una base de datos con MySql y mediante sockets programados en JavaScript, se enviaban los datos obtenidos. Después recopilando los datos, se generó una rutina personalizada para evitar cambios bruscos en la rutina de la persona de edad avanzada, el apagado/encendido de las luces en horas o lugares no deseados, monitoreo de la temperatura, reacción a gritos de una persona o ruidos estridentes y detección de entradas o salidas de una habitación.


CONCLUSIONES

Se realizo una caracterización de los sensores y se realizó un prototipado de su funcionamineto, lo cual es de suma importancia para el proyecto ya que se establecen pautas y limitaciones en su utilización, así como el registro de las pruebas sometidas y los requerimientos de cada sensor. También se logró conectar los microcontroladores y establecer una comunicación entre ellos. Igulamente se logro identificar en que lugares de la habitación donde se tendran los sensores y visualizar las dificultades de los adultos mayores, además de enviar los datos analizados en la habitación, generando una red entre microcontroladores y la conexión a la base de datos a través de esta red. Se espera que en un futuro se logre mayor automatización de este lugar y proceso, extendiendo la investigación a otros sensores para poder tener cobertura en las discapacidades de un adulto mayor, tales como: Medicion de la frecuencia cardiaca o la tensión muscular, para cuidar a personas con problemas motrices y gestionar su actividad muscular. 
Zepeda Guerrero Zyanya Andrea, Instituto Politécnico Nacional
Asesor: Dr. Diego Adrian Fabila Bustos, Instituto Politécnico Nacional

SISTEMA PORTáTIL PARA MONITOREO AMBIENTAL Y GASES DE EFECTO INVERNADERO


SISTEMA PORTáTIL PARA MONITOREO AMBIENTAL Y GASES DE EFECTO INVERNADERO

Zepeda Guerrero Zyanya Andrea, Instituto Politécnico Nacional. Asesor: Dr. Diego Adrian Fabila Bustos, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Una de las mayores amenazas para la salud pública y el bienestar de las comunidades es la creciente contaminación ambiental y las emisiones de gases de efecto invernadero. La falta de sistemas de monitoreo efectivos y de libre acceso, impide el acceso del gobierno de los países y las organizaciones a la información necesaria para abordar estos problemas a través de políticas más efectivas para la salud ambiental. Los métodos tradicionales para monitorear la calidad del aire tienden a ser costosos, estáticos y necesitan infraestructura especial, lo que limita su uso en áreas remotas pudiendo provocar accidentes críticos. Esto lleva a una capacidad de respuesta reducida para los eventos de contaminación y la incapacidad para monitorear constantemente la calidad del aire. La necesidad de un sistema portátil, asequible y fácil de usar es crítica para el suministro de datos precisos y oportunos sobre los gases de efecto invernadero. Aunque la preocupación por el calentamiento global y la contaminación esté en aumento, muchas comunidades no cuentan con la información adecuada acerca de la calidad del aire y sus consecuencias.  La falta de herramientas accesibles para monitorear el entorno existe con el fin de ayudar a la gente a hacerse una idea y actuar sobre los problemas. Un sistema portátil para el monitoreo de gases de efecto invernadero no solo brinde los datos necesarios, sino que también sirve como una herramienta que educa y crea conciencia sobre el medio ambiente y capacita a las comunidades para luchar contra la contaminación y el cambio climático.



METODOLOGÍA

Se diseñaron Placas de Circuito Impreso que funcionan en base a un microcontrolador Raspberry Pi Pico, estas PCB's incluyen un sensor BME680 el cual mide la calidad del aire e incorpora datos de temperatura, humedad, presión barométrica y contenido en compuestos orgánicos volátiles; el diseño contempla la incorporación de los siguientes sensores: SEN0572, SEN0567 y SEN0568, que corresponden a los gases H2, NH3 Y H2S respectivamente. Una vez hecho el diseño y comprobada su funcionalidad fueron mandados a hacer a una empresa extranjera; junto a las placas se pidieron los distintos componentes necesarios para su correcto funcionamiento, entre los cuales se encuentran capacitores y resistencias de distintos valores, interruptores, inductores de potencia, memorias flash, puertos USB, cristales, entre otros; el tiempo de espera entre el pedido y su entrega fue de aproximadamente 8 días.  Una vez que se recibieron las placas se comenzó el proceso de soldadura por montaje superficial, este proceso fue realizado con un microscopio digital, el cual facilitó la colocación precisa de la pasta de soldar y de los componentes; además del uso de una plancha de calor para fijar todo en su sitio. Para comprobar su funcionalidad se conectó cada placa a una computadora con un cable USB-C, si al momento de activar la placa se abría la carpeta necesaria para instalar micropython, entonces ésta placa estaba bien hecha y funcionando. En caso de que no funcionara alguna, se le hacía una revisión con apoyo del microscopio para verificar si existía algún corto en los componentes y limpiar la placa de cualquier exceso. Al finalizar de soldar las placas se paso al diseño de la estructura de la estación, previamente ya se tenia un avance, el cual solo necesitó algunas adaptaciones para facilitar la colocación de la placa PCB, los sensores y de la antena LoRa; una vez adaptado el diseño preexistente, éste fue mandado a imprimir con PETG. En la estructura se colocó el panel solar pequeño que se espera sea el que alimente el circuito y la batería recargable para así darle mayor autonomía al sistema. Se realizaron dos códigos: El principal en el cual se da inicio a los protocolos de comunicación entre los sensores, la antena  y la terminal, así como la calibración de sensor BME680, el envío e impresión de datos y la configuración general. El segundo código que contiene la biblioteca del sensor BME680 y los datos para la comunicación I2C. Al código principal se añadieron entradas ADC para la recepción de los datos recolectados por los sensores de H2, H2S y NH3; también se revisaron las hojas de datos de cada uno para identificar si es necesario algún tipo de conversión en los datos.  Una vez comprobada la funcionalidad del código, se procede a conectar los tres sensores a la placa siguiendo el diagrama de diseño PCB para identificar las terminales a usar, en este momento también se conecta la antena Ra-01 SX1278. Cuando la conexión entre estos componentes está hecha ya es posible introducir el sistema a la estructura impresa y conectar el panel.  


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos teóricos sobre el diseño de PCB´s; fue posible poner en práctica los conocimientos adquiridos sobre programación, protocolos de comunicación (I2C y ADC) y distintos métodos de soldadura. La estación de monitoreo fue armada, sin embargo, faltan por realizar pruebas de funcionamiento, por lo tanto, aún no hay lecturas de los sensores; se espera que la estación portátil permita monitorear condiciones climáticas y gases de efecto invernadero a través de loT.