Área I: Física, Matemáticas y Ciencias de la Tierra
Aburto Policarpo Gethsi, Instituto Politécnico Nacional
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
LOS NEUTRINOS ASTROFíSICOS Y SU DETECCIóN EN EL EXPERIMENTO ICECUBE
LOS NEUTRINOS ASTROFíSICOS Y SU DETECCIóN EN EL EXPERIMENTO ICECUBE
Aburto Policarpo Gethsi, Instituto Politécnico Nacional. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Los neutrinos son partículas subatómicas de masa extremadamente pequeña que interactúan débilmente con la materia. Debido a estas características únicas, los neutrinos pueden viajar a través del espacio sin ser desviados por campos magnéticos o absorción, lo que los convierte en mensajeros invaluables para el estudio de procesos astrofísicos distantes y violentos.
A pesar de su importancia astrofísica, los neutrinos son difíciles de detectar debido a su interacción débil con la materia. Esto ha sido un desafío durante décadas, y solo recientemente ha sido posible desarrollar experimentos lo suficientemente grandes y sensibles para capturar un número significativo de neutrinos cósmicos. Uno de los experimentos más importantes en esta área es el IceCube Neutrino Observatory.
El IceCube es un detector de neutrinos de alta energía ubicado en el Polo Sur, diseñado para detectar neutrinos que atraviesan la Tierra desde diversas direcciones en el cielo. El observatorio utiliza un kilómetro cúbico de hielo antártico como medio de detección, aprovechando la interacción de neutrinos con el hielo para generar señales detectables. Aunque IceCube ha sido un éxito rotundo en la detección de neutrinos astrofísicos, todavía enfrenta varios desafíos.
METODOLOGÍA
En esta investigación se centró en el estudio de los neutrinos astrofísicos y su detección en el experimento IceCube. El objetivo principal fue analizar la relevancia de los neutrinos en la astrofísica, investigar las fuentes astrofísicas propuestas para los neutrinos detectados y revisar los desafíos y avances en el campo.
Por lo tanto, se realizó una búsqueda de artículos científicos en bases de datos académicos, revistas especializadas y repositorios en línea. Para ello, se utilizaron palabras clave como "neutrinos astrofísicos", "IceCube" y "detección de neutrinos" seleccionando así, los artículos más relevantes y actualizados para su análisis.
Añadido a esto, se leyó detenidamente los artículos científicos y se tomó nota de los hallazgos y resultados más importantes. Además, se identificaron las fuentes astrofísicas propuestas para los neutrinos detectados por IceCube y se analizó sus implicaciones en la comprensión del universo. Se examinó cómo el experimento IceCube aborda desafíos, como la reducción de ruido de fondo y el análisis de señales débiles.
Finalmente, se resumieron las principales conclusiones de la investigación, destacando los avances realizados y los desafíos pendientes en la detección de neutrinos astrofísicos con IceCube.
CONCLUSIONES
En conclusión, durante esta estancia, se pudo entender, que, los neutrinos astrofísicos y su detección en el experimento IceCube representan una valiosa ventana hacia el universo invisible. El estudio de estas elusivas partículas nos brinda la posibilidad de comprender eventos cósmicos extremos y procesos astrofísicos en regiones distantes. Aunque se enfrentan desafíos en su detección, los avances realizados hasta ahora prometen revelar información nueva acerca del universo temprano y nuestra comprensión de este.
Aceves Jiménez Rodrigo Daniel, Universidad de Guadalajara
Asesor:Dr. Luis Loeza Chin, Universidad Autónoma de Ciudad Juárez
EL TEOREMA DE POINCARé-BENDIXSON.
EL TEOREMA DE POINCARé-BENDIXSON.
Aceves Jiménez Rodrigo Daniel, Universidad de Guadalajara. Asesor: Dr. Luis Loeza Chin, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Los sistemas dinámicos son de gran importancia en la investigación matemática, ya que permiten describir fenómenos complejos y variables a lo largo del tiempo. Un área apremiante en este campo es la caracterización de comportamientos recurrentes mediante métodos matemáticos rigurosos.
La teoría cualitativa de las ecuaciones diferenciales y sistemas dinámicos surgió a finales del siglo XIX para abordar la complejidad e impredecibilidad de los sistemas no lineales. Anteriormente, el enfoque analítico centrado en soluciones exactas era limitado para estudiar sistemas más generales. Henri Poincaré fue pionero en esta teoría, utilizando métodos geométricos y topológicos para obtener información cualitativa sobre la dinámica global.
El teorema de Poincaré-Bendixson, es relevante en la dinámica de sistemas autónomos bidimensionales. Establece condiciones para la existencia de órbitas periódicas en sistemas dinámicos planos, y el comportamiento límite de las soluciones en el espacio de fases, lo que permite obtener información sobre el comportamiento global del sistema.
En resumen, la demostración del teorema de Poincaré-Bendixson ha sido un logro destacado en la teoría de sistemas dinámicos, estableciendo bases para investigaciones futuras en la dinámica no lineal.
METODOLOGÍA
Se comenzó con la exploración de los conceptos básicos de los sistemas dinámicos, comenzando con la definición de un sistema dinámico como la evolución temporal de los puntos en cierto conjunto llamado espacio de fases, y se planteó su definición matemática como transformación. Posteriormente, se establecieron teoremas sobre la existencia y unicidad para la solución de sistemas autónomos, y la dependencia respecto a las condiciones iniciales; con esto se mostró que la solución a una ecuación diferencial autónoma es un sistema dinámico. Posteriormente se definieron los conceptos de trayectoria, punto de equilibrio y órbitas periódicas en el espacio de fases, y el importante concepto de punto y conjunto límite.
A continuación se exploraron algunas definiciones y teoremas básicos de topología en Rn, fueron necesarios las definiciones de punto de adherencia, punto de acumulación y la definición de conjunto abierto y cerrado, el teorema de Heine-Borel, el teorema de Bolzano-Weierstrass y las definiciones de conjunto conexo y disconexo. De particular importancia fue el Teorema de la curva de Jordan, que en establece que una curva cerrada en el plano lo separa en dos componentes, que son conjuntos abiertos, uno acotado y otro no acotado. Con las herramientas planteadas, se demostraron las características dinámicas y topológicas que posee un conjunto límite.
Una vez establecidos los preliminares se procedió a definir las herramientas necesarias para la demostración del Teorema de Poincaré-Bendixson. En primer lugar, se definió el importante concepto de sección local y caja de flujo, con estas definiciones se demostraron distintos teoremas y lemas necesarios para la demostración del teorema.
Finalmente, se formuló el teorema de Poincaré-Bendixson, el cual establece que: en un sistema autónomo en el plano los conjuntos límite de una trayectoria pueden ser: 1) un punto de equilibrio, 2) una órbita cerrada o 3) ciclos separatriz. La demostración del teorema se realizó con base en los lemas anteriormente demostrados.
Posteriormente, se presentaron algunas de las principales implicaciones del teorema. En particular, el teorema de Poincaré-Bendixson establece que no hay caos en sistemas autónomos en el plano, ya que los conjuntos límite de las trayectorias son conjuntos sencillos a diferencia de lo que ocurre en los sistemas caóticos.
CONCLUSIONES
Durante la investigación se logró una revisión detallada de la demostración del Teorema de Poincaré-Bendixson, en el proceso se aplicaron conocimientos previos de cálculo y álgebra lineal, y se exploraron algunos principios básicos de análisis y topología; con estas herramientas se adquirieron nuevos conocimientos en la teoría de sistemas dinámicos y se exploraron importantes implicaciones del Teorema de Poincaré-Bendixson. Además, con el desarrollo de esta investigación se obtuvo una visión de posibles líneas de investigación que podría explorar en el futuro.
Acosta Weeks Joshua Moctezuma, Universidad de Guadalajara
Asesor:Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
ANáLISIS DE LA TENDENCIA DEL TAMAñO DE GRANO A LO LARGO DE PLAYAS DE PUERTO VALLARTA, JALISCO, PARA DEFINIR EL TRANSPORTE DE SEDIMENTOS EN PRESENCIA DE ESPIGONES
ANáLISIS DE LA TENDENCIA DEL TAMAñO DE GRANO A LO LARGO DE PLAYAS DE PUERTO VALLARTA, JALISCO, PARA DEFINIR EL TRANSPORTE DE SEDIMENTOS EN PRESENCIA DE ESPIGONES
Acosta Weeks Joshua Moctezuma, Universidad de Guadalajara. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Se encuentran cambios significativos en el tamaño de grano a lo largo de las playas, los cuales se relacionan a las variaciones de controles geológicos y oceanográficos a los que están expuestas las playas de Puerto Vallarta. Además, de las alteraciones en el transporte de sedimentos por causas antropogénicas. En este caso en particular se cuenta con espigones a lo largo de la playa y la modificación de los sedimentos en una de las playas. Debido a esto, con la caracterización del tamaño de grano de tres playas, se analiza de forma cualitativa el posible bloqueo del transporte de sedimentos por viento y oleaje entre estas playas debida a la presencia de los espigones.
METODOLOGÍA
Se recolectaron sedimentos de la zona de playa en los puntos de: al pie de construcción, punto medio de las dunas, donde rompen las olas y mar adentro. Para el análisis del tamaño de grano, cada una de las muestras se separó en submuestras para los diferentes tamaños de grano, utilizando métodos de tamizado seco.
Se determino la dirección preferencial del viento característicos de las diferentes temporadas del año con datos de una estación meteorológica cercana a las playas analizadas. Con los vientos se define la dirección del transporte de sedimentos por viento.
Se tomaron datos del nivel del mar a una frecuencia de un Hz en las diferentes playas con un sensor de presión (HOBO u20 water level). Se determina la amplitud y frecuencia de oleaje con periodos mayores a 1s, para conocer los cambios debidos a la presencia de espigones.
CONCLUSIONES
El tamaño de grano de la playa del Holi esta entre 20µm y 40mm. El viento tiene una dirección preferencial en dirección NE Y SO, lo que implica que el transporte por viento para las playas analizadas es a lo largo de la costa de norte a sur y de sur a norte para la mayor parte del año. El oleaje es más energético en la playa que tiene menos influencia por los espigones cercanos, que las playas que tiene más protección de los espigones.
Por último, me gustaría agradecer el apoyo de la Dra. Erika Sandoval Hernández y del Mtro. Rodrigo Padilla Ayón, por su tiempo y disposición, así como la asesoría necesaria para concluir con la investigación
Aguilar Arias Kevin, Universidad Autónoma de Chiapas
Asesor:Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
BúSQUEDAS DE ANISOTROPíAS EN LAS DIRECCIONES DE LLEGADA DE LOS RAYOS CóSMICOS DE MáS ALTA ENERGíA DETECTADOS POR EL OBSERVATORIO PIERRE AUGER, CON LOS DATOS LIBERADOS DEL OBSERVATORIO PIERRE AUGER
BúSQUEDAS DE ANISOTROPíAS EN LAS DIRECCIONES DE LLEGADA DE LOS RAYOS CóSMICOS DE MáS ALTA ENERGíA DETECTADOS POR EL OBSERVATORIO PIERRE AUGER, CON LOS DATOS LIBERADOS DEL OBSERVATORIO PIERRE AUGER
Aguilar Arias Kevin, Universidad Autónoma de Chiapas. Asesor: Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
El Observatorio Pierre Auger es un detector de rayos cósmicos ultra energéticos ubicado en Argentina, diseñado para captar partículas cósmicas extremadamente energéticas que provienen del espacio exterior. Sin embargo, a pesar de los avances en la detección de estos rayos cósmicos, el origen de los UHECR (Ultra High Energy Cosmic Rays) sigue siendo un enigma.
El problema que aborda el artículo se centra en entender si existen preferencias o direcciones preferentes de llegada de los UHECR en el cielo. En un modelo isotrópico, se esperaría que los rayos cósmicos llegaran de manera uniforme desde todas las direcciones. Sin embargo, la detección de anisotropías en las direcciones de llegada puede proporcionar pistas cruciales sobre su origen astrofísico y la posible existencia de fuentes cósmicas específicas.
Por lo tanto, el artículo plantea la pregunta de si hay patrones significativos en las direcciones de llegada de los rayos cósmicos de más alta energía detectados por el Observatorio Pierre Auger. Para abordar esta cuestión, se utilizan técnicas estadísticas avanzadas y se comparan las distribuciones observadas de los UHECR con las distribuciones esperadas en un modelo isotrópico.
METODOLOGÍA
Se comienzó recopilando los datos de rayos cósmicos ultra energéticos detectados por el Observatorio Pierre Auger. Estos datos deben incluir información sobre las coordenadas equatoriales (RA, Dec) de las direcciones de llegada de los rayos cósmicos. Es importante asegurarse de que los datos estén completos y limpios antes de proceder con el análisis.
Utilizando Python y bibliotecas de visualización como Matplotlib, se realizarán proyecciones Aitoff de las coordenadas de llegada de los rayos cósmicos. La proyección Aitoff es una forma común de representar coordenadas celestes en un mapa esférico. Esto permitirá visualizar la distribución espacial de los rayos cósmicos detectados por el Observatorio Pierre Auger en la esfera celeste.
Se realizó una comparación entre las proyecciones Aitoff de los rayos cósmicos detectados por el Observatorio Pierre Auger y las coordenadas de las estrellas del catálogo CERON VETTY. Esto permitirá identificar posibles superposiciones o correlaciones entre las distribuciones de ambas fuentes celestes.
Se aplicarón técnicas estadísticas para evaluar la significancia de las similitudes o diferencias observadas en las proyecciones. Esto incluye pruebas de correlación espacial, análisis de densidad de puntos y otras medidas cuantitativas para comparar las distribuciones.
Los resultados de la comparación de las proyecciones Aitoff y el catálogo estelar CERON VETTY proporcionarón información importante sobre el origen de los rayos cósmicos ultra energéticos detectados por el Observatorio Pierre Auger. Cuando se encuentran superposiciones significativas, esto podría indicar la presencia de fuentes astrofísicas asociadas a los rayos cósmicos. Además, se obtuvieron conclusiones sobre la distribución espacial de los rayos cósmicos y cómo se relacionan con la distribución de estrellas en el cielo.
CONCLUSIONES
Mi participación en el verano científico, enfocado en el análisis de datos de rayos cósmicos utilizando datos del Observatorio Pierre Auger, ha sido una experiencia enriquecedora y significativa. A través del uso de herramientas como Root y Python, así como la lectura de libros y el estudio del artículo científico de referencia, pude realizar un análisis detallado y obtener resultados relevantes en el estudio de las anisotropías en las direcciones de llegada de los UHECR.
Reconozco la importancia de este campo de investigación y las implicaciones que tiene en la comprensión del universo además que los resultados obtenidos son un avance significativo en la comprensión de los rayos cósmicos de alta energía y sus propiedades.
Aguilar Chávez Alejandra, Universidad de Colima
Asesor:Dra. Rosalva Pérez Gutiérrez, Universidad Autónoma de Guerrero
DETERMINACIóN DE LA SUSCEPTIBILIDAD A PROCESOS DE REMOCIóN EN MASA EN EL MUNICIPIO DE TAXCO DE ALARCóN, GUERRERO.
DETERMINACIóN DE LA SUSCEPTIBILIDAD A PROCESOS DE REMOCIóN EN MASA EN EL MUNICIPIO DE TAXCO DE ALARCóN, GUERRERO.
Aguilar Chávez Alejandra, Universidad de Colima. Asesor: Dra. Rosalva Pérez Gutiérrez, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
El Estado de Guerrero, posee múltiples componentes para la construcción de escenarios de riesgo. En principio, se ubica en el límite donde la Placa de Cocos subduce por debajo de la Placa Norteamericana, de ahí que sea una zona de intensa actividad sísmica. En segundo lugar, se encuentra en la región de interconvergencia tropical, donde la dinámica de los vientos fríos provenientes del norte y cálidos del sur, propician las condiciones para la generación de tormentas y ciclones. Adicionalmente, la transformación del medio, el crecimiento poblacional y el Cambio climático, han obligado a los ciudadanos a habitar zonas de actividad intensa ante agentes modeladores del paisaje como lechos de ríos, cárcavas, laderas con pendientes pronunciadas, lagos y otros escenarios, que tienen potencial cuando se trata de riesgo. Aunado a la premisa, pocos asentamientos humanos fueron planificados y proyectados para la explosión demográfica acontecida alrededor del mundo tras el último siglo (Alcántara y Murillo, 2008).
Taxco de Alarcón es un municipio guerrerense que se ha visto afectado por procesos de remoción en masa (PRM), representados por desplazamientos de macizos rocosos, detritos y suelos ladera abajo influenciados principalmente por la gravedad. Ya que las características litológicas, estructurales y geomorfológicas determinan la ocurrencia y dinámica de los procesos de remoción en masa, se considera importante determinar estos factores e integrarlos en un análisis multicriterio que permitirá determinar áreas con diferente grado de susceptibilidad, lo cual resultará ser un paso crucial en la realización de actividades enfocadas en la gestión del riesgo.
METODOLOGÍA
La primera etapa del trabajo fue la obtención de los diferentes insumos necesarios para la conjunción de los factores condicionantes. Para ello fue necesario ingresar a las plataformas virtuales de INEGI, el Servicio Geológico Mexicano, Gobierno de México, entre otras. Los archivos obtenidos fueron las cartas edafológicas y geológicas (PDF) que corresponden al área de Taxco de Alarcón, así como el Modelo de Elevación Digital (MED).
La metodología utilizada fue de Mora-Vahrson (1991) la cual obtiene la susceptibilidad de un terreno a deslizarse mediante la combinación de diferentes factores y el peso asignado por medio de diferentes mapas que son procesados en un sistema de información geográfica. Para la finalidad del presente trabajo se realizó una modificación a dicha metodología y se utilizaron cinco factores condicionantes: edafología, litología, pendiente del terreno, densidad de drenaje e índice de humedad topográfica.
Después de haber obtenido los recursos necesarios, se procedió a realizar los mapas en el software ArcGis 10.8.2. Para la elaboración de los mapas referentes a la edafología y la litología se hizo una extracción de imagen que se encontraba en PDF a JPG para ingresarlas en el software correspondiente y hacer la respectiva georreferenciación. Una vez georreferenciados en el software, se llevó a cabo la digitalización de las diferentes tipologías que componen las cartas.
El siguiente paso fue la obtención de la Densidad de Drenaje, la cual se realizó con la herramienta Spatial Analyst Tools, siendo necesaria la utilización del MED para obtener la dirección del flujo hidrológico y la acumulación del flujo. Una vez obtenido ambos flujos se procedió a utilizar la calculadora ráster para obtener la red hidrográfica. Una vez que se cuenta con dicha red se procede a utilizar la herramienta Density, en la que se ingresaron los datos necesarios para proceder a obtener la Densidad de Drenaje.
Continuando con la realización de mapas, el de Pendientes fue realizado únicamente ingresando el MED y aplicando la herramienta Slope, la cual se ubica en el catálogo del ArcMap. Para realizar el mapa del Índice de Humedad Topográfica (IHT) fue necesario convertir el mapa de pendientes en radianes por medio de la calculadora ráster (ST), obteniendo a su vez valores tangenciales que permitirán realizar los siguientes pasos. Después, se hizo el cálculo de la superficie de contribución de aguas arriba (UCA) por medio de una ecuación en la calculadora ráster. Finalmente, con todos los datos previamente obtenidos, se aplicó la ecuación para el cálculo final del IHT.
Antes de continuar con el Álgebra de Mapas para obtener el mapa de susceptibilidad final, fue necesario ingresar los factores de seguridad a los diferentes tipos de roca y suelo que se encuentran en los mapas de edafología y litología.
Para finalizar, fue necesario hacer una ponderación previa al mapa final, el peso dado a los diferentes factores fue comentado en grupo y se seleccionaron así por la importancia que muestran en la zona de estudio. Después se procedió a realizar la suma de los factores condicionantes por medio del Álgebra de Mapas, obteniendo así un mapa final de susceptibilidad.
CONCLUSIONES
Los resultados obtenidos muestran que las zonas más susceptibles a deslizamientos son aquellas en la que el tipo de roca es caliza, metavolcánica sedimentaria y depósitos de talud. Justamente son las zonas donde la pendiente es más pronunciada y se tiene un mayor índice de humedad topográfica. Entonces, se puede observar que las zonas con mayor susceptibilidad a un proceso de remoción en masa son las que se encuentran el noreste y al este del municipio, exceptuando algunas zonas que encuentran levemente distribuidas por el norte de la ciudad.
Durante la estancia de Verano de Investigación se adquirieron diferentes conocimiento teóricos y prácticos sobre los procesos de remoción en masa y una metodología aplicable para su análisis. Los resultados reflejan la importancia de continuar con los estudios de susceptibilidad en Guerrero, dejando las puertas abiertas a estudios detallados en donde, con mayor disponibilidad de tiempo y recursos, se puedan obtener resultados que incluyan algunos otros factores condicionantes y de ser posible, los desencadenantes.
Aguilar Lavín Mauricio, Universidad Tecnologica de León
Asesor:Dr. Alan David Blanco Miranda, Universidad Tecnologica de León
DISEÑO DEL PROTOTIPO PARA LA APLICACIÓN DE REALIDAD VIRTUAL -REAL INTERACTION-
DISEÑO DEL PROTOTIPO PARA LA APLICACIÓN DE REALIDAD VIRTUAL -REAL INTERACTION-
Aguilar Lavín Mauricio, Universidad Tecnologica de León. Delgado Sánchez Edgar Daniel, Universidad Tecnologica de León. Sarabia Martinez Juan Elias, Universidad Tecnologica de León. Asesor: Dr. Alan David Blanco Miranda, Universidad Tecnologica de León
PLANTEAMIENTO DEL PROBLEMA
La principal problemática resulta dentro de las limitaciones con las que cuentan muchas instituciones, ya sean educativas o ya dentro del ámbito empresarial.
Al existir limitaciones dentro de la práctica física se recurre al uso de equipos reales para ser utilizados en el ámbito educacional y de aprendizaje, cosa que resulta de gran utilidad, sin embargo, es algo con lo que no se puede contar siempre gracias a los costos elevados de los equipos y a la disponibilidad con la que pueda contar la institución o empresa.
En este caso, la limitación de equipo y herramientas no permite en su totalidad un desarrollo completo de habilidades.
Agregando a todo esto la posibilidad que puede llegar a existir el daño o deterioro de los equipos debido a los errores que pueden existir por ser exigidos dentro del ámbito educacional donde justamente están para ello, aprender.
Al tener costos y disponibilidades limitadas, se busca la manera de reemplazar, agregar y mejorar la práctica convencional, es aquí donde entra la simulación por medio de realidad virtual en donde todos los entornos pueden ser reutilizados cuantas veces sean necesarias y sin el riesgo de que exista una posibilidad de dañar equipos por fallas eléctricas, golpes, mal conexiones o fallos de programación.
METODOLOGÍA
La metodología del proyecto fue desarrollada en base a la proposición de un total de 7 objetivos a realizar dentro de las 7 semanas establecidas en el plan de trabajo.
En este proyecto se utilizaron meramente recursos tecnológicos los cuales pudiesen brindar la innovación y la gran adaptabilidad que se busca conseguir en el desarrollo de proyectos modernos, es por ello que dentro de los principales pasos seguir era el hecho de comenzar con una investigación y pequeña capacitación con respecto a los recursos bibliográficos necesarios, dentro de los cuales se encuentran: el uso del software Unity, programación en lenguaje C# (para uso dentro del mismo) y la interconexión entre Unity y el software para desarrollo de programación en PLC.
Una vez tenidas las bases para poder comenzar con el desarrollo material del proyecto se comenzaron a generar los diseños 3D para el uso dentro de la simulación.
Puesto que la idea era generar un ambiente industrial para hacer la práctica lo más familiar posible con la realidad se buscó generar e importar diversos modelados que pudieran influenciar en lograr la experiencia lo más real posible dentro de los entornos de realidad virtual.
Los elementos modelados:
Banda transportadora
PLC
Botones (para diversas actividades)
Sensores
Objetos de prueba
Elementos decorativos
Área de trabajo
Con los diseños ya generados se procedió a la importación dentro del plano de trabajo del proyecto, así como a la programación de las físicas de la simulación y la programación del comportamiento que tendría cada elemento dependiendo de la situación.
Una vez con los elementos correctamente generados con sus propiedades es momento de asignar las actividades:
Generar una simulación que sirva como capacitación en base a una banda transportadora la cual será operada desde un panel de control para representar un proceso industrial dentro de una línea de producción.
Realizar un examen interactivo que tenga como fin el corroborar los conocimientos sobre las partes que conforman un PLC y su funcionamiento básico.
Las actividades anteriormente mencionadas se generaron dentro del área de trabajo de tal manera que además pueden llegar a generar un puntaje que daría la calificación obtenida con respecto al resultado del examen.
Con las actividades ya establecidas es momento de hacer la interconexión entre la comunicación por parte del software Unity hacía el software de PLC en ambientes industriales.
Esta interconexión viene directamente desde la programación base del proyecto la cual fue desarrollada en lenguaje C#, dentro de este lenguaje se facilita el uso de librerías que permiten hacer la comunicación deseada, en este caso, NetToPLCsim. Y con ello ahora es posible hacer que las instrucciones dentro de ambos lenguajes de programación sean efectuadas con la toma de variables entre ambos programas.
Dada que la vinculación es únicamente de manera back end y la interacción entre el usuario y el software no será con la programación ahora es necesario la creación de una interfaz de usuario gráfica o un panel de control, para ello, se utilizaron los elementos 3D ya modelados anteriormente los cuales permiten directamente la ejecución de comandos por medio del uso de equipo de realidad virtual.
Puesto a que todos los elementos ahora cuentan con sus propiedades definidas, actividades, interconexiones, comunicación e interacción con el usuario únicamente quedaría pendiente el realizar la simulación de las actividades para obtener una representación de los resultados con respecto a la interfaz gráfica, el manejo del equipo y la experiencia del usuario.
CONCLUSIONES
Durante la estancia de verano se logró definir que este tipo de proyectos representan una innovadora solución para la capacitación y entrenamiento de los estudiantes, técnicos y operarios encargados del mantenimiento, operación que involucran estos entornos y reparación de los equipos.
La realidad virtual permite recrear situaciones y escenarios de forma interactiva y segura, sin tener que utilizar equipos reales y sin interrumpir la producción.
Los resultados obtenidos en proyectos de este tipo demuestran la efectividad de la realidad virtual para mejorar la comprensión de los procesos productivos y optimizar los tiempos y costos asociados al entrenamiento tradicional. Además, el uso de la realidad virtual permite la simulación de situaciones de emergencia y la toma de decisiones en tiempo real.
En definitiva, la interconexión de la realidad virtual con un PLC representa una solución innovadora y valiosa para la industria, que puede mejorar significativamente el proceso de entrenamiento y mantenimiento de estos equipos y, por ende, mejorar la eficiencia en la producción en la industria.
Aguilar Mézquita María Fernanda, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PINTURA A BASE DE MUCíLAGO DE NOPAL CON EFECTO REPELENTE DE INSECTOS.
PINTURA A BASE DE MUCíLAGO DE NOPAL CON EFECTO REPELENTE DE INSECTOS.
Aguilar Mézquita María Fernanda, Consejo Quintanarroense de Ciencia y Tecnología. Ríos Salas Juana María, Instituto Tecnológico de Acapulco. Vinalay Mejía Valeria Michelle, Universidad Autónoma de Guerrero. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
Actualmente la existencia de las edificaciones que deben ser impermeabilizadas, a la vez que los elementos de madera existentes dentro y fuera de ellos que deben de ser conservadas, mantenidas y protegidas de agentes atmonféricos y de otros componentes biológicos como hongos, la carcoma y otros insectos que atacan la madera ha ido en aumento, generando una demanda de mayor impacto en el entorno ambiental y económico.
La cuestion es la formación de plagas dentro de la vivienda, y el uso de plaguicidas es otrofactor contaminante debido a que pueden contaminar suelos, agua, sedimentos y aire.
Podemos decretar que el uso del impermeabilizante es cada 4 años, generando un daño ambiental debido a las sustancias químicas y tóxicas que lo conforman junto con la aplicación de pinturas impermeabilizantes y en la utilización de insecticidas o plaguicidas para el hogar. En base a esta problemática se plantea como alternativa orgánica el uso de una pintura impermeabilizante a base de micílago de nopal con efecto insecticida; con el objetivo de buscar un impacto positivo en el medio ambiente y en la economía del país.
METODOLOGÍA
La metodología utilizada en este estudio fue experimental, empírica, cuantitativa y explicativa-descriptiva. Las técnicas e instrumentos de recolección de datos fue búsqueda de la información se realizó de manera electrónica en base a estudios comprobados y artículos científicos en relación al tema; y pruebas en laboratorio con los materiales necesarios a utilizar para cada procedimiento y realizando diferentes muestras de la pintura a base del mucilago de nopal con la citronela las cuales fueron aplicadas a diferentes superficies tales como madera y concreto.
Las fuentes de consulta utilizadas fueron artículos digitales e impresos, productos académicos de Congresos Nacionales e Internacionales, Tesis de Licenciatura, Maestría y Doctorado. Se consultaron sitios con credibilidad académica como Google Académico o Google Escolar, Scielo, Sci-Hub, ScienceDirect y Perplexy.ai. Se descartó la información de Wikipedia y de medios impresos como periódicos y revistas.
En base a los resultados obtenidos por medio de las pruebas en laboratorio para la creación de la pintura natural a base de mucilago de nopal con efecto repelente de insectos, se determinó que efectivamente cumple con el objetivo específico número cuatro que corresponde a realizar el proyecto ejecutivo.
Preparación del Mucilago de Nopal:
1.- En la cubeta coloca 6 litros de agua, agrega los nopales previamente picados y tapa. Deja reposar durante 2 días para que suelten la baba.
2.- Cuela o retira los nopales y conserva en botellas de plástico previamente lavadas.
Preparación del repelente de Citronela:
Prueba 1
1 taza de agua.
½ taza de agua.
1 licuadora.
2 tazas de hojas de citronela frescas
Frasco de vidrio de 250 ml.
Procedimiento:
Vaciar dos tazas de citronela y licuar en seco hasta obtener un tipo de polvo granulado.
Vertir el polvo en el frasco de vidrio de 250 ml.
Agregar agua al tiempo al frasco y dejar reposar 24hrs.
Prueba 1/ Pintura 4
250 ml de la mezcla final de citronela de la prueba 2
100 gramos de piedra de alumbre.
400 ml de mucilago de nopal.
Probeta.
Bascula.
Bowl de metal.
Frasco de vidrio de 250 ml.
Abatelenguas.
Procedimiento:
Se pesan 100 gramos de piedra de alumbre en una báscula.
Se miden los 400 ml de mucilago de nopal en la probeta.
Se miden los 250 ml de la mezcla de citronela de la prueba 2 (Con todo y las hojas que fueron previamente trituradas).
En un bowl de metal o en un recipiente hondo se vierten los 250ml de citronela prueba 2 y los 400 ml de mucilago de nopal.
Se revuelve con un bate lenguas hasta crear una mezcla heterogénea.
Se agregan los 100 gramos de piedra de alumbre en el mismo bowl de la mezcla previa por medio de un colador fino.
Se revuelve hasta tener una mezcla heterogénea y se vierte en un frasco de vidrio (en este caso en uno de 250 ml) y se aplica en la superficie de su elección.
CONCLUSIONES
La propuesta que se plantea reafirma la importancia del rescate de una tradición ancestral en desuso pero con una vialidad de incorporación dentro de las prácticas actuales. El beneficio de tener el conocimiento de las prácticas locales y de los recursos propios del municipio, tal es el caso del nopal y la citronela, dan la apertura de vivir bajo otra realidad que permita alcanzar una mejor calidad de vida y bienestar dentro del ámbito económico y medio ambiental del país. El breve trayecto que se realizó en el municipio de Valle de Bravo, nos permite reconocer que el lado estético de este lugar es colonial; dado que las viviendas no solo forman parte de la imagen de las mismas y que estas son un distintivo claro del turismo parcial que existe en el municipio, si no de la arquitectura y estilos coloniales, que de cierta forma están correlacionadas con algunas prácticas ancestrales. En lo que se refiere al producto, es importante decir que no obstante la pintura de mucilago de nopal con efecto repelente de moscos es un producto nuevo dentro del mercado que está asociado a las pinturas naturales u ecológicas que han estado creando un impacto positivo dentro de los nuevos materiales para la construcción; los resultados obtenidos en este trabajo permiten impulsar el uso sin riesgo de la pintura a una categoría de vivienda digna con un mínimo costo, sin sacrificar la calidad en un margen amplio y cercano a las pinturas comerciales.
Aguirre Galaz Mariana, Universidad de Sonora
Asesor:Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)
ESTUDIO DE PARES DIFUSIVOS EN ALEACIONES TI-AL.
ESTUDIO DE PARES DIFUSIVOS EN ALEACIONES TI-AL.
Aguirre Galaz Mariana, Universidad de Sonora. Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
En la actualidad los componentes intermetálicos de aleaciones Ti-Al tienen una gran importancia en aplicaciones tecnológicas principalmente en la industria aeroespacial y automotriz, debido a la excelente combinación de propiedades como peso ligero, alta resistencia a la fluencia y estabilidad a elevadas temperaturas. En estas condiciones los mecanismos de interdifusión juegan un papel relevante en la estabilidad de los recubrimientos y los materiales, por esta razón existe un interés en comprender estos mecanismos y los diagramas de fase que rigen el comportamiento de estás aleaciones binarias. La técnica de pares difusivos es un método experimental para determinar coeficientes de interdifusión, los cuales a su vez nos ayudan a determinar la facilidad con que dos materiales distintos expuestos a contacto directo intercambian átomos y depende de factores como el tamaño de partícula, temperatura, presión y otras propiedades del material que se difunde.
Un inconveniente al manejar las aleaciones de Ti-Al es la baja resistencia a la oxidación del aluminio. En el presente trabajo se realizó la técnica de pares difusivos del sistema Ti-Al en presencia de oxígeno para estudiar el fenómeno de oxidación y su impacto en el proceso de difusión entre Ti-Al.
Por ello, se busca entender la importancia y funcionamiento de pares difusivos en aleaciones binarias de Ti-Al. Así como, estudiar el mecanismo de interdifusión en aleaciones binarias Ti-Al, interpretar su diagrama de fases y evaluar las propiedades microestructurales de este sistema.
METODOLOGÍA
Experimento 1:
Las muestras de Al y Ti se pulieron manualmente con una solución de alúmina, después se limpiaron ultrasónicamente en acetona y se secaron con aire comprimido. Se colocaron las muestras dentro de un troquel de acero a presión para maximizar el área contacto entre las caras de difusión, después se introdujeron en un horno de inducción eléctrico a 610°C durante 7 horas para estudiar el comportamiento de interdifusión. Una vez estabilizada la temperatura, se sacó la muestra del troquel y se le realizo un proceso metalográfico con lijas de grano 1200, 1500 y 2000 seguido de pulido con fibra de diamante y solución de alúmina. Por último, se evaluó la dureza Vickers de la muestra y se le aplicó una solución de Kroll (95% H2O, 3% HNO3, 2%HF) como ataque químico para exhibir su microestructura, la cual fue observada con ayuda de un microscopio óptico.
Experimento 2:
Se fabricó una base de acero (H13) la cual fue sometida a un proceso metalográfico con lijas de granos 320, 500, 1200, 2000 para obtener una superficie uniforme que facilite el proceso de difusión. Se colocaron dos placas de aluminio y una de titanio dentro de la base de acero, todo el material fue previamente limpiado ultrasónicamente en acetona.
Se introdujo la muestra dentro del horno de inducción a 700 °C durante 8 horas para favorecer la fundición del aluminio. A continuación, se le realizó un corte transversal a la muestra para observar el frente de difusión.
CONCLUSIONES
Experimento 1:
Una vez realizado el tratamiento térmico durante 7 horas, se observó la formación de óxidos de hierro en la superficie del troquel, esto se debe a que la difusión de los iones metálicos o de oxígeno se ve favorecida a temperaturas elevadas. Posteriormente, con ayuda de un microscopio óptico se apreció la estructura de espinelas caracteristicas de los óxidos de hierro.
Con respecto a la zona de difusión entre el Ti-Al, no se percibe una difusión significativa, ya que fue obstaculizada por la formación de óxidos en ambos materiales, debido a la falta de tiempo en tratamiento térmico considerando los tiempos de difusión. Se realizó metalografía sobre la muestra de Ti-Al hasta obtener un acabado espejo, seguido de un ataque químico. A continuación, con ayuda de un microscopio óptico se reveló la microestructura del par difusivo donde se aprecia la formación una posible fase intermetálica, sin embargo, no se logró identificar la fase debido al tamaño de la muestra.
Experimento 2:
El segundo experimento no presento resultados favorables, debido que las condiciones de operación limitaron la difusión entre el Ti-Al, generando una capa de óxido sobre la superficie del aluminio e impidiendo su fundición. Se realizó un corte trasnversal sobre la muestra para examinar este fenómeno, donde se observó la deformación de las placas de aluminio contenidas por capas de alúmina.
Se realizó el estudio del comportamiento térmico de aleaciones Ti-Al mediante experimentos de pares difusivos a 600 °C. Se identificó la formación de óxidos que evitan la interdifusión entre las caras. Por lo cual se sugiere el uso de agentes que faciliten la difusión como haluros fundentes, así como trabajar en condiciones de atmósfera inerte y por tiempos más prolongados para obtener resultados de difusión más significativos. Aunado a esto, se logró revelar la microestructura característica de la fase α-Ti.
Alatorre Ortega Brenda Dilian, Instituto Tecnológico de Tepic
Asesor:Mg. Olgalicia Palmett Plata, Institución Universitaria Colegio Mayor de Antioquia
EFECTOS DE LA NATURALIZACIÓN DE ESPACIOS PÚBLICOS ALEDAÑOS A ENTORNOS ESCOLARES, EN LA SEGURIDAD, COMODIDAD Y EL DESARROLLO COGNITIVO DE LA POBLACIÓN INFANTIL EN LA CIUDAD DE MEDELLÍN.
EFECTOS DE LA NATURALIZACIÓN DE ESPACIOS PÚBLICOS ALEDAÑOS A ENTORNOS ESCOLARES, EN LA SEGURIDAD, COMODIDAD Y EL DESARROLLO COGNITIVO DE LA POBLACIÓN INFANTIL EN LA CIUDAD DE MEDELLÍN.
Alatorre Ortega Brenda Dilian, Instituto Tecnológico de Tepic. Asesor: Mg. Olgalicia Palmett Plata, Institución Universitaria Colegio Mayor de Antioquia
PLANTEAMIENTO DEL PROBLEMA
¿De qué manera la naturalización de espacios públicos aledaños a entornos escolares se
convierte en una buena estrategia para generar seguridad, comodidad y contribuir al desarrollo cognitivo de
la población infantil en la ciudad de Medellín?
Esta propuesta surge como la necesidad de conocer cuáles son los elementos paisajísticos de los espacios
públicos aledaños a 10 entornos escolares y en qué porcentaje impactan positiva o negativamente a los
infantes y crean en ellos sentimientos y emociones, recordación y estímulos agradables o desagradables
para permanecer en contacto con el espacio público naturalizado, con la intención de proponer
metodologías y estrategias de gestión del espacio público aledaño a entornos escolares, teniendo en cuenta
no solo la visión de los niños, sino sus necesidades cognitivas, de seguridad y comodidad.
METODOLOGÍA
Para el presente estudio se llevará a cabo una investigación de paradigma cualitativo no experimental de corte exploratorio, descriptivo y explicativo, enmarcado en las ciencias sociales como estudio etnográfico con énfasis correlacional entre lo urbano y lo rural.
1.Delimitación espacial:
Para llevar a cabo esta propuesta de investigación, se tendrá como lugar base el área de Medellín en donde funcionarán las 10 instituciones educativas (8 urbanas y 2 rurales) y sus alrededores seleccionadas como objetos de estudio. Los criterios para la selección de las instituciones educativas se determinarán con el equipo de trabajo, ya que se considera conveniente seleccionar instituciones con un entorno variado en infraestructura urbana, lo que enriquecería el estudio.
2. Delimitación Temporal
Esta propuesta de investigación se desarrollará en cuatro (4) Etapas, cada una de tres (3) meses de duración en su ejecución, considerando que el tiempo requerido para realizar el trabajo de campo se agotaría en los 12 meses disponibles.
3. Metodología de registro y análisis
Se empleará la metodología de lectura perceptual del paisaje, con registros cartográficos, mapificación manual y digital, análisis del entorno a partir de cuencas visuales a distinto nivel y análisis de datos mediante el método de triangulación entre lo contextual, lo interpretativo, y lo hermenéutico.
4. Participantes
Las personas involucradas en el presente estudio son inicialmente los niños y sus acompañantes, que pueden ser padres, familiares, maestros y directores escolares, de los cuales se tomará una muestra poblacional de las 10 instituciones educativas seleccionadas.
5. Técnicas de recolección de información
En esta investigación de paradigma cualitativo se utilizarán técnicas de recolección de información mediante la observación durante visitas a los entornos escolares, registrados en diarios de campo. Encuestas aplicadas a padres de familia, profesores y acompañantes de los niños en la movilidad casa-colegio-casa. Entrevistas estructuradas a docentes, directivos escolares y padres de familia. Entrevistas informales de tipo grupal a niños de diferentes edades escolares. El rastreo bibliográfico y análisis de la literatura sobre el tema también será insumo importante en el estudio para determinar el estado del arte sobre el tema.
6. Etapas de la investigación
El estudio se llevará a cabo a partir de cuatro (4) etapas, cada una de ellas, ejecutada en tres (3) meses de forma consecutiva, hasta completar 12 meses.
CONCLUSIONES
Los resultados obtenidos en esta etapa durante el proceso del verano delfín fueron de dos lecturas perceptuales con dos dibujos digitales de cada institución establecida por la investigadora: I.E. Madre Laura y Colegio Barbara Micarelli. Dichas lecturas perceptuales del paisaje cuenta con elementos de registros sobre las instituciones, análisis de sitio, evidencia fotográfica, análisis de componentes ecológicos, atributos físicos, psicológicos y estéticos, y valoración de impactos ambientales.
Esperamos que este trabajo promueva la creación de nuevos hábitos de desplazamiento y movilidad, así como otros análisis a partir de la academia y del sector empresarial del paisaje y la planeación urbana, en donde se promueva una nueva cultura de apreciación y disfrute del paisaje en el espacio público, inmerso en la cotidianidad desde niños.
Alcalá Arroyo Edgar, Universidad de Guadalajara
Asesor:Dr. Alexis Miguel García Zamora, Universidad Autónoma de Zacatecas
DESCOMPOSICIóN DE ZARISKI SOBRE UN Q-ESPACIO VECTORIAL
DESCOMPOSICIóN DE ZARISKI SOBRE UN Q-ESPACIO VECTORIAL
Alcalá Arroyo Edgar, Universidad de Guadalajara. Asesor: Dr. Alexis Miguel García Zamora, Universidad Autónoma de Zacatecas
PLANTEAMIENTO DEL PROBLEMA
Dentro de la rama de las matemáticas conocida como Geometría Algebraica se encuentra el estudio de las k-álgebras finitamente generadas, siendo Oscar Zariski una de las figuras prinicipales que ayudaron al desarrollo de las bases de dicho estudio. Para llevar a cabo sus investigaciones relacionadas con las k-álgebras, Zariski estudió la forma de descomponer un elemento efectivo como una suma de dos elementos, concluyendo que no solamente era posible sino que es única. En su honor, dicha descomposicón fue nombrada descomposición de Zariski de un elemento efectivo.
Tomando en cuenta que la descomposicón de Zariski se pensó para un Q-divisor en una superficie X, es natural preguntarse ¿es posible adaptar, o incluso extender, dicha idea a otra rama de las matemáticas? Dicha pregunta tiene una respuesta afirmativa dentro del álgebra lineal, siendo el propósito de este trabajo de investigación estudiar las ideas de la descomposición de Zariski para adaptarlas al contexto del álgebra lineal e intentar extender su uso no solo a elementos efectivos sino también pseudo-efectivos.
METODOLOGÍA
Para el desarrollo de la investigación se estudiaron los capítulos del 3 al 6 del artículo "Zariski Decomposition: A New (Old) Chapter of Linear Algebra", en el cual se analizaron junto con el asesor las definiciones y demostraciones, expandiéndolas haciendo uso de herramientas de análisis y topología cuando fuese necesario para una mayor comprensión de las ideas expuestas en el árticulo.
Una vez terminado el estudio del artículo, se empleó el texto "Algebraic Surfaces" de Lucian Bădescu, del cual se adaptaron y expandieron diversos resultados pertinentes para extender la descomposición de Zariski a los vectores pseudo-efectivos de un Q-espacio vectorial.
Finalmente se consultaron diversas fuentes para el estudio del contexto original en el que se ideó la descomposición de Zariski junto con clases del tema impartidas por el asesor para una mejor comprensión de las ideas que motivaron la descomposición de Zariski
CONCLUSIONES
Durante la estancia de verano se logró adaptar las ideas de la descomposición de Zariski al álgebra lineal, obteniendo un teorema análogo al del área de la geometría algebraica. Adicionalmente se consiguió expandir dicho teoreoma no solo a vectores efectivos sino también a vectores pseudo-efectivos dando por hecho algunos resultados dentro de la geometría algebraica que no fue posible adaptar al álgebra lineal por el límite de tiempo de la estancia.
Alcalá Carrasco Victor Ernesto, Universidad de Guadalajara
Asesor:Dr. Sergio Ivvan Valdez Peña, Centro de Investigación en Ciencias de Información Geoespacial, A.C. (CONACYT)
APRENDIZAJE MAQUINA APLICADO A DATOS GEOMORFOLOGICOS
APRENDIZAJE MAQUINA APLICADO A DATOS GEOMORFOLOGICOS
Alcalá Carrasco Victor Ernesto, Universidad de Guadalajara. Asesor: Dr. Sergio Ivvan Valdez Peña, Centro de Investigación en Ciencias de Información Geoespacial, A.C. (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El trazado de valles es un procedimiento muy importante para distintas áreas de investigación; conocer a los valles nos permite investigar la hidrología, geología y tectónica de una región, como a su vez conocer estos aspectos son de utilidad en otras áreas de las ciencias, como la biología en el estudio de las regiones de flora y fauna, en la ingeniería civil para la elección de terrenos para la edificación, en arqueología para el estudio de posibles regiones de asentamientos humanos en el pasado, y no menos importante y un tema de vanguardia, el estudio de zonas de riesgos en desastres naturales ante los inminentes problemas causados por el cambio climática y las afectaciones futuras, el trazado de valles debe ser considerada como una técnica importante que debe agilizarse y automatizarse cuanto antes.
Actualmente, el trazado de valles suele realizarse de forma manual, iniciando con un mapa de elevación del terreno, ya sea un mapa topográfico o un Mapa de Elevación Digital (DEM). De forma manual, topógrafos llevan a cabo la tarea de analizar dichos mapas conectando líneas de misma altitud y puntos que ayuden a visualizar la topología, creando curvas de nivel en los mapas para reconocer con mayor facilidad que puede ser un valle y que no lo es, añadiendo detalles y revisiones manuales visitando el sitio o comparando sus trazados manuales con diferentes imágenes topográficas de la misma región.
Como puede suponerse, este proceso es largo y tedioso para un humano, pues requiere de mucho tiempo; una computadora podría ser mucho mejor y más eficiente, ahorrando muchas horas humanas y agilizando el proceso, siendo capaz una computadora de trabajar con múltiples regiones al mismo tiempo, para este objetivo los algoritmos de aprendizaje maquina y la Inteligencia Artificial pueden ser las herramientas necesarias para reemplazar esta labor humana y agilizar cualquier investigación que requiera de un mapa de valles.
METODOLOGÍA
Se utilizaron DEMs obtenidos de datos de satélites y proporcionadas por el Centro de Investigación en Ciencias de Información Geoespacial, A.C. y mapas de trazados de valles manuales también proporcionados por el Centro de Investigación de diferentes regiones, divididas por Ventanas, cada ventana consta de un DEM de 102 pixeles de ancho por 97 pixeles de alto, cada píxel es un valor numérico que representa la elevación de un punto geográfico muestreado por el satélite. Una imagen de trazado de valles manual, de la misma resolución que el DEM, cada píxel es un valor booleano.
Partiendo del algoritmo Geomorphons desarrollado por Jasiewicz, J. y Stepinski, T. F en 2012 en su trabajo Geomorphons — a pattern recognition approach to classification and mapping of landforms el cual en lugar de usar geometría diferencial, mediante grafos es capaz de crear una representación 3D de la topografía de un terreno, etiquetando cada pixel de un DEM con su morfología, este procedimiento compara no solo al pixel etiquetado, si no que a una vecindad de pixeles alrededor del pixel a etiquetar, comparando el ángulo de mayor y menor altitud desde la línea de visión de un observador ubicado en el pixel a etiquetar; sin embargo, esto no es un trazador de valles, ya que un punto clasificado como valle por Geomorphons puede no ser un valle como el que se está intentando trazar; No obstante, el tener un mapa 3D topográfico será nuestra herramienta de entrada para la creación de datos de entrada para un futuro modelo de aprendizaje máquina.
Con el objetivo de relacionar las geoformas obtenidas con el trazado de valle se procedió a realizar un análisis estadístico de los datos, el primero fue la probabilidad marginal de cada píxel del mapa 3D de Geomorphons con cada pixel de la imagen del trazado manual, obteniendo la probabilidad de un pixel dada su etiqueta morfológica de ser trazado como valle, dichas probabilidades se usaron para generar un nuevo mapa de trazado de valles, asignando a cada pixel de la imagen 3D su probabilidad y creando una nueva imagen, la imagen marginal, en la cual se podían apreciar los valles en una imagen muy ruidosa. El siguiente análisis fue la probabilidad bayesiana, la cuál es la probabilidad de un píxel de ser valle dada la geoforma de uno de sus vecinos, obteniendo un arreglo de 10x10, que puede obtener de entrada un vector de 2 dimensiones, la geoforma central y la geoforma vecina, esto dará la probabilidad de que dicha geoforma central sea trazado como valle. Con este arreglo se obtuvo otra imagen nueva de trazado de valle automatizada, sin embargo, aunque fue más clara sigue siendo extremadamente ruidosa.
Con el arreglo obtenido se computó la matriz de covarianza de los datos, con el fin de encontrar la dirección de mayor varianza e inferir cuáles son las combinaciones de geoformas más significativas para que un píxel sea trazado como valle. Finalmente, con todos los datos anteriores se creó un muestreador de Gibbs, un algoritmo de métodos de Montecarlo basados en cadenas de Márkov, el cual requiere de una función potencial y una probabilidad a priori para recrear una función de densidad de probabilidad conjunta desconocida mediante un conjunto de muestras; el muestreador realiza varias iteraciones hasta converger en un estado de mínimo cambio, en este trabajo la entrada del muestreador es la imagen 3D, en la que el muestreador iterará etiquetando cada pixel como un valle reemplazando la etiqueta actual, la función potencial fue obtenida creando todas las combinaciones de geoformas vecinas que la central puede tener, y la probabilidad asociada para que esa combinación la marque como valle, se le fue asignada a cada combinación una nueva base para facilitar el cómputo; y la probabilidad a priori en este trabajo fue la probabilidad marginal.
CONCLUSIONES
Comparar los resultados obtenidos del muestreador de Gibbs y un análisis exploratorio de los datos del DEM permitirá proponer un modelo de aprendizaje máquina que permita realizar el proceso de etiquetado de valles de forma automatizada.
Alegria Guadarrama Wendy, Universidad Autónoma de Baja California
Asesor:Dr. Alfredo Rafael Vilchis Nestor, Universidad Autónoma del Estado de México
BIOSíNTESIS Y CARACTERIZACIóN DE NANOPARTíCULAS METáLICAS
BIOSíNTESIS Y CARACTERIZACIóN DE NANOPARTíCULAS METáLICAS
Alegria Guadarrama Wendy, Universidad Autónoma de Baja California. Asesor: Dr. Alfredo Rafael Vilchis Nestor, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
Las aguas procedentes de las industrias contaminan el agua con diversos metales pesados, como lo son las sales de metales como el plomo, zinc, mercurio, plata, níquel, cadmio y arsénico, siendo muy tóxicos para la flora y fauna. Actualmente la obtención de nanopartículas y nanomateriales es de suma importancia debido a sus diversas aplicaciones, por lo que es necesario contar con métodos amigables con el medio ambiente para su síntesis. En la presente investigación se utilizó un método biológico de síntesis por medio del extracto acuoso de C. × aurantifolia (limón verde), como agente reductor y de protección.
METODOLOGÍA
Primer etapa. Obtención de extracto acuoso de la cáscara de C. × aurantifolia (limón verde).
Donde se utiliza
10 g de cáscara de C. x aurantifolia
90 mL de agua desionizada
Inicialmente se agregó 90 mL de agua desionizada a un matraz erlenmeyer de 250 mL en una placa de calentamiento hasta llegar al punto de ebullición, posteriormente se adicionaron los 10 g de la cáscara de C. × aurantifolia y se dejó hirviendo por un periodo de 20 minutos.
Se dejó reposar hasta enfriar, después se realizó la filtración al vacío y posteriormente se dejó reposar el extracto por 24 horas.
Se realiza el extracto con cáscara fresca y deshidratada (seca).
Segunda etapa. Solución de sal precursora de nitrato de plata (AgNO3) .
Se prepara la solución de 100 mL a 10-3M de AgNO3
Tercera etapa. Biosíntesis de Nanopartículas de plata (AgNPs).
En un vial se colocó 5 mL de solución precursora de nitrato de plata con concentración de 10-3 M. Posteriormente se adicionó 1 mL de extracto acuoso de C. × aurantifolia y se afora a 20 mL con agua desionizada, de igual manera se realiza con volumen de 2 mL, 3 mL y 4 mL de volumen de extracto de la cáscara de limón verde en fresco y en seco.
Cuarta etapa. Caracterización con espectrofotómetro UV-Vis.
Se realiza el seguimiento de las reacciones a los siguientes tiempos: 30 min, 1 hora, 1 h 30 min, 2h, 3h, 4h, 5h, 6h y una siguiente lectura a las 24 h.
Para confirmar la obtención de las AgNPs
Se realiza este seguimiento para todas las concentraciones mencionadas.
Quinta etapa. Caracterización en microscopía de transmisión electrónica TEM.
Se realizó la caracterización por Microscopía Electrónica de transmisión de dos muestras para estudiar forma y tamaño de las partículas obtenidas.
CONCLUSIONES
EN UV-VIS
En la muestra de 1 mL de extracto acuoso fresco y seco de C. x aurantifolia se obtuvo el plasmón resonancia superficial característico de las AgNPs, centrado entre 450 y 550 nm.
EN TEM
Se observó que en la muestra de 1 mL de extracto de c. x aurantifolia en seco, en donde las nanopartículas de plata poseen una morfología algo irregular, pues al observarlas en las distintas resoluciones y tomando en cuenta que se están observando en 2D, se puede decir que algunas pareces ovaladas/elípticas y algunas irregularmente circulares.
Almazan Ramírez José Abraham, Universidad de Sonora
Asesor:Dr. Xavier Mathew, Universidad Nacional Autónoma de México
CIENCIA Y TECNOLOGÍA FOTOVOLTAICA
CIENCIA Y TECNOLOGÍA FOTOVOLTAICA
Almazan Ramírez José Abraham, Universidad de Sonora. Lugo Fragozo Jesus David, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Rodriguez Gomez Danilo Jose, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Asesor: Dr. Xavier Mathew, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La radiación solar puede convertirse en electricidad mediante la tecnología fotovoltaica, que ha demostrado ser una fuente de energía fiable y limpia. Sin embargo, aumentar la eficiencia de conversión y reducir los costos asociados es uno de los obstáculos fundamentales para la adopción generalizada de esta tecnología. Las células solares más populares en el mercado hoy en día están hechas de silicio cristalino, que es eficiente, pero tiene restricciones en su flexibilidad de aplicación. Por lo tanto, existe la necesidad de una amplia investigación y desarrollo de nuevos materiales que puedan sortear estas limitaciones y maximizar la producción de energía solar.
METODOLOGÍA
En este proyecto, se desarrollo en el estudio de la ciencia y la tecnología fotovoltaica, abarcando desde los fundamentos más básicos hasta las más complicados de este campo. La exploración de materiales ideales y apropiados para la tecnología fotovoltaica, con un enfoque principal en el silicio, recibió especial atención durante el curso, ya que tenía como objetivo comprender en profundidad la aplicación del conocimiento en esta área. Como resultado de su papel crucial en la eficacia y estabilidad del sistema fotovoltaico, también se examinó la importancia de los diodos en el proceso de absorción de la radiación solar y además de cómo se debe colocar el panel solar dependiendo de nuestra ubicación en el planeta.
Se realizo diversos estudios sobre los mejores materiales para la tecnología fotovoltaica. Debido a sus cualidades semiconductoras y abundancia en la corteza terrestre, el silicio se ha convertido en uno de los materiales más esenciales en la producción de las celdas solares. La composición cristalina del silicio y su capacidad para producir electricidad cuando se expone a la luz solar se examinaron minuciosamente durante el curso. Los resultados de numerosos estudios científicos respaldan la idea de que el silicio es fundamental para la eficacia y la estabilidad de las células fotovoltaicas; Por lo tanto, unos de componentes más importantes son los diodos pues cumple con la función absorber la radiación solar porque realiza la conversión de la radiación solar en electricidad mediante la absorción, que son esenciales para el funcionamiento de los sistemas fotovoltaicos. Con base en lo anterior, se estudiaron diversos cálculos matemáticos, físicos y químicos para afirmar que la tecnología fotovoltaica tiene mucha ciencia y si se ejecuta de la mejor manera correcta se aprovechara toda la radiación solar posible para tener una excelente eficiencia en las celdas fotovoltaicas.
CONCLUSIONES
En este proyecto de verano del programa DELFÍN, aprendimos muchas cosas que nos parecía que la tecnología fotovoltaica no tenía a simple vista pues detrás de él tiene mucha ciencia aplicada y ejecutada.
Hemos adquirido conocimiento sobre la importancia que juega los cristales de silicio y los semiconductores en las celdas solares. Con los cálculos matemáticos, graficas e incluso con ensayos en un laboratorio, que en un futuro cuando se nos dé la posibilidad en nuestra carrera profesional ya tengamos ciertos conocientos mucho más claros al momento de hacer esos cálculos matemáticos, físicos y químicos, buscando siempre la eficiencia al momento de trabajar con la tecnología fotovoltaica.
Alonso Pinilla Tania, Universidad de la Costa
Asesor:Dr. Hernán Darío Salas Parra, Institución Universitaria Colegio Mayor de Antioquia
PARáMETROS MORFOMéTRICOS EN CUENCAS HIDROGRáFICAS DEL NORTE DE SUR AMéRICA
PARáMETROS MORFOMéTRICOS EN CUENCAS HIDROGRáFICAS DEL NORTE DE SUR AMéRICA
Alonso Pinilla Tania, Universidad de la Costa. Asesor: Dr. Hernán Darío Salas Parra, Institución Universitaria Colegio Mayor de Antioquia
PLANTEAMIENTO DEL PROBLEMA
A través del tiempo se ha evidenciado que con el aumento poblacional y la influencia de la actividad humana en la naturaleza a través de la industrialización, la agricultura, la deforestación, el mal uso de los recursos, entre muchas otras actividades que han inducido a cambios significativos en el medio ambiente y en los bienes ambientales que en el imperan. En particular, en lo relacionado con el recurso hídrico, las actividades humanas pueden inducir a una reducción del mismo lo que implica la falta de abastecimientos que se podrían impactar considerablemente en un futuro y afectar incluso la permanencia humana (IPCC, 2022). En este contexto se tienen problemáticas con efectos sociales y económicos con la necesidad de una investigación que integre, maneje y copere una modelación integral, que implemente un diagnóstico y caracterización de las cuencas hidrográficas para la planificación adecuada del recurso hídrico , la cobertura del suelo, estrategias para la gestión hídrica y teniendo en cuenta problemas que tengan gran influencia en dichos cambios para tomarlos como base y/o referencia para proponer soluciones para enfrentar las dificultades asociados a la disponibilidad del agua y lo que con ella concierne.
En este sentido, los parámetros morfométricos ofrecen información sobre las características de las cuencas hidrográficas, las cuales resultan de gran utilidad para diferentes fines. (Lopez-Ramos et al. 2022).
METODOLOGÍA
Mediante la utilización de las nuevas tecnologías y el uso de herramientas informáticas que nos permiten la obtención de datos para posteriormente realizar un análisis de estos, se llevó a cabo el uso de ArcGIS como herramienta inicial, poniendo a mi disposición la información pertinente para llevar a cabo los objetivos planteados.
Inicialmente se hace un acoplo a la temática que se desarrolla a lo largo de las pasantías, mediante la implementación de material y documentos para hacer una familiarización con el tema correspondiente, posteriormente se realizan guías prácticas y tutorías para el desarrollo de las actividades propuestas. Una vez afianzados los conceptos se toman como base 46 cuencas hidrográficas en distintos formatos a los cuales habrá que identificar por medio de ArcGIS datos morfométricos tales como:
Área,
perímetro,
longitud de la cuenca,
Longitud de la cuenca hasta el centroide,
cotas,
orden de la red hídrica,
pendiente,
cauce principal,
Ancho medio de la cuenca
Índice de compacidad
altitud media, etc.
Además, se propone una línea de trabajo para continuar con el análisis de los datos buscando la vinculación de los parámetros morfométricos con características de variabilidad hidroclimática, teniendo como referencia el trabajo de Salas et al. (2021) en donde se encontró una relación entre el área de las cuencas y algunas características de variabilidad en los caudales asociadas a las Ondas del Este.
CONCLUSIONES
Se realizó el procesamiento de los once parámetros morfométricos antes mencionados para las 46 cuencas hidrográficas del norte de Sur América utilizadas en el artículo de Salas et al. (2021). Dicha información fue organizada considerando que en el proceso implica un nivel de complejidad de procesamiento del cual se derivaron otras subactividades como la organización de datos respecto a unos lineamientos una base predeterminada. El tiempo oficial de la Pasantía permitió lograr el procesamiento de la información ráster en términos de los parámetros morfométricos. El procedimiento a seguir será el análisis de correlación entre parámetros morfométricos y aspectos de variabilidad sinóptica.
En este sentido, se empezó un en primer paso para interactuar con la interfaz de Python en donde se busca obtener un código que me permita tener un mejor análisis a los datos que anteriormente se obtuvieron.
Durante el desarrollo se lleva a cabo una comunicación constante con los asesores para una buena ejecución y acompañamiento.
Durante el proceso del verano de investigación se llevaron a cabo la ejecución de las actividades propuestas inicialmente y aunque el proceso requiere de tiempo para llegar a la meta principal que establece los resultados de la investigación como tal, cabe resaltar que el proceso detallado que se realiza en cada paso permite la adquisición de nuevos conocimientos además de dar cuenta de los posibles errores que se pueden presentar, fue un trabajo muy emotivo que se seguirá desarrollando con la participación integra del equipo de trabajo, por lo tanto la obtención de datos finales aún se es pendiente.
Los avances de procesamiento y formación logrados durante la pasantía en el manejo de ArcGis y primera aproximación a Python como herramientas de análisis hidrológico a sido muy valioso. Además, los asesores me motivaron para continuar con los análisis contando con el apoyo y asesoría del Semillero de Investigación en Ciencias Ambientales (SICA) del Colegio Mayor de Antioquia.
Referencias
Salas, H.D.; Valencia, J.; Builes-Jaramillo, A.; Jaramillo, A.Synoptic Time Scale Variability in Precipitation and Streamflows for River Basins over Northern South America. Hydrology 2022, 9, 59. https://doi.org/10.3390/hydrology9040059
López-Ramos, A.;Medrano-Barboza, J.P.; Martínez-Acosta, L.; Acuña, G.J.; Remolina López, J.F.; López-Lambraño, A.A. Assessment of Morphometric Parameters as the Basis for Hydrological Inferences in Water Resource Management: A Case Study from the Sinú River Basin in Colombia. ISPRS Int. J. Geo-Inf. 2022, 11, 459. https://doi.org/10.3390/ijgi11090459
"IPCC. (2022b). Fact sheet-Central and South America."
Alonso Sandoval Yahaira Elizabeth, Universidad de Guadalajara
Asesor:Dr. Luis Loeza Chin, Universidad Autónoma de Ciudad Juárez
EXPLORACIóN EN LA DINáMICA DE SISTEMAS HAMILTONIANOS CON DOS GRADOS DE LIBERTAD: FUNCIONES DE LYAPUNOV Y SECCIONES DE POINCARé.
EXPLORACIóN EN LA DINáMICA DE SISTEMAS HAMILTONIANOS CON DOS GRADOS DE LIBERTAD: FUNCIONES DE LYAPUNOV Y SECCIONES DE POINCARé.
Alonso Sandoval Yahaira Elizabeth, Universidad de Guadalajara. Asesor: Dr. Luis Loeza Chin, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
En matemáticas y física, un sistema dinámico es un concepto que se utiliza para describir y estudiar cómo cambian o evolucionan ciertas variables a lo largo del tiempo. Estos sistemas pueden representar una amplia variedad de fenómenos, y su análisis proporciona una comprensión más profunda de su comportamiento a lo largo del tiempo.
Particularmente, las ecuaciones de movimiento de un sistema de partículas generan un sistema dinámico, y al resolver estas ecuaciones se obtiene la descripción del movimiento del sistema. Sin embargo, existen numerosas ecuaciones diferenciales que resultan tan complicadas que prácticamente se vuelve imposible obtener soluciones exactas de ellas, lo que impidió conocer con certeza los comportamientos y trayectorias de muchos sistemas físicos de interés.
En este contexto, el matemático Henri Poincaré desempeñó un papel fundamental al sentar las bases de lo que hoy se conoce como teoría cualitativa de las ecuaciones diferenciales. Esta teoría se enfoca en entender y describir el comportamiento cualitativo de las ecuaciones, en lugar de buscar soluciones explícitas, lo que permitió avances significativos en el estudio de los sistemas dinámico.
Particularmente, la teoría de los sistemas dinámicos en la recta o el plano es bastante completa, sin embargo, en dimensiones superiores se pueden presentar comportamientos más complicados y trayectorias caóticas. Sumado a lo anterior, sistemas mecánicos con dos o más grados de libertad se modelan en espacios de fases de dimensión cuatro o superior, lo que dificulta la representación de las trayectorias.
METODOLOGÍA
En esta investigación, se abordó la metodología siguiendo una serie de pasos clave. En primer lugar, se revisaron los conceptos básicos de los sistemas dinámicos, centrándose en el estudio de los sistemas autónomos lineales.
Después se estudiaron y analizaron herramientas importantes para el manejo de sistemas autónomos no lineales. Primeramente, se abordó el concepto de linealización, así como las condiciones necesarias para pasar de un sistema no lineal a uno lineal, posteriormente se abarcaron las funciones de Lyapunov las cuales, gracias al teorema del mismo nombre, es posible determinar la estabilidad del sistema; por último, se examinaron las secciones de Poincaré, una herramienta de suma importancia para la visualización de sistemas físicos de dos grados de libertad.
Por último, se realizó el análisis de varios sistemas mecánicos donde se aplicaron las herramientas antes mencionadas. El primer sistema que se analizo fue el péndulo simple en el cual de forma analítica se encontraron sus ecuaciones de movimiento y sus puntos de equilibrio para posteriormente linealizarlo y encontrar se función de Lyapunov correspondiente, al ser el sistema más sencillo no se requiero de secciones de Poincaré, de forma similar se analizó el sistema Péndulo-Resorte y el péndulo doble, solo que al ser sistemas de dos grados de libertad se hizo un análisis más profundo a las secciones de Poincaré.
Para poder realizar estos análisis de forma correcta se emplearon métodos numéricos, se usó el sistema de cómputo numérico Matlab y más en específico la función ode45 para la resolución de las ecuaciones y posterior análisis.
CONCLUSIONES
Durante la estancia de verano, se ha adquirido una amplia comprensión acerca de los sistemas dinámicos, así como una habilidad en el manejo de métodos numéricos que facilitaron el análisis de sistemas mecánicos complejos.
Se logró realizar un análisis de los sistemas propuestos utilizando funciones de Lyapunov y secciones de Poincaré; sin embargo, debido a la naturaleza caótica de los sistemas, no fue posible completar un análisis exhaustivo debido a la limitación de tiempo. Aun a pesar de esto, los objetivos propuestos al comienzo de esta investigación se cumplieron en su mayoría.
Alvarado Izarraras Roberto, Universidad de Guadalajara
Asesor:Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
CARACTERIZACIÓN DEL SUELO A PARTIR DEL ANALISIS DE ONDAS SUPERFICIALES EN PUERTO VALLARTA, JALISCO.
CARACTERIZACIÓN DEL SUELO A PARTIR DEL ANALISIS DE ONDAS SUPERFICIALES EN PUERTO VALLARTA, JALISCO.
Alvarado Izarraras Roberto, Universidad de Guadalajara. Portillo Lujan Ana Paula, Universidad Estatal de Sonora. Rosales Rios Claudia Ana Maria, Universidad de Guadalajara. Zúñiga Cueva Wendy Lizbeth, Universidad de Guadalajara. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La ciudad de Puerto Vallarta se encuentra en el occidente de México, la cual es una zona de alta sismicidad por consecuencia de la subducción de la placa Rivera con la Norteamericana. Históricamente han ocurrido sismos importantes que dejaron grandes daños en edificios, además del sismo las causas de esto podrían estar asociadas a los efectos de sitio, de ahí la importancia de estos estudios previos al desarrollo de estructuras de ingeniería civil. La capacidad de las estructuras para resistir una vibración provocada por un sismo depende de la intensidad del movimiento del terreno, su amplitud y duración. Ya que estos comportamientos pueden aumentar tanto la probabilidad de daños estructurales como el riesgo en la seguridad de las personas. Con la aplicación de los diversos métodos sísmicos y técnicas de análisis, como MASW (Multichannel Analysis of Surface Waves) y MAM (Microtremor Array Measurement), se puede obtener la caracterización del suelo. Estos estudios permiten inferir cómo las ondas sísmicas se pueden propagar y amplificar durante un evento sísmico. Estos métodos se basan en el análisis de ondas superficiales, el arreglo MAM es relativamente nuevo pero ha ganado bastante popularidad en la geofísica por su capacidad de resolución y penetración, además de ser más económico al utilizar el ruido ambiental.
METODOLOGÍA
La investigación se basó en la adquisición de datos sísmicos utilizando tanto el método de sísmica activa (MASW) como el método de sísmica pasiva (MAM). Se implementaron equipos y técnicas adecuadas para cada enfoque y se llevaron a cabo pruebas en diversas ubicaciones representativas de Puerto Vallarta. Los datos recopilados se analizaron y compararon para determinar las diferencias y similitudes entre ambos métodos en la caracterización del suelo.
Para el método MASW:
Selección de varios puntos para el área de estudio.
Definición de la trayectoria de la línea de adquisición de datos.
Ondas generadas a partir del golpe de un marro de 20 libras hacía una placa metálica.
Registro de ondas por medio de geófonos colocados cada 2 metros.
Para la adquisición de datos se registra un conjunto de datos suficiente para cubrir un rango de frecuencias que permita una resolución adecuada de las capas subsuperficiales. Al procesar los datos se buscó realizar la corrección de tiempo para alinear las señales registradas, así como aplicar filtros para mejorar la relación señal-ruido y eliminar el ruido no deseado. También se buscó calibrar las amplitudes de las señales para obtener mediciones precisas de la amplitud de las ondas.
Destacando que la metodología del MASW puede requerir ajustes específicos según las condiciones del terreno y los objetivos del estudio. Además, el procesamiento y análisis de datos se lleva a cabo utilizando softwares especializados.
En el caso del método MAM se utilizaron las vibraciones naturales del suelo, como el viento, el tráfico y la actividad humana, conocidas como microtemblores. En el diseño de la práctica se seleccionó el sitio de estudio y el área en el que se realizaron las mediciones, para después colocar una matriz de sensores sísmicos en el suelo (varios geófonos distribuidos en un patrón específico). De la misma manera en la adquisición de datos se recopilaron suficientes microtemblores para un análisis preciso. Para el procesamiento de datos se calcula el espectro de frecuencia de las señales para cada punto en la matriz y para diferentes componentes (horizontal y vertical) así como realizar la corrección de tiempo y aplicar filtros para eliminar ruido no deseado. Al momento de analizar los datos se identifican las frecuencias naturales del suelo (modos de vibración) a partir del espectro de frecuencia.
La metodología de MAM es una herramienta valiosa para la caracterización del subsuelo y la evaluación del riesgo sísmico, especialmente en áreas urbanas donde las fuentes sísmicas naturales son abundantes.
CONCLUSIONES
El uso de ambos métodos permitió obtener una visión más completa de las propiedades del suelo, lo que es esencial para comprender cómo las ondas sísmicas se propagan y amplifican durante un evento sísmico. El método MASW, que se basa en ondas generadas activamente, proporcionó información valiosa sobre las capas subsuperficiales y la velocidad de propagación de las ondas. Por otro lado, el método MAM, que utiliza vibraciones naturales del suelo, permitió identificar las frecuencias naturales y los modos de vibración del suelo. Mencionando que el método MAM tiene mayor costo y complejidad además de un mayor tiempo de procesamiento, mientras que en el método MASW tiene una menor resolución en profundidad y también presenta limitaciones en suelos muy heterogéneos.
La combinación de ambos métodos puede aumentar la precisión y confiabilidad de los resultados y ofrecer una mayor comprensión de la estructura del suelo, lo que es esencial para la planificación y el diseño de nuevas construcciones y para la evaluación de la vulnerabilidad de las estructuras existentes frente a eventos sísmicos.
Al comprender mejor las características del subsuelo, se pueden evaluar los riesgos geotécnicos, como la susceptibilidad a la licuefacción del suelo durante un terremoto, la posibilidad de deslizamientos de tierra u otros fenómenos relacionados con la geodinámica. La información obtenida a través de estos métodos puede ser utilizada para optimizar el diseño y la planificación de proyectos de construcción, reduciendo los costos y los riesgos asociados con la ingeniería geotécnica.
Durante la estancia de verano se logró obtener conocimientos teóricos y ponerlos en práctica a lo largo del verano. Al crear un manual de uso para el equipo geode, las practicas fueron de mayor provecho, una vez teniendo estas herramientas a disposición el proceso es fácil de implementar si el equipo necesario se encuentra disponible.
Alvarado Rivera Luisa Sofia, Instituto Politécnico Nacional
Asesor:Dr. Simon Eduardo Carranco Lozada, Instituto Politécnico Nacional
ACONDICIONADOR TéRMICO SOLAR HíBRIDO CON IMPACTO SOSTENIBLE
ACONDICIONADOR TéRMICO SOLAR HíBRIDO CON IMPACTO SOSTENIBLE
Alvarado Rivera Luisa Sofia, Instituto Politécnico Nacional. Asesor: Dr. Simon Eduardo Carranco Lozada, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
A lo largo de los años el uso de la tecnología moderna ha provocado el consumo de grandes cantidades de energía eléctrica que es dependiente de procesos de combustión lo que provoca impactos hacía el medio ambiente cómo el Consumo de Recursos Naturales, Emisiones y Vertidos, Generación de Residuos, entre otros. Es por lo que con el objetivo de encontrar una solución para esta problemática es el uso de la energía solar para cumplir con las necesidades del ser humano en el día; Los acondicionadores solares son un sistema que utiliza la energía solar para producir calor que puede aprovecharse para diferentes funciones, sin embargo, su costo de adquisición puede ser muy costosa por la poca existencia que hay en el mercado y eso provoca que las empresas inflen sus precios. Lo que busca este proyecto es construir un acondicionador térmico solar híbrido que cumpla con las necesidades domésticas, con un precio accesible para todo público y que el producto tenga un ciclo de vida en el que después de su función principal las piezas puedan seguir utilizándose para diferentes funciones y así sucesivamente para no provocar mayor impacto.
METODOLOGÍA
El desarrollo de la metodología se planteó en realizar una búsqueda bibliográfica relacionada con la energía solar y la evaluación de impacto ambiental… La relación entre la energía solar y la EIA es importante porque permite identificar y prevenir los impactos negativos que puede tener la instalación y operación de sistemas solares, así como maximizar los beneficios ambientales y sociales. Los principales impactos ambientales de la energía solar son: - Puede afectar a la biodiversidad, el paisaje, el patrimonio cultural y los servicios ecosistémicos. - El consumo de agua y la generación de residuos, que pueden contaminar los recursos hídricos y el suelo. - La emisión de gases de efecto invernadero y otros contaminantes atmosféricos, que contribuyen al cambio climático y a la degradación de la calidad del aire. - El riesgo de accidentes e incendios, que pueden causar daños materiales y humanos. La EIA debe de tomar en cuenta estos impactos en todas las fases del ciclo de vida de la energía solar, desde la extracción y transporte de los materiales, hasta el desmantelamiento y reciclaje de los equipos, además, la EIA debe evaluar las alternativas posibles, las medidas de mitigación y compensación, y el seguimiento y control de los impactos.
CONCLUSIONES
Se logro identificar los métodos y materiales que se necesitan para realizar un acondicionador térmico solar en el que los materiales utilizados cumplan con un ciclo de vida en el que no provoquen más problemáticas hacía el medio ambiente.
Alvarez Azuara Fidel, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
ANáLISIS DE LA COMPOSICIóN DE RAYOS CóSMICOS ULTRAENERGéTICOS CON LOS DATOS LIBERADOS DEL OBSERVATORIO PIERRE AUGER
ANáLISIS DE LA COMPOSICIóN DE RAYOS CóSMICOS ULTRAENERGéTICOS CON LOS DATOS LIBERADOS DEL OBSERVATORIO PIERRE AUGER
Alvarez Azuara Fidel, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
En este trabajo se analizó la composición de rayos cósmicos ultraenergéticos (con energías de al menos 10^17.8 eV) utilizando datos públicos liberados por el Observatorio Pierre Auger en 2021. La principal variable utilizada durante el análisis fue Xmax, o profundidad atmosférica a la que una cascada de partículas presenta su máximo de partículas secundiarias.
METODOLOGÍA
La metodología seguida fue una de las propuestas en el artículo Depth of maximum of air-shower profiles at the Pierre Auger Observatory: Measurements at energies above 10^17.8 eV, llamada event weighting, o ponderación de eventos, en la que se asigna un peso a cada evento para compensar la baja representación de datos dentro de ciertos rangos. Siguiendo este método, se calcularon los primeros momentos estadísticos de la población, así como de grupos divididos por intervalos de energía. Se realizó una comparación con datos ya existentes obtenidos por simulación de diferentes modelos hadrónicos de interacción.
CONCLUSIONES
Los resultados obtenidos indican que, en el rango inferior de energía, la composición de las partículas primarias de los rayos cósmicos corresponde a núcleos ligeros, mientras que a partir de un punto de quiebre ubicado en LgE = 18.18, esta composición se vuelve más pesada. Existen diferencias con los resultados obtenidos por la Colaboración Pierre Auger atribuibles a que se trabajó con una cantidad significativamente menor de datos, lo cual se vuelve más evidente en los rangos más altos de energía. Los errores calculados fueron solamente estadísticos, y en el futuro se desea realizar algunas de las simulaciones por computadora.
Alvarez Bernardino Jaqueline Susana, Instituto Tecnológico de Querétaro
Asesor:Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo
MURO DE BAHAREQUE EMPLEANDO COMPLEMENTOS DE MUCÍLAGO DE NOPAL, CENIZA Y NEJAYOTE.
MURO DE BAHAREQUE EMPLEANDO COMPLEMENTOS DE MUCÍLAGO DE NOPAL, CENIZA Y NEJAYOTE.
Alvarez Bernardino Jaqueline Susana, Instituto Tecnológico de Querétaro. Cruz Pintor Ana Giovanna, Instituto Tecnológico de Querétaro. Mejia Arredondo Leslie, Instituto Tecnológico de Querétaro. Asesor: Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
A lo largo de la historia una solución constructiva en muchas culturas ha sido el bahareque, el que tiene por significado "pared de cañas y/o maderas y tierra"
Gracias a la aparición de nuevos materiales de construcción, se han creado modificaciones a las técnicas constructivas de dicho muro.
Dentro de esta investigación se realizarán 3 prototipos donde se emplea la misma base, únicamente se cambiará un material, para poder identificar la diferencia, así como si existen pros y contras en cada uno de ellos, estos materiales son: nejayote, ceniza y mucílago de nopal.
METODOLOGÍA
Se obtuvieron materiales naturales como son:
Arcilla
Para la obtención del material, se realizó una excavación a un metro de profundidad de esta manera se asegura la pureza del material, esto con la finalidad de evitar la incorporación de otros materiales, tales como, piedras, materia vegetal, elementos en descomposición, entre otras.
Mucílago de nopal
El mucílago del nopal mejor conocido como la baba de nopal, es un biopolímero coagulante que se ha utilizado para impermeabilizar, tapar poros, resanar e incluso se utiliza como adhesivo.
Para obtener el mucílago de nopal, es necesario utilizar nopales en buen estado y con un grosor considerable de 2 cm o más. Una vez teniendo esto será necesario retirar la piel de cada nopal para poder obtener la pulpa, posteriormente la pulpa se deberá reposar en agua para que suelte el mucílago que se necesitará.
Nejayote
La palabra nejayote significa agua con cenizas en náhuatl. Proviene de las palabras nextli, que significa ceniza y ayotl que es líquido. La referencia a las cenizas proviene del método tradicional de nixtamalización. Para preparar el nixtamal en algunas partes de México, y siguiendo la tradición prehispánica, se utiliza ceniza, en vez de cal. Se coloca ceniza o cal, para cocer el maíz y después se deja reposar por horas.
De forma popular, el término nejayote se utiliza para identificar el agua amarillenta en que se ha cocido el maíz.
Cal
Sustancia alcalina constituida por óxido de calcio, de color blanco o blanco grisáceo, que al contacto del agua se hidrata o se apaga, con desprendimiento de calor, y mezclada con arena forma la argamasa o mortero.
Carrizo
Es un material ecológico y sostenible de bajo costo, estéticamente aceptable, fácil de obtener y colocar, ya que permite generar diferentes sistemas constructivos.
Es resistente a las heladas y un buen aislante térmico, debido a la gran cantidad de huecos llenos de aire de los tallos. Su conductividad térmica es λ = 0,055 W/m.K.
Se generará un muro de 1m2 donde la estructura es a base de carrizo entrelazado para crear un módulo donde posteriormente se agrega la mezcla para recubrir toda la superficie.
Ceniza
La ceniza de madera es un material que se obtiene como resultado de quemar la madera en una chimenea o en una estufa de leña. Los beneficios de este material son: que es un abrasivo natural, fertilizante natural, repelente de plagas, sustrato versátil, tiene propiedades abrasivas y suavizantes, y en este caso lo usaremos en la construcción.
Elaboración de las mezclas
Para la realización de la mezcla vamos emplear los materiales base, los cuales son, tierra, arena y cal, para posterior agregar el material elegido (najaya, mucílago de nopal o ceniza)
Aplicación
La colocación del relleno se realizará iniciando desde la parte baja del bahareque y de allí hasta la parte superior de forma ordenada y pareja.
Se realizan bolas de tierra de aproximadamente 10 cm de diámetro para posteriormente lanzarla con fuerza y la mezcla logre cubrir por completo la superficie.
Es importante emplear las manos para darle un mejor acabado al muro.
Secado
El secado del muro de bahareque de arcilla con mucílago de nopal, deberá ser a temperatura ambiente, tomando en cuenta las siguientes:
Cubrir la superficie de aplicación para evitar la incidencia solar de manera directa (esto con el fin de evitar grietas).
Recomendable descubrir por las noches las pasta para que la misma seque a temperatura ambiente por las noches.
Resultados
Como resultado de los tres tipos de muro, principalmente pudimos notar que hacer la mezcla fue sencilla, hubo buena adherencia entre los materiales y se logró conseguir una mezcla homogénea; La aplicación fue fácil en la superficie, lo que pudimos notar igual en el muro de ceniza y maíz es que no tenía la suficiente adherencia para mantenerse, sin embargo en el de mucílago de nopal se sostuvo muy bien, algo que podemos proponer en estos casos es agregar otro material a la mezcla para poder obtener mayor resistencia.
CONCLUSIONES
Durante la estancia de verano de investigación se logró adquirir conocimientos teóricos de los materiales que se pueden utilizar para realizar un muro sostenible. De igual manera se puso en práctica lo teórico, creando prototipos de 1 m2, para generar el muro de bahareque con la misma base y solo cambiar con el mucílago de nopal, ceniza y con nejayote, mostrando así, buenos resultados debido a que se abaratan costos y recursos, además se disminuye el impacto ambiental e incrementa la cultura de las comunidades.
Alvarez Cuevas Karla María, Universidad Autónoma de Sinaloa
Asesor:Dr. Jorge Alejandro Ávila Olivera, Universidad Michoacana de San Nicolás de Hidalgo
COBERTURA Y USO DEL SUELO EN LA CUENCA DEL RíO DUERO
COBERTURA Y USO DEL SUELO EN LA CUENCA DEL RíO DUERO
Alvarez Cuevas Karla María, Universidad Autónoma de Sinaloa. Valenzuela Castillo Guillermo, Universidad Autónoma de Sinaloa. Asesor: Dr. Jorge Alejandro Ávila Olivera, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Determinar la cobertura y uso del suelo actualen la cuenca del Río Duero y realizar una comparación con la información recabada de años anteriores para determinar el cambio de cobertura y uso del suelo que ha existido en dicha zona, lo que servirá de base para futuras investigaciones.
METODOLOGÍA
Se llevó a cabo la recopilación de información en formato shapefile del portal del INEGI correspondiente a la zona de estudio del Río Duero, a escala 1:50,000 para datos vectoriales de topografía y a escala 1:250,000 para datos vectoriales de edafología, geología y vegetación y uso de suelo. Posteriormente se agregaron las capas para el mapa base correspondientes a canales, carreteras, corrientes de agua, cuerpos de agua, curvas de nivel, localidades, manantial y presas. Así como también, las capas de edafología, geología y, vegetación y uso de suelo de las cartas a escala 1:250,000.
Se unieron las capas y se proyectó la información cartográfica a WGS 1984 UTM Zona 14N. El mismo proceso se llevó a cabo con información complementaria de geología (litología) y usos de suelo de los portales de laCONABIO y del SGM, de las zonas de estudio a escala 1:250,000.
Posteriormente se descargaron imágenes satelitales (Sentinel) del portal de Copernicus correspondientes a lazona de estudio.
Se recibió la capacitación por parte de un alumno egresado de la facultad, sobre el procesamiento e interpretación de imágenes satelitales, mediante la digitalización de polígonos en un Sistema de Información Geográfica (ArcGIS).
Finalmente, se llevó a cabo el análisis de las imágenes satelitales, su interpretación y el cálculo de las áreas de las diferentes coberturas y usos del suelo de la zonas de estudio, para así presentar los resultados finales del proyecto de investigación.
CONCLUSIONES
Los resultados obtenidos del análisis de imágenes satelitales son los siguientes:
TIPO DE SUELO SUPERFICIE (Ha)
Suelo desnudo 591.1 Ha
Cuerpos de agua 1,360.6 Ha
Uso Acuícola 2,672.5 Ha
Cultivos 40,022.3 Ha
Huertos 16,356.8 Ha
Pastizal 34,668.4 Ha
Cubierto -50% 58,608.9 Ha
Cubierto 50%-75% 45,294.8 Ha
Cubierto +75% 17,576.4 Ha
Asentamientos humanos 30,353.2 Ha
Con estos resultados se establece que el uso de suelo con mayor cobertura en la cuenca del Río Duero es la vegetacióncon cobertura menor al 50% y el uso de suelo con menor cobertura sería el suelo desnudo.
Con base en los mapas descargados de instituciones como el INEGI, SGM y CONABIO; se determinó que la coberturaque predominaba entre los años 1998-2003 era la selva baja caducifolia. Dicho tipo de vegetación entra en los parámetros que se establecieron como cobertura de uso de suelo menor a 75%, por lo tanto se puede decir que esto no ha cambiado. Otro cambio importante que se identificó fueque anteriormente la superficie cubierta por asentamientos humanos era de 17, 966 Ha; lo cual representa un incremento del 169%.
En mi experiencia, el trabajar en este proyecto me trajo grandes enseñanzas tanto de forma académica como personal, sin duda trataré de sacar el mayor provecho posible de los aprendizajes adquiridos y compartirlos con mis compañeros para seguir contribuyendo en la ciencia e investigación como futura profesionista, de igual forma reiterar mis agradecimientos al Dr. Ávila por acompañarnos y siempre estar a disposición para cualquier duda o consulta que surgiera.
Álvarez Mayorga Michelle Guadalupe, Instituto Tecnológico de Pachuca
Asesor:Mg. Alejandro Alzate Buitrago, Universidad Libre
INCIDENCIA DE LOS MATERIALES GEOLóGICOS, LA MORFOMETRíA Y LAS PROPIEDADES FíSICO-MECáNICAS DEL SUELO EN LA OCURRENCIA DE DESLIZAMIENTOS
INCIDENCIA DE LOS MATERIALES GEOLóGICOS, LA MORFOMETRíA Y LAS PROPIEDADES FíSICO-MECáNICAS DEL SUELO EN LA OCURRENCIA DE DESLIZAMIENTOS
Álvarez Mayorga Michelle Guadalupe, Instituto Tecnológico de Pachuca. Cortes Hernández Juan Daniel, Instituto Tecnológico de Pachuca. Asesor: Mg. Alejandro Alzate Buitrago, Universidad Libre
PLANTEAMIENTO DEL PROBLEMA
Los deslizamientos son fenómenos naturales que ocasionan el movimiento de suelos, rocas y materiales orgánicos bajo los efectos de la gravedad, aunque, pueden ser provocados por causas naturales o antrópicas; estas alteraciones al superar la resistencia al corte de la superficie pueden mover grandes volúmenes de tierra a velocidades muy variadas y violentas, ocasionando desastres que repercuten económica y socialmente a la población.
Entre los años 2019 y 2021 la Dirección de Gestión de Riesgo del municipio de Dosquebradas, Colombia; registró la ocurrencia de 154 deslizamientos. Dichos eventos fueron caracterizados y evaluados mediante el registro de información morfométrica y geológica, incrementándose de esta manera la condición de riesgo de pobladores e infraestructura en el territorio municipal. De manera particular en la microcuenca de la quebrada Aguazul se localizaron el 11.04% del total de fenómenos de remoción en masa. Adicionalmente, se identificó la reactivación del deslizamiento con latitud 4.870695 y longitud -75.649554.
METODOLOGÍA
1. Área de estudio
Para el ejercicio investigativo se hizo uso del método determinístico, dadas las propiedades particulares tanto físicas como mecánicas del suelo, de las precipitaciones y de la cobertura vegetal de la zona de interés.
Dosquebradas es el más joven Municipio del Departamento de Risaralda y uno de los de mayor crecimiento poblacional, no solamente en la región sino en el país, con un desarrollo socio económico muy superior al promedio nacional. Su ubicación, en el valle de los Quimbayas, contiguo a la capital Pereira, separados tan solo por el río Otún y el viaducto César Gaviria Trujillo y su acceso a distintas vías nacionales, tales como la Troncal de Occidente y la Autopista del Café, lo convierten en lugar estratégico para el asentamiento de grandes empresas manufactureras y centros logísticos y de distribución de mercancías (Plan de Ordenamiento Territorial, Municipio de Dosquebradas, 2022).
Entre los años 1933 al año 2012, el municipio de Dosquebradas registró la ocurrencia de 504 deslizamientos (Corporación OSSO -Colombia, 2016). Es importante precisar que los impactos socioeconómicos, asociados a tales registros, han sido altamente significativos, hecho éste que se confirma en los 132 muertos, los 16 desaparecidos y las 94 viviendas destruidas por la ocurrencia de procesos de remoción en masa. Se destaca el evento ocurrido en la zona urbana del municipio, en el sector conocido como El Viacrucis, el 5 de octubre de 1976, asociado a la segunda temporada invernal del régimen bimodal de lluvias, que generó 77 muertos y 17 viviendas destruidas, convirtiéndose en el evento de mayor impacto a lo largo de la historia municipal (Plan de Ordenamiento Territorial, Municipio de Dosquebradas, 2022).
Para este trabajo investigativo se consideró la microcuenca Aguazul, ya que, está categorizada como el principal afluente de la quebrada Dosquebradas, su estudio es esencial debido al alto potencial hídrico con el que cuenta dada la situación de la alta intervención humana, explotación de los recursos naturales, deforestación, usos inadecuados del agua y el territorio que pone en riesgo el funcionamiento de la quebrada. Los cambios climáticos que se generan como consecuencia a lo dicho anteriormente, requiere de un estudio y sistematización que permita miniar y prevenir desastres. (Orozco, 2016).
Se elaboró una estadística descriptiva para establecer la relación existente entre los parámetros físico-mecánicos, la morfometría y los materiales geológicos del deslizamiento con los datos de inventario recopilados por la DIGER.
2. Fase 1: Trabajo de campo
Se realizó una visita de campo para recorrer la zona y conocer el deslizamiento en análisis; de igual forma, se tomaron las medidas correspondientes para la obtención de la morfometría del talud, su correspondiente caracterización y toma de fotografías aéreas para una mejor visualización del fenómeno.
Consecutivamente, se llevó a cabo la extracción de tres muestras alteradas y un sondeo de cinco inalteradas a 1, 2, 3, 4, y 5 metros de profundidad; al igual que toma inalterada de cenizas volcánicas a un metro de profundidad, garantizando el almacenaje técnico de las muestras.
2. Fase 2: Trabajo de laboratorio
Toma de muestras alteradas y ensayos ejecutados:
Toma de tres muestras alteradas en distintos sitios de la cara libre del talud.
Ensayos realizados: contenido de humedad natural, límites de consistencia y clasificación granulométrica.
Toma de muestras inalteradas y ensayos ejecutados:
Ejecución de sondeo 1 de cinco metros de profundidad y recuperación de muestras inalteradas cada metro.
Ejecución de sondeo 2 a un metro de profundidad y recuperación de muestra inalterada.
Ensayos realizados: contenido de humedad natural, pesos unitarios y corte directo.
CONCLUSIONES
De la construcción del perfil de meteorización se estableció que existe materia orgánica, cenizas volcánicas y residual de rocas ígneo-metamórficas. En la caracterización del fenómeno localizado con latitud 4.870695 y longitud -75.649554 se determinó un movimiento rotacional. El entorno acorde con la evaluación denota que la cobertura de pastos, las altas pendientes y los materiales geológicos fueron los factores condicionantes para la ocurrencia de deslizamientos.
De acuerdo a los parámetros del suelo, la exploración geotécnica, la obtención de muestras y a los ensayos realizados las humedades naturales predominantes en el lugar objeto de estudio estuvieron entre 35 y 78%. Los valores de las cohesiones entre 0.19 y 0.97 kg/cm2 y las fricciones se encontraron entre 3º y 25º.
Acorde a las condiciones del entorno y los parámetros físico-mecánicos evaluados se recomienda que la mejor solución para garantizar la estabilidad del talud es acometer obras o medidas correctivas fundamentadas en soluciones basadas en la naturaleza consistentes en la construcción de trinchos vivos, filtros vivos, zanjas de coronación y reforestación con flora endémica que cuenta con un sistema radicular de estilo pivotante.
Alvarez Sanchez Ricardo, Benemérita Universidad Autónoma de Puebla
Asesor:M.C. Alba Maribel Sánchez Galvez, Benemérita Universidad Autónoma de Puebla
DISEñO E IMPLEMENTACIóN DE UNA RED NEURONAL CONVOLUCIONAL PARA LA CLASIFICACIóN DE IMáGENES UTILIZANDO LA BASE DE DATOS CIFAR-100
DISEñO E IMPLEMENTACIóN DE UNA RED NEURONAL CONVOLUCIONAL PARA LA CLASIFICACIóN DE IMáGENES UTILIZANDO LA BASE DE DATOS CIFAR-100
Alvarez Sanchez Ricardo, Benemérita Universidad Autónoma de Puebla. Lomeli Ponce Geraldine, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Alba Maribel Sánchez Galvez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En el campo de la visión por computadora, la clasificación precisa de imágenes es un desafío significativo debido a la complejidad y diversidad de los datos visuales. Para abordar este problema, una herramienta poderosa es el uso de Redes Neuronales Convolucionales (RNC), que es una clase de modelos de aprendizaje profundo. Las RNC se inspiran en la organización visual del cerebro y han demostrado resultados prometedores en una amplia gama de aplicaciones, desde el reconocimiento facial hasta la detección de objetos en tiempo real.
La importancia de las Redes Neuronales Convolucionales radica en su capacidad para realizar un aprendizaje jerárquico de características, lo que les permite aprender automáticamente a reconocer patrones y representaciones complejas a partir de datos visuales.
En el contexto del aprendizaje supervisado, las RNC requieren conjuntos de datos etiquetados para entrenarse adecuadamente. El aprendizaje supervisado implica proporcionar ejemplos de entrada junto con las salidas correctas asociadas para que el modelo aprenda a mapear las características de entrada a las etiquetas correctas. En este enfoque, es esencial contar con un conjunto de datos que contenga imágenes y sus correspondientes etiquetas de clase, lo que permite que la RNC se entrene para realizar tareas de clasificación de manera efectiva.
Para el desarrollo de nuestro trabajo de investigación, nos enfocamos en el dataset CIFAR-100, que es ampliamente utilizado en el ámbito de las RNC y la visión por computadora. El CIFAR-100 es un conjunto de datos que contiene 100 clases de objetos diferentes, con cada clase compuesta por 600 imágenes de 32x32 píxeles. La presencia de múltiples clases y la diversidad de objetos en el CIFAR-100 presentan un desafío interesante para evaluar la capacidad y eficacia de las RNC en tareas de clasificación de imágenes a gran escala.
De este modo nos proponemos diseñar y desarrollar una Red Neuronal Convolucional utilizando el aprendizaje supervisado en el dataset CIFAR-100. Nuestro objetivo es explorar la capacidad de la RNC para lograr una alta precisión en la clasificación de imágenes de este dataset, así como analizar su rendimiento en comparación con otros enfoques de clasificación. Así esperamos contribuir al avance de la visión por computadora y al uso efectivo de las RNC en aplicaciones del mundo real.
METODOLOGÍA
Para el diseño del algoritmo se siguieron los siguientes pasos:
Carga y preparación del conjunto de datos:
Se importa TensorFlow y se utilizan las funciones necesarias para cargar el conjunto de datos CIFAR-100.
Se divide el conjunto de datos en dos partes: datos de entrenamiento y datos de prueba.
Normalización de datos:
Los valores de los píxeles de las imágenes se normalizan dividiéndolos para asegurar que estén en el rango de 0 a 1.
Definición de la arquitectura de la RNC:
Se crea un modelo secuencial, una pila lineal de capas, para construir la RNC.
Se definen las capas de la RNC, que incluyen:
Dos capas de convolución (Conv2D) con función de activación ReLU para extraer características significativas.
Dos capas de MaxPooling2D para reducir la dimensión espacial de la representación.
Dos capas de Dropout para prevenir el sobreajuste.
Una capa Flatten para convertir la salida en un vector 1D.
Dos capas Dense (totalmente conectadas) con función de activación ReLU y softmax, respectivamente, para obtener las probabilidades de pertenencia a cada clase.
Compilación del modelo:
Se compila el modelo utilizando el optimizador Adam y la función de pérdida.
La precisión se define como la métrica a evaluar durante el entrenamiento.
Entrenamiento del modelo:
Se define el tamaño del lote utilizado en el proceso de entrenamiento.
Se establece el número de épocas para iterar sobre el conjunto de entrenamiento.
Se inicia el proceso de entrenamiento utilizando el método "fit", pasando los datos de entrenamiento y prueba para la validación.
Durante el entrenamiento, el modelo ajustará sus parámetros para minimizar la pérdida y mejorar la precisión en la clasificación de imágenes.
Al seguir esta metodología, se espera obtener un modelo de RNC capaz de clasificar imágenes en una de las 100 categorías del conjunto de datos CIFAR-100.
CONCLUSIONES
Al entrenar el modelo durante 200 épocas, se alcanzó una precisión del 84% en la clasificación de imágenes. Esta precisión es un indicador sólido de la efectividad del modelo en la tarea de clasificación. Para futuras investigaciones, la precisión se puede mejorar con ajustes finos en la arquitectura de la RNC como otra selección de hiperparámetros y la experimentación con combinaciones de funciones de activación distintas a las usadas.
Amaro Ramirez Angel Eros, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Rafael Mendez Sanchez, Universidad Nacional Autónoma de México
EMULACIóN DE ESTADOS LOCALIZADOS USANDO COMSOL MULTIPHYSICS.
EMULACIóN DE ESTADOS LOCALIZADOS USANDO COMSOL MULTIPHYSICS.
Amaro Ramirez Angel Eros, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rafael Mendez Sanchez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La física del Estado Sólido estudia a los materiales a partir de la forma en que se acoplan sus átomos o moléculas, dicha descripción es de vital importancia ya que muchas propiedades y fenómenos que exhiben el objeto a estudiar son explicadas. Si a un material se le agregan defectos o impurezas, conservando la disposición periódica de sus elementos fundamentales (átomos o moléculas) sus propiedades pueden cambiar drásticamente.
Por otra parte, el dopar con defectos (impurezas) periódicos a una red cristalina puede resultar en la aparición de estados localizados (bound states). El término Estado Localizado hace referencia a los estados ligados, cuya función de onda tiende a cero fuera del defecto, pero con una alta amplitud de probabilidad de encontrar un electrón o exciton en el defecto. El estudio, comprensión y manipulación de la forma en que ocurren los estados localizados tiene un gran impacto en el desarrollo de tecnologías de transporte electrónico en nanoestructuras.
Durante el verano de la investigación se estudió la aparición de estados localizados en cristales fononicos al variar distintos parámetros en una red cristalina. Para esto se empleo el software Comsol Multiphysics para construir la estructura geométrica de dichos cristales y simular la forma y aparición de los estados localizados. Como objetivo adicional, se busco encontrar estados localizados cuya amplitud de probabilidad sea mayor en la parte central del defecto.
METODOLOGÍA
Las medidas de las uniones fueron las siguientes: ancho 2.5 mm, profundidad 8.2 mm y alto 6 mm. Las medidas de los platos fueron los siguientes: 20 mm de ancho y profundidad, y 6 mm de alto. Se elaboro un mallado de mapeado cuadrado y se definieron las propiedades mecánicas del aluminio 1100. Posteriormente se simularon los primeros 35 modos normales de vibración del cristal fononico y se realizó un estudio paramétrico en función de L el cual se hizo variar desde 20 mm a 35 mm en pasos de 0.1 mm, con esto se obtuvo la estructura de bandas en función de L.
El defecto debe cumplir con la siguiente condición: alguno de sus modos normales de vibración se debe encontrar dentro de la brecha de banda o banda prohibida del cristal. Las medidas del alto del defecto y uniones es el mismo que para el cristal, así mismo para las uniones la profundidad se mantiene en 8.2 mm. Se realizo un estudio paramétrico de los primeros 40 modos normales de vibración del defecto en función del ancho de las uniones d que va desde 0.1 mm hasta 9 mm en pasos de 0.1 mm y de L que va desde los 20 mm hasta 30 mm en pasos de 0.1 mm. Con esto se obtuvo las resonancias del cristal para cada configuración de L y d.
Si bien se puede utilizar una única celda de cristal fononico como acoplador, para sistemas periódicos largos se observa que una celda no es suficiente para concentrar las ondas mecánicas dentro de los defectos. Se realizo el mismo estudio paramétrico para conectores de 2 a 5 celdas y estudiar sus brechas de bandas.
En un primer intento, se construyeron cadenas con 2 celdas como acopladores cuyo L fue de 20 mm. Se eligió d igual a 1 mm, para meter un modo normal de vibración que ubicado en 34590 Hz. De forma similar se construyo una segunda cadena para cuando d es igual a 8 mm. En la segunda banda de brecha se metió un modo normal a 35687 Hz. A su vez se intento meter un modo normal de 75269 Hz en la octava brecha de banda, con el inconveniente de que en la misma brecha de banda se meten otras 3 resonancias ubicadas en 73217 Hz, 74753 Hz, 76845 Hz. Posteriormente se construyeron cadenas periódicas con 3 defectos.
En un segundo estudio se prefirió trabajar con 5 celdas. Las medidas de las uniones se mantuvieron igual. Se realizo el estudio paramétrico para los acopladores y así obtener la estructura de bandas en función de L. Se opto por seguir trabajando L igual a 20 mm. Si se deja que las uniones de los defectos sean d igual a 1 mm se observa que la única resonancia que cae en una brecha de banda es la de 67105 Hz. La brecha de banda se encuentra de 65179 Hz a 69193 Hz.
Por ende, para los defectos se agrego como segundo grado de libertad la profundidad. Se realizo un nuevo estudio paramétrico para d que va de 0.1 mm a 3.5 mm en pasos de 0.1 mm. El estado localizado que se pudo hallar en el estudio es para d igual a 1 mm cuando L es igual a 20 mm su modo normal se encuentra en 30800 Hz y para d igual a 0.4 mm con L igual a 21 mm su modo normal se encuentra en 27996 Hz. Se construyeron las cadenas periódicas con 3 defectos y se observaron los comportamientos de sus estados localizados.
CONCLUSIONES
Conocer el comportamiento de los 3 estados localizados es importante si se requiere construir la estructura. Lo ideal es que entre cada estado localizado exista el suficiente espacio para detectar las resonancias en un modelo físico real, a su vez, no deben existir otros modos normales entre estos estados localizados y el espacio que hay entre los estados localizados superiores e inferiores respecto de cada modo normal anterior o posterior debe ser de al menos 200 Hz. Otro comportamiento deseable es que la frecuencia a la que se encuentran los estados localizados este en un rango de entre 10000 Hz a los 50000 Hz, esto para que detectarlas con los instrumentos de medición sea mas fácil. Si bien se encontraron estados localizados con el procedimiento mencionado en la metodología, la mayoría no cumplen con los requerimientos impuestos. El mas cercano a cumplir con lo anterior fue el quinto resultado, ya que este tiene desplazamiento en la parte central del defecto.
Amezcua Robles Emeril David, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor:Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)
ESTUDIO DE LAS PROPIEDADES ELECTRóNICAS Y ELáSTICAS DE LAS ALEACIONES DE HIERRO EMPLEANDO PRIMEROS PRINCIPIOS
ESTUDIO DE LAS PROPIEDADES ELECTRóNICAS Y ELáSTICAS DE LAS ALEACIONES DE HIERRO EMPLEANDO PRIMEROS PRINCIPIOS
Amezcua Robles Emeril David, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Los aceros Maraging son aceros que se distinguen por sus propiedades excepcionales como su alta resistencia y tenacidad, y por su estructura de tipo martensita, además presentan resistencia a temperaturas relativamente altas. Estas características los convierten en materiales altamente valorados en diversas industrias, incluyendo la aeroespacial y militar, donde son ampliamente utilizados en el diseño de componentes para motores y estructuras sometidas a condiciones extremas.
Una de las principales características de este acero es su composición química. Estos aceros se caracterizan por tener un bajo contenido en carbono y un alto contenido en níquel. En contraste con las aleaciones convencionales, donde el alto contenido de carbono es el responsable de brindarles una alta dureza y facilitar el cambio de fase (austenita-martensita), los aceros Maraging presentan una característica notable. A pesar de tener un contenido muy bajo en carbono, estos aceros aún experimentan el cambio de fase austenita-martensita, lo cual sugiere que otros factores en su composición y estructura son los determinantes principales de esta transición de fase.
En este contexto, el presente trabajo pretende realizar un estudio detallado de los cambios de fase de los elementos en las aleaciones de hierro y comprender las propiedades electrónicas fundamentales que gobiernan su comportamiento elástico. Para esto, se empleará el método de primeros principios, específicamente DFT (Density Functional Theory).
Se considera que este estudio contribuirá al avance científico en el campo de las aleaciones de hierro y los aceros Maraging y, también podría tener un impacto significativo en el desarrollo de nuevos materiales con propiedades sobresalientes en aplicaciones específicas, como en la fabricación de componentes aeroespaciales, estructuras militares y otras áreas de la ingeniería donde se requieran materiales de alto rendimiento y resistencia.
METODOLOGÍA
Para el estudio de las propiedades electrónicas y elásticas de los elementos en las aleaciones de hierro se empleó el método de primeros principios utilizando DFT. Todos los cálculos se realizaron con el software VASP (Vienna Ab initio Simulation Package) en un sistema operativo Linux.
Se realizaron cálculos para los siguientes elementos: Co, Cr, Fe, Mn, Mo, Nb, Ni, V y W. Para garantizar la precisión y estabilidad de los cálculos, se optimizaron los parámetros de ENCUT, KPOINTS y lattice para cada uno de ellos. Se utilizaron scripts desarrollados en Python para optimizar los parámetros de los cálculos. Esto permitió mejorar la eficiencia y agilidad del proceso de cálculo, así como facilitar la interpretación de los resultados mediante gráficos. Los resultados se visualizaron utilizando las librerías de Python matplotlib y scienceplots.
Para los cálculos, se utilizaron los siguientes valores: ENCUT = 500 eV y KPOINTS: 19x19x19 en el espacio recíproco. Se emplearon los pseudopotenciales PAW (Projector-augmented wave). Estos pseudopotenciales PBE (Perdew, Burke y Ernzerhof) describen la interacción entre los núcleos y los electrones de los átomos.
Después de las optimizaciones, basándose en el artículo Phys. Rev. Lett. 72, 3076, se realizó un bain-path, que consiste en una deformación a volumen constante donde se variaron los parámetros de red a y c, explorando diferentes estructuras cristalinas BCC (Body-Centered Cubic) y FCT (Face-Centered Tetragonal). Se obtuvo una gráfica que muestra la variación de los valores de c/a frente a la energía en unidades de electrón-voltios por átomo.
Las constantes elásticas se calcularon utilizando el método de diferencias finitas, implementado en VASP a través de la variable IBRION. Este método permite calcular las segundas derivadas de la energía total con respecto a la posición de los iones, lo que es esencial para determinar las constantes elásticas de los materiales estudiados.
CONCLUSIONES
Se encontraron las tendencias de los elementos a pasar de una estructura BCC, a FCT, específicamente los elementos Fe, Ni, y Co, los elementos que componen los aceros maraging principalmente. Se ve como estos elementos prefieren pasar o sus niveles de energía son más bajos conforme su valor de c/a > 1, lo cual indica que estos son más estables en una estructura tetragonal.
Se observaron tendencias consistentes en los elementos Fe, Ni y Co, principales componentes de los aceros Maraging, al pasar de una estructura cristalina BCC a FCT a medida que el cociente c/a superaba el valor de 1 el nivel de energía disminuía, teniendo un mínimo en √2. Estos resultados indican que estos elementos son más estables en una configuración tetragonal, lo que sugiere que las aleaciones de hierro con esos elementos presentan un comportamiento elástico óptimo en esta estructura.
Además, los valores obtenidos para las constantes elásticas demostraron congruencia con la literatura científica, validando la precisión de los cálculos y fortaleciendo la fiabilidad del enfoque basado en DFT y el uso de pseudopotenciales PAW.
La obtención de valores coherentes con observaciones experimentales proporciona una base sólida para el diseño y desarrollo de aceros Maraging y otros materiales avanzados con propiedades mejoradas.
Angulo Flores Oscar Ernesto, Universidad de Sonora
Asesor:Dr. Enrique Rosendo Andrés, Benemérita Universidad Autónoma de Puebla
ESTUDIO TEORICO Y SIMULACIóN DE CELDA SOLAR PBS/CDS DE ALTA EFICIENCIA
ESTUDIO TEORICO Y SIMULACIóN DE CELDA SOLAR PBS/CDS DE ALTA EFICIENCIA
Angulo Flores Oscar Ernesto, Universidad de Sonora. Asesor: Dr. Enrique Rosendo Andrés, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Las celdas solares son uno de los dispositivos emergentes más prometedores ya que permiten obtener energía limpia para un desarrollo sostenible de la sociedad. La búsqueda y aprovechamiento de nuevos materiales para fabricar estas celdas es fundamental, por lo que en este trabajo se estudia, modela y simula la posibilidad de tener una celda solar compuesta por la unión PN de sulfuro de plomo y sulfuro de Cadmio (PbS/CdS).
METODOLOGÍA
Se utiliza el software SCAPS-1D para simular la heteroestructura de PbS/CdS con una capa frontal de oxido conductor transparente de Oxido de Zinc dopado con aluminio llamada AZO, así como una capa trasera de Oxido de Níquel que funciona como una capa transportadora de huecos y mejora la corriente generada por la celda. Se variaron los diferentes parámetros de grosor de 10 nm a 100 nm para la capa ventana de CdS y de 0.5 micras a 5 micras para la capa absorvedora de PbS. También se variaron la concentración de aportadores de 1E15 a 1E19 para ambas capas. El software SCAPS-1D nos brinda las curvas de densidad de corriente contra voltaje, los parámetros de voltaje de corte, eficiencia de conversión de potencia y eficiencia cuántica.
CONCLUSIONES
La estructura propuesta se logró optimizar con un grosor de 50 nm para la capa ventana de CdS y 2 micras para la capa de PbS, así como una concentración de electrones y huecos de 1E18 y 5E16 respectivamente. A la vez, se utilizó una capa delgada de AZO y de NiO de 10 nm. Se alcanzo una eficiencia de aproximadamente 29 % con un voltaje de corte de 1.05 V y una densidad de corriente de 32 mA/cm3, así como una eficiencia cuántica superior al 95 % en gran parte del espectro.
Aquino Ramirez Kathia Grisel, Universidad Veracruzana
Asesor:Dra. Ma. Catalina Gómez Espinosa, Universidad Autónoma de Guerrero
REINTERPRETACION DE LOS MITOS SOBRE LOS GIGANTES EN EL MEXICO ANTIGUO
REINTERPRETACION DE LOS MITOS SOBRE LOS GIGANTES EN EL MEXICO ANTIGUO
Aquino Ramirez Kathia Grisel, Universidad Veracruzana. Asesor: Dra. Ma. Catalina Gómez Espinosa, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
Los mitos de la época precolombina y durante la conquista, en relación con los llamados gigantes o Quinametzin, a quienes se les enaltece de tener una estatura que supera al promedio, son historias que se han ido olvidando casi por completo, debido al poco interés de la comunidad y a la decreciente tradición oral entre los individuos. El origen de esos mitos, fueron dados gracias a ciertos hallazgos de restos óseos de gran magnitud, que se vinculaban con los cadáveres de gigantes. Sin embargo, hoy en día se sabe son vestigios de megafauna, ya sea desde perezosos gigantes, hasta gonfoteridos o mamuts, etc.
Por ende, el análisis y entendimiento de aquellos mitos nos podrían dar no solo un acercamiento a la cosmogonía de las personas aborígenes mexicanas, sino que también a un enriquecedor registro fósil. Se propone entonces durante la estancia del Verano de Investigación, una compilación de bibliografías y textos que nos hablen acerca de este tipo de historias, para así darlas a conocer al público, como de igual forma exponer la importancia que conllevan al momento de hacer un trabajo paleontológico.
METODOLOGÍA
Se hizo una búsqueda de documentación bibliográfica y de archivo, con el fin de encontrar fuentes en el que se hablaran o figuraran a los gigantes. Posterior a ello, se empezó a desechar información que no tuviera congruencia con los registros históricos, para así solo pasar a analizar notas que estuvieran mayormente comprobados por historiadores.
Con lo obtenido se paso a crear un repertorio hecho de narraciones populares, cuentos, remembranzas, anécdotas o recetas medicinales que utilizaran huesos de megafauna, para dar un panorama general de lo que se sabía de los fósiles en tiempos pretéritos. Como tal el repertorio se guardó en una carpeta, para que en la posterioridad pueda llegar a ser publicada, siendo en línea o en un pequeño artículo.
Además, se utilizaron fósiles de megafauna para compararlos con las descripciones de las historias recopiladas, con el fin de saber a qué tipo de animal pudo corresponder aquel gigante. Mediante diferentes mediciones del fósil, la comparación de la anatomía y el análisis de los dientes se quiso aproximar a una estimación de las descripciones otorgadas por los mitos.
CONCLUSIONES
Desgraciadamente los mitos o las historias de los gigantes no cuentan con una descripción detallada del fósil, aunque eso sí, se narran varios de los lugares en los que fueron encontrados. Por lo que, si bien no se sabe a que tipo de animal se refiere, si se puede recuperar, rescatar y restaurar para un estudio paleontológico más riguroso. Siendo así relevante que se indague mas acerca de los diferentes mitos que puedan rondar en torno al tema de los gigantes, para poder conseguir una gran cantidad de restos fósiles, los cuales ayudan a analizar factores ecológicos de los seres vivos y a establecer posibles paleoambientes en los que se depositaron
Arellano Valdenebro Janeth, Universidad de Guadalajara
Asesor:Dr. Bernardino Barrientos Garcia, Centro de Investigaciones en Óptica (CONACYT)
INTERFEROMETRíA EN LA EVALUACIóN DE LENTES OFTáLMICAS
INTERFEROMETRíA EN LA EVALUACIóN DE LENTES OFTáLMICAS
Arellano Valdenebro Janeth, Universidad de Guadalajara. Rosas Benavides Natalia Jackeline, Universidad de Guadalajara. Asesor: Dr. Bernardino Barrientos Garcia, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Como se sabe más del 50% de la población mexicana hace uso de lentes oftálmicas, donde se les dice que la graduación de la lente que usaran es de una gran calidad. Pero realmente no siempre es como lo hacen saber.
El motivo por el que se realizó nuestra investigación fue dado a que muchas tiendas oftalmólogas no tienen un gran control al momento de graduar el radio de curvatura de las lentes oftálmicas, dado que este radio puede quedar solamente en el centro de la lente y no esparcida en toda la lente. Es importante saber que el radio de curvatura puede mejorar el panorama de la vista dado por la lente oftálmica.
Paro esto se encontró la manera de medir su radio de curvatura de píxel en píxel, donde la persona se podrá dar cuenta si hay algún error al momento de que el lente haya sido graduado. Al momento de encontrar su radio fue posible poder calcular su potencia y las dioptrías que este tiene.
METODOLOGÍA
Para comenzar con esta aplicación se hizo una investigación de los conceptos básicos de la óptica, donde se conoció las fuentes de luz, lentes, cámaras e interferómetros.
Nos basamos en el interferómetro de Mach Zehnder el cual está compuesto por un láser, dos espejos y dos divisores de haz. Para la toma de las imágenes dadas por el interferómetro se hizo uso de una cámara. El comportamiento de este interferómetro empieza desde una fuente de luz, en este caso el láser, el cual incide por un divisor de haz que divide un rayo de luz los cuales se dirigen a dos espejos, por último, son juntados por el ultimo divisor de haz, que manda los dos rayos juntos a la cámara y otro parte de esos dos rayos a una pantalla, sin perder información.
Primero se tomaron cinco imágenes con diferentes características, la primera no introducíamos la lente oftálmica, ni le debamos una inclinación a uno de los lentes, con el motivo de poder ver las aberraciones que tenía el arreglo. La segunda imagen se colocó la lente interfiriendo en uno de los caminos de los dos rayos, por lo que esto nos dejaba ver cuál era la posición del centro de la lente. La en la tercera se quitó la lente y se introdujo una inclinación en una de las lentes, esto para poder tener una frecuencia espacial de 100 franjas. En la siguiente imagen se introdujo la lente ya puesta con la inclinación. Por último, se tomó la foto del tamaño de la imagen.
La últimas tres imágenes mencionadas, nos ayudaron en el procesamiento de imágenes, donde se aplicó el método de Takeda el cual consta de lo siguiente.
Se aplica la transformada rápida de Fourier tanto para la imagen con tilt y sin lente, así como la imagen con tilt y con lente.
Por segundo lugar tenemos la aplicación de un filtro en ambas imágenes, el cual nos dejara pasar ciertas frecuencias que nos apoyaran a atenuar las demás frecuencias.
Se le aplica la transformada inversa de Fourier a ambas imágenes. Al obtener el resultado nos daremos cuenta de que nos arrojara números de pixeles reales al igual que imaginarios.
Al obtener los números reales e imaginarios se les aplicará un arcotangente de dos parámetros que será el uso de los números imaginarios entre el de los reales.
Por consiguiente, hacemos una resta de los resultados dados por el arcotangente en ambas imágenes por lo que obtenemos la imagen donde se encuentra el radio de la lente.
Por último, se hace un desenvolvimiento de fase de esta última imagen, de sus columnas y sus renglones. Esto nos ayuda a eliminar discontinuidades en la fase y poder recuperar su fase original, lo cual nos ayudó a poder calcular R o el radio de curvatura. Para finalizar con este proceso solo se cálculo la potencia que es la inversa de R.
Para esto se tuvo que simular las imágenes tomadas por el interferómetro, para poder trabajar de manera eficaz en el código dado que en estas imágenes no se tenía ningún tipo de ruido y esto no nos complicaba el software desarrollado para este método. Anteriormente se sabía que la lente que se estaba midiendo tenía un radio de curvatura de 7 metros. Por lo que en el radio de curvatura calculado en estas imágenes simuladas daba un aproximado a 7 metros, con muy poco error porcentual. Se consiguió una estabilidad en el desarrollo del software y se procesaron las imágenes experimentales. Lo cual como promedio se obtuvo un radio de curvatura de 7 metros de píxel en píxel y una potencia de +0.14 D.
CONCLUSIONES
Durante la estancia de verano en el CIO,se logró aprender más acerca de la interferometría, al igual que el comportamiento de la luz que se tuvo en el interferómetro de Mach Zehnder. Dado a este comportamiento se logró calcular el radio de curvatura de una lente oftálmica, la cual tenia una gran importancia dado que nos ayudó en el momento de calcular la potencia de una lente de pixel por pixel.
Arenas Munera Daniel, Instituto Tecnológico Metropolitano
Asesor:Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
ANáLISIS DE LOS DATOS LIBERADOS DEL OBSERVATORIO PIERRE AUGER Y SIMULACIONES DE UNA FUENTE DE ALTO VOLTAJE PARA DETECTORES DE ASTROPARTíCULAS
ANáLISIS DE LOS DATOS LIBERADOS DEL OBSERVATORIO PIERRE AUGER Y SIMULACIONES DE UNA FUENTE DE ALTO VOLTAJE PARA DETECTORES DE ASTROPARTíCULAS
Arenas Munera Daniel, Instituto Tecnológico Metropolitano. Asesor: Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Los rayos cósmicos son partículas relativistas de alta energía que constantemente ingresan en la atmosfera terrestre, donde la técnica de detección es fundamental. Consecuentemente, existen diferentes técnicas e instrumentos de detección. El observatorio Pierre Auger combina dos técnicas complementarias que son los telescopios de fluoresencia y los detectores de superficie. El objetivo del observatorio Pierre Auger es determinar el origen de los rayos cósmicos para aportar al conocimiento de nuestro universo. Estas partículas nos interesa estudiarlas dado que nos permiten observar el universo de manera alternativa. También, juegan un papel importante en la salud de los astronautas, entre otros. Consecuentemente, se debe continuar en el análisis de datos en busca del origen de los rayos cósmicos y el entendimiento de su composición, origen, espectro energético, entre otros.
Por otra parte, existe un tipo de detector llamado Resisitve Plate Chamber (RPC), que consiste en dos electrodos paralelos de alta resistividad separadas por gas. Ahora bien, las fuentes de voltaje que requieren deben ser capaces de suministrar tensiones de hasta 18000 V. En el mercado hay variedad de fuentes adecuadas, pero poseen un costo elevado. Esto resulta en una limitación para la implementación de esta técnica, dado que aumenta la demanda de recurso económico y por lo tanto afecta la posibilidad de adquisición de los centros de investigación. Consecuentemente, se han realizado investigaciones con el objetivo de fabricar fuentes de alto voltaje de bajo costo.
METODOLOGÍA
El centro de investigación actualmente posee un detector tipo RPC. También, posee una fuente de alto voltaje comercial la cual presentó fallos y se encuentra dañada. La reparación de esta fuente resulta inviable económicamente, por lo que se han realizado avances en el diseño y fabricación de una fuente de bajo costo. .Sin embargo, el prototipo aún presenta inestabilidad en su comportamiento por lo que debe ser mejorado. En esta etapa, agradezco especialmente al Dr.Guillermo Tejada por sus avances en el área y asesoría en el presente estudio.
Con el fin de caracterizar el comportamiento del prototipo de la fuente, se simuló el lazo de control de la etapa de alto voltaje en el software Orcad Capture SIS. Para evaluar su desempeño se compararon los resultados esperados según el diseño y los valores obtenidos por medio de simulación. También, se estudió matemáticamente las ecuaciones de comportamiento del circuito, teniendo en cuenta las ecuaciones de diseño de cada componente dada en los catálogos comerciales. De esta manera, se añadió un criterio de evaluación para las simulaciones y el diseño original comparando los resultados con los teóricos.
La simulación permitió detectar que los diseños de algunos subcircuitos no funcionaban acorde a las condiciones de diseño de la fuente y no correspondieron con la respuesta esperada según la hoja de datos. Por lo tanto, estos subcircuitos debieron ser re diseñados. De esta manera, se propuso un nuevo diseño para el lazo de control de la tarjeta que estuvo basado en amplificadores operacionales y un convertidor Buck-Boost. Posteriormente, el diseño propuesto fue simulado y se evaluó su desempeño de acuerdo a los criterios establecidos para su evaluación.
Por otra parte, en el contexto del análisis de datos del observatorio Pierre Auger, se realizó un estudio de la anisotropía de rayos cósmicos de alta energía. Para esto, primero se realizó un estado del arte de la naturaleza y origen de estas partículas. Se revisó literatura disponible desde el 2000 hasta la actualidad con el fin de conocer el panorama científico. Primero, se reprodujeron los resultados del articulo Correlation of the highest-energy cosmic rays with the positions of nearby active galactic nuclei (2008), utilizando la misma metodología y datos de los autores. Esto se realizó con el fin de familiarizarse con las técnicas de análisis, consideraciones físicas y metodologías utilizadas en el estudio de una distribución no uniforme de eventos ultraenergéticos. La validación de resultados se realizó por medio del software ROOT. Los resultados coincidieron con los presentados por los autores en el artículo por lo que la técnica de análisis es adecuada. Agradezco a la Dra.Karen Salomé Caballero por su acompañamiento y asesoría durante todo el proceso de análisis.
Sin embargo, este estudio utilizado datos obtenidos hasta el 2007, por lo que se debieron realizar análisis con los datos actuales. Para esto se utilizó un conjunto de 22751 eventos proporcionados por el observatorio en su base de datos abiertos obtenidos entre el 2005 y el 2022. Este conjunto de datos fue organizado utilizando Python y preparado para análisis. Posteriormente, se estudió la distribución de los eventos en relación a las coordenadas de llegada a la atmosfera terrestre. Para esto se realizaron histogramas en ROOT y se utilizó la regla de Sturges para la selección del número de bins. Luego, los resultados fueron analizados contrastando con lo esperado según la literatura existente.
CONCLUSIONES
Durante la estancia de verano, se adquirieron conocimientos teóricos sobre rayos cósmicos y técnicas de detección mediante la revisión de literatura actual. Se simuló y rediseñó un prototipo de fuente de alto voltaje para detectores tipo RPC, obteniendo una respuesta estable y adecuada según los requerimientos de diseño.
Además, se analizó un conjunto de datos del observatorio Pierre Auger centrado en la anisotropía de los rayos cósmicos. Los resultados coinciden con estudios previos sobre el origen de los rayos cósmicos de alta energía en núcleos galácticos activos. También se identificó una disminución en la cantidad de eventos en una región intergaláctica específica, lo que sugiere una nueva dirección de investigación para comprender las posibles razones detrás de esta reducción.
Argote Brito Omar Gonzalo, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Jhon Jairo Prías Barragán, Universidad del Quindío
ESTUDIO Y APLICACIONES DEL GRAFENO OXIDADO
ESTUDIO Y APLICACIONES DEL GRAFENO OXIDADO
Argote Brito Omar Gonzalo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Jhon Jairo Prías Barragán, Universidad del Quindío
PLANTEAMIENTO DEL PROBLEMA
Tenemos tres problemáticas a tratar, una es que muy pocos componentes en los dispositivos electrónicos que pueden ser reciclados o reutilizados, ya sea porque no son biodegradables o porque son imprácticos de reutilizar; otra son los residuos de bambú leñoso (Guadua angustifolia) que se generan en Colombia y la otra es la contaminación del medio ambiente.
Se ha desarrollado un método para una síntesis verde de grafeno oxidado a partir de bambu leñoso que casi no genera residuos no aprovechables. Se espera con esto investigar propiedades del grafeno oxidado para sustituir componentes electrónicos con grafeno oxidado para que puedan ser reincorporados a la tierra. La segunda investigación trata de la reacción del grafeno oxidado con algún contaminante del aire.
METODOLOGÍA
El estudio tiene fundamento teórico tanto como experimental. En la parte experimental, para obtener el grafeno oxidado se utiliza un método de doble descomposición térmica. La primera descomposición térmica se realiza con bambú leñoso en un reactor. Primero se crea vacío y luego se llena el reactor con nitrógeno para crear una atmósfera controlada, posteriormente se deja a 300 a 750 grados Celsius por una hora, de este proceso se obtienen dos subproductos, los primeros grafenos oxidados y ácidos piroleñosos con alquitrán suave.
Antes de la segunda descomposición se centrifugan los ácidos piroleñosos y el alquitrán para separarlos
La segunda descomposición es a partir del alquitrán, se deposita 2 gramo y se distribuye en un sustrato para obtener películas o uso 7 gramos en una cápsula de porcelana para obtener una espuma; para el tratamiento se vuelve a crear una atmosfera controlada con nitrógeno y se deja la muestra a 700 grados Celsius por una hora.
Se crearon dos dispositivos, dos con primeros grafenos oxidados, un sensor de presión que aprovecha que la presión tiene una relación directa con la corriente eléctrica y un NFC que mejoró las propiedades mecánicas del dispositivo.
Para la parte teórica se creó una molécula de grafeno oxidado al 5% usando el software GaussView. Esta molécula se optimizó geométricamente y se le añadió distintos átomos para volver a optimizar, posterior a la optimización se obtuvo las frecuencias para verificar la ausencia de frecuencias imaginarias de las distintas optimizaciones.
CONCLUSIONES
El grafeno oxidado presenta propiedades eléctricas y de adsorción muy interesantes. Dependiendo del grado de oxidación la brecha bandgap aumenta o disminuye por lo que se puede comportar tanto como muy buen conductor como un muy buen aislante. Además, los puentes hidróxilos y epóxidos formados a partir de la descomposición térmica, ocasionan una buena adsorción. Y debido a las investigaciones del doctor Jhon Prías se observó que poseen propiedades ópticas y mecánicas con gran potencial para la investigación tecnológica.
Aristizábal Ospina Andrés Felipe, Colegio Integrado Nacional Oriente de Caldas
Asesor:M.C. Noé Casas Ruiz, Universidad de La Ciénega del Estado de Michoacán de Ocampo
SONDEO PRELIMINAR DE ÁREAS CON CULTIVO DE AGAVE EN SAHUAYO MICHOACÁN.
SONDEO PRELIMINAR DE ÁREAS CON CULTIVO DE AGAVE EN SAHUAYO MICHOACÁN.
Aristizábal Ospina Andrés Felipe, Colegio Integrado Nacional Oriente de Caldas. Asesor: M.C. Noé Casas Ruiz, Universidad de La Ciénega del Estado de Michoacán de Ocampo
PLANTEAMIENTO DEL PROBLEMA
El tequila y el mezcal después de la cerveza, constituyen la segunda actividad económica más importante en México, en los últimos años se ha observado un crecimiento en la demanda de estos productos nacional e internacionalmente, y por consecuente de su materia prima agave, haciendo que haya una necesidad de cambios de usos de suelo para establecer estos cultivos y satisfacer esta creciente demanda, sumado a esto no hay un debido control de estas áreas y se ha generado una problemática de aumento de establecimientos de cultivo de agave indiscriminadas ocasionando un desconocimiento de datos precisos y completos. Sahuayo es uno de los municipios que se ha visto afectado por esta problemática y las consecuencias se manifiestan en impactos ambientales, cambios visibles en el paisaje, problemas de erosión del suelo y alteraciones en el microclima, dado esto, el objetivo de la presente investigación es estimar las áreas destinadas al cultivo de agave en el municipio de Sahuayo, en el estado de Michoacán, México.
METODOLOGÍA
-Identificación de tipo de investigación.
Para alcanzar los objetivos se hizo una interpretación mediante imágenes satelitales y se realizaron recorridos de campo para visualizar las areas destinadas a este cultivo teniendo en cuenta las cualidades del cultivo de agave para su respectiva identificación y los resultados se ven reflejados en valores numericos teniendo en cuenta el número de hectáreas de las sumatoria de polígonos encontrados.La investigación es de tipo mixta.
-Delimitación del areas de estudio.
Sahuayo de Morelos es una ciudad del Estado de Michoacán de Ocampo, mismo que se ubica en el centro-occidente de México
Ubicación: entre los paralelos 20°00’ y 20°06’ de latitud norte; los meridianos 102°40’ y 102°52’ de longitud oeste
Altitud: entre 1 600 y 2 200 m.
Límites: al norte con los municipios de Cojumatlán de Régules y Venustiano Carranza; al este con los municipios de Venustiano Carranza, Villamar y Jiquilpan; al sur con el municipio de Jiquilpan; al oeste con los municipios de Jiquilpan y Cojumatlán de Régules.
Extensión: 128.18 Km² y representa el 0.22 por ciento del total del Estado de Michoacán
-Adquisición de información existente y selección de información pertinente para la investigación.
Se realizó una revisión de literatura en las bibliotecas municipales de Sahuayo y Jiquilpan para indagar sobre temas relevantes al aumento de áreas en la zona o alguna investigación en dirección a la finalidad del sondeo.
-Recorridos de campo e interpretación de imágenes para identificación de áreas.
Recorridos
1- Barranca La Gloria Sahuayo.
2- Zonas urbanas Sahuayo, Michoacán
3- Comunidades El Güiro y Las Gallinas de Sahuayo, Michoacán
Estos recorridos fueron realizados en acompañamiento de conocedores de la zona con el fin de realizar la identificación de zonas con cultivos de agave, se realizó la respectiva georreferenciación de las áreas, como complemento se realizaron interpretaciones de imágenes satelitales en oficina.
-Conversión de datos y procesamiento de información.
Los datos recolectados fueron trasformados a formatos compatibles con la herramienta ArcMap para su respectiva medición y agrupación.
-Medición y fabricación de cartografía.
CONCLUSIONES
Tras la identificación por medio de recorridos de campo e interpretación de imágenes de los polígonos de las áreas dedicadas al cultivo de agave, y gracias a los testimonios de conocedores de la zona pudimos identificar una evidente trasformación del paisaje donde se percibe que el agave está empezando a predominar causando que cultivos tradicionales como maíz, frijol y sorgo entre otros se desplacen. Algunos de los polígonos detectados con agave están establecidos en zonas de influencia urbana o en lugares considerados de conservación ecológica haciendo que haya un predominio del interés económico sobre lo ambiental; representando un efecto negativo en las comunidades, puesto que hay antecedentes de erosión del suelo e inundaciones por el establecimiento de este monocultivo, resaltando la magnitud de la problemática y la importancia del control de estos establecimientos. El estudio realizado ha proporcionado una estimación preliminar de las áreas con cultivos de agave en Sahuayo, Michoacán, lo que ofrece una base para futuras investigaciones y acciones que promuevan la sostenibilidad y el cuidado del entorno en una zona donde la producción de agave desempeña un papel económico y cultural relevante.
Resultados
Se identificaron de manera preliminar en la zona de estudio Sahuayo, Michoacán, México 107 polígonos distribuidos por el municipio, donde después de realizar las mediciones de los polígonos se obtuvieron como valor agrupado total de polígonos 1.133,63 hectáreas las cuales ocupan el 7 % del total del municipio de Sahuayo para el cual el 100% representa 16.105,17 hectáreas, siendo el valor máximo de hectáreas para un polígono con cultivo de agave 142,12 y el valor mínimo de hectáreas 0,19 dando como promedio de hectáreas para cada polígono 10,50.
Avelar Alvarez Nayeli, Universidad Autónoma de Tamaulipas
Asesor:Mtra. Cynthia Berenice Castro Aranda, Universidad Autónoma de Tamaulipas
ANALIZAR EL PROCEDIMIENTO DE APRENDIZAJE EN LAS MATERIAS DE MATEMáTICAS DE PRIMER Y SEGUNDO SEMESTRE DE LA LICENCIATURA DE MERCADOTECNIA Y ADMINISTRACIóN DE LA UAMVH
ANALIZAR EL PROCEDIMIENTO DE APRENDIZAJE EN LAS MATERIAS DE MATEMáTICAS DE PRIMER Y SEGUNDO SEMESTRE DE LA LICENCIATURA DE MERCADOTECNIA Y ADMINISTRACIóN DE LA UAMVH
Avelar Alvarez Nayeli, Universidad Autónoma de Tamaulipas. Asesor: Mtra. Cynthia Berenice Castro Aranda, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
Los alumnos de primer semestre de la licenciatura de Mercadotecnia y Administración, en la Unidad Académica Multidisciplinaria Valle Hermoso, no logran comprender al 100% los primeros temas de la materia de matemáticas básicas, por lo cual en los temas subsecuentes batallan ya que son seriados. Se busca analizar el proceso de aprendizaje y ver cómo se puede lograr la compresión total de los temas.
El no entender o comprender los primeros temas lleva consecuencias durante todo el semestre y muchas veces no se pueden recuperar, aunque en el parcial final obtengan buenas calificaciones, ya que la calificación del primer parcial es muy baja que no logra compensarse y al no obtener el puntaje requerido los alumnos tienen que presentar un examen ordinario.
METODOLOGÍA
Se usa el método cualitativo, con la aplicación de encuestas. El sustento teórico se basa en la comprensión lectora, aprendizaje significativo, razonamiento cuantitativo y las actitudes hacia la matemática. La muestra la conformaron treinta estudiantes de la licenciatura de Mercadotecnia y Administración y dos docentes que enseñan el curso.
En estudiantes de nivel superior, ellos deben de desarrollar habilidades de razonamiento cuantitativo como el interpretar, razonar, calcular, analizar, etc. (Vergara, Fontalvo, Muñoz y Valbuena, 2015), y habilidades específicas tales como extraer información de un texto matemático, identificar variables para sustituirlas en las fórmulas, realizar operaciones básicas y ecuaciones, etc. Se ha demostrado que existe un alto nivel de razonamiento cuantitativo en estudiantes de ingeniería, esta investigación se dirige a estudiantes de la carrera de Mercadotecnia y Administración y generalmente no muestran inclinación hacia la matemática.
Las dificultades que suelen presentarse entre los estudiantes de Mercadotecnia y Administración son de nivel conceptual, como por ejemplo en variaciones porcentuales; otras a nivel procedimental son no comprender el texto ni identificar correctamente los datos; y a nivel actitudinal la más recurrente es el desinterés por el curso.
En la investigación se demostró que, si el estudiante está desmotivado, entonces su rendimiento académico será pobre, también que si no se toman en cuenta los conocimientos previos entonces no podrán resolver los problemas posteriores. En cuanto a la comprensión lectora, es indispensable que los estudiantes identifiquen y relacionen toda la información de la situación matemática que se brinda en forma verbal y en lenguaje simbólico.
Para el instrumento que se aplicó se utilizó la escala tipo Likert, que ayudó a recibir los comentarios sobre una gama de atributos psicométricos.
Escala/Preguntas
1
2
3
4
5
6
7
8
9
10
Total
Muy difícil
16
14
12
15
10
9
0
1
0
1
78
Difícil
12
11
9
5
13
15
1
4
3
4
77
Neutral
0
5
5
4
3
8
11
9
7
10
62
Fácil
2
2
4
5
4
0
16
14
17
12
76
Muy Fácil
2
0
2
3
2
0
4
4
5
5
27
CONCLUSIONES
En la investigación de verano que se llevó a cabo, se concluye que el estudiante promedio de la carrera de Mercadotecnia y Administración de la Unidad Académica Multidisciplinaria Valle Hermoso, muestra poco interés en las materias relacionadas a las matemáticas que se imparten en los primeros semestres, ya que no son su fuerte, además las inasistencias a las clases en el primer parcial los perjudica severamente, regularmente sucede porque se confían en que se recuperarán y no es una materia importante para ellos. En cuanto a los maestros, las estrategias deben de cambiar primeramente para fomentar el interés de los alumnos y hacer la clase más amena, y no solo enfocarse en los problemas a resolver, sino también al análisis de datos en los que el alumno debe de hacer énfasis.
Avelino Pérez Alma Victoria, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Heriberto Hernández Cocoletzi, Benemérita Universidad Autónoma de Puebla
TECNOLOGíA E INNOVACIóN AMBIENTAL: ADSORCIóN DE IONES DE COBRE UTILIZANDO HIDROXIAPATITA BIOGéNICA OBTENIDA DE HUESOS DE POLLO
TECNOLOGíA E INNOVACIóN AMBIENTAL: ADSORCIóN DE IONES DE COBRE UTILIZANDO HIDROXIAPATITA BIOGéNICA OBTENIDA DE HUESOS DE POLLO
Avelino Pérez Alma Victoria, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Heriberto Hernández Cocoletzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La contaminación por metales pesados es un problema global y requiere medidas preventivas y de remediación para minimizar su impacto en la salud y el en medio ambiente. Los daños ocasionados por la contaminación del agua debido a metales pesados son diversos: como la devastación a ecosistemas acuáticos y los riesgos a la salud humana, que van desde trastornos gastrointestinales hasta problemas neurológicos graves; es por ello que se requiere investigación continua en esta área.
La materia viva tiene una gran capacidad para adsorber y absorber metales pesados. La técnica de bioadsorción aprovecha este potencial para extraer metales de medios altamente contaminados, utilizando biomasa viva o muerta.
La adsorción de metales con huesos de pollo se debe a que la hidroxiapatita contenida en ellos tiene iones de calcio y fosfato, con una estructura cristalina similar a la de ciertos metales. Como resultado, los metales con propiedades químicas similares pueden reemplazar parcial o completamente a los iones de calcio o fosfato en la estructura del hueso. Es por ello que durante el verano de investigación se estudió la absorción del cobre (Cu) utilizando hidroxiapatita obtenida a partir de hueso de pollo.
METODOLOGÍA
A. Recolección y preparación de muestras
Se recolectaron huesos de pollo; en su mayoría de pierna, producto del desecho de alimentos cocinados y residuos domésticos. La muestra recolectada se preparó en cinco etapas: lavado, secado, pulverizado, calcinado y tamizado. Para lavar los restos del pollo se retiraron cartílagos y se eliminaron los residuos de carne con un cuchillo, también se enjuagaron ligeramente de tal forma que se dejaran fuera los residuos que formaron parte de la preparación para la que se ocupó el pollo.
Para la parte de secado se prosiguió a dejarlos al sol hasta que se encontraran secos en su totalidad. Posterior a ello, se trituraron los huesos; para esto se envolvieron en un material resistente que soportara parte del impacto recibido (cartulina y bolsa de plástico) ya que se ocupó un martillo. Como resultado se obtuvieron tres muestras, cuya diferencia fue el tamaño y facilidad con la que se desprendieron de la estructura. La muestra 1 fue de tamaño partícula de 100 µm, la muestra 2, de 3-5 mm tamaño que no pudo ser reducido, mientras que la muestra 3 consistió de aquellas partes que se pudieron reducir hasta 30 µm con ayuda de un mortero. Después de este proceso siguió la etapa de calcinado; las muestras 1 y 2 se trataron térmicamente en una mufla durante 12 horas a 900 °C. La muestra 3 se calcinó a 700 °C durante 4 horas.
Posterior al tratamiento térmico, las muestras se trituraron y se tamizaron hasta obtener un tamaño de partícula de 62 µm y así se obtuvieron 3.8995 g de la muestra 1, 11 g de la muestra 2 y 1.2 g de la muestra 3 de alrededor de 12 huesos de pierna de pollo.
B. Caracterización de muestras
1) Espectroscopía de infrarrojo (FTIR)
Las tres muestras fueron caracterizadas utilizando un espectrofotómetro de infrarrojo Perkin Elmer con transformada de Fourier y sistema ATR en el intervalo de 4000 a 500 cm⁻¹. Se realizaron 5 escaneos con una resolución de 4 cm⁻¹. Se mantuvo el control de humedad y una temperatura de 26 °C durante la obtención de los espectros. Se emplearon 0.25 g de cada muestra para llevar a cabo las mediciones, que posteriormente se recuperaron.
C. Experimentos de Absorción
En los experimentos de adsorción se tomaron en cuenta dos variables: tratamiento térmico del hueso de pollo y tiempo de contacto. El procedimiento empleado se basó en el modelo de adsorción en tanque agitado. Se prepararon las soluciones de Cu⁺² de concentración 30 ppm a partir de una solución patrón de Cu⁺² (10,000 ppm). Para la medición del cobre se tomaron ocho alícuotas de 20 mL (adsorbato) y a cada una se le agrego 0.02 g de HAp (adsorbente), con agitación constante de 237 rpm. El estudio se realizó con un tamaño de partícula para la HAp de 250 µm. Los tiempos de contacto fueron de 5, 10, 15, 20, 25, 30, 35 y 40 min para cada muestra; se decidió empezar con la muestra que mostrará una tonalidad más blanca (la muestra 2) puesto que ello denotaba una mejor calcinación del material; las siguientes muestras de apariencia prometedora fueron la muestra 3 y la 1, en ese orden, de acuerdo al grado de pureza que se podía apreciar físicamente.
Al terminar el tiempo de contacto, se llevó a cabo la separación del adsorbente y adsorbato por medio de una filtración simple con papel filtro Ahlstrom grado 615. Finalmente se midió la conductividad por utilizando de un potenciómetro Conductronic PC18, para la posterior cuantificación de los iones en solución.
D. Pruebas de Concentración de Cobre
Las pruebas de concentración del cobre se llevaron a cabo utilizando Espectroscopia Ultravioleta-Visible (UV-Vis), para lo cual se utilizó un espectrofotómetro Perkin Elmer modelo Lambda 25.
CONCLUSIONES
La HAp de los huesos de pollo ha demostrado con éxito útil para la eliminación de iones metálicos y también un gran potencial, lo que lleva a eliminar cerca del 80% de los iones de Cu. Al combinar el procedimiento y la metodología de remoción de iones metálicos de los residuos y optimizar procesos; este estudio abre la posibilidad de diseñar una planta piloto para la remoción de metales pesados en agua destinada para consumo humano. En este contexto, la hidroxiapatita emerge como un material altamente útil y eficiente para la absorción de iones metálicos.
La hidroxiapatita, debido a su estructura cristalina y su composición química, presenta una gran afinidad por ciertos metales que pueden ser atrapados y adsorbidos por la superficie de la hidroxiapatita a través de interacciones electrostáticas, enlaces iónicos y procesos de sustitución iónica. Esta propiedad única permite que la hidroxiapatita actúe como un excelente adsorbente del Cu en soluciones acuosas.
Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de sobre el uso de equipos, además de la caracterización de materiales.
Ayala Duarte Luis Eduardo, Universidad de Sonora
Asesor:Dr. Jose Humberto Camacho Garcia, Benemérita Universidad Autónoma de Puebla
CáLCULO DE LAS PROPIEDADES MECáNICAS DE LA FASE 115 DEL SIC.
CáLCULO DE LAS PROPIEDADES MECáNICAS DE LA FASE 115 DEL SIC.
Ayala Duarte Luis Eduardo, Universidad de Sonora. Asesor: Dr. Jose Humberto Camacho Garcia, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El Carburo de Silicio (SiC) es un material con distintos grupos espaciales no caracterizados experimentalmente, que podría tener múltiples aplicaciones en la industria. Es bajo este argumento que simulamos este material, en su grupo espacial 115, de manera que obtengamos sus distintas propiedades electrónicas y mecánicas, y así tengamos un marco teórico bajo el cual desarrollar futuros trabajos, tanto teóricos como experimentales.
METODOLOGÍA
Para visualizar la estructura cristalina utilizamos el programa Vesta, mientras que para simular el comportamiento del SiC utilizamos el programa de libre uso Quantum Espresso, bajo la aproximación de pseudopotenciales en la teoría DFT. Basados en la simetría tetragonal del grupo espacial 115, obtuvimos los parámetros iniciales para posiciones atómicas, utilizando coordenadas fraccionarias. Realizamos cálculos para la convergencia de energía, considerando como parámetros la energía de corte y los puntos k, obteniendo tal convergencia para una energía de corte de 50 Ryd y un mallado de puntos k 999. Tal convergencia es importante en estos cálculos, pues es lo que nos asegura que nos encontramos en el estado basal de la estructura, que es el estado natural en el que se encuentra el material. Después de eso realizamos cálculos para obtener los parámetros de red de energía mínima. Tras esto proseguimos con cálculos termo-pw para obtener la matriz de constantes elásticas y la dureza del material.
CONCLUSIONES
Encontramos que el material SiC 115 es un conductor eléctrico, con energía basal -47.23390122 Ryd y parámetros de red de energía mínima a=4.935965 ua
y c=8.936515 ua. Esperamos, tras el final de los cálculos, obtener las constantes elásticos y la dureza de dicho material.
Balderas Barrales Emmanuel, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Emerson Sadurní Hernández, Benemérita Universidad Autónoma de Puebla
ESTUDIO DE LA FORMACIóN DE ENLACES SIGMA MEDIANTE FUNCIONALES DE ENERGíA EN MODELOS HUCKELOIDES ORGáNICOS
ESTUDIO DE LA FORMACIóN DE ENLACES SIGMA MEDIANTE FUNCIONALES DE ENERGíA EN MODELOS HUCKELOIDES ORGáNICOS
Balderas Barrales Emmanuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Emerson Sadurní Hernández, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El problema de la formación del enlace químico en compuestos orgánicos involucra la utilización de metodos númericos dedicados y complejos. En este proyecto se plantea un modelo simplificado de orbitales moleculares en interacción con el movimiento de los núcleos de carbono, que conduzca a los estudiantes a los resultados bien conocidos de estabilidad energética en la conformación de polímeros. En los últimos años se ha revivido el interés por materiales orgánicos en conexión con aplicaciones nanotecnológicas. Más allá de la química, la nanotecnología basada en el carbón puede dar lugar a la creación de dispositivos de transporte electrónico miniaturizados; dando un nuevo impulso a la información cuántica y a la llamada Ley de Moore.
METODOLOGÍA
Se procede al estudio del problema multicuerpos bajo la aproximacion Born-Oppenheimer que da lugar a las curvas de estabilidad energética en espectros electrónicos moleculares. Gracias al teorema Hellman-Feynman, se pueden plantear las propiedades mecánicas del movimiento nuclear bajo un esquema de tipo Hartree-Fock. Con los modelos esqueletales bien establecidos, se continúa el estudio de transporte electrónico a través del modelo simplificado de Hückel para orbitales hibridizados de tipo pi. Con lo anterior, se identifican los elementos clave en la construcción de las curvas de estabilidad y se genera un modelo dinámico-molecular con la menor cantidad posible de grados de libertad.
CONCLUSIONES
Se espera obtener la ecuación secular conformada por amplitudes de tunelamiento e integrales de traslape de orbitales no ortogonales para molécula diatómica y triatómica. Con reglas de superselección y términos de intercambio en un ambiente unidimensional simplificado, se espera que la curva energética del estado base electrónico exhiba un mínimo correspondiente al tamaño molecular, así como una curvatura asociada a la aproximación armónica del movimiento nuclear. Este material podrá emplearse en la enseñanza del enlace químico orgánico a nivel superior.
Baltazar Villalpando Luis Fernando, Universidad de Guadalajara
Asesor:Dr. Paulo César Cárdenas Montoya, Universidad Autónoma de Manizales
SIMULACIóN DEL MODELO DE HEISENBERG CON DINáMICA DISIPATIVA MEDIANTE ARQUITECTURA DE REDES NEURONALES.
SIMULACIóN DEL MODELO DE HEISENBERG CON DINáMICA DISIPATIVA MEDIANTE ARQUITECTURA DE REDES NEURONALES.
Baltazar Villalpando Luis Fernando, Universidad de Guadalajara. Asesor: Dr. Paulo César Cárdenas Montoya, Universidad Autónoma de Manizales
PLANTEAMIENTO DEL PROBLEMA
La simulación adecuada de sistemas cuánticos con disipación es un problema recurrente, exhaustiva y compleja en si misma, utilizada en diversas áreas como la química y la física de la materia condensada, así como en la aún emergente rama de la información cuántica, destacando que para la mayoría de casos prácticos no es posible encontrar soluciones analíticas y los métodos de solución numérica tradicionales son inviables dada la cantidad de recursos computacionales necesarios, por lo que encontrar métodos de simulación escalables para sistemas complicados se ha convertido en un área de investigación relevante, que se nutre de la colaboración entre distintas disciplinas como las matemáticas, las ciencias de la computación y la ciencia de datos.
Especificamente en los sistemas con propiedades magnéticas, principalmente sistemas de spines, al considerar su dinámica en el formalismo de sistemas cuánticos con disipación presentan estados exóticos y transiciones de fase, que son relevantes en diversas aplicaciones, por ejemplo, se conoce que el uso de imánes permanentes es de crítica importancia para el eficiente funcionamiento de fuentes de energía renovable como la energía eólica, así como la distribución de energía en la red eléctrica.
El modelo de Heisenberg es un problema teoréticamente tratable pero que mantiene características cualitativas de sistemas reales, por lo que su eficiente simluación puede aportar al formidable problema entre modelos teóricos y numéricos.
METODOLOGÍA
Siguiendo las propuestas de arquitecturas en el estado del arte actual para la simulación de sistemas cuánticos con dinámica disipativa, partiendo de la asunción de que el uso de redes neuronales puede proveer una eficiente representación de estados cuánticos, se adopta el planteamiento de utilizar una Restricted Boltzmann Machine para parametrizar el estado cuántico representado por una matriz de densidad, con lo que la evolución del sistema puede ser tratado como un problema de optimización variacional, y más importante aún que puede ser abordado como una ampliación a métodos de solución numérica como el método de reconfiguración estocástica y el método de quantum Monte-Carlo dependiente del tiempo.
El modelo en sí consiste en tres etapas, parametrizar el estado inicial utilizando la arquitectura RBM, posteriormente, reconfigurar la acción de los superoperadores (o Liouvillianos) de tal manera que los valores de la simulación se obtienen de minimizar la distancia entre la evolución exacta y la evolución variacional en cada instante de tiempo, con lo que se obtiene un sistema de ecuaciones, que permite expresar el problema de minimización como una ecuación diferencial de primer orden. Por último, resolver el sistema de ecuaciones diferenciales obtenido en la etapa anterior mediante un sampleo estocástico, tratandolos como los valores esperados de una distribución de probabilidad, tal como se realiza en el método de Monte Carlo variacional.
La implementación del código se realiza en el lenguaje de programación C++ para la eficiente realización de los cálculos numéricos, junto con la extensión de Pytorch para construir la arquitectura de red neuronal buscada, lo que permite expandir la funcionalidad en las paqueterías de Python como lenguaje de unión, a la vez que se obtiene la rapidez y eficiencia de C++ y CUDA.
Para la interacción a nivel de usuario se utiliza la libreria de código abierto QUTIP, que otorga programación de alto nivel en el lenguaje de programación python, QUTIP incluye funciones para definir y construir objetos como operadores, estados y funciones, así como métodos de solución preintegrados como quantum monte carlo y solución estocaśtica de la ecuacioón de Schrodinger, por lo que se plantea ampliar sus capacidades incluyendo una implementación del método y arquitectura anteriormente descritas.
Para comprobar la exactitud del modelo se resuelve mediante el modelo propuesto y se compara con la solución dada por métodos previamente implementados en la libreria. Se calcula la diferencia en los valores esperados así como la desviación promedio
CONCLUSIONES
En conclusión, el presente programa de investigación representa un valioso esfuerzo en la búsqueda de nuevas estrategias para simular sistemas cuánticos. Donde se consiguió desarrollar las bases para un paquete de simulación que utilice redes neuronales como extensión de la paquetería de código abierto QUTIP. Sin embargo, es importante reconocer que aún quedan muchos desafíos por resolver y preguntas por responder. En vista de lo anterior, el proyecto requiere ampliarse con el firme propósito de superar los desafíos existentes y alcanzar una mayor comprensión de la eficacia de los métodos basados en redes neuronales para la simulación de sistemas cuánticos con disipación.
En última instancia, el éxito en la simulación de sistemas cuánticos mediante redes neuronales tiene la capacidad de impulsar el progreso científico y tecnológico, permitiendo afrontar sistemas que hasta la fecha por su complejidad o costo computacional han sido incapaces de ser estudiados.
Barajas Torres Juana, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Rene Hernández Olivares, Instituto Tecnológico Superior de Tacámbaro
EXPLORACIóN GEOQUíMICA POR LITIO EN EL SUR DE MéXICO.
EXPLORACIóN GEOQUíMICA POR LITIO EN EL SUR DE MéXICO.
Barajas Torres Juana, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Rene Hernández Olivares, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
El litio es un elemento moderadamente abundante y está presente en la corteza terrestre en 65 partes por millón (ppm). No se encuentra libre de manera natural, se encuentra en la red cristalina de una amplia gama de minerales (aproximadamente 145 especies mineralógicas lo contienen) sólo algunas poseen valor económico.
La extracción directa de litio y el litio directo a producto ofrecen una promesa significativa de aumentar el suministro de litio, reducir la huella ambiental, social y de gobernanza de la industria, y disminuir los costos. En 2020, se produjeron un poco más de 0.41 millones de toneladas métricas de carbonato de litio equivalente; en 2021, la producción superó 0.54 millones de toneladas métricas (un aumento interanual del 32 por ciento).
Actualmente en el país no se cuenta con ningún yacimiento de litio en explotación; no obstante, a la fecha se encuentran en etapa de exploración tres yacimientos que contienen este mineral en los estados de:
Baja California,San Luis Potosí- Zacatecas y Sonora.
Es por eso que se propone una aréa de estudio en México, la área de estudio que se eligio, se encuentra en el Batolito de Manzanillo: el cual esta compuesto de Granito-Granodiorita color rosa, textura fanerítica, holocristalina, equigranular y alotriomórfica, mineralogía cuarzo, feldespato potásico, plagioclasas, biotita, moscovita y hornblenda.
Edades del Cretácico superior, por fechamientos isotópicos.
El área se localiza en el suroccidente de México en el limite de los estados de Colima y Jalisco, hacia la porción costero con el Océano Pacífico. Cubre la superficie que marcan las cartas La Huerta; Minatitlán; Cihuatlán y Manzanillo, de escala 1:50,000, con una extensión aproximada de 2 mil Km2
METODOLOGÍA
Se realizó una ardua búsqueda, compilación y análisis bibliográfico, todo esto para un mejor análisis tanto del litio, como determinar las zonas y poder trabajar mas a detalle.
Al mismo tiempo se determino la base de datos de minerales con contenido de Litio para centrarse en su estudio y descripción de los mismos.
Analizado lo anterior se aplico las bases de datos de resultados de muestreos geoquímicos SGM, esto consistio en buscar los muestreos geoquímicos de la zona para poder tener un mejor detalle de los minerales que se encontraban y en que cantidad lo estan.
Con la base datos ya determinada se hicieron pruebas de metodologías de técnicas estadísticas de exploración geoquímica, se utilizo el metodo de percentiles y el metodo del Threshold, estos son metodologías que se encargan de darnos un mejor resulado de la concentracion de los minerales y así definir mejor la zona, esto se hizo en base a los minerales con contenido de litio, el cual se realizo una correlación de los mismo para ubicar mas a detalle la zona de un posible hallazgo de litio.
Se hizo un análisis cartográfico geológico regional nacional del sur de México para ubicar unidades rocosas susceptibles de contener Litio donde hubo una compilación de mapas topográficos de INEGI
En donde las zonas elegidas, se aplico las metodologías estadísticas ya realizadas anteriormente en cartas a escala 1:50,000
Los resultados obtenidos se interpretaron donde ubicacamos las zonas determinadas para verificación de campo.
Se verifico en campo todo el analisis realizado, y los resulados de las metodologías aplicadas.
CONCLUSIONES
Durante la estancia de verano se logro adquirir conocimientos teóricos y prácticos sobre el litio, los yacimientos donde los podemos encontrar, minerales y rocas donde se concentran y sobre todo que México puede tener un potencial muy grande para la extracción de este elemento, el cual ayudara a la sociedad en su economía y al planeta porque disminuira la contaminación ya que el litio es una potencia mundial que se utilizara para el desarrollo del mundo.
Es así como pudimos determinar una zona en el sur de México, en base a todo el análisis realizado y sobre todo poder poner en practica todo lo trabajado teoricamente y poder interpretar todos los resultados.
Barragán Castellanos Jesús Omero, Universidad de Guadalajara
Asesor:Dra. Rita Judit Patakfalvi, Universidad de Guadalajara
ESTUDIO DE LA CAPACIDAD DE ADSORCIóN DEL COLORANTE NARANJA DE METILO EN NANOPARTíCULAS DE óXIDO DE MAGNESIO
ESTUDIO DE LA CAPACIDAD DE ADSORCIóN DEL COLORANTE NARANJA DE METILO EN NANOPARTíCULAS DE óXIDO DE MAGNESIO
Barragán Castellanos Jesús Omero, Universidad de Guadalajara. Asesor: Dra. Rita Judit Patakfalvi, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La industria textil es una de las más importantes de nuestro país. Sin embargo, es una de las industrias con mayor consumo de agua y las aguas residuales que se generan contienen un gran número de contaminantes de diferente naturaleza. Entre los contaminantes se destacan los colorantes. Estos compuestos se diseñan para ser altamente resistentes, incluso a la degradación microbiana, por lo que son difíciles de eliminar en las plantas de tratamiento convencionales.
Hoy en día, existen diversas técnicas que permiten, en cierta medida, el tratamiento de los colorantes presentes en aguas residuales. Algunas de estas técnicas son: coagulación-floculación, proceso Fenton, ozonización, adsorción, entre otras. La elección de la tecnología más conveniente depende de numerosos factores, tales como el tipo de colorante presente, la cantidad y variedad de contaminantes en el agua, el caudal vertido, el régimen de producción, entre otros.
En nuestro estudio, hemos empleado la técnica de adsorción debido a varios factores, entre ellos, las bajas concentraciones de naranja de metilo con las que hemos estado trabajando, así como la elección del óxido de magnesio como agente adsorbente.
METODOLOGÍA
Para la síntesis de nanopartículas de óxido de magnesio, se disolvieron adecuada cantidad de cloruro de magnesio hexahidratado en dimetilformamida en un vaso de precipitado. La mezcla se dejó en agitación magnética a una temperatura constante de 70 ℃ hasta que se disolvió por completo.
Luego, se adicionaron hidróxido de amonio gota a gota, con un ritmo lento entre cada adición, manteniendo la agitación y la misma temperatura de 70 ℃. Una vez agregado todo el hidróxido de amonio, la mezcla se dejó reposar a temperatura ambiente durante 24 horas.
Después de transcurridas las 24 horas, se obtuvo un precipitado de color blanco que parecía asentarse aunque no del todo. El precipitado se llevó a centrifugar a 6000 rpm durante 15 minutos; luego, se retiró el sobrenadante y el sólido precipitado se lavó con etanol. Este procedimiento de lavado se repitió un total de tres veces. Finalmente, el precipitado final se secó a 110 ℃ durante 24 horas.
El precipitado una vez transcurridas las 24 horas se retiró del horno para llevarlo al mortero y triturarlo hasta obtener un polvo fino de un color blanco, una pequeña parte se guardó para ser caracterizado con espectroscopia infrarroja .
El polvo restante se colocó en un crisol y se calcinó en una mufla a 800 ℃ durante 6 horas.
Una vez concluida la síntesis de las nanopartículas, el siguiente paso fue preparar las curvas de calibración para diferentes concentraciones de naranja de metilo. Se prepararon concentraciones desde 5 ppm hasta 200 ppm con la finalidad de tener un amplio rango de valores y obtener una curva de calibración lo más precisa posible.
Con las curvas de calibración ya preparadas, se llevaron a cabo 8 mediciones de cinética de adsorción, cada una con un volumen de 25 mL y una concentración de 200 ppm de naranja de metilo. En cada medición, se añadieron 20 mg de nanopartículas de óxido de magnesio y se dejaron en agitación a distintos tiempos, desde 30 minutos hasta 24 horas. Terminando los tiempos de adsorción, se midieron las concentraciones de naranja de metilo remanente.
CONCLUSIONES
Los métodos de caracterización empleados en las muestras confirmaron que el producto de la síntesis fue el esperado. Además, se observó que el óxido de magnesio demostró una alta eficiencia en la adsorción del colorante naranja de metilo, alcanzando una adsorción cercana al 80% en tan solo 2 horas, lo que indica que se alcanzó el equilibrio de adsorción. Sin embargo, aunque estos resultados son prometedores, la remoción completa de este colorante de aguas residuales aún no es concluyente, ya que no se sabe qué tan selectivo es el óxido de magnesio con respecto a otros iones presentes en las aguas residuales.
Barrera Flores Gerardo, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla
MACHINE LEARNING EN EL ESTUDIO DE RAYOS CóSMICOS
MACHINE LEARNING EN EL ESTUDIO DE RAYOS CóSMICOS
Barrera Flores Gerardo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El observatorio Pierre Auger por m´as de 15 años se ha dedicado a la toma de datos experimentales acerca de la incidencia, composición y energía de los rayos cósmicos, generando así una base de datos enorme compuesta por años de información.
Con la llegada de las nuevas tecnologías, como lo es el machine learning y las redes neuronales artificiales (RNA) se propone una nueva técnica predictiva que logre aprovechar toda esta información almacenada.
METODOLOGÍA
Dentro del trabajo de redes neuronales es necesaria una cantidad considerable de datos, todo esto con el fin de darle aprendizaje y logre llegar a ciertas conclusiones. Dado que nuestro interés está en el estudio de rayos cósmicos, todos los bloques de información y datos serán obtenidos por simulaciones Monte-Carlo del software CONEX en CORSIKA.
Como un primer paso, se familiarizó con el entorno Linux y el sistema operativo Ubuntu 20.04 dentro de una maquina virtual. Una vez cómodos con el nuevo entorno dimos paso a la instalación de Root en su última versión, es importante señalar que con el fin de profundizar en el aprendizaje todo esto se realizó desde la terminal.
Root es una herramienta computacional científica diseñada por colaboradores del CERN con el objetivo de analizar y procesar datos, generalmente de fenómenos físicos; permite una cómoda y ágil manipulación de grandes cantidades de datos, además de una compatibilidad con el lenguaje C++ que nos será de provecho más adelante. Este programa es de suma importancia, pues los archivos que genere CONEX serán procesados por root. Posteriormente se descargaron los pre-requisitos ingresando las líneas en la terminal para que nuestra computadora tenga todo lo necesario y logre correr root.
Una vez hecho el proceso de instalación se siguieron las instrucciones que provee la página para una instalación desde la fuente (from source), solo basta con copiar y pegar teniendo cuidado del directorio. Una vez realizado todo esto se levantan las variables de entorno desde la carpeta bin y podemos confirmar que root ya está en funcionamiento. Para más detalles y las instrucciones explicitas de la instalación visitar "https://root.cern/install/"
Por otra parte y con todo lo anterior realizado sin ningún problema, se descargó e instaló CONEX. En la plataforma de CORSIKA y en el apartado de descargas se puede acceder a las múltiples versiones disponibles, nosotros hicimos uso de la más reciente. Es necesario contactar por correo a los desarrolladores para que puedan proveer una contraseña única y descargar CONEX. Una vez descargado procedimos a descomprimir en algún directorio. Abrimos el archivo README donde vienen las instrucciones para la instalación y el nombre de las variables para nuestras simulaciones. Modelos hadronicos, partículas primarias, energía inicial y final, ángulos de incidencia.
Como último paso, resta la instalación del software ANACONDA, el cual no fue nada complejo. Solamente se descargó el archivo .exe para trabajar en windows y se actualizó la última versión de Spyder.
Con toda la etapa uno concluida ya se puede comenzar a jugar con los datos y CONEX, variando los parámetros de energía o los distintos modelos. Nuestro principal problema fue que la cantidad de recursos computacionales necesarios para obtener estadística real son enormes y tristemente nuestras máquinas personales no lograron ser suficientes.
Como solución a esta problemática nos conectamos de manera remota al cluster del Laboratorio Nacional de Supercomputo (LNS) y es aquí donde se realizaron las simulaciones. Cabe recalcar que el cluster de computadoras del LNS cuenta con todo el software ya instalado, es por eso la importancia de haber comprendido bien la primer etapa.
Buscando optimizar la simulación, se hizo un pequeño script en shell que nos permitió realizar varías corridas a la vez con diferentes rangos de energía y partículas primarias.
Las simulaciones fueron:
1000 lluvias, 20 veces, en un rango energético de 16.875 hasta 19.625 eV para una partícula primaria de hierro con el modelo de interacción hadronico qsgjetII-04
1000 lluvias, 20 veces, en un rango energético de 16.875 hasta 19.625 eV para una partícula primaria de protón con el modelo de interacción hadronico qsgjetII-04
1000 lluvias, 20 veces, en un rango energético de 16.875 hasta 19.625 eV para una partícula primaria de hierro con el modelo de interacción hadronico EPOS
1000 lluvias, 20 veces, en un rango energético de 16.875 hasta 19.625 eV para una partícula primaria de protón con el modelo de interacción hadronico EPOS
Siendo esta etapa la más tardía en la estancia, pues el supercomputo a pesar de sus bondades se veía en sus límites con la gran cantidad de operaciones realizadas. Para finalizar realizamos un último script en shell que nos permitiera combinar todos nuestros archivos root con los resultados en uno solo; usando la librería UPROOT conseguimos transformar este gran archivo root en un .csv para tener mejor control de los datos.
De todas la información obtenida de las simulaciones MC, solo utilizamos la X_{max}, X_{first} y el logaritmo en base 10 de la energía y creamos histogramas para su visualización.
CONCLUSIONES
A lo largo de la estancia se logró adquirir experiencia en sistemas base linux; desde su instalación hasta la creación de scripts y modificación del bash rc. Se obtuvo más experiencia en varios lenguajes de programación, como lo es python, C y C++. Además se discutió a un nivel elemental las propiedades físicas de los rayos cósmicos.
Si bien, ya tenemos a nuestra disposición toda la información y nos encontramos listos para realizar la comparación simulación-red, entrenar una RNA no es nada trivial, por lo que aún nos encontramos en la etapa de diseño y entrenamiento de la red y los resultados aún no pueden ser presentados. Se espera obtener una recta que genere la RNA y se encuentre cerca de la media obtenida en las simulaciones MC. Además, lo ideal sería poder hacer una comparación simulación-red-telescopio, y así ver que tan acertada es nuestra red al lado de datos reales del telescopio Pierre Auger.
Becerra Hernández José Armando, Universidad de Guadalajara
Asesor:Dr. Rafael Hernández Jiménez, Universidad de Guadalajara
SOLUCIóN NUMéRICA A LAS ONDAS ESPACIO-TEMPORALES DE UN AGUJERO
NEGRO DE HAYWARD
SOLUCIóN NUMéRICA A LAS ONDAS ESPACIO-TEMPORALES DE UN AGUJERO
NEGRO DE HAYWARD
Becerra Hernández José Armando, Universidad de Guadalajara. Villa Alatorre Johan Manuel, Universidad de Guadalajara. Asesor: Dr. Rafael Hernández Jiménez, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Las ecuaciones de campo de Einstein pueden ser deducidas variando la acción de Einstein-Hilbert de acuerdo con el principio de mínima acción. Al llevar a cabo este procedimiento aparece un término relacionado con la frontera de la variedad el cual usualmente es ignorado o eliminado añadiendo a la acción un término de Gibbons-Hawking-York. En algunas propuestas se considera no eliminar el termino de frontera pues cualquier fenómeno físico relacionado con esta se eliminaría, en este contexto se ha trabajado recientemente [Avila, 2023] considerando el termino como un flujo de ondas espacio-temporales, a este fenómeno se le conoce como back-reaction.
Por otra parte, la métrica de Schwarzschild es una solución a las ecuaciones de campo de Einstein que describe un espacio-tiempo esféricamente simétrico y estático. Esta métrica presenta una singularidad no esencial en el llamado radio de Schwarzschild y una singularidad geométrica cuando el radio vale cero. Esta singularidad ha impulsado la necesidad de descubrir una teoría cuántica de la gravedad en donde se evite su formación. En este menester Hayward propuso una modificación a la métrica de Schwarzschild sumando un término al denominador del orden de la longitud de Planck evitando que la función diverja en el radio cero, de acuerdo con Hayward el valor exacto que se añade debe ser predicho por una futura teoría cuántica de la gravedad.
En este contexto, este proyecto de investigación busca encontrar diferencias en las ondas espacio-temporales producidas por back-reaction en ambas métricas de tal forma que se pueda inferir el valor del término extra añadido por Hayward a partir de la medición de estas ondas.
METODOLOGÍA
Se obtuvo la ecuación de onda en coordenadas esféricas a partir de la métrica de Hayward usando la librería Pytearcat de python, después se simplificaron los términos, se consideró el caso sin fuentes, es decir, sin back-reaction. Se aplico separación de variables a la ecuación diferencial separándola en un producto de dos funciones de dos variables cada una. Se intentó resolver la ecuación dependiente del radio y del tiempo analíticamente a través de maple lo cual no fue posible. Por otro lado, la ecuación dependiente de los ángulos se resuelve analíticamente con los armónicos esféricos. Se aplicó separación de variables por segunda ocasión, es posible resolver analíticamente la parte temporal de la ecuación ordinaria obtenida, sin embargo, no lo es para la ecuación ordinaria de la parte radial.
Al no poder resolver analíticamente la ecuación sin fuentes, se trabajó en dos métodos numéricos para resolver de manera aproximada tal que posteriormente se pueda incluir el fenómeno de back-reaction a dicha solución numérica. Se plantearon soluciones por medio de las funciones numéricas implementadas en maple, y por diferencias finitas en python. En ambos casos se requiere justificar las condiciones iniciales (el valor de la función y su derivada en un radio cercano a cero), ya que según Hayward [Hayward, 2006] su métrica tiende a una versión más simple cuando el radio es pequeño es posible resolver la ecuación con esta versión teniendo validez cerca del cero, obteniéndose de allí las condiciones iniciales.
Se realizó un código en maple para la solución numérica de la ecuación radial obtenida a partir de Hayward, considerando las condiciones iniciales mencionadas anteriormente. Posteriormente, se multiplico dicha solución por la solución obtenida para la parte temporal. Cabe recalcar que la función dependiente del tiempo es compleja, por lo que se toma su valor absoluto para obtener una representación de ondas espacio-temporales.
Se programó en python un código para resolver la ecuación por diferencias finitas haciendo énfasis en que cuando el parámetro añadido por Hayward se elija cero, el código debe resultar en la solución analítica ya conocida para la métrica de Schwarzschild, esto permite calcular el error del método numérico. Una vez se tiene la solución numérica para la parte radial, se multiplica por la solución exacta de la temporal para dar lugar a la función que describe la evolución de las ondas.
CONCLUSIONES
Durante la investigación se estudió la ecuación de onda que se deduce de una métrica de interés particular y el fenómeno físico que representa el termino de frontera en las ecuaciones de campo. La dificultad en resolver la ecuación incluso sin back-reaction requirió adaptarse al uso de herramientas computacionales que no estaban contempladas al inicio de la investigación. Eventualmente se obtuvieron resultados satisfactorios que permiten en un futuro no lejano añadir el termino de frontera a la ecuación.
Para la solución en maple al considerar una solución para Schwarzschild con radio mayor al de Schwarzschild se puede realizar una solución numérica sin problema aparente, pero, al intentar resolver numéricamente para la ecuación de Hayward no fue posible. La solución a esto fue proponer unas nuevas condiciones iniciales para la solución completa de la ecuación obtenida a partir de Hayward.
Con diferencias finitas en python se logró resolver la ecuación en todo el espacio, observándose características interesantes. Al elegir el parámetro que reduce la métrica a Schwarzschild se recupera la solución ya conocida con un error estable del orden de 0.1 %, por lo que el método numérico es muy confiable. Se observó la notable característica de que cualquier elección arbitraria de condiciones iniciales lleva a la misma solución para radios mayores al de Schwarzschild, aunque la solución sea diferente dentro del horizonte de eventos, no afecta a la solución en el exterior. Además, la elección del parámetro de Hayward tampoco afecta a la solución exterior, la información necesaria para deducir este parámetro o el valor de las condiciones iniciales a partir de una medición se pierde en el horizonte sin alcanzar nunca el exterior.
Beltran Martinez Santiago, Universidad Politécnica de Sinaloa
Asesor:Dr. Eber Enrique Orozco Guillen, Universidad Politécnica de Sinaloa
PROPUESTA DE AHORRO DE ENERGÍA PARA ALUMBRADO PÚBLICO EMPLEANDO ILUMINACIÓN TIPO LED Y GENERANDO ENERGÍA CON SISTEMAS FOTOVOLTAICOS.
PROPUESTA DE AHORRO DE ENERGÍA PARA ALUMBRADO PÚBLICO EMPLEANDO ILUMINACIÓN TIPO LED Y GENERANDO ENERGÍA CON SISTEMAS FOTOVOLTAICOS.
Beltran Martinez Santiago, Universidad Politécnica de Sinaloa. Asesor: Dr. Eber Enrique Orozco Guillen, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, el tema del ahorro de energía y la eficiencia energética se ha convertido en una prioridad tanto a nivel económico como ambiental. Para las organizaciones, el consumo de energia puede representar un porcentaje significativo de sus costos operativos y, al mismo tiempo, contribuir a las emisiones de gases de efecto invernadero y al impacto ambiental negativo. El trabajo que se presenta a continuacion busca optimizar y eficientar el consumo de energía en lo que respecta a sistemas de iluminación. El alumbrado publico es un tema de mucho interés ya que representa una carga importante para los gobiernos en lo que respecta el mantenimiento y sustitución de luminarias. Por ello se proponen soluciones empleando luminarias tipo LED que son más eficientes y cuentan con un tiempo de vida media que superan las 50,000 horas de vida.
METODOLOGÍA
Para el desarrollo de la investigacion, se ha realizado una revisión de la normativa en México con respecto al alumbrado público, de igual forma se ha revisado la literatura en lo que respecta a la eficiencia de las luminarias. Se ha realizado un análisis de la calidad de iluminacíon y del consumo energético de luminarias convencionales o tradicionales con tecnología de vapor de sodio con respecto a las luminarias tipo LED. Además, se hace la propuesta de generar la energía que consumen las luminarias LED con sistemas fotovoltacios. Se han realizado simulaciones empleando el software DIALUX EVO para evaluar la calidad de la iluminacion. En el caso de los sistemas fotovoltaicos se ha utilizado el software System Advisor Model (SAM) para analizar la producción de energía durante el tiempo de vida de los paneles solares.
CONCLUSIONES
Se revisó la normativa mexicana aplicable a sistemas de alumbrado público y posteriormente se hicieron los cálculos fotovoltaicos correspondientes para suministrar la energía que consume el sistema de iluminación demostrando la factibilidad economica y el beneficio ambiental.
Benítez Vazquez María José, Instituto Tecnológico de Ciudad Guzmán
Asesor:Dr. Joan Manuel Redondo Ortegón, Universidad Católica de Colombia
CIUDADES SOSTENIBLES DESDE UNA PERSPECTIVA DE SISTEMAS COMPLEJOS
CIUDADES SOSTENIBLES DESDE UNA PERSPECTIVA DE SISTEMAS COMPLEJOS
Benítez Vazquez María José, Instituto Tecnológico de Ciudad Guzmán. Chavez Cervantes Itzel, Instituto Tecnológico Superior de Los Reyes. Asesor: Dr. Joan Manuel Redondo Ortegón, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, el desarrollo sostenible se ha convertido en un imperativo global, buscando equilibrar el progreso socioeconómico con la protección del medio ambiente. El crecimiento acelerado de la población y la rápida urbanización han dado lugar a un aumento en la demanda de recursos, infraestructuras y servicios en las ciudades, lo que plantea el desafío de abordar la sostenibilidad urbana de manera integral. Las ciudades desempeñan un papel crucial como centros de actividad humana y motores de desarrollo, pero también son fuentes significativas de emisiones de carbono, contaminación y consumo desmedido de recursos naturales.
La complejidad y la interconexión de los sistemas urbanos hacen que la planificación y gestión de ciudades sostenibles sea un desafío considerable. Los problemas urbanos, como la congestión del tráfico, la escasez de viviendas asequibles, la contaminación y la degradación del medio ambiente, no pueden abordarse de manera aislada, sino que requieren enfoques integrales y sistemas de pensamiento integradores para encontrar soluciones sostenibles. En este contexto, el enfoque de sistemas complejos surge como un marco teórico importante para comprender la dinámica de las ciudades y sus sistemas interconectados. Este enfoque permite considerar las múltiples relaciones entre los componentes urbanos y analizar cómo las decisiones en un área específica pueden tener efectos secundarios en otras partes del sistema.
METODOLOGÍA
Para abordar el problema de la sostenibilidad urbana desde una perspectiva de sistemas complejos, se llevó a cabo una revisión exhaustiva de investigaciones previas que exploran cómo este enfoque ha influido en el diseño y la implementación de ciudades sostenibles en México. La metodología se basó en el análisis de estudios de casos, informes gubernamentales, literatura académica y proyectos de desarrollo urbano.
En primer lugar, se identificaron estrategias clave que han demostrado ser efectivas en el avance hacia la sostenibilidad urbana desde una perspectiva de sistemas complejos. Estas estrategias incluyen la promoción del transporte público eficiente y sostenible, el fomento de la energía limpia y renovable, la implementación de prácticas de diseño urbano orientadas a la comunidad y la creación de espacios verdes y áreas recreativas accesibles para todos los ciudadanos.
Además, se examinaron las herramientas analíticas utilizadas para comprender la complejidad urbana, como los modelos de simulación, el análisis de redes y el uso de tecnologías de información geográfica. Estas herramientas permiten visualizar y evaluar los efectos de las intervenciones urbanas en diferentes aspectos de la ciudad, lo que facilita la toma de decisiones informadas.
Finalmente, se presentaron ejemplos específicos de proyectos urbanos en México que han aplicado con éxito la perspectiva de sistemas complejos para lograr avances significativos en sostenibilidad. Estos ejemplos incluyeron proyectos de regeneración urbana que han revitalizado áreas degradadas, iniciativas de participación ciudadana que han involucrado a la población en la toma de decisiones y proyectos de movilidad que han reducido la dependencia del automóvil y mejorado la calidad del aire.
CONCLUSIONES
El análisis de las investigaciones previas y ejemplos concretos ha demostrado que la perspectiva de sistemas complejos ofrece una forma prometedora de comprender las interacciones entre sistemas naturales y sociales en el contexto urbano. La comprensión de las dinámicas y las relaciones entre los distintos componentes de la ciudad permite identificar soluciones más efectivas y sistémicas para abordar los desafíos de la sostenibilidad urbana en México.
Uno de los hallazgos clave es que el crecimiento demográfico desmedido puede tener impactos negativos en la calidad del hábitat urbano, lo que resalta la necesidad de considerar una planificación cuidadosa y estratégica para evitar futuros desbordes. El enfoque de sistemas complejos ha demostrado ser útil para evaluar los efectos a largo plazo de las decisiones urbanas y para identificar posibles consecuencias no deseadas.
Las estrategias basadas en la sostenibilidad emocional y en la participación activa de las partes interesadas han demostrado ser especialmente efectivas para lograr resultados sostenibles y centrados en la comunidad. Al involucrar a los ciudadanos en la toma de decisiones y considerar sus necesidades y aspiraciones, se puede crear una visión compartida de la ciudad que promueva el bienestar y la calidad de vida de todos sus habitantes.
Es esencial que la investigación y la práctica continúen avanzando en esta dirección, ya que la sostenibilidad urbana sigue siendo un desafío complejo y en constante evolución. Es importante que los responsables políticos, urbanistas y líderes comunitarios trabajen en conjunto para desarrollar políticas y prácticas que impulsen un futuro más sostenible para las ciudades mexicanas y sus habitantes.
La visión de ciudades sostenibles desde una perspectiva de sistemas complejos ofrece una oportunidad única para abordar los desafíos urbanos de manera más integral y coherente. Al considerar las ciudades como sistemas interconectados, se pueden identificar soluciones que no solo aborden problemas específicos, sino que también fomenten un desarrollo urbano equitativo, inclusivo y ambientalmente responsable. Solo mediante la implementación de lineamientos que promuevan una comunidad educativa comprometida, una infraestructura adecuada al entorno y espacios públicos que fomenten la convivencia y el bienestar, será posible construir ciudades verdaderamente sostenibles y resilientes ante los desafíos futuros.
Bernal Sánchez Luis Fernando, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor:Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez
SISTEMA INTELIGENTE DE GEO-REFERENCIA PARA LA PREDICCIóN DE LA ESCALA DE MERCALLI EN HURACANES EN LA REGIóN DE LOS CABOS: APROXIMACIóN DE UN ATLAS DE RIESGOS.
SISTEMA INTELIGENTE DE GEO-REFERENCIA PARA LA PREDICCIóN DE LA ESCALA DE MERCALLI EN HURACANES EN LA REGIóN DE LOS CABOS: APROXIMACIóN DE UN ATLAS DE RIESGOS.
Bernal Sánchez Luis Fernando, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
El problema radica en que los huracanes son eventos naturales que pueden tener un impacto significativo en la infraestructura y las comunidades locales, lo que puede generar graves consecuencias económicas, sociales y ambientales. Por lo tanto, es fundamental contar con herramientas que permitan estimar los daños causados por estos eventos y así poder tomar decisiones informadas para prevenir y mitigar sus efectos.
En este sentido, el presente trabajo se propone abordar esta problemática mediante el desarrollo de un sistema que combina indicadores de vulnerabilidad física y social, basados en información del "Atlas de Riesgo y Vulnerabilidad al Cambio Climático del Municipio de Los Cabos, B.C.S.". Además, se utiliza una metodología que combina criterios específicos para evaluar los efectos destructivos potenciales de los huracanes, considerando la relevancia de cada factor en la estimación de daños.
En resumen, el problema que se aborda en esta investigación es la necesidad de contar con herramientas para estimar los daños causados por huracanes en Cabo San Lucas, con el fin de tomar decisiones informadas basado en las estimaciones del sistema con el objetivo de ayudar a las autoridades locales con sus decisiones para prevenir y mitigar sus efectos en la infraestructura y las comunidades locales.
METODOLOGÍA
Selección de indicadores: se seleccionaron varios indicadores de vulnerabilidad que evalúan distintas dimensiones, como la intensidad de los huracanes, la vulnerabilidad inherente de la zona, la capacidad de respuesta ante desastres y la percepción local del riesgo. Estos indicadores se seleccionaron en función de su relevancia para la estimación de daños causados por huracanes en Cabo San Lucas.
Normalización y ponderación de los indicadores: los valores obtenidos se normalizaron para permitir comparaciones y se les asignaron pesos según su relevancia para los cálculos. La normalización de los indicadores permite compararlos entre sí, mientras que la ponderación de los mismos permite dar mayor importancia a aquellos que tienen un mayor impacto en la estimación de daños. La integración de estos indicadores y su ponderación precisa proporciona una estimación completa del impacto.
Adaptación de la escala de Mercalli: se propuso la adaptación de la escala de Mercalli para estimar los daños ocasionados por huracanes. La escala de Mercalli es una escala sismológica que se utiliza para medir la intensidad de los terremotos. En este caso, se adaptó la escala de Mercalli para medir la intensidad de los huracanes y así poder estimar los daños causados por los mismos. Esta adaptación permite una mejor comprensión de las implicaciones y posibles consecuencias de cada evento natural.
Desarrollo de un enfoque visual intuitivo y accesible de Geo-Referencia: se utilizó un entorno gráfico para facilitar la comprensión de las implicaciones y consecuencias de los eventos naturales. Este enfoque ofrece una herramienta efectiva para evaluar y comprender con mayor claridad las consecuencias de los huracanes. El enfoque visual de Geo-Referencia se basa en la utilización de mapas y gráficos que permiten visualizar de manera clara y concisa los efectos de los huracanes en la infraestructura y las comunidades locales. Además, se adaptó la escala de Mercalli para que sea más fácil de entender visualmente, lo que permite una mejor comprensión de las implicaciones y posibles consecuencias de cada evento natural.
Evaluación de los efectos destructivos potenciales de los huracanes: se combinaron los indicadores de vulnerabilidad, la adaptación de la escala de Mercalli y el enfoque visual de Geo-Referencia para evaluar los efectos destructivos potenciales de los huracanes. La combinación de estos elementos permite una evaluación más precisa y completa de los efectos de los huracanes en la infraestructura y las comunidades locales.
Definición de prioridades: el sistema propuesto puede ser de gran utilidad en la definición de prioridades según las áreas más afectadas en la ciudad de Cabo San Lucas, ofreciendo una visión global de la posible magnitud del impacto. La evaluación de los efectos destructivos potenciales de los huracanes permite identificar las áreas más vulnerables y, por lo tanto, definir prioridades en la toma de decisiones para prevenir y mitigar los efectos de los huracanes.
En resumen, la metodología utilizada en esta investigación se diseñó para proporcionar una estimación completa y precisa del impacto de los huracanes en Cabo San Lucas, y para ofrecer información crítica para la toma de decisiones antes, durante y después de un huracán. La combinación de varios indicadores de vulnerabilidad, la adaptación de la escala de Mercalli y el enfoque visual de Geo-Referencia permite una evaluación más precisa y completa de los efectos de los huracanes en la Ciudad de Cabo San Lucas.
CONCLUSIONES
Durante la estancia de verano encontre la importancia de contar con herramientas que permitan abordar de manera integral y holística la problemática de los daños causados por huracanes. La metodología propuesta en este estudio, que combina varios indicadores de vulnerabilidad, la adaptación de la escala de Mercalli y el enfoque visual de Geo-Referencia, se presenta como una contribución valiosa para abordar los desafíos de gestión y mitigación de los impactos de los huracanes en la región.Este sistema tiene el potencial de seguir creciendo como se sugiere en trabajos a futuro como el uso de algoritmos para restablecer el orden social después de un huracán esto le puede brindar la oportunidad de ser un sistema más reactivo para poder utilizado y adaptado para otros desastres naturales.
Borrego Cortez Hancel de Jesús, Universidad de Sonora
Asesor:Dr. Alfredo Aranda Fernández, Universidad de Colima
FíSICA DE PARTíCULAS: INTRODUCCIóN AL MODELO ESTáNDAR
FíSICA DE PARTíCULAS: INTRODUCCIóN AL MODELO ESTáNDAR
Borrego Cortez Hancel de Jesús, Universidad de Sonora. Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
En este trabajo se pretende desarrollar un conjunto básico de temas que permitan entender y construir lo que se conoce como el lagrangiano del modelo estándar. El modelo estándar de física de partículas es la mejor teoría que los físicos tienen actualmente para describir los bloques fundamentales que componen al universo.
METODOLOGÍA
Para conseguir el objetivo planteado, se siguió una línea de trabajo que mantiene cierta coherencia entre los temas y los tiempos asignado para trabajarlos. Se comenzó con una introducción a la notación matemática y a los temas a través de lecturas y la realización de problemas.
Como preparación directa para entender cómo construir el lagrangiano, se realizaron sesiones de estudio enfocadas en entender temas tales como:
Teoría clásica de campos
Ruptura espontanea de simetría
Principio gauge local
Ecuación de Dirac
Como monitoreo de los avances realizados, semanalmente se realizaron reuniones donde se planteaba y se resolvían dudas que surgieran de los temas de estudio.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos suficientes para entender ¿qué es? y ¿Cómo? construir el lagrangiano del modelo estándar. Sin embargo, al ser un extenso trabajo, únicamente se pudo cumplir con el objetivo de manera parcial, puesto que falto revisar temas a mayor profundidad.
Briones Sánchez Erick Daniel, Instituto Politécnico Nacional
Asesor:Dr. Marco Montiel Zacarías, Universidad Veracruzana
PATRIMONIO Y SUSTENTABILIDAD
PATRIMONIO Y SUSTENTABILIDAD
Briones Sánchez Erick Daniel, Instituto Politécnico Nacional. Díaz Solano Fatima Yetzareth, Instituto Politécnico Nacional. García Acosta Diana del Carmen, Instituto Politécnico Nacional. Asesor: Dr. Marco Montiel Zacarías, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
En Veracruz, sobre todo en el puerto, diariamente llega infinidad de barcos con gran variedad de mercancía, misma que debe ser correctamente empaquetada y protegida para transportarla de una manera más fácil y segura, existen dos elementos que se usan para ese fin: los pallets de madera y el unicel. Estos materiales ofrecen solución para dos de las problemáticas más grandes que tiene Veracruz las cuales son la falta de vivienda digna para las personas de bajos recursos y el gran desperdicio de materiales que se vuelven inservibles en el puerto.
Para medir la sustentabilidad de una sociedad, según la UNESCO, el indicador más importante es el patrimonio ya que su salud muestra que tan sostenible es una sociedad. Lamentablemente el patrimonio se ve afectado cuando el desconocimiento en restauración hace que se empleen técnicas y materiales que no son los adecuados, lo que provoca el deterioro del patrimonio de las ciudades y en cierta medida ocasiona su pérdida, como es el caso de varios lugares en la de Veracruz.
El centro histórico de Veracruz alberga siglos de historia en cuanto a patrimonio arquitectónico. En esta ciudad se encuentran edificios con diferentes estilos arquitectónicos los cuales datan de la época de la conquista hasta la modernidad, sin embargo, los edificios más recientes han sufrido diferentes grados de alteraciones que hacen que se pierda gran cantidad del bagaje cultural e histórico de la ciudad de Veracruz.
Con este proyecto se busca analizar la situación que presenta Veracruz tanto en vivienda y patrimonio, trabajando ambos temas de manera conjunta para ofrecer soluciones integrales.
METODOLOGÍA
Durante la estancia se han realizado tres proyectos que en conjunto dan la solución para coadyuvar a que Veracruz sea una ciudad más sostenible.
Primeramente, se trabajó con el proyecto de B-Pallets, ideado por la Universidad Veracruzana como una alternativa para la construcción de viviendas que sean accesibles para personas con bajos recursos y a la vez ayudar a formar comunidades que fomenten valores como la solidaridad. La principal característica que destaca de este sistema es el reciclaje de los pallets de madera y el unicel usados para el embalaje de mercancía que llega al puerto de Veracruz, formando un sistema constructivo que funcione como muros divisorios, sean exteriores o interiores, que trabajando en conjunto con una estructura se puede volver una excelente solución para formar viviendas dignas.
Se trabajó en el proceso de construcción de cuatro especímenes del sistema B-Pallets experimentando con los materiales y dosificaciones para que posteriormente se les puedan hacer las pruebas pertinentes en laboratorio bajo a criterios de las normas aplicables para determinar que cualidades físicas y mecánicas puede ofrecer este sistema.
Se hicieron bastidores con un pallet de madera de 1.14 m x 1.14 m que fue dividido en cuatro partes para poder trabajar dichos especímenes. Una vez obtenidos los bastidores de madera, se procede a extraer placas de poliestireno expandido (unicel) que tengan las medidas del hueco que se forma en el interior del bastidor hecho con el pallet de madera; el unicel se usa para reciclar el "material de desperdicio" de los embalajes de mercancía, pero este a su vez otorga al muro B-Pallet cualidades primordialmente acústicas y térmicas por el grosor de la placa que se corta que va de los 11 a 12 cm dependiendo del pallet de madera que vaya a ser utilizado como bastidor. después se puso una tela de gallinero que servirá como soporte para las capas de tierra. Posteriormente se trabajó en conjunto con técnicas de construcción con tierra para darle estabilidad al sistema constructivo, en las que se agregaron tres capas de tierra por cara del muro, cada una con diferentes características: las cuales son: capa de relleno, capa de nivelación y capa de acabado. Para la primera capa se trabajó con una mezcla de tierra del lugar, cal y paja; con esta capa se consigue rellenar el espacio entre el bastidor de madera. unicel y la tela de gallinero, estableciendo una superficie rígida que reciba la siguiente capa. La capa de nivelación esta hecha de una mezcla de cal y arena, tiene un grosor de no más de 5 mm y forma una superficie más lisa sobre la que se puede agregar un acabado. En este caso, se agregó un acabado con cal pigmentada para experimentar las ventajas de la cal como un acabado final.
Se pretende que el sistema de B-Pallets se lleve a cabo a gran escala empleando los pallets completos y que para llevar a cabo la construcción de viviendas se usen materiales del lugar y el apoyo de toda una comunidad.
Asimismo, el conocimiento de técnicas de construcción con tierra y materiales naturales es un gran aliado al momento de intervenir en patrimonio histórico en donde se han usado estos tipos de técnicas, como en la fortaleza de San Juan de Ulúa, en donde se llevaron a cabo levantamientos arquitectónicos del Cuerpo de Vigilancia de la fortaleza ubicado en la parte de tierra firme de la misma. Al ser un espacio con al menos 300 años de historia fue necesario realizar el reconocimiento de los materiales utilizados y técnicas de construcción entre los que destacan el uso de piedra múcara y aplanados con cal, a la vez también se hizo el levantamiento de los deterioros que presenta el edificio y así ofrecer una estrategia para su correcta restauración.
Comprendiendo que preservar el patrimonio de una ciudad es una actividad que debe realizarse día a día, se recorrieron las calles de la colonia Flores Magón del centro histórico de Veracruz para poder identificar los edificios hechos a partir de finales del siglo XIX los cuales no cuentan con ningún tipo de protección de alguna institución como el INAH o INBA, buscando catalogarlo para que en un futuro pueda ser reconocido y protegido.
CONCLUSIONES
Las actividades realizadas en el verano de ciencias otorgaron experiencias y conocimientos que muestran la importancia del entendimiento del pasado, siendo una inspiración para la solución de problemas del presente para asegurar un mejor futuro para las sociedades; además que con los nuevos conocimientos es posible conservar aquel pasado que forma parte de la identidad cultural de las personas que habitan en determinado lugar. Se espera poder seguir trabajando en la preservación y reconocimiento del patrimonio arquitectónico; a su vez en más propuestas de técnicas de construcción que fomenten el sentido de comunidad que fortalezca a las sociedades tanto de Veracruz como del resto del país.
Briseño Morán José Manuel, Universidad de Guadalajara
Asesor:Dr. Rosendo Romero Andrade, Universidad Autónoma de Sinaloa
ANáLISIS DE LAS OBSERVACIONES GPS/GNSS CON RECEPTORES DE ORDEN GEODéSICO Y DE BAJO COSTO PARA TRABAJOS TOPOGRáFICOS-GEODéSICOS.
ANáLISIS DE LAS OBSERVACIONES GPS/GNSS CON RECEPTORES DE ORDEN GEODéSICO Y DE BAJO COSTO PARA TRABAJOS TOPOGRáFICOS-GEODéSICOS.
Briseño Morán José Manuel, Universidad de Guadalajara. Rubio Galán Mariana, Universidad de Colima. Asesor: Dr. Rosendo Romero Andrade, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Los receptores de bajo costo, si bien son una tecnología con algunos años, son relativamente nuevos en su aplicación a trabajos topográfico-geodésicos; estos receptores logran precisiones muy cercanas a las obtenidas con equipo de orden geodésico con tan solo una fracción del costo de estos últimos. El abanico de posibilidades de aplicación es cada vez mas amplio toda vez que se realizan experimentaciones que permiten exponer la viabilidad y confiabilidad de estos.
METODOLOGÍA
Se llevo a cabo una serie de experimentos para observar el comportamiento del equipo en distintas condiciones y bajo diferentes aplicaciones.
Equipo de bajo costo como estación de monitoreo continuo: Este experimento se lleva a cabo en las instalaciones de la Facultad de Ciencias de la Tierra y el Espacio de la Universidad Autónoma de Sinaloa. Consistió en la instalación de una antena Beitian (BEIBT300 NONE) antena de bajo costo con calibración de NGS en conjunto con un receptor de bajo costo Ublox ZED-F9P, en un punto de centrado forzoso por periodos de 24 horas continuas durante 3 dias. A dichas observaciones se les realizara un análisis de calidad mediante el uso de software TEQC de UNAVCO, considerando los parámetros de calidad del IGS para estaciones de monitoreo continuo.
Equipo de bajo costo para determinar el nivel medio del mar: Este experimento se lleva a cabo sobre el muelle en Altata, Sinaloa. Consistió en la instalación de una antena Beitian (BEIBT300 NONE) antena de bajo costo con calibración de NGS junto con un par de antenas de bajo costo ANN-MB-00 montadas en una extensión sobre el mar, cada una conectada a un receptor de bajo costo Ublox ZED-F9P, en un punto en el extremo sur del muelle por periodos mínimos de 10 horas. Para dicho experimento se requerirán 12 compañas a razón de una por mes, por lo que las realizadas durante la estancia corresponde a la campaña 7; una vez terminadas las campañas de medición se hará su procesado, análisis y contraste con los datos obtenidos por el mareógrafo, propiedad de la SEMARNAT, instalado en el extremo norte del muelle.
Equipo de bajo costo para control de precisión en ortomosaicos: Este experimento se lleva a cabo en dos partes; ambas sobre la cortina de la presa Sanalona, en Culiacán, Sinaloa. La primer parte consistió en la observación de quince puntos solicitados a lo largo y ancho de toda la cortina de la presa cuya finalidad es el control de vuelo fotogramétrico realizado con dron Mavic Mini 2, la observación se hace con una antena Leica LEIAT502 o Leica LEIAS10 en conjunto con un receptor de bajo costo Ublox ZED-F9P por un periodo de una hora en cada uno de los quince puntos; simultáneamente se instala un equipo de orden geodésico GeoMax ZENITH25 en un punto de centrado forzoso (GRIS) sobre la cortina de la presa para control y referencia. Se realizó un análisis de calidad mediante el uso del software TEQC de UNAVCO, considerando los parámetros de calidad del IGS para estaciones de monitoreo continúo, una vez obtenido el análisis de calidad los datos son procesados con software comercial TOPCON Tools bajo la técnica de Posicionamiento Relativo Estático obteniendo de ellos coordenadas y elevaciones en dos supuestos, el primero utilizando la estación de referencia CULC de INEGI para todos los puntos, y el segundo utilizando el punto denominado GRIS, como estación de referencia para todos los puntos observados con equipo de bajo costo. Para la segunda parte del experimento se llevo a cabo una campaña de mediciones con equipo GeoMax ZENITH25 por un periodo de 15 minutos en cada punto, simultáneamente se instala un equipo de orden geodésico GeoMax ZENITH25 en un punto de centrado forzoso (GRIS) sobre la cortina de la presa para control y referencia. . Se realizó un análisis de calidad mediante el uso del software TEQC de UNAVCO, considerando los parámetros de calidad del IGS para estaciones de monitoreo continúo, una vez obtenido el análisis de calidad los datos son procesados con software comercial TOPCON Tools bajo la técnica de Posicionamiento Relativo Estático obteniendo de ellos coordenadas y elevaciones en dos supuestos, el primero utilizando la estación de referencia CULC de INEGI para todos los puntos, y el segundo utilizando el punto denominado GRIS, como estación de referencia.
CONCLUSIONES
La realización de estos experimentos tiene como finalidad, exponer a los equipos de bajo costo a aplicaciones topográfico-geodésicas, para observar su comportamiento y desempeño en comparación con equipos implementados actualmente.
En el análisis de calidad los equipos de bajo costo tienen un desempeño equiparable a los receptores de orden geodésico en los parámetros de intensidad de la señal y efecto multitrayectoria y una diferencia destacable en la integridad de la señal y saltos de ciclo, parámetros que mejoran con el cuidado al momento de la instalación o un mayor tiempo de observación.
El procesado de datos es fundamental para alcanzar las precisiones que demandan los trabajos de orden topográfico-geodésico.
Un equipo de bajo costo tendrá un buen desempeño en trabajos topográfico-geodésicos, basándonos en pruebas y comparativas realizadas con los datos obtenidos con equipos de orden geodésico, que corroboraron una diferencia entre coordenadas sobre las décimas de segundo. Así mismo los procesos arrojaron correcciones inferiores a los 10 mm siendo un margen tolerable para su aplicación.
Los experimentos llevados a cabo forman parte de estudios más amplios cuyos resultados se utilizaran para sustentar dos tesis de licenciatura y una de maestría, con su respectiva publicación en una revista de divulgación científica; dichos experimentos no han sido concluidos puesto que se requiere redundancia en la obtención de los datos para una comparativa mas precisa.
Brizuela Guzmán Elián de Jesús, Universidad de La Salle Bajío
Asesor:Dr. Miguel Mora González, Universidad de Guadalajara
ELABORACIóN DE ALGORITMOS DE PROCESAMIENTO DIGITAL DE IMáGENES Y RECONOCIMIENTO DE PATRONES PARA APLICACIONES EN IMáGENES MéDICAS
ELABORACIóN DE ALGORITMOS DE PROCESAMIENTO DIGITAL DE IMáGENES Y RECONOCIMIENTO DE PATRONES PARA APLICACIONES EN IMáGENES MéDICAS
Brizuela Guzmán Elián de Jesús, Universidad de La Salle Bajío. Asesor: Dr. Miguel Mora González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La captura y digitalización de imágenes llevan procesos como cuantificación y normalización, esto para homogeneizar las características y formatos de las imágenes a trabajar.
El ámbito médico no queda exento del uso de imágenes, por el contrario, utiliza métodos más avanzados para el procesamiento de radiografías, resonancias, ultrasonidos, entre otros. Aún con toda la implementación tecnológica en el procesamiento de imágenes médicas, las imágenes representan retos al tener información oculta al ojo humano o al personal no entrenado en dicha área del conocimiento. Por ejemplo, en el presente proyecto nos enfocamos a analizar las imágenes de radiografía con fracturas o fisuras ocultas, buscando una herramienta digital que pueda facilitar la labor del personal médico.
Durante la estancia de investigación se estudiaron métodos de procesamiento digital de imágenes, tales como filtros, aumento y disminución de contraste, segmentación y reconocimiento de patrones, entre otros. Posteriormente se implementaron en una imagen del ramo médico, para encontrar los beneficios que puede traer el procesamiento para resaltar características en una radiografía médica, y así analizar el valor que puede tener el procesamiento digital para la detección de condiciones médicas ocultas en dichas imágenes.
METODOLOGÍA
Se estudiaron a través de la programación en Python, los diferentes métodos que hay para procesar una imagen, empezando por la realización de operaciones aritméticas y lógicas con imágenes, además de descomposición de imagen a color en sus canales primarios rojo, verde y azul (RGB por sus siglas en inglés), así como los secundarios cian, amarillo y magenta (CYM por sus siglas en inglés). Lo anterior para analizar sus respectivos histogramas, y la expansión de estos, para el mejoramiento del contraste tanto en niveles de gris como en color.
Se utilizaron técnicas de operaciones lógicas y aritméticas, con la finalidad de controlar las imágenes de una forma más natural en sus futuras aplicaciones de filtrado espacial y frecuencial.
Se implementaron distintos de filtrado espacial, utilizando la técnica de convolución, utilizado diferentes máscaras de convolución dependientes del filtro y así como el tamaño de la máscara: gaussianas, relieves, gradientes, medias, medianas, entre otras; con respecto al tamaño de máscara 3x3, 5x5, etc. Tras esto, se implementaron otros filtros detectores de bordes, tales como Canny, Roberts, Sobel y GplusC (Grany plus Canny, filtro creado por el Dr Miguel Mora), concluyendo que los filtros más robustos para distintas aplicaciones eran Canny y GplusC, los cuales resaltaban más detalles y permitían hacer una segmentación por bordes con niveles de umbral mayores a los que eran capaces de manejar cualquiera de los otros tipos de filtros.
Con respecto al filtrado frecuencial, se crearon diferentes tipos de máscaras (círculos, anillos, rectángulos, cruz y combinaciones), con tal de encontrar filtros en el espacio de Fourier como son pasa altas, pasa bajas, pasa bandas y supresores de banda.
Para la segmentación en las imágenes se probaron distintos métodos: por morfología, bordes, color, umbral y umbral adaptativo. Cada uno daba diferentes resultados, se aplicaron en distintas imágenes, y el que arrojaba mejores resultados era por bordes y por umbral, debido a que resaltaba figuras más especificas de una imagen, contrastando con el de morfología que observamos que solía interpretar como formas una variedad de figuras de una imagen, empalmándose entre si y así demeritando su uso al no segmentar lo que se buscaba.
Se implementaron varios de los métodos de procesamiento de imágenes mencionados a un conjunto de imágenes médicas, las cuales estaban compuestas por imágenes con fisuras y tumores, se probaron principalmente los detectores de bordes, el aumento de contraste y segmentación.
Además, se creó una red neuronal para el análisis de imágenes de la base de datos nminst, esto para entender el funcionamiento del reconocimiento de patrones en imágenes, en este caso de números manuscritos, todo utilizando la biblioteca de pytorch.
Por ultimo se usaron técnicas de reconocimiento de patrones tales como la distancia euclídea y de Mahalanobis, así como la densidad probabilística Gaussiana, para comprender como funcionaba el reconocimiento de patrones en bases de datos al hacer las funciones tanto con ciclos for como con funciones preestablecidas de los módulos scipy y numpy en Python. Gracias a estos métodos se puede observar cómo en un conjunto de datos se puede predecir el resultado al ver la dispersión y hacer en base a esto los cálculos probabilísticos. En las dos últimas semanas se trabajaron los algoritmos de k-medias, k-vecinos y análisis de componentes principales (PCA por sus siglas en inglés).
CONCLUSIONES
Tras la aplicación de diferentes técnicas como la mezcla entre ellas, se concluyó la necesidad de implementar una base de datos de radiografías para cada diagnóstico y un algoritmo de red neuronal, que sea viable en el reconocimiento de patrones correspondientes a afecciones tales como un tumor, lo cual se verá como proyecto a futuro.
En cambio, se vio como una técnica prometedora el uso de detectores de bordes para la detección de fisuras o fracturas, las cuales pueden tener poca visibilidad o estar ocultas dentro de la imagen. Por lo cual se logró resaltar fracturas que no son muy perceptibles, y además se sigue trabajando en mejorar técnicas para solidificar implementarlas en la detección, visualización y/o clasificación de fracturas ocultas molares, esto para el área médica de odontología.
Se consultaron diversas fuentes bibliográficas, incluyendo los libros "Digital Image Processing" de Gonzales & Woods, "Visión por Computador" de Velez et al, Pattern Recognition and Image Processing, de Bow, entre otros. También revisamos varios artículos relevantes relacionados con nuestro proyecto.
Bueno Rivera Oswaldo, Universidad Autónoma de Sinaloa
Asesor:Dr. Octavio Arizmendi Echegaray, Centro de Investigación en Matemáticas (CONACYT)
CáLCULO EXACTO DE áTOMOS EN VARIABLES ALEATORIAS LIBRES Y MATRICES ALEATORIAS
CáLCULO EXACTO DE áTOMOS EN VARIABLES ALEATORIAS LIBRES Y MATRICES ALEATORIAS
Bueno Rivera Oswaldo, Universidad Autónoma de Sinaloa. Asesor: Dr. Octavio Arizmendi Echegaray, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Un tema de relevancia en la probabilidad es aquel de las matrices aleatorias. Una matriz aleatoria es una matriz cuyas entradas son variables aleatorias, y dichas matrices tienen propiedades cuyo análisis es de interés, entre estas está su espectro.
El espectro de una matriz es el conjunto de sus eigenvalores. En el caso de una matriz aleatoria su espectro está compuesto por variables aleatorias y el cómo se distribuyen es bastante particular bajo ciertas condiciones.
En este verano de investigación se busca profundizar en el concepto de átomo de una matriz aleatoria (o un polinomio de estas), el cual se refierea un valor en el que se acumula un número fijo (y mayor que cero) de los eigenvalores de dicha matriz; es decir, decimos que una matriz aleatoria tiene un átomo en λ si la probabilidad de que un eigenvalor sea igual a λ es mayor que cero. Más aún, el propósito particular es investigar los átomos de ciertos polinomios en especial de matrices aleatorias libres e intentar determinar su posición y tamaño.
METODOLOGÍA
Se inició el trabajo sobre la teoría básica y clásica de la probabilidad, estudiando conceptos como variable aleatoria, esperanza, momentos de una variable aleatoria, funciones de densidad y distribución de probabilidad, para tener un buen conocimiento preliminar para el tema de estudio principal.
Posteriormente, empezó a analizarse el artículo El Teorema de Wigner para matrices aleatorias, Dominguez, A., Rocha, A. 2009, en el cual se introdujeron conceptos como el de matriz aleatoria, su espectro, su distribución espectral, entre otros. Dicho artículo hizo familiarizarse con el trabajo de matrices aleatorias y como se comporta su espectro bajo ciertas condiciones particulares. Asimismo se analizó como se comportaban los espectros de las matrices de Wigner programandolas en Python.
Una vez familiarizado con las matrices aleatorias se empezó a analizar el espectro de las matrices de Wishart. Una matriz de Wishart M se construye a partir de una matriz X que es una matriz aleatoria cuyas entradas son variables aleatorias con distribución normal con media cero, de tal forma que
M = XXT
Con esto se introdujo el concepto de "átomo" de una matriz aleatoria, pues las matrices de Wishart cumplen el tener un átomo en cero.
Después se realizó un estudio del artículo Universality of free random variables: atoms for non-commutative rational functions, Arizmendi, O., Cébron, G., Speicher, R., Yin, S. 2021. En el cual se presentan resultados sobre átomos para polinomios en matrices aleatorias libres, dichos resultados permitieron el estudio de los átomos de ciertos polinomios particulares de matrices de Wishart, los cuales en ocasiones pudieron calculados con exactitud, tanto en tamaño como posición.
Se inició un estudio de la probabilidad libre, revisando conceptos como *-espacios de probabilidad, variables aleatorias libres, entre otros, que permitiría un mayor entendimiento de la independencia libre.
Se analizó la función racional
P(X1, ..., Xn) = (λ1X1 + ... + λnXn) / (β1X1 + ... + βnXn)
cuando X1, ..., Xn eran matrices de Wishart y se determinaron el tamaño y posición de sus átomos.
Finalmente, se empezó un análisis más profundo tras un intento de determinar los átomos del polinomio conmutador con 3 matrices de Wishart, a través del cual se encontraron condiciones un poco particulares que permitieron predecir los átomos del conmutador. El polinomio conmutador para 3 variables es
P(X, Y, Z) = XYZ - XZY - YXZ + YZX + ZXY - XYZ
CONCLUSIONES
En este verano de investigación se obtuvieron resultados en dos funciones racionales.
El primer resultado se obtuvo analizando la función racional
P(X1, ..., Xn) = (λ1X1 + ... + λnXn) / (β1X1 + ... + βnXn)
cuando X1, ..., Xn eran matrices de Wishart, en el cual tras un análisis de su espectro al ser programado en Python, se determinó que tiene n átomos ubicados en λi/ βi con tamaño igual al rango de la matriz Xi.
El resto de los resultados se obtuvieron analizando el polinomio conmutador para n = 3.
P(X, Y, Z) = XYZ - XZY - YXZ + YZX + ZXY - XYZ
para el cual se analizó su espectro en Python y se observó que si X, Y, Z son matrices de Wishart de N x N, si la dimensión del rango de X e Y son mayores o iguales que N/4 y aquella de Z es mayor o igual que N/2 entonces el conmutador bajo dichas matrices es invertible. Más aún, se demostró que si los rangos de X e Y son como antes, pero la dimensión del rango de Z es menor que N/2 entonces el conmutador no es invertible.
Asimismo se desmostró que el tamaño del átomo en 0 del conmutador es mayor o igual que
mín {4mX - 3, 4mY - 3, 4mZ - 3, 0}
donde mX, mY, mZ son los tamaños de los átomos en cero de las matrices X, Y, Z respectivamente.
Buitrago Garcia Mariana, Corporación Universitaria Empresarial Alexander von Humboldt
Asesor:Mg. Franklin Meneses Sáchica, Fundación Universitaria Agraria de Colombia
EL PROYECTO DE INVESTIGACIóN, TIENE COMO OBJETIVO PRINCIPAL ABORDAR LOS DESAFíOS QUE EXISTEN EN LA ACTUALIDAD EN LA PROTECCIóN DE LOS ECOSISTEMAS Y BIODIVERSIDAD EN EL DEPARTAMENTO DEL QUINDíO Y PODER TENER UNAS MEDIDAS CONCRETAS PARA EL FORTALECIMIENTO DE LA PROTECCIóN AMBIENTAL EN EL DEPARTAMENTO. EL ANáLISIS JURíDICO SE CENTRARá EN EVALUAR EL MARCO LEGAL VIGENTE RELACIONADO CON LA CONSERVACIóN DE LOS ECOSISTEMAS EN EL DEPARTAMENTO DEL QUINDíO Y PODER IDENTIFICAR IGUALMENTE VACíOS Y LIMITACIONES EN ESTA LEGISLACIóN ACTUAL.
DE IGUAL MANERA, SE PRETENDE LLEVAR A CABO LA EVALUACIóN DE LA IMPLEMENTACIóN DE LAS POLíTICAS EXISTENTES EN LA REGIóN, ESTO CON EL OBJETIVO DE ANALIZAR SU EFECTIVIDAD EN LA PROTECCIóN DE LOS ECOSISTEMAS.
PARA FINALIZAR, ESPERO QUE LOS RESULTADOS DE ESTA INVESTIGACIóN, PUEDAN CONTRIBUIR A LA CONSERVACIóN DE LA BIODIVERSIDAD Y A UN DESARROLLO SOSTENIBLE EN EL DEPARTAMENTO DEL QUINDíO.
PALABRAS CLAVES: BIODIVERSIDAD, ECOSISTEMA, CORPORACIONES REGIONALES DEL QUINDíO, DESARROLLO SOSTENIBLE, MARCO JURíDICO.
EL PROYECTO DE INVESTIGACIóN, TIENE COMO OBJETIVO PRINCIPAL ABORDAR LOS DESAFíOS QUE EXISTEN EN LA ACTUALIDAD EN LA PROTECCIóN DE LOS ECOSISTEMAS Y BIODIVERSIDAD EN EL DEPARTAMENTO DEL QUINDíO Y PODER TENER UNAS MEDIDAS CONCRETAS PARA EL FORTALECIMIENTO DE LA PROTECCIóN AMBIENTAL EN EL DEPARTAMENTO. EL ANáLISIS JURíDICO SE CENTRARá EN EVALUAR EL MARCO LEGAL VIGENTE RELACIONADO CON LA CONSERVACIóN DE LOS ECOSISTEMAS EN EL DEPARTAMENTO DEL QUINDíO Y PODER IDENTIFICAR IGUALMENTE VACíOS Y LIMITACIONES EN ESTA LEGISLACIóN ACTUAL.
DE IGUAL MANERA, SE PRETENDE LLEVAR A CABO LA EVALUACIóN DE LA IMPLEMENTACIóN DE LAS POLíTICAS EXISTENTES EN LA REGIóN, ESTO CON EL OBJETIVO DE ANALIZAR SU EFECTIVIDAD EN LA PROTECCIóN DE LOS ECOSISTEMAS.
PARA FINALIZAR, ESPERO QUE LOS RESULTADOS DE ESTA INVESTIGACIóN, PUEDAN CONTRIBUIR A LA CONSERVACIóN DE LA BIODIVERSIDAD Y A UN DESARROLLO SOSTENIBLE EN EL DEPARTAMENTO DEL QUINDíO.
PALABRAS CLAVES: BIODIVERSIDAD, ECOSISTEMA, CORPORACIONES REGIONALES DEL QUINDíO, DESARROLLO SOSTENIBLE, MARCO JURíDICO.
Buitrago Garcia Mariana, Corporación Universitaria Empresarial Alexander von Humboldt. Asesor: Mg. Franklin Meneses Sáchica, Fundación Universitaria Agraria de Colombia
PLANTEAMIENTO DEL PROBLEMA
El Quindío es una región de alta biodiversidad que alberga diversos ecosistemas de gran importancia para el equilibrio ambiental y el bienestar humano. Sin embargo, estos ecosistemas enfrentan serios desafíos que amenazan su conservación y supervivencia. En este contexto, surge la siguiente problemática:
¿Cuáles son los principales retos y obstáculos jurídicos que limitan la conservación de los ecosistemas en el Quindío, y cómo pueden abordarse para fortalecer la protección ambiental y promover una gestión sostenible en una región de alta biodiversidad?
Este planteamiento del problema busca analizar y comprender los desafíos específicos que enfrenta la conservación de los ecosistemas en el Quindío desde una perspectiva jurídica. Se pretende identificar los obstáculos y limitaciones en el marco normativo y legal vigente que afectan la protección ambiental y la gestión sostenible de los ecosistemas en la región.
Además, se busca analizar cómo estos desafíos y obstáculos impactan la conservación de los ecosistemas y la biodiversidad en el Quindío, considerando factores como la deforestación, la urbanización no planificada, la contaminación, el cambio climático y la falta de participación ciudadana. Asimismo, se pretende proponer medidas y estrategias legales que permitan superar estos retos y fortalecer la protección ambiental, fomentando una gestión sostenible de los ecosistemas en una región de alta biodiversidad.
METODOLOGÍA
Considero que la falta de protección jurídica de los ecosistemas en el departamento del Quindío conlleva a diversas problemáticas que afectan la conservación ambiental en la región. En esta investigación se justifica por una necesidad de hacer el análisis del marco legal y normativo para la protección de los ecosistemas en el departamento y cabe señalar que la conservación de los ecosistemas en el Quindío enfrenta diversos retos, como la deforestación, la pérdida de hábitats naturales, la contaminación y el cambio climático y con esto identificar oportunidades y proponer soluciones efectivas para superar los retos y promover la protección ambiental en el Quindío.
CONCLUSIONES
La conservación de los ecosistemas en el Quindío enfrenta desafíos significativos, pero existen oportunidades para fortalecer la protección ambiental mediante la mejora del marco jurídico, la participación ciudadana y la cooperación entre diferentes actores. La adopción de propuestas concretas puede contribuir a preservar la rica biodiversidad de la región y asegurar un futuro sostenible para las generaciones venideras. Después de realizar un análisis jurídico de la conservación de los ecosistemas en el Quindío, se pueden extraer las siguientes conclusiones:
1. Marco jurídico y normativo: Se requiere una revisión exhaustiva del marco jurídico y normativo existente en el Quindío para fortalecer la protección de los ecosistemas. Es fundamental contar con leyes claras y coherentes que aborden los problemas específicos de la región y promuevan la sostenibilidad ambiental.
2. Participación ciudadana: La participación activa de la sociedad civil, las comunidades locales y las organizaciones ambientales es esencial para la conservación efectiva de los ecosistemas. El fomento de la educación ambiental y la concienciación sobre la importancia de la protección del medio ambiente puede generar un mayor compromiso con la conservación.
Cabrera Campaña Eber Emanuel, Universidad de Sonora
Asesor:Dr. Enrique Rosendo Andrés, Benemérita Universidad Autónoma de Puebla
ESTUDIO TEóRICO MEDIANTE SIMULACIóN Y OPTIMIZACIóN DE UNA CELDA SOLAR DE CDS/GAAS DE ALTA EFICIENCIA.
ESTUDIO TEóRICO MEDIANTE SIMULACIóN Y OPTIMIZACIóN DE UNA CELDA SOLAR DE CDS/GAAS DE ALTA EFICIENCIA.
Cabrera Campaña Eber Emanuel, Universidad de Sonora. Asesor: Dr. Enrique Rosendo Andrés, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Las celdas solares son uno de los dispositivos emergentes más prometedores ya que permiten obtener energía limpia para un desarrollo sostenible de la sociedad. La búsqueda y aprovechamiento de nuevos materiales para fabricar estas celdas es fundamental, por lo que en este trabajo se estudia, modela, simula y optimiza una propuesta celda solar compuesta por la unión PN de Arsenurio de Galio y Sufluro de Cadmio (GaAs/CdS)
METODOLOGÍA
Se utiliza el software SCAPS-1D para simular la heteroestructura de GaAs/CdS con una capa frontal de oxido conductor transparente de Oxido de Zinc dopado con aluminio llamada AZO, así como una capa trasera de Oxido de Níquel que funciona como una capa transportadora de huecos y mejora la corriente generada por la celda. Se variaron los diferentes parámetros de grosor de 10 nm a 200 nm para la capa ventana de CdS y de 1 micra a 10 micras para la capa absorvedora de GaAs. También se variaron la concentración de aportadores de 1x1015 a 1x1020 para ambas capas. El software SCAPS-1D nos brinda las curvas de densidad de corriente contra voltaje, los parámetros de voltaje de corte, eficiencia de conversión de potencia y eficiencia cuántica.
CONCLUSIONES
La estructura propuesta se logró optimizar con un grosor de 50 nm para la capa ventana de CdS y 9 micras para la capa de GaAs, así como una concentración de electrones y huecos de 1x1018 y 1x1016 respectivamente. A la vez, se utilizó una capa delgada de AZO y de NiO de 10 nm. Se alcanzo una eficiencia de aproximadamente 25 % con un voltaje de corte de 1.05 V y una densidad de corriente de 29 mA/cm2, así como una eficiencia cuántica superior al 95 % en gran parte del espectro.
Cabrera Vazquez Itzel Berenice, Instituto Politécnico Nacional
Asesor:Dr. Victor Muñiz Sánchez, Centro de Investigación en Matemáticas (CONACYT)
ANáLISIS DEL FENóMENO DE LA DELINCUENCIA MEDIANTE TéCNICAS DE MACHINE LEARNING.
ANáLISIS DEL FENóMENO DE LA DELINCUENCIA MEDIANTE TéCNICAS DE MACHINE LEARNING.
Cabrera Vazquez Itzel Berenice, Instituto Politécnico Nacional. Asesor: Dr. Victor Muñiz Sánchez, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La delincuencia es un problema socioeconómico que afecta la calidad de vida y el crecimiento económico en todo el mundo; es por ello que su análisis es de vital importancia.
Sin embargo, debido al gran número de factores, puede llegar a ser un proceso muy complejo y es ahí donde el machine learning entra en escena; ya que se centra en el desarrollo de algoritmos y modelos que permiten a las computadoras aprender de forma autónoma y mejorar su rendimiento en tareas específicas.
METODOLOGÍA
Exploración de datos (INEGI u otras dependencias oficiales).
Visualización de los datos --> reducción de dimensiones (PCA).
Método de aprendizaje no supervisado: regionalización (nc = 8 y k = 3).
Método de aprendizaje supervisado: Random Forest Regressor y PLS.
CONCLUSIONES
En primera instancia, se determinaron 12 covariables: índice de marginación, índice de Gini, porcentaje de población no económicamente actva, densidad poblacional, entre otras. Después de ello, se realizó un preprocesamiento de los datos y a partir de ellos, se aplicaron diversos métodos de Machine Learning.
Dados los métodos de Machine Learning implementados, se pudo observar que el "índice de marginación" y el "porcentaje de población no económicamente activa" son dos factores sumamente importantes que caracterizan la delincuencia en México.
Aunque el modelo de Random Forest no fue óptimo para la predicción de homicidios, se pudieron obtener las covariables principales mediante la implementación de PCA y Random Forest Regressor. Así mismo, se pudo generar un "índice de riesgo" mediante el método de PLS.
Cabe mencionar que, para la región centro establecida, el municipio con menor índice de riesgo fue Benito Juárez en la CDMX y el de mayor índice de riesgo fue el de Chimalhuacán en el Estado de México.
Finalmente, se agradece el apoyo del Dr Victor Muñiz, al PIIT, al CIMAT y a todos los involucrados en el Verano de investigación CIMAT 2023.
G
M
T
Y
Detectar idiomaAfrikáansAlbanésAlemánAmháricoÁrabeArmenioAzeríBengalíBielorrusoBirmanoBosnioBúlgaroCamboyanoCanarésCatalánCebuanoChecoChichewaChino simpChino tradCincalésCoreanoCorsoCriollo haitianoCroataDanésEslovacoEslovenoEspañolEsperantoEstonioEuskeraFinlandésFrancésFrisioGaélico escocésGalésGallegoGeorgianoGriegoGujaratiHausaHawaianoHebreoHindiHmongHolandésHúngaroIgboIndonesioInglésIrlandésIslandésItalianoJaponésJavanésKazajoKirguísKurdoLaoLatínLetónLituanoLuxemburguésMacedonioMalayalamMalayoMalgacheMaltésMaoríMaratíMongolNepalíNoruegoPanyabíPastúnPersaPolacoPortuguésRumanoRusoSamoanoSerbioSesotoShonaSindhiSomalíSuajiliSuecoSundanésTagaloTailandésTamilTayikoTeluguTurcoUcranianoUrduUzbecoVietnamitaXhosaYidisYorubaZulú
Español-------- [ Todos ] --------AfrikáansAlbanésAlemánAmháricoÁrabeArmenioAzeríBengalíBielorrusoBirmanoBosnioBúlgaroCamboyanoCanarésCatalánCebuanoChecoChichewaChino simpChino tradCincalésCoreanoCorsoCriollo haitianoCroataDanésEslovacoEslovenoEspañolEsperantoEstonioEuskeraFinlandésFrancésFrisioGaélico escocésGalésGallegoGeorgianoGriegoGujaratiHausaHawaianoHebreoHindiHmongHolandésHúngaroIgboIndonesioInglésIrlandésIslandésItalianoJaponésJavanésKazajoKirguísKurdoLaoLatínLetónLituanoLuxemburguésMacedonioMalayalamMalayoMalgacheMaltésMaoríMaratíMongolNepalíNoruegoPanyabíPastúnPersaPolacoPortuguésRumanoRusoSamoanoSerbioSesotoShonaSindhiSomalíSuajiliSuecoSundanésTagaloTailandésTamilTayikoTeluguTurcoUcranianoUrduUzbecoVietnamitaXhosaYidisYorubaZulú
La función de sonido está limitada a 200 caracteres
Opciones : Historia : Feedback : DonateCerrar
Caicedo Valencia Laura Camila, Universidad del Quindío
Asesor:Dr. Manuel E. Trejo Soto, Universidad Autónoma de Sinaloa
ESTABLECIMIENTO, AJUSTE Y ANáLISIS DE REDES GEODéSICAS MULTIPROPóSITO
ESTABLECIMIENTO, AJUSTE Y ANáLISIS DE REDES GEODéSICAS MULTIPROPóSITO
Caicedo Valencia Laura Camila, Universidad del Quindío. Asesor: Dr. Manuel E. Trejo Soto, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
El establecimiento de redes geodésicas multipropósito requiere el desarrollo de sistemas que tengan consigo puntos de control geodésicos que aporten a la obtención de coordenadas precisas de esto en el terreno y de esta manera puedan aplicarse a una variedad de propósitos geodésicos y topográficos cual sea el caso.; estas redes generalmente se diseñan para proporcionar un marco de referencia geodésico que se puede aplicar a varios proyectos para con ellos llevar a cabo todo una red geodésica partiendo de puntos conocidos con valores ajustados, otorgándoles mayor utilidad y eficiencia en su uso.
Las redes geodésicas en Colombia y México comparten muchos aspectos comunes, ya que ambos países utilizan estas infraestructuras para obtener coordenadas geodésicas en la mayor medida precisas; aun así, México, siendo un país de mayor desarrollo y extensión a comparación de Colombia, se ha evidenciado que en términos topográficos y geodésicos presenta una gran ventaja ya que cuentan con mayor equipamiento y la implementación de diferentes metodologías que aportan a la realización de practicas mas eficientes y precisas, de esta manera resulta conveniente poder aportar en dichos términos para ir evolucionando en cuestiones geodésicas y sus derivados al momento de llevar a cabo estas mismas y que sean de gran utilidad y confiabilidad.
De esta manera la mayor problemática presentada desde un punto de vista arbitrario es que Colombia carece de diversas metodologías para mediciones geodésicas que sean funcionales y útiles en el momento que se requiera acceder a información geodésicas relacionada con las redes previamente establecidas.
METODOLOGÍA
Para una mayor y mejor comprensión del funcionamiento de una red geodésica se llevaron a cabo una conceptualización para afianzar conceptos y dar un entendimiento más amplio del funcionamiento de dichas redes, además de la presentación de equipos (estación total, nivel electrónico, GNSS), todo esto para la realización posterior de una serie de prácticas de campo, en las cuales fue necesario realizar las mediciones en campo, seguido de los postprocesamientos requeridos para así llegar a ajustar los valores obtenidos y así mismo tener más cercanía a los valores verdaderos de cada punto medido en referencia a los datos que se solicitan entregar.
En un primer momento como primera práctica se realizaron mediciones de distancias con estación total y bípodes que sostenían los prismas para la lectura de las distancias; se ubicaron 5 puntos en la cancha dentro del campus universitario para llevar a cabo la medición, cuatro de ellos fueron ubicados en cada extremo de la cancha y uno en la parte central, en esta práctica se realizan las mediciones de cada lado de la cancha con sus respectivas diagonales para un total de 6 mediciones en este momento; luego se ubica la estación en el punto central, de donde se toman las distancias a los demás puntos colocados, esto con la finalidad de realizar un ajuste matemático por 2 métodos, por ecuación de condición de horizonte (desde el punto central) y por condición de figura (medición de esquinas de la cancha).
Otra practica que fue llevada a cabo fue una red de nivelación, en la cual se realizó la medición de alturas de 6 puntos ubicados dentro del campus universitario con nivel digital de precisión Leica, el cual primero requiere un ajuste que se realiza midiendo distancias con mira de código de barras, esto para minimizar y evitar el error de colimación en las mediciones requeridas para la práctica de campo.
Finalmente se llevó a cabo una práctica de ajuste con receptores GNSS, en la cual se realizaron las mediciones con 2 receptores GNSS de la casa fabricante Hi Target; en esta práctica se realizaron mediciones redundantes para mejores resultados en los procesamientos y dar el espacio a que hubiesen podido ocurrir equivocaciones sin tener mucha relevancia, de esta manera en cada punto de estación se realizaron mediciones con ambos receptores para que estos dieran diferentes resultados y poder realizar comparaciones; las líneas fueron medidas en el campus universitario, posicionándose en puntos establecidos, las líneas fueron: Reloj - Buelna, Buelna - Arquitectura, Arquitectura - Biblioteca, Biblioteca - Buelna, Biblioteca - Centro de Ciencias, Reloj - Centro de Ciencias. Posteriormente para el ajuste se crea la matriz A, luego la matriz L, X arroja la corrección de las coordenadas, V la cual arroja los valores de corrección para los incrementos de coordenadas. Ahora es posible corroborar el ajuste ya que a las coordenadas procesadas le sumamos los valores de la matriz X, de esta manera deben ser iguales a las coordenadas resultantes de aplicarle a los residuos la matriz V e igualmente sumarlo a las coordenadas procesadas.
CONCLUSIONES
El ajuste de redes es sumamente importante al realizar buenas prácticas ya que permite la obtención de datos más certeros en cuanto a los valores reales y considero que esta temática debería tratarse más a profundidad en los institutos de educación superior, así como innovar en los procesos de enseñanza para que haya cambios de metodologías y no se vean siempre las convencionales. Los métodos de ajuste, aunque en ocasiones son difíciles de llevar a cabo por su complejidad deberían incorporarse en la mayoría de trabajos topográficos y geodésicos para mejorar la precisión de estos.
Y una conclusión personal es que el verano de investigación fue bastante enriquecedor en cuanto a los conocimientos que adquirí en el ámbito educativo ya que implemente metodologías que no conocía, manipulé y aprendí acerca de equipos que eran nuevos para mi lo cual amplio mis capacidades y aptitudes, para posteriormente en el campo laborar tener la oportunidad de ponerlos en practica y ser mas competente antes los retos que pueden presentarse.
Caldera Félix Betzabé, Universidad Autónoma de Zacatecas
Asesor:Dr. Carlos Alfonso Cabrera Ocañas, Universidad Nacional Autónoma de México
GRUPOS DE AUTOMORFIMOS
GRUPOS DE AUTOMORFIMOS
Caldera Félix Betzabé, Universidad Autónoma de Zacatecas. Asesor: Dr. Carlos Alfonso Cabrera Ocañas, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Alrededor de la educación en la Licenciatura en Matemáticas se aprenden dos definiciones fundamentales en el desarrollo del álgebra: grupos e isomorfismos. De aquí, podemos considerar un isomorfismo de un objeto en si mismo como un automorfismo.
El proyecto de investigación define a profundidad la relación entre grupos y automorfismos, más aún, los grupos de automorfismos en un objeto dado. Esta definición nos lleva a recorrer las distintas definiciones y propiedades que los representan, en especial, la forma en que podemos encontrarlas correspondientemente a las distintas categorías y la relación tan estrecha que se tiene una de otra. Todo ´esto a partir de la teoría de Galois.
METODOLOGÍA
A lo largo de los estudios nos han mostrado la construcción de figuras a partir de regla y compás, pero también es una buena técnica para medir a partir de una unidad dada. Los números construibles en base a una unidad es un buen ejemplo como introducción al tema como antecedente, pues estos, dadas las construcciones, forman un grupo con la operación de suma.
Se define grupo y se observan las distintas propiedades que intervienen para poder visualizar grupos en distintos objetos como es en el conjunto de Cantor y otros más, poco esperados. De aquí visualizar los grupos de automorfismos.
Se define automorfismo, sus propiedades que intervienen y el hecho de que forma un grupo bajo la operación de composición como teorema. Se considera desde una perspectiva geométrica, un automorfismo lo podemos representar como las isometrías de un objeto, se obtienen las propiedades y los grupos que se pueden formar a partir de esto. Se redefine automorfimo en base a la teoría de Galois con los campos fijos hasta tener un acercamiento con el automorfismo de Frobenius.
Se estudian los espacios fractales Triángulo de Sierpinski y el Conjunto de Cantor, obteniendo su sistema iterado de funciones, sus propiedades y la relación con el tema.
Entendemos la correspondencia de la información obtenida hasta ahora y su relación con Teoría de Categorías para estructurar los datos obtenidos hasta ahora. Llegamos a ver un poco respecto a la geometría hiperbólica para concluir con la información hasta ahora.
CONCLUSIONES
Durante el verano de investigación se obtuvieron conocimientos teóricos, especialmente en grupos de automorfismos, grupos, automorfismos, categorías, espacios de fractales, simetrías, entre otros. También aprendí respecto a otras áreas en matemáticas (que personalmente desconocía), y además las distintas personalidades y gustos dentro de matemáticas de una manera positiva, gracias a mi asesor y mis compañeros.
El trabajo realizado fue satisfactorio al ser un nivel de licenciatura y personalizado. El objeto de investigación se puede extender, pero se logró concluir de manera satisfactoria en base a la información recaudada a lo largo del verano.
Camacho López Jesús José, Universidad Autónoma de Occidente
Asesor:Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
SOLUCIóN DE LA ECUACIóN DE ONDA CON APRENDIZAJE AUTOMáTICO BASADO EN LA FíSICA.
SOLUCIóN DE LA ECUACIóN DE ONDA CON APRENDIZAJE AUTOMáTICO BASADO EN LA FíSICA.
Camacho López Jesús José, Universidad Autónoma de Occidente. López Aceves Cecilia Geraldine, Universidad de Guadalajara. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La física busca comprender los mecanismos detrás del comportamiento que observamos del mundo que nos rodea. Para ello hace uso de modelos matemáticos, cuyo propósito es describir, explicar y predecir el comportamiento de diversos sistemas. Estos se diseñan a partir del conocimiento de las leyes físicas que gobiernan al sistema y el análisis de los datos recopilados en experimentos.
Los modelos matemáticos suelen ser ecuaciones diferenciales que se buscan resolver para conocer la evolución de alguna variable de interés. En algunos casos es posible resolverlas de forma analítica, encontrando la expresión exacta que describe al sistema. En otros casos se utilizan métodos numéricos como el método de diferencias finitas que pueden resolver la ecuación con cierto margen de error. Recientemente se cuenta con una nueva herramienta: las redes neuronales.
Las redes neuronales son estructuras que forman parte del aprendizaje automático. Con estas, se busca aproximar el comportamiento de una función y su entrenamiento se basa en minimizar una función de pérdida, que mide qué tan lejos está el valor estimado por la red del valor real dentro de un conjunto de datos de entrenamiento. Por ello suelen tener un pobre desempeño fuera del dominio de los datos de entrenamiento. Es por esto que han surgido las redes neuronales informadas por la física (PINNs por sus siglas en inglés), en las cuales se añade la ecuación diferencial junto con las condiciones iniciales y de frontera como términos adicionales a la función de pérdida, y con esto logra aproximar la función fuera del dominio de datos de entrenamiento con una mayor exactitud.
Para entender cómo funcionan este tipo de redes neuronales durante el Verano de Investigación buscamos solucionar la ecuación de onda en 1D y 2D.
METODOLOGÍA
Con el objetivo de contar con un conjunto de datos para entrenar la red neuronal se utilizó el método de diferencias finitas para resolver de antemano la ecuación de onda en una y dos dimensiones con condiciones de frontera de Dirichlet y Neumann. Se consideraron los siguientes casos en una dimensión:
Un medio de velocidad homogénea y una fuente en un extremo, con condiciones de Neumann iguales a cero.
Un medio compuesto de dos capas de velocidades distintas y una fuente en un extremo, con condiciones de Neumann iguales a cero.
Y se consideraron casos similares en dos dimensiones:
Un medio de velocidad homogénea y una fuente en el centro, con condiciones de Dirichlet iguales a cero.
Un medio con capas de distintas velocidades y una fuente cerca de la superficie, con condiciones de frontera de Dirichlet iguales a cero.
Una vez contamos con la solución de estos cuatro casos por el método de diferencias finitas procedimos a estudiar la biblioteca de funciones DeepXDE. Examinamos las demostraciones de la solución de problemas directos (como la ecuación de calor) contenidos en la guía de usuario y nos basamos en estas para diseñar el algoritmo de la red neuronal.
CONCLUSIONES
Durante la estancia de verano hemos aprendido a utilizar la biblioteca de funciones DeepXDE para la creación de redes neuronales basadas en la física con el objetivo de resolver la ecuación de onda en una y dos dimensiones. Sin embargo, aún se necesita diseñar el algoritmo definitivo de la red neuronal que se utilizará para resolver la ecuación para luego comparar sus resultados con los obtenidos por el método de diferencias finitas.
Además adquirimos los conocimientos teóricos necesarios para poder resolver ecuaciones diferenciales por el método de diferencias finitas y como aplicar distintas condiciones de frontera en este método mediante una implementación en Python.
Camacho Zacarias Miriam Yolotzin, Instituto Tecnológico del Valle de Morelia
Asesor:Dra. Magdalena Elizabeth Bergés Tiznado, Universidad Politécnica de Sinaloa
CARACTERIZACIóN Y PREPARACIóN DE MUESTRAS ORGáNICAS E INORGáNICAS PARA ANáLISIS DE METALES Y METALOIDES
CARACTERIZACIóN Y PREPARACIóN DE MUESTRAS ORGáNICAS E INORGáNICAS PARA ANáLISIS DE METALES Y METALOIDES
Camacho Zacarias Miriam Yolotzin, Instituto Tecnológico del Valle de Morelia. Galaviz Sauceda Edith Marcela, Instituto Tecnológico de Sonora. Palafox Juárez Carmen Aida, Instituto Tecnológico de Sonora. Asesor: Dra. Magdalena Elizabeth Bergés Tiznado, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La presencia de metales y metaloides en el agua, suelos, plantas y organismos acuáticos es un problema de contaminación global. Algunos de estos elementos resultan ser esenciales, mientras que otros pueden perjudicar o alterar el funcionamiento de los individuos. En muchos casos el potencial riesgo o beneficio depende de la concentración en la que estos se encuentran, ya que pueden ser muy peligrosos debido a que son agudamente tóxicos para ciertos organismos en determinadas cantidades, altamente persistentes en el tiempo, es decir no son biodegradables, por lo que permanecen en el medio ambiente durante largos periodos y bioacumulable en los tejidos de distintos organismos.
El objetivo de esta estancia fue caracterizar suelos provenientes de dos regiones mineras y la preparación de estas matrices inorgánicas, así como de muestras de plantas y músculo comestible de curvinas para el análisis de metales y metaloides.
METODOLOGÍA
Las muestras de suelo se recolectaron en dos sitios mineros de Sinaloa, en Cosalá y Concordia, estas se obtuvieron y prepararon de acuerdo con la Norma Oficial Mexicana NOM-021-RECNAT-2000, que establece las especificaciones de fertilidad, salinidad y clasificación de suelos. Estudios, muestreo y análisis. El método AS-01 se utilizó para preparar las muestras de suelo, el AS-02 para determinar el pH, la materia orgánica se midió a través del método AS-07 de Walkley y Black y la textura por el procedimiento de Bouyoucos (AS-09).
En cuanto a las plantas y el músculo de curvina, primero se liofilizaron durante 72 horas para retirar la humedad de las matrices. Después, las muestras orgánicas e inorgánicas (muestras de suelo) se homogenizaron y posteriormente, se sometieron a una digestión ácida (por duplicado), usando vasos de digestión de teflón con capacidad de 60 mL.
Plantas
Se agrega a cada frasco con muestra 5ml de HN03 + 1.5 ml de HF
Se hacen 2 blancos, introduciendo solo los ácidos
Músculo de curvina
Se agrega a cada frasco con muestra 5ml de HNO3
Se hacen 2 blancos, introduciendo solo los ácidos.
Se hace una muestra con material de referencia y los ácidos.
Se colocan los recipientes cerrados dentro de una charola con arena de mar común, esto sobre una plancha de calentamiento a altas temperaturas durante 3 hrs, dentro de una campana de extracción de gases.
Las muestras digeridas se llevaron a un volumen final de 20 mL con agua milliQ y se almacenaron en frascos de polietileno previamente acondicionados y lavados para su futuro análisis en un equipo de espectrofotometría de absorción atómica.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teórico-prácticos de las metodologías necesarias para la caracterización de suelos y el procesamiento de muestras de origen orgánico e inorgánico para la determinación de metales y metaloides. Se procesaron un total de 7 muestras de suelo y se les determinó el pH, porcentaje de carbono orgánico y materia orgánica, así como textura. Estos suelos y las muestras de tallo, raíz y hojas de 10 plantas acumuladoras de metales y metaloides, así como porciones de músculo de 80 individuos de curvina fueron digeridos y se están próximos a ser analizados para determinar la concentración de elementos como mercurio, cadmio, plomo, arsénico, entre otros.
Los resultados finales de la investigación serán relevantes para determinar el posible daño ambiental que ha provocado la minería en zonas del sur de Sinaloa en los ecosistemas.
Camarena López Ana Paula, Universidad de Guadalajara
Asesor:Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez
ANáLISIS Y CARACTERIZACIóN DE UN MEDIDOR DE CORRIENTE TIPO TURBINA CON TéCNICAS DE INTELIGENCIA ARTIFICIAL.
ANáLISIS Y CARACTERIZACIóN DE UN MEDIDOR DE CORRIENTE TIPO TURBINA CON TéCNICAS DE INTELIGENCIA ARTIFICIAL.
Camarena López Ana Paula, Universidad de Guadalajara. Asesor: Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
A lo largo del tiempo el ser humano ha tenido la necesidad de cuantificar y cualificar los caudales de agua para satisfacer sus necesi-dades, ya sean en temas de ingeniería o desarrollo, para poder utilizar de formas más eficientes los recursos hídricos. Debido a esta necesidad, se han desarrollado sensores de flujo (flujómetros), estos son dispositivos de medición de caudales de agua, que se basan en distintos métodos para medir la velocidad del caudal. En este presente documento se investigaron teóricamente los conceptos básicos, descripción y funcionamiento de los medidores de flujo de corriente, dispositivos que calculan la velocidad de un caudal en tuberías cerradas, cuya aplicación se basa en la tubería de entrada de una central hidroeléctrica. Se obtuvieron las ecuaciones características de las hélices mediante una constante de diseño "K_d" que es el coeficiente del dispositivo, que relaciona la velocidad angular de la hélice con la velocidad del caudal. Se entrenó una red neuronal para obtener un modelo matemático que estime la velocidad del flujo a partir de datos de entrada (tales como velocidad angular de la hélice y temperatura del fluido), donde dicho modelo basado en redes neuronales artificiales fue validado con simulaciones en CFD. Para caracterizar el dispositivo, las pruebas fueron realizadas en un túnel de viento.
METODOLOGÍA
1. Investigación del medidor de flujo de corriente y búsqueda bibliográfica.
2. Interfaz gráfica Labview para adquisición datos.
3. Diseño del medidor de flujo de corriente en CAD.
4. Maquinado e impresión de partes.
5. Ensamble del medidor de flujo de corriente y ajuste de túnel de viento.
6. Pruebas experimentales.
7. Adquisición de datos.
8. Comparación con simulación en CFD.
9. Data análisis.
CONCLUSIONES
En la experimentación se comprobó que los medidores de corriente de tipo hélice de paso axial alto son, como se desarrolló en la parte teóricay demostró en la parte experimental, dispositivos sensibles a los cambios de velocidad, debido a que las variables de temperatura o de velocidad del viento fluctúan en orden de decimales afectando el comportamiento y respuesta dinámica del molinete con-siderablemente. Es por esto que fue necesario al hacer las pruebas experimentales, realizarlas en un laboratorio con condiciones controladas para así poder reducir el ruido de nuestros datos y posteriormente analizarlos.
El modelo basado en la red neuronal con la función de activación Sigmoid posee una buena aproximación a los datos experimentales con una exactitud del modelo del 96.23719%, un error porcentual promedio de 3.76281005% y una precisión de #0.497544 m/s. Este modelo solo tiene una capa de una neurona lo cuál hace que su tiempo de cómputo sea bajo y el modelo sea optimizado.
Además se obtuvieron los pesos y bias del modelo, esto permite encontrar la función matemática del modelo, aplicando éste a pruebas experimentales dentro de los rangos a los que fue entrenada la RNA.
Se compararon los resultados experimentales y los datos obtenidos con la red neuronal con la simulación realizada en CFD, los cuales como se vio en la subsección 4.1 y en la Tabla. 4 y 5 se aprecia que el la precisión tanto de la red neuronal como de los datos obtenidos por la simulación en CFD son cercanos a los valores reales.
Cano Morfin Ryan Hsan, Instituto Tecnológico Superior de Apatzingán
Asesor:Mtro. Adrian López Hernández, Instituto Tecnológico Superior de Apatzingán
ANÁLISIS GEOESPACIAL EN LOS ESTUDIOS Y DISEÑOS URBANOS E HIDROLÓGICOS POR MEDIO DEL USO DE DRONES
ANÁLISIS GEOESPACIAL EN LOS ESTUDIOS Y DISEÑOS URBANOS E HIDROLÓGICOS POR MEDIO DEL USO DE DRONES
Cano Morfin Ryan Hsan, Instituto Tecnológico Superior de Apatzingán. Magaña Tovar Leonardo Guadalupe, Universidad de Colima. Patricio Alemán Jonathan, Instituto Tecnológico Superior de Apatzingán. Asesor: Mtro. Adrian López Hernández, Instituto Tecnológico Superior de Apatzingán
PLANTEAMIENTO DEL PROBLEMA
Dentro de los últimos años , la población de la región del Municipio de Apatzingán ha crecido espontáneamente ocasionando que el aumento a su vez la demanda exige que la población deba extenderse hacia regiones bastante alejadas, de una manera repentina y sin precedentes, a causa de esta situación las zonas más alejadas de la ciudad se encuentran establecidas en terreno sin estudios ni precedentes previos para determinar la calidad del uso de suelo lo que significa un alto riesgo de sufrir algún daño colateral en toda vivienda que sea construida en dicha zona, la cual se encuentra ubicada en las colonias de nombre Lomas del pedregal y Adolfo López mateos, ubicadas alrededor de una cordillera, exponiendo a las viviendas a sufrir deslaves y derrumbes por el movimiento de ésta.
METODOLOGÍA
El tipo de metodología implementada para la investigación fue mixto, ya que implica un conjunto de procesos de recolección, análisis y vinculación de datos cuantitativos y cualitativos en un mismo estudio o una serie de investigaciones para responder a un planteamiento del problema. Para la investigación cualitativa fue basada por medio de consultas bibliografías de metodologías aplicadas a los deslizamientos de tierra, así como de cuestionarios elaborados para poder dar noción del conocimiento que se tiene acerca de los factores de riesgo de alguna zona en cuestión. Por otra parte la investigación cuantitativa, en la cual a partir de la recolección de datos geoespaciales identificar las zonas susceptibles a deslizamientos y analizar las afectaciones las cuales pudieran pasar. La implementación de la investigación cuantitativa podemos lograr resultados aplicando metodologías de las cuales son para determinar, analizar e identificar las zonas vulnerables en el área de estudio.
CONCLUSIONES
Gracias a las nuevas tecnologías que hoy en día se puede aplicar ciento de metodologías, obtener resultados óptimos y de manera eficaz. La utilización de drones en esta investigación son una herramienta prometedora para el estudio y diseño urbano e hidrológico para la prevención de desastres, los cuales ofrecen una serie de ventajas sobre los métodos tradicionales, incluyendo una mayor precisión, eficiencia y nivel de detalle. Los drones pueden capturar imágenes y datos en alta resolución que pueden utilizarse para identificar áreas de riesgo, monitorear el movimiento de la tierra y evaluar el impacto de los deslizamientos de tierra, así como planificar y diseñar proyectos de prevención de desastres. Por ejemplo, los drones se pueden utilizar para mapear áreas que son propensas a inundaciones, identificar áreas que necesitan ser reforestadas y evaluar el impacto de las obras de infraestructura.
El uso de drones para el estudio y diseño urbano e hidrológico para la prevención de desastres, teniendo optimas mejoraras de precisión, eficiencia y nivel de detalle de la recopilación de datos geoespaciales, con los drones se recopilan datos que pueden utilizarse para salvar vidas y proteger la infraestructura.
Gracias a el equipo GNSS (Sistema Global por Navegación por Satélite) y a la implementación de los Sistemas de información geográfica son parte fundamental para la recolección y producción de datos geoespaciales.
La zona evaluada presentó un ligero desplazamiento en algunas mojoneras, el movimiento que se tuvo fue de 5 mm a 3 cm, determinados estos movimientos son por la influencia de él margen de error de los equipos empleados. En base al estudio obtenido se elaboró una predicción con métodos geoestadísticos de interpolaciones correspondiente al desplazamiento de los puntos de control, el cual sigue un patrón que presentan los puntos de control, aunque no son del todo preciso pues falta información fundamental para poder lograr que funcione con más precisión, pero por otro lado también es válido, puede servir de referencia sobre cómo se está comportando todo el área de interés y así poder dar información a las personas que habitan en sus alrededores, como a las autoridades pertinentes y puedan tener un plan de acción ante un suceso.
En base a la investigación realizada, se recomienda lo siguiente; continuar investigando el uso de drones para el estudio y diseño urbano e hidrológico para la prevención de desastres, desarrollar marcos metodológicos para el análisis de la información recopilada por drones, identificar las principales fuentes de datos proporcionadas por los drones y analizar su relevancia para la identificación de zonas de riesgo, aplicar técnicas de análisis de datos para extraer información útil de los conjuntos de datos y por ultimo evaluar la eficacia del análisis de información mediante la comparación de casos de estudio y la medición de los resultados obtenidos.
Cantero Rodelo Ruben Dario, Universidad de la Costa
Asesor:Dr. Daniel Jiménez García, Benemérita Universidad Autónoma de Puebla
ANáLISIS DE LA VARIABILIDAD ESPACIO-TEMPORAL DEL NDVI EN LA CUENCA DEL BAJO SINú EN EL DEPARTAMENTO DE CóRDOBA COLOMBIA
ANáLISIS DE LA VARIABILIDAD ESPACIO-TEMPORAL DEL NDVI EN LA CUENCA DEL BAJO SINú EN EL DEPARTAMENTO DE CóRDOBA COLOMBIA
Cantero Rodelo Ruben Dario, Universidad de la Costa. Asesor: Dr. Daniel Jiménez García, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La pérdida de vegetación se puede presentar por varios factores, ya sea por la influencia que ejerce el clima sobre ella o también por actividades antrópicas que cambien el uso del suelo, como por ejemplo: la ganadería, la agricultura, la construcción de infraestructuras urbanas o por incendios que se presentan debido a los intensos veranos.
En Colombia, según la Fundación para la conservación y desarrollo sostenible (FCDS). Entre enero y febrero de 2022, el país perdió 40.650 hectáreas de bosque, entre los principales causantes esta la tala de bosques. lo cual es muy preocupante. Teniendo en cuenta que la actividad vegetal está muy ligada y afectan los flujos hidro ecológicos, las dinámicas del terreno y los balances de agua, carbono y energía.
La cuenca del rio Sinú no es la excepción a toda esta problemática. Las zonas aledañas han sido ocupadas para realizar actividades agrícolas y ganaderas, lo que ha generado una fragmentación del hábitat, sobreexplotación del suelo y pérdida de biodiversidad, causado un deterioro de los ecosistemas, afectando su dinámica y productividad biológica. Esta situación repercute en los aspectos sociales, económico, cultural y ecológico. Debido a la gran importancia que tiene este ecosistema para la región.
METODOLOGÍA
La cuenca del río Sinú se localiza en el sector occidental de la Costa Atlántica Colombiana en jurisdicción de los departamentos de Antioquia, Córdoba y Sucre; se ubica espacialmente entre las coordenadas geográficas, 7º 49’ - 9º 26’ N y los 75º 20’ - 76º 29’ O (Palacio & Restrepo, 1999). Entidades como la Corporación Autónoma Regional de los Valles del Sinú y del San Jorge CVS y el Instituto de Hidrología, Meteorología y Estudios Ambientales IDEAM, han sectorizado en tres subregiones la cuenca del río Sinú teniendo en cuenta su ubicación, características físicas y bióticas: Alto, medio y bajo Sinú esta última es nuestra zona de estudio específicamente. (CVS, 2004; IDEAM, 2013) Ocupando un área total de 13.952 km², con una longitud total del cauce de 437.97 kilómetros desde su nacimiento hasta su desembocadura en el mar Caribe; altitudinalmente se localiza aproximadamente entre los 3900 a 3700 m.s.n.m .Los ecosistemas de humedales que hacen parte de esta región son: estuarinos, marinos, fluviales y palustres, estos humedales cumplen un rol ecológico importante, en la regulación natural del cauce del río, acumulando los excesos de agua en época de lluvias y liberándola en época seca. Sobre estos complejos, se superpone la actividad humana que remonta su origen a épocas prehispánicas, por esto, el río se ha convertido en un eje central del desarrollo socioeconómico de la región, agregándole un valor cultural y económico al recurso hídrico (CVS, 2004).
Se obtuvo la zonificación hidrográfica de Colombia (IDEAM, 2013), de la cual se identificó y se extrajo el área de estudio, la cuenca baja del río Sinú. De igual forma se obtuvo el Mapa de Coberturas de la tierra más reciente realizado a partir de la Metodología Corine Land Cover adaptada para Colombia (IDEAM, 2021), del cual se extrajo la información correspondiente al área de estudio.
Las imágenes del satélite Landsat 8 del sensor OLI TIRS, se descargaron desde la página web del Servicio Geológico de Estados Unidos (USGS), se inició la adquisición de imágenes multiespectrales con un 30% de nubosidad de los años 2013 hasta 2022. Posteriormente, mediante la utilización del software ArcMap 10.8, se realizó el preprocesamiento de imágenes satelitales el cual incluye una serie de técnicas orientadas a corregir o remover efectos en la imagen por errores del sensor o por factores ambientales, entre ellos, realizar el contraste para facilitar la interpretación, e incrementar la resolución espacial para mejorar la delimitación y detección de objetos (Achicanoy et al., 2018). A partir de las imágenes Landsat 8 corregidas radiométricamente, se realizó el cálculo del índice de vegetación de diferencia normalizada, con las bandas 4 y 5 correspondientes al rojo y al infrarrojo cercano, la ecuación aplicada será:
NDVI= NDIRC −NDR /NDIRC + NDR (Tucker, 1979).
Donde
NDIRC: Reflectancia corregida atmosféricamente correspondiente al infrarrojo cercano.
NDR: Reflectancia corregida atmosféricamente correspondiente al rojo.
CONCLUSIONES
Esta pasantía de verano fue un tiempo de mucho aprendizaje como, por ejemplo, el uso de herramientas tecnológicas como ArcMap en el curso de SIG, la consulta de base de datos y paginas oficiales para obtener la información, la aplicación de metodologías de análisis para la evaluación de cobertura vegetal. La meta es seguir hasta terminar la investigación, aunque la pasantía ya este finalizando, esto debido a que el tiempo es muy corto, pero se lograron grandes avances que de seguro generara un buen producto para publicar.
Carbajal Bonal Omar, Universidad Autónoma de Guerrero
Asesor:Dr. Octavio Arizmendi Echegaray, Centro de Investigación en Matemáticas (CONACYT)
UN JUEGO DEFINIDO SOBRE LOS íNDICES DE RANDIC DE UNA GRáFICA
UN JUEGO DEFINIDO SOBRE LOS íNDICES DE RANDIC DE UNA GRáFICA
Carbajal Bonal Omar, Universidad Autónoma de Guerrero. Asesor: Dr. Octavio Arizmendi Echegaray, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Tras los resultados obtenidos por Huckel en teoría atomica, Gutman y otros desarrollaron la teoría energetica de gráficas, en la que diversas moleculas podian ser representadas a traves de grafos, a los cuales al calcularse sus eigenvalores podía asignarse un valor energetico que equivale a la suma de los valores absolutos de los mismos. En el articulo The graph energy game (2023) se define un juego utilizando la energía de cada vertice de una grafica, probando algunas propiedades de los juegos como superaditividad. En nuestra investigación, se busco replicar la hipotesis de superaditivdad sobre una grafica pero en lugar de energia, se utilizó el indice topologico de Randic.
METODOLOGÍA
A través de la investigación hecha sobre diversas fuerntes en teroia de juegos y juegos cooperativos, así como los articulos de Arizmendi et tal, se propuso programar codigo para realizar la tarea del calculo de energias e indices de Randic de forma automatica. Los programas se hicieron en Python utilizando diferentes librerias.
CONCLUSIONES
Para ciertas graficas como caminos de longitud impar, se tiene que son superaditivos con respecto a sus subgraficas.
Cardona Sandoval Roberto Elihu, Instituto Tecnológico de Piedras Negras
Asesor:Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)
ESTABLECIMIENTO DE PROTOCOLO DE VARIABLES DE CONTROL Y MOVIMIENTO EN SOLDADURA POR ARCO DE PLASMA TRANSFERIDO (PTA)
ESTABLECIMIENTO DE PROTOCOLO DE VARIABLES DE CONTROL Y MOVIMIENTO EN SOLDADURA POR ARCO DE PLASMA TRANSFERIDO (PTA)
Cardona Sandoval Roberto Elihu, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
En el laboratorio de tecnologías de unión por Plasma, Arco eléctrico y Lases (TUPAL) Se encuentra una soldadora automatizada por arco de plasma transferido (PTA) de la marca WeldTECH3500, que cuenta con los modos manual, semiautomático y automático, pero solo se encuentra habilitado el modo manual y además para los movimientos en el eje Y no se contaba con el módulo del equipo, se tiene un módulo independiente con control CNC, por lo que el equipo se limita a un movimiento de x, con control de altura, pero no tiene una sincronía con el módulo independiente, por esta razón no se ha podido dar uso a este equipo de soldadura automatizada. Es indispensable establecer la sincronización entre la coordenada x del pórtico del PTA y la coordenada y en de la mesa de trabajo para poder modificar velocidades de depósito tasas de alimentación y parámetros de operación en general.
METODOLOGÍA
Primeramente, se conocieron los manuales de operación del PTA y CNC para saber en qué condiciones de seguridad tenían que estar los equipos así mismo entender el modo de funcionamiento del sistema. De este modo pudimos revisar las condiciones del equipo y sus conexiones de comunicación y eléctricas, donde se encontraron cables desconectados.
Se abrió el controlador del equipo para visualizar en donde iban las conexiones faltantes, una vez habiendo entendido el sistema nos facilitó el proceso pues eran conexiones de entrada y de salida. La dificultad que se presentó en este punto fue un conector que era necesario y no se contaba con el y no se encontró con proveedores, por lo que se hizo una adaptación de otro conector. Una vez con las conexiones listas se cerró nuevamente el equipo.
Para poder probar la soldadora PTA se optó por realizar algunos programas sencillos, para conocer las condiciones de frontera y tener control de estas, lo que una vez logrando, nos llevó a realizar algunos programas con el CNC donde se presentaron algunas complejidades por el modelo, revisando el manual nuevamente y literatura de este, se pudieron realizar algunos programas de prueba.
Establecer una sincronía entre ambos módulos era algo complejo, para ello se realizaron programas de prueba, poniendo un marcador en la punta de la antorcha para que rayara la trayectoria en papel, y así poder visualizarla. Después de algunas pruebas se obtuvo un método para sincronía el cual era por tiempos de retardo en ambos equipos, lo que lleva a poder trazar de manera adecuada las trayectorias, de esta manera se puede utilizar el modo automático.
CONCLUSIONES
Los ejes se pudieron controlar a la necesidad del operador, estableciendo sincronía en PTA y modulo independiente. Además, se pudo controlar las velocidades en las trayectorias, en altas medias y bajas, los problemas de conexión que había en los equipos se les dio solución.
Además, se encontraron mejoras futuras para un funcionamiento más adecuado del equipo y facilidad del usuario que lo operara como lo es: establecer una sincronía automatizada entre ambos el modulo independiente y el controlador del PTA.
Carrillo Onchi Jesse Moisés, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
ESTUDIO DE LA COMPONENTE MUóNICA, AL NIVEL DE SUPERFICIE, EN CASCADAS DE PARTíCULAS GENERADAS POR LOS RAYOS CóSMICOS EN LA ATMóSFERA, EMPLEANDO LOS MODELOS EPOS-LHC Y QGSJETII-04.
ESTUDIO DE LA COMPONENTE MUóNICA, AL NIVEL DE SUPERFICIE, EN CASCADAS DE PARTíCULAS GENERADAS POR LOS RAYOS CóSMICOS EN LA ATMóSFERA, EMPLEANDO LOS MODELOS EPOS-LHC Y QGSJETII-04.
Carrillo Onchi Jesse Moisés, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los rayos cósmicos son partículas provenientes del espacio exterior, los cuales llegan frecuentemente a la superficie de la Tierra desde todas las direcciones. En su mayoría, son protones o núcleos de átomos más pesados, como helio, carbono o hierro. Poseen la característica de tener una altísima energía y de viajar a velocidades cercanas a la velocidad de la luz. Son pocos los procesos conocidos que los originan, algunos proceden de alguna parte de la Vía Láctea, mientras que otros del nacimiento de las supernovas.
Cuando los rayos cósmicos llegan a la atmósfera, ocurren los llamados chubascos, fenómeno producido por las reacciones nucleares entre los rayos cósmicos del tipo primario y las partículas que posee la alta atmósfera, produciéndose las cascadas de partículas secundarias. En estas últimas se dan lugar a electrones, fotones, muones, piones, entre otras, que inciden en la superficie terrestre. Por medio de las características de las cascadas se obtienen el conjunto de datos en relación a la energía, dirección y composición de la partícula primaria.
EPOS-LHC y QGSJETII-04 son modelos de interacción hadrónica empleados en simulaciones de chubascos de partículas. Se ocupan de modelar el evento explicado anteriormente. Cada modelo recurre a determinadas variables, las cuales van alterándose con base en la energía primaria que se aplique. Cada uno posee sus propias características fenomenológicas que repercuten en el desarrollo simulado del chubasco. Además, tales modelos van de la mano con las conocidas simulaciones Monte Carlo, puesto que se requiere estimar los posibles resultados de un evento incierto de gran complejidad.
Como se mencionó antes, las cascadas presentan distintas clases de partículas, entre las que se encuentran los muones. Ambos modelos considerados favorecen el estudio de la producción, propagación y características de tales. Empero, conforme a lo establecido, dan un trato diferente a la componente muónica, lo que conlleva a distintas predicciones de multiplicidad de los muones originados en las simulaciones con cada modelo.
METODOLOGÍA
Para llevar a cabo correctamente las simulaciones de los chubascos de partículas secundarias con los modelos EPOS-LHC y QGSJETII-04, era fundamental contar con determinado software instalado en una computadora: Un programa fue CORSIKA, en el que se realizan minuciosamente las simulaciones requeridas. El otro que se implementó fue ROOT, que es una herramienta de almacenamiento, visualización y evaluación de datos en el campo de física de partículas.
Para obtener ambos programas se descargaron sus conjuntos de archivos desde los sitios web oficiales. Luego, se procedió a la configuración de cada programa mediante la terminal del sistema operativo. Primero, se configuró ROOT, a fin de que sea posible almacenar los archivos en el formato ROOT file (almacena los datos recabados en estructuras llamadas Trees, que se manipulan en un lenguaje de programación). Posteriormente, se hizo la configuración de CORSIKA, generando dos archivos ejecutables para las simulaciones relativas a cada modelo de interacción hadrónica.
Una vez obtenidos los ejecutables, se configuraron los archivos de entrada de cada uno de ellos concorde a lo siguiente: simulación para 100 eventos, considerando protones, hierro u oxígeno como rayo cósmico primario, según sea el caso, a una energía de 1014 eV, y a un nivel de observación de 400 m. s. n. m.
Enseguida, se dio paso a las simulaciones aplicando los archivos ejecutables, de nuevo con la terminal. En total se tuvieron seis simulaciones, tres para cada modelo. Al finalizarse una simulación se obtiene el ya mencionado archivo en formato ROOT file.
Se prosiguió a almacenar tales ROOT files en un directorio específico, y a usar Python para su lectura e interpretación gráfica de la información mediante histogramas. Se recurrieron a tales gráficos a fin de observar la multiplicidad de muones de cada una de las simulaciones. A su vez, se efectuó un ajuste en los histogramas mediante un ajuste de distribución gaussiana, con el que se estimó el promedio de muones de cada caso.
Es necesario resaltar que hasta el momento se han conseguido simulaciones con la energía antes mencionada, ya que CORSIKA requiere de un tiempo considerable al elaborar estas a energías significativamente altas, que puede ir desde ciertas horas hasta días. También, cada modelo, por sus propias características, influye en las duraciones.
CONCLUSIONES
En el transcurso de la estancia se alcanzó a adquirir conocimientos en torno a los rayos cósmicos, su producción de cascadas de partículas al interaccionar con la atmósfera terrestre, y el estudio de la componente muónica. Estos se aplicaron en el empleo de las simulaciones Monte Carlo con los modelos de interacción hadrónica y en la concerniente evaluación de los resultados alcanzados, con ayuda de software específico.
Al analizar la componente muónica de cada simulación, se obtuvieron distintos promedios de muones dependiendo del tipo de partícula primaria y el modelo de interacción hadrónica. Para las simulaciones de protones se calculó una media de 1107.8001 con EPOS-LHC y 1169.4153 con QSJETII-04; para las de oxígeno, 1344.7811 con EPOS-LHC y 1485.4312 con QGSJETII-04; y para las de hierro, 1600.0107 con EPOS-LHC y 1837.3706 con QGSJETII-04.
Con base en lo anterior, puede determinarse que, se da una mayor producción de muones con el modelo QGSJETII-04, para las tres clases de rayo cósmico primario. Lo que nos lleva a la deducción de que dicho modelo produce más muones que el modelo EPOS-LHC.
Se reitera que las simulaciones elaboradas en CORSIKA constan de un proceso tardado. También, se requiere realizar más simulaciones a otra escalas de energía mayor, lo que puede resultar en adicionales promedios de producción de muones y en deducirse lo opuesto a lo del párrafo previo. Por ende, es necesario un estudio más profundo de los modelos para poder llegar a una conclusión más precisa.
Casillas Romero Mariana, Universidad de Guadalajara
Asesor:Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
DETECCIóN Y ANáLISIS DE SEñALES DE INFRASONIDO PARA SU CLASIFICACIóN Y ESTUDIO DE FENóMENOS SíSMICOS.
DETECCIóN Y ANáLISIS DE SEñALES DE INFRASONIDO PARA SU CLASIFICACIóN Y ESTUDIO DE FENóMENOS SíSMICOS.
Casillas Romero Mariana, Universidad de Guadalajara. Rosas Fuentes Leonardo David, Universidad de Guadalajara. Zaragoza Aceves Andrea Gabriela, Universidad de Guadalajara. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Una señal es una magnitud asociada a un fenómeno físico. Matemáticamente es una función de una o más variables que son forzosamente independientes. Puede ser medida por un instrumento o percibida directamente por el ser humano y su finalidad es transmitir información en espacio y tiempo. Como menciona: Es una magnitud cuya variación en el tiempo representa una información.
El sonido cómo una señal analógica es un fenómeno que involucra la propagación de información por medio de ondas mecánicas producidas por las variaciones de presión de forma vibratoria en un medio elástico. Entre las variaciones de presión existe un parámetro llamado "frecuencia audible" que permite que sean percibidas por el oído humano, siendo el rango de 20 Hz a 20KHz.
En el campo de la geofísica, se ha planteado la posibilidad de desarrollar un algoritmo capaz de clasificar las ondas detectadas, con el objetivo de obtener una mayor especificidad en el estudio de fenómenos que emiten este tipo de señales, como los sismos. Esta investigación podría brindar una valiosa herramienta para comprender mejor la naturaleza y comportamiento de las fuentes de señales infrasónicas.
En resumen, las señales de infrasonido, aunque inaudibles para los seres humanos, presentan un potencial significativo en diversas aplicaciones científicas, y el desarrollo de algoritmos para su análisis puede abrir nuevas perspectivas en el estudio de fenómenos naturales como los sismos.
El objetivo del proyecto consistió en desarrollar un programa para implementar un algoritmo de detección de señales de infrasonido. El algoritmo permite la clasificación de las señales y conocer las características de las señales antropogénicas. En este caso, resultó fundamental estudiar detenidamente las señales captadas por lo distintos sensores para generar los ajustes del algoritmo de detección a fin de automatizar la clasificación de las señales. Para ello hemos estudiado las señales recabadas en el año 2019.
METODOLOGÍA
Se instalaron tres sensores Raspberry Boom (RBOOM) en diferentes lugares con suministro continuo de energía, conexión a internet y condiciones seguras. Estos sensores registraron series de tiempo a 100 Hz y se usaron para detectar señales de infrasonido. Utilizamos un algoritmo que calcula el promedio de la amplitud de la señal usando dos ventanas de longitud diferente (STA y LTA); STA siendo el de corto plazo es sensible a cambios en la amplitud de la señal, y LTA siendo el de largo plazo nos brinda información del ruido sísmico de fondo. La detección de señales ocurre cuando la relación STA/LTA supera un umbral específico. La calibración de los parámetros del algoritmo STA/LTA no es trivial, pero se ajustaron manualmente para aislar y ajustar señales especificas con el fin de facilitar su estudio, semejante a lo implementado.
Para el análisis de las señales sólo tomamos en cuenta aquellas que fueron detectadas por los tres sensores. La recolección de datos se llevan a cabo con un arreglo especial el cual consiste en colocar las estaciones de forma que este arreglo nos deje averiguar de donde proviene la señal, con lo cual nos puede dar mas información acerca del tipo de señal que se ha detectado. Los datos recabados fueron procesados utilizando ObsPy con transformadas rápidas de Fourier.
CONCLUSIONES
Mediante las herramientas de 'ObsPy', fueron ajustados individualmente los parámetros que permitían encontrar el ajuste para caracterizar cada señal. En este caso, encontramos ajustes adecuados para cada tipo de señal, sin embargo, al utilizar el algoritmo 'cross correlate', no fue posible encontrar una gran cantidad de señales que se relacionaran, aún con la variación de los parámetros establecidos en el algoritmo.
Se han podido detectar señales captadas en los tres sensores y aislarlas con los ajustes propuestos, sin embargo, no se pudo encontrar correlación. Esto pudiera ser debido a que el método aún no está optimizado, que la señal no fue comparada en un rango de tiempo suficiente para que esta se repitiera, o alguna incertidumbre asociada en la medición.
No descartamos la posibilidad de encontrar una correlación en el futuro que pudiera brindar nueva información sobre los fenómenos de interés o sus fuentes como pudieran ser sismos, señales antropogénicas, o la topografía de la zona.
Se pretende explorar la posibilidad de utilizar un algoritmo que nos permita aislar y estudiar las señales, de esta forma obtener más información para su estudio, como de dónde proviene la señal. Para ello es necesario explorar la geometría utilizada en el arreglo de los sensores, la mejora del algoritmo, o reconocer alguna incertidumbre asociada en la toma de señales que nos permita mejorar la diferenciación entre ellas.
Castañeda Gil Melanie Sofia, Universidad de Sonora
Asesor:Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México
SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO
SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO
Castañeda Gil Melanie Sofia, Universidad de Sonora. Ramos Cábel Fátima Marcela, Universidad Autónoma de Ciudad Juárez. Rodríguez Sauceda Sergio Maximiliano, Universidad Autónoma de Coahuila. Servín Pérez Adilene, Universidad de Sonora. Valencia Ortiz Miguel Angel, Universidad de Caldas. Zapata Martínez Dolores Itzel, Universidad de Sonora. Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Las dataciones radiométricas juegan un papel muy importante en las ciencias de la tierra, pues ayudan a tener un mejor entendimiento de la evolución geodinámica de nuestro planeta, de cómo sucedieron los eventos que configuraron la Tierra como la conocemos hoy en día, y tratar de deducir lo que pasará en el futuro. Entre las aplicaciones de estos estudios geocronológicos se encuentran la determinación de edades de cristalización de cuerpos magmáticos y de eventos deformativos y mineralizantes, la cuantificación de tasas de exhumación, y otros análisis que solo con el fechamiento de las rocas se pueden llevar a cabo.
Para llegar a esto es necesario comprender el comportamiento mineralógico de las rocas de interés y determinar qué relojes isotópicos usar de acuerdo con sus características químicas.
Por ello se busca aislar minerales específicos que contienen información valiosa sobre la edad de las muestras o características particulares en estas, permitiendo que las fechas obtenidas sean lo más precisas posible.
METODOLOGÍA
La metodología del trabajo realizado puede clasificarse en tres etapas principales:
Elaboración de secciones delgadas;
Separación de minerales; y
Caracterización de minerales.
La elaboración de secciones delgadas facilita la identificación de minerales contenidos en las muestras e indican si es viable realizar procedimientos posteriores asociados a la disgregación de minerales.
La segunda etapa se enfoca en la separación de minerales con una estructura cristalina adecuada para albergar isótopos radioactivos y radiogénicos conocidos, de los cuales, en función de su relación isotópica, podrá ser extraída la edad asociada. Entre los minerales de interés se encuentran circones, apatitos, hornblendas, biotitas, moscovitas y feldespatos. Esta etapa comienza con la trituración, tamizado, lavado y secado de las muestras.
Cuando el material se haya secado se separa en función de la susceptibilidad magnética de los minerales, por medio de un separador de barrera magnética tipo Frantz. Colocando el separador en diferentes configuraciones se pueden separar los minerales en ferromagnéticos, paramagnéticos y no magnéticos. El target de la separación depende de las edades de interés y de la temperatura de cierre del mineral.
Según sea el objetivo mineral en la separación, se usan diferentes líquidos pesados con densidades específicas conocidas, como yoduro de metileno o MEI, bromoformo y politungstato de litio. Es necesario manipular los líquidos bajo parámetros sanitarios adecuados:una campana de extracción y utilizando vestimentas adecuadas como batas, guantes, gafas y cubrebocas.
Para los circones se utiliza MEI; para el bromoformo se utilizan los minerales del residuo flotante del yoduro de metileno, para obtener a partir de estos los apatitos. En el caso del LST el montaje es diferente, pero el principio es el mismo, en él se requiere recuperar ambas partes (la que se hunde y la que flota), y calibrar hasta obtener una correcta disgregación (como feldespatos potásicos y cuarzos). Posteriormente, en el caso de los minerales separados distintos al circón y apatito se realizan procedimientos de paper shaking para concentración de micas con relación a los rolls (minerales cuyo hábito no permiten que se adhieran a una superficie fácilmente) y efectuar limpieza de minerales no deseados mediante hand picking.
Es importante distinguir los minerales con base en sus características cristalográficas bajo lupa binocular, y así lograr el montaje y separado adecuado. El montaje de circones se hace con ayuda de dos microscopios estereográficos, bajo uno de ellos se coloca un petri Pyrex con la muestra que contiene los circones y, en el otro, el vidrio con el montaje deseado para los circones.
Los circones contenidos en la probeta terminada se caracterizan mediante un microscopio electrónico de barrido con detector de catodoluminiscencia (SEM-CL). Para que el SEM-CL pueda detectar a los circones, la probeta se debe recubrir con carbono. En este paso, se toman fotografías de cada línea montada de circones. y al final se traslapan con un software de edición. A partir del mosaico obtenido se eligen los sitios potenciales para los análisis de U-Pb en función de las características físicas del circón, su tipo y el objetivo de fechamiento
Por último, elegidos los puntos de ablación, fue visitado el Laboratorio de Estudios Isotópicos, donde fue posible presenciar el procedimiento de identificacion y cuantificacion de especies atómicas presentes en la muestra, es este caso con especial interés en los isótopos radioactivos y de origen radiogénico además de otros análisis químicos que son obtenidos como ppm de REE en circón, a partir de ello son emitidos gases los cuales contienen componentes químicos que son medidos por un espectrómetro de masa (LA-ICPMS) el cual se encarga de distinguir los componentes químicos presentes en la parte desintegrada del circón. Una vez limpios los datos, son leídos y graficados, para obtenerlos datos ploteados en curvas concordia y otros esquemas para realizar los análisis correspondientes.
CONCLUSIONES
Durante el verano, se tuvo un cierto número de rocas a trabajar en el transcurso de la estancia, correspondientes a granitos y xenolitos de proyectos del NW de México y SW de Estados Unidos, y se fue partícipe de todos los procesos previos a la datación y aprendiendo una gran cantidad de técnicas, métodos de separación y caracterización de minerales.
Fueron llevadas 5 muestras al Laboratorio de Estudios Isotópicos para la realización del fechamiento U-Pb mediante ablación de los circones; con lo que se calcularon las edades de las rocas provenientes de Baja California.
Con el resultado de todo el trabajo es posible darse una idea de la evolución tectónica, o identificar si están relacionados a zonas de debilidad cortical, generando correlaciones entre las rocas de Estados Unidos y México.
Castañeda Ramos Bryan Mauricio, Universidad Autónoma de Nayarit
Asesor:Dra. Lili Guadarrama Bustos, Centro de Investigación en Matemáticas (CONACYT)
PROPUESTA Y VALIDACIóN DE UN INSTRUMENTO DE EVALUACIóN DE ACTIVIDADES DE DIVULGACIóN MATEMáTICA PARA NIñOS Y NIñAS DE PRIMARIA
PROPUESTA Y VALIDACIóN DE UN INSTRUMENTO DE EVALUACIóN DE ACTIVIDADES DE DIVULGACIóN MATEMáTICA PARA NIñOS Y NIñAS DE PRIMARIA
Castañeda Ramos Bryan Mauricio, Universidad Autónoma de Nayarit. Rico Torres Alejandro, Universidad Autónoma de Nayarit. Asesor: Dra. Lili Guadarrama Bustos, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El grupo de divulgación Matehuales del CIMAT sede Aguascalientes organiza talleres de divulgación matemática desde el 2019 los cuales se han impartido en diversas escuelas tanto públicas como privadas, el DIF estatal, museos de ciencia y tecnología, entre otros. Estos talleres se han caracterizado por ser atractivos, obteniendo una respuesta favorable del público, sin embargo, es necesario medir el impacto que estos tienen en la audiencia.
En la actualidad, por la naturaleza de las actividades de divulgación científica, la creación de un instrumento de evaluación estandarizado es un reto a nivel global, por lo que en este verano de investigación el objetivo fue realizar una herramienta de evaluación para valorar las actividades elaboradas, centrándose en el tema de origami en tecnología espacial.
METODOLOGÍA
Se nos presentaron los temas que han usado para divulgación matemática en la institución, como lo es el origami, teselaciones, torres de Hanói, juegos de destreza mental, etc., los cuales fuimos utilizando para familiarizarnos con ellos y poder entender mejor su estructura. Decidimos enfocarnos a realizar un instrumento de evaluación enfocado al aprendizaje de las matemáticas a través del origami, con intención de, posteriormente lograr un instrumento de evaluación generalizado para los demás talleres.
Inicialmente se construyó un instrumento de evaluación inicial en base a la literatura encontrada relacionada a esto (la cual era poca, pues gran parte de ésta no estaba enfocada en evaluar el aprendizaje matemático). Aunado a esto, se llevó a cabo un análisis de los Aprendizajes Clave para una Educación Integral para la Educación Básica, esto para equiparar el tema de Origami con los grados escolares y los aprendizajes esperados dados por ejes temáticos.
El instrumento fue dirigido principalmente para alumnos de primaria mayor (4°, 5° y 6°), y consta de lo siguiente:
Antes del taller
Diagnóstico inicial, 4 preguntas de opción múltiple sobre temas en matemáticas en base a los aprendizaje por ejes de este nivel educativo.
Cuestionario de expectativas sobre el taller, comprendido por 7 ítems (preguntas) con respuesta en escala de Likert de 5 puntos.
Después del taller
Cuestionario de experiencias y satisfacción sobre el taller, comprendido por 13 ítems con respuesta en escala de Likert de 5 puntos y 4 preguntas abiertas.
Diagnóstico final, las mismas preguntas que el inicial cambiando el orden de las respuestas para evitar una respuesta por memorización.
Una vez terminado el instrumento inicial, se planeó e impartió la presentación del taller de origami a niños como una prueba piloto.
Posteriormente, se realizó una recopilación de los datos en crudo de las respuestas de los niños para luego, continuar con un análisis inicial de este primer instrumento. Se produjeron tablas de frecuencia, gráficas de barras (por ítems y por constructos), CloudWorks de las preguntas abiertas y un análisis de la consistencia interna de los ítems de cada constructo a través del Alpha de Cronbach, el cual se calculó por todo el constructo y quitando ítem por ítem, para ver qué tanto aporta cada ítem a la consistencia total. Con esto último, se hizo notable que algunas preguntas reducían la consistencia interna del constructo, por lo que fueron candidatas a revisión para modificarlas o descartarlas.
También, pudimos percatarnos de algunas cosas del taller que podrían mejorarse, esto para perfeccionar el aprendizaje de los niños, como fue el caso de realizar plantillas sobre los productos a realizar (pliegues de miura y el satélite) para impulsar un poco la actitud autodidacta y puedan reproducirlos cuando ellos quieran.
Al mismo tiempo, se seleccionó un panel de expertos con el fin de evaluar la pertinencia de los ítems presentes en los cuestionarios. Dicho panel está integrado por 30 profesionales referentes en el área de matemáticas y afines al aprendizaje y enseñanza de esta ciencia. Aún se está en espera de la respuesta total de este panel para poder continuar con las modificaciones del instrumento de evaluación.
CONCLUSIONES
Durante la estancia de verano logramos adquirir conocimientos teóricos y prácticos de la elaboración de instrumentos de divulgación matemática, aprendimos varias técnicas estadísticas para hacer valorar las herramientas de evaluación hechas y pudimos vivir por experiencia propia que para realizar una actividad de divulgación no solo es hacerla a la ligera, si no que hay que corroborar que sea un material de calidad, que deje un aprendizaje significativo a la audiencia, que sea valorado por expertos en el área, que logremos obtener resultados representativos, y poder conseguir una buena evaluación por parte de los estudiantes para lograr una mejora en el futuro.
Durante el verano se realizó la construcción de la propuesta de la herramienta de evaluación, la validación por parte del panel de expertos está en espera y en cuando se tenga se tendrá un instrumento consistente, repetible y confiable que mida el impacto de la actividad de divulgación.
Castaño Galeano Juan Pablo, Fundación Universitaria Comfamiliar Risaralda
Asesor:Dra. Elizabeth Galindo Linares, Universidad Autónoma de Sinaloa
CÓMO FUNCIONA LA INVERSIÓN EN INVESTIGACIÓN Y DESARROLLO ESPACIAL, CUÁLES SON SUS COSTOS Y COMO BENEFICIA A LAS PERSONAS.
CÓMO FUNCIONA LA INVERSIÓN EN INVESTIGACIÓN Y DESARROLLO ESPACIAL, CUÁLES SON SUS COSTOS Y COMO BENEFICIA A LAS PERSONAS.
Castaño Galeano Juan Pablo, Fundación Universitaria Comfamiliar Risaralda. Asesor: Dra. Elizabeth Galindo Linares, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La inversión en investigación espacial y desarrollo tecnológico enfocado al descubrimiento puede parecer un tema ajeno al ser como persona y riesgoso para el capital, no obstante, el descubrimiento de nuevos métodos y desarrollo de nuevos equipos nos permitirán avanzar como generación, tal como menciona el Consejo Económico y Social de reino unido en el texto Contribución de las tecnologías espaciales al desarrollo sostenible y ventajas de la colaboración internacional en la investigación sobre este ámbito Las tecnologías espaciales pueden ser vitales para la innovación agrícola, la agricultura moderna y la agricultura de precisión. El uso de las tecnologías espaciales para la agricultura y la gestión de los recursos naturales solía limitarse, en gran medida, a los países desarrollados, debido en parte a su alto costo. En los últimos años, el libre acceso a los datos geoespaciales y los productos y servicios de datos, y la reducción de los costos de las tecnologías de la información geoespacial han estimulado la adopción de las tecnologías espaciales en todo el mundo, y en particular en los países en desarrollo, mediante iniciativas como Open Data Cube3. (2020) sabiendo esto podemos entender la importancia de fomentar el desarrollo científico y espacial, ubicando nuestro capital en el progreso tanto económico como social invirtiendo en valores o ETFs orientados a este mercado.
METODOLOGÍA
Se estudiarán las diferentes ventajas que ofrece el desarrollo científico y espacial, tanto para la humanidad en general como para las diferentes ramas que puede abarcar, esto haciendo énfasis en el desarrollo económico en las diferentes empresas y fondos que estén específicamente orientados al sector de investigación y desarrollo espacial, analizando los activos subyacentes que componen estos ETFs. Para comprender la exposición de las empresas e industrias relacionadas con la investigación espacial es fundamental tener en cuenta ciertos aspectos, como la recopilación datos históricos de precios y rendimientos de los ETFs seleccionados, la verificación del comportamiento de estos en diferentes periodos de tiempo, incluyendo momentos alcistas, bajistas y de alta volatilidad. También es importante determinar los riesgos dentro de los cuales se pueden encontrar sobrecostos, retrasos en los proyectos, cambios en los presupuestos gubernamentales para la exploración espacial, acuerdos internacionales y eventos geopolíticos relevantes. También se deben tener en cuenta los beneficios, donde se identificará el rendimiento potencial de la investigación espacial, como lo son los avances tecnológicos, aplicaciones prácticas en la vida cotidiana, generación de empleo, mejoras en la comunicación y navegación, conocimiento científico y descubrimientos sobre el universo y su impacto global general.
Hacer énfasis en las proyecciones donde se reconocerá y cuantificará la incertidumbre asociada a los riesgos y beneficios identificados, la investigación espacial implica avances científicos y tecnológicos con posibles resultados impredecibles, por lo que es importante tener en cuenta la incertidumbre en el análisis.
Como instrumento de evaluación se realizarán simulaciones con escenarios hipotéticos para evaluar cómo estos ETFs podrían comportarse bajo diferentes condiciones de mercado, ya sean períodos de alta inflación, recesiones económicas o avances tecnológicos disruptivos. Esto permitirá identificar diferentes elementos importantes a la hora de invertir en estos ETFs.
CONCLUSIONES
Los ETFs enfocados en investigación y desarrollo espacial son una opción que presenta tanto riesgos como beneficios. La exploración espacial ha demostrado ser una industria innovadora y prometedora con el potencial de generar avances tecnológicos significativos, aplicaciones prácticas en la vida cotidiana y descubrimientos científicos sobre el universo. Estos factores pueden atraer a inversores que buscan diversificar sus carteras con activos relacionados con la exploración espacial.
Sin embargo, también existen riesgos asociados con la inversión en este sector. La industria espacial puede ser susceptible a la volatilidad y los eventos macroeconómicos y geopolíticos. Además, el rendimiento de los ETFs de investigación espacial puede depender en gran medida de factores fuera del control de los inversores, como cambios en los presupuestos gubernamentales, avances tecnológicos disruptivos y competencia creciente.
a futuro se planea hacer uso de una IA con la finalidad de comparar lo realizado hasta el momento, con lo que puede generar una IA, aprovechando la inmensa cantidad de información a la que esta tiene acceso para hacer una búsqueda que incluya desde la búsqueda de biblio grafía, hasta un análisis y simulación.
Castellanos Navarro Beira, Universidad de Guadalajara
Asesor:Post-doc Miguel Enrique Rodríguez Márquez, Universidad de la Costa
INFERENCIA Y APRENDIZAJE USANDO UN HMM OPTIMIZADO PARA SECUENCIAS EXTENSAS DE DATOS GENóMICOS
INFERENCIA Y APRENDIZAJE USANDO UN HMM OPTIMIZADO PARA SECUENCIAS EXTENSAS DE DATOS GENóMICOS
Castellanos Navarro Beira, Universidad de Guadalajara. Asesor: Post-doc Miguel Enrique Rodríguez Márquez, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
En investigación sobre el cáncer, estamos interesados en analizar grandes ventanas de datos genéticos, ya que las mutaciones son raras y se necesitan grandes conjuntos de datos para obtener resultados confiables. Por ejemplo, C → C, A → C, etc. Las sustituciones genéticas están altamente correlacionadas con el sitio, dependiendo del proceso mutacional, por ejemplo radiación UV puede inducir doble sustitución de bases nucleicas (Alexandrov et al, 2012). Para capturar las correlaciones sitio-sitio, e ir más allá de la suposición de independencia estadística entre sitios, supondremos que existe un proceso oculto subyacente que se puede modelar mediante una cadena de Markov de primer orden. Los datos observados son una expresión ruidosa de este proceso. Esto se conoce como Modelo Oculto de Markov o HMM. Los procesos ocultos de Markov (HMM) son modelos estadísticos cuyos estados internos no pueden ser observados directamente, pueden verse como una extensión de las cadenas de Markov donde los estados observables son diferentes a los estados ocultos. Se componen principalmente de tres parámetros: condiciones iniciales, probabilidades de transición y probabilidades de emisión, además, describen y analizan sistemas que cambian de manera aleatoria cuyos estados futuros dependen del estado actual (Bishop, 2006).
METODOLOGÍA
Para desarrollar el proyecto se empleará la librería de Biopython (Biopython, 2023), así como los datos de alineamiento multiespecie obtenidos de la base de datos de la UCSC (Kent et al, 2002) . Nos apoyaremos en ChatGPT-3.5 para facilitar la escritura de códigos en python necesarios para la preparación y análisis de las secuencias genéticas así como la formulación del HMM.
En una primera fase, se planea observar el multialineamiento genético de cuatro especies, Homo sapiens (humano), Mus musculus (ratón), Tupaia chinensis (musaraña arborícola china) y Galeopterus variegatus (Lémur volador malayo). Este multialineamiento será preprocesado y se proveerá como data en el entrenamiento de un HMM que considera un modelo evolutivo de sustitución de bases.
CONCLUSIONES
En esta primera fase se aprendió a interactuar con la base de datos genémica de UCSC así como el UCSC Genome Browser. Se obtuvieron archivos de secuencias genéticas de genes conocidos de cuatro especies de mamíferos (hg38, mm10, tupChi1 y galVar1), los cuales fueron previamente alineados al genoma de referencia humano (hg38). Utilizando BioPython se visualizaron los archivos de multialineamiento, y se construyeron nuevos archivos de datos con información formateada considerando las necesidades del HMM. Finalmente se codificó una versión inicial del modelo HMM que está en fase de prueba.
REFERENCIAS
-Alexandrov, L. B., Nik-Zainal, S., Wedge, D. C., Campbell, P. J., & Stratton, M. R. (2013). Deciphering Signatures of Mutational Processes Operative in Human Cancer. Cell Reports, 3(1), 246-259. https://doi.org/10.1016/j.celrep.2012.12.008
-Biopython (2023) Biopython. https://biopython.org/
-Cristopher M. Bishop (2006) Pattern Recognition and machine learning, cap.13.
-Kent, W. J., Sugnet, C. W., Furey, T. S., Roskin, K. M., Pringle, T. H., Zahler, A. M., & Haussler, A. D. (2002). The Human Genome Browser at UCSC. Genome Research, 12(6), 996-1006. https://doi.org/10.1101/gr.229102
Castellanos Villalpando Jimena Itzel, Universidad de Guadalajara
Asesor:Dr. Mario Alberto Fuentes Arreazola, Universidad de Guadalajara
EVALUACIóN DEL POTENCIAL GEOTéRMICO EN EL OCCIDENTE DE MéXICO, AMADO NERVO
EVALUACIóN DEL POTENCIAL GEOTéRMICO EN EL OCCIDENTE DE MéXICO, AMADO NERVO
Castellanos Villalpando Jimena Itzel, Universidad de Guadalajara. Asesor: Dr. Mario Alberto Fuentes Arreazola, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La geotermia está referida a un conjunto de fenómenos térmicos los cuales se desarrollan en el interior de la tierra. Los lugares más aptos y comunes para el aprovechamiento de este tipo de energía y calor están relacionados a una cercanía de los volcanes, en el interior se localizan rocas con altas temperaturas, las cuales calientan el agua que se infiltra en el subsuelo permitiendo una situación apta para su desarrollo y extracción.
El occidente de México se caracteriza por intensa actividad tectónica y en consecuencia una gran cantidad de volcanes. En Nayarit se encuentra uno de los pocos volcanes escudo que existen en el país, el cual lleva por nombre Amado Nervo. Este volcán a pesar de ser poco conocido, después de un reconocimiento preliminar, usando datos aeromagnéticos disponibles en el Servicio Geológico Mexicano, mostró una anomalía magnética de alta intensidad, que motivo a estudiar y buscar determinar la configuración geológica, geohidrológica y geofísica de este volcán y también estimar el potencial geotérmico del probable reservorio de fluidos hidrotermales.
METODOLOGÍA
El volcán Amado Nervo está ubicado en las coordenadas 21.150399N, -104.756680W y elevación de 1447 msnm. Para la primera parte del proyecto se identificó el punto central de la zona y sus límites a 10 km desde el centro. Se utilizaron datos aeromagnéticos adquiridos del Servicio Geológico Mexicano para su procesamiento y filtración en donde se visualizaron anomalías Magnéticas las cuales nos ayudaron a identificar las zonas de mayor potencial geotérmico y aprovechamiento, haciendo uso de los programas Qgis, Surfer y Oasis. Se requirió de una serie de bases de datos las cuales fueron desarrolladas en Excel, en esta base se contaba con los datos de CE (Conductividad eléctrica), PH, STD (Sólidos Totales Disueltos), la anterior información permitió determinar regiones con mayor concentración de manantiales con agua de probable origen magmático o bien, aguas superficiales con alta interacción con fluidos hidrotermales.
En la siguiente parte con ayuda de un Modelo Digital de Elevación (DEM) y un archivo raster (DEM) de datos magnéticos, construido en un sistema de información geográfica (QGis), se realizaron perfiles de elevaciones y de anomalía magnética de la zona.
Sucesivamente se extrajeron perfiles de elevaciones y anomalía en Qgis para realizar graficas en Excel, las cuales nos sirvieron para comparar las correcciones que se le hicieron a la anomalía. Teniendo una serie de graficas de perfil topográfico vs anomalía magnética.
Se requirió realizar la localización de las unidades litológicas e hidrológicas de la zona, donde se hizo uso de Qgis, cartas geológicas obtenidas de la plataforma digital GeoInfoMex del Servicio Geológico Mexicano. La anterior información fue analizada para identificar regiones propensas a la filtración de agua superficial y recargar algún posible reservorio geotérmico.
En la siguiente parte realizamos cortes geológicos de manera manual, localizando estratos, fallas y ubicando los cuerpos hidrológicos como lo son las zonas de filtración de agua y el nivel estático, así como también se ubicaron los acuíferos presentes en la zona. Para después realizar la digitalización de estas usando un software de edición de gráficos vectoriales (Inkscape).
Usando un software especializado de procesamiento de datos geofísicos (Oasis montaj) calculamos el espectro de potencia radialmente promediado que nos permitió definir la parte alta, centroide y base de las rocas.
En Matlab se diseñó un código en el cual se buscó desarrollar el modelo de Montecarlo para evaluar el potencial de los yacimientos. Se utilizó dicho modelo ya que es uno de los modelos más aceptados por la comunidad geotérmica internacional para este tipo de análisis.
Para nuestro modelado final se generó un boceto del sistema hidrotermal con integración de la información geológica, hidrológica, geohidrológica y geofísica. Indicando zonas de recarga-descarga, acuíferos, manifestaciones hidrotermales superficiales, capa sello (clay cap), zona de fluidos hidrotermales, pozo (gradiente geotérmico), fuente de calor e isotermas.
Para esto se hizo uso del corte geológico norte-sur que se realizó en las primeras etapas del proyecto y sobre él se plasmaron los pozos exploratorios (CB3, GC3, CB2, GC5) de la zona para que con ayuda de unos cálculos identificar la roca sello (se identificó a 2km); por debajo se propuso la probable zona de almacenamiento de fluidos hidrotermales; adicionalmente, se indicaron las isotermas y gradiente geotérmico.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos acerca del cómo realizar procesamiento de datos aeromagnéticos y elevaciones con apoyo de programas como lo son Qgis, Oasis y Surfer encaminados a la observación de anomalías magnéticas para su aplicación en la geotermia.
Donde se obtuvo como producto final un modelado de la zona de Amado Nervo en donde indicamos estratos, fallas, nivel estático de agua, escurrimientos, cámara magmática, isotermas, roca sello, posibles reservorios de fluidos hidrotermales, etc. Así mismo con los cálculos realizados durante el proceso obtuvimos los valores del gradiente y estimamos preliminarmente el potencial geotérmico (28MW) para la zona del Volcán Amado Nervo.
Castillo Muñoz Marlon, Universidad de Sonora
Asesor:Dr. Roberto Alonso Saenz Casas, Universidad de Colima
ANáLISIS DEL IMPACTO DE LA VACUNACIóN EN UNA EPIDEMIA CUANDO PARTE DE LA POBLACIóN ES VULNERABLE
ANáLISIS DEL IMPACTO DE LA VACUNACIóN EN UNA EPIDEMIA CUANDO PARTE DE LA POBLACIóN ES VULNERABLE
Castillo Muñoz Marlon, Universidad de Sonora. Asesor: Dr. Roberto Alonso Saenz Casas, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
Se plantea un estudio y análisis de un modelo matemático para estudiar la propagación de una enfermedad infecciosa en dos grupos poblacionales separadas por su vulnerabilidad, evaluando el impacto de la vacunación como estrategia de control para reducir la propagación del patógeno en ambas poblaciones. Identificar los parámetros del modelo matemático de propagación de una enfermedad infecciosa que tienen mayor impacto en el éxito de la vacunación, evaluando diferentes escenarios de cobertura y ritmo de distribución de la vacuna. Este objetivo se centra en analizar cómo diferentes parámetros de un modelo matemático pueden afectar la efectividad de las estrategias de vacunación para prevenir la propagación de enfermedades infecciosas. Al analizar diferentes escenarios de cobertura y el momento de distribución de la vacuna, es posible determinar qué parámetros son los más críticos para el éxito de la vacunación y cómo ajustarlos de manera óptima para mejorar la eficacia de las intervenciones de salud pública.
Características de los grupos poblacionales:
Grupo 1: Esta población se basa en individuos con alta movilidad, con lo cual podemos decir que esta población tiene una tasa de contacto social mayor con el grupo 2.
Grupo 2: Esta población consiste en personas que tienen menos movilidad, lo que quiere decir que esta población tiene una menor movilidad que el grupo 1.
METODOLOGÍA
Se revisaron distintos libros relacionados a modelos epidemiológicos que estudiaban enfermedades infecciosas, además de distintos artículos con modelos epidemiológicos, con el fin de recabar información para el objeto de estudio, a partir de lo anterior proponemos dos modelos matemáticos para la propagación de una enfermedad infecciosa en una población, con o sin vacunación. Ambos modelos consideran a la población dividida en dos grupos con respecto a contactos sociales y vulnerabilidad. Para analizar la enfermedad infecciosa se busca tener la mayor información posible, con lo cual se consideró un lapso de 60 días después del inicio de la epidemia. Se modifica ligeramente el modelo SIR básico para incorporar compartimientos, para el primer modelo consideramos a los grupos poblacionales 1 y 2, y en cada uno de ellos se presentaron los siguientes compartimentos: Susceptibles (S), Infectados (I), Recuperados (R) y Muertes (D), para el segundo modelo se implementa vacunación, con lo cual tenemos los compartimentos de: Susceptibles (S), Infectados (I), Recuperados (R), Muertes (D) y vacunados (V) con los parámetros de tasa de recuperación γ, tasa de transmisión β, la tasa de mortalidad δ, además de la tasa de vacunación α.
Primeramente, se elaboró el diagrama compartimental del modelo 1, teniendo en cuenta los compartimientos a trabajar y los parámetros a obtener, teniendo, como resultado las ecuaciones diferenciales del modelo. Por conveniencia se tomó una población de 1000 habitantes, de los cuales fueron distribuidos en el grupo 1 y 2 entre los compartimientos de susceptibles e infectados. Dado lo anterior se comenzó a implementar el Muestreo de hipercubo latino , esto para determinar los intervalos de los distintos parámetros para un buen ajuste del modelo.
Teniendo los modelos ya bien establecidos, se trabaja con una forma de representación gráfica utilizada para visualizar la relación entre distintas variables numéricas, en este caso nuestros parámetros. Comenzamos a relacionar parámetros de nuestros modelos tanto para el modelo de vacunación como para el que no tiene vacunación. Implementando los diagramas de dispersión se comenzó a analizar si existían algunas tendencias, patrones o correlaciones entre los datos, esto comparándolos con los totales de infectados y las muertes totales en nuestros modelos.
CONCLUSIONES
Dado el muestreo de hipercubo latino para la determinación más eficaz de los parámetros para un buen ajuste en los modelos que se decidieron usar para la enfermedad (con y sin vacunación) se pudo concluir que eran valores bastante acertados. En el análisis de los diagramas del modelo 1: había correlaciones obvias que relacionaban las diferentes tasas de transmisión y las tasas de mortalidad con el total de muertes en la población, teniendo en cuenta que dependiendo de qué tan alta o baja era la tasa de mortalidad. Para el caso de infectados totales las correlaciones más interesantes ocurrían cuando las tasas de transmisión estaban comparadas con las tasas de recuperación, esto es claro ya que si hay una baja tasa de transmisión entonces no habrá muchos infectados, pero en cambio si la tasa de transmisión es alta entonces estamos hablando de que el número de infectados se verá en aumento; esto también aplica para la tasa de recuperación. Mientras que en las diferencias de infectados totales (suma de infectados totales del grupo 1 y del grupo 2 del primer modelo menos la suma de infectados totales del grupo 1 y del grupo 2 del segundo modelo) y de muertes totales (suma de muertes totales del grupo 1 y del grupo 2 del primer modelo menos la suma de muertes totales del grupo 1 y del grupo 2 del segundo modelo) de ambos modelos no se aprecia alguna correlación entre los parámetros con respecto a estos resultados a estudiar.
Este proyecto ha sido una herramienta valiosa para comprender la dinámica de la enfermedad y las estrategias de control (vacunación). A través de la simulación y análisis se ha mostrado que la vacunación selectiva en la población vulnerable desempeña un papel crucial en la reducción de la propagación del virus y en la protección de aquellos que son mas susceptibles a la infección. Los resultados del modelo han revelado que la implementación de la vacunación en ambos grupos es bastante efectiva para eliminar la transmisión del virus y también para reducir el tiempo en el que hay infectados presentes en la población, con lo cual los parámetros encontrados por medio del muestreo que se realizó son bastante convincentes.
Castro de León Griselda Guadalupe, Instituto Tecnológico de Matamoros
Asesor:Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas
IMPACTO DE UN MEJORADOR ORGáNICO EN CRUDO EXTRAPESADO Y SU APLICACIóN EN UN MEDIO POROSO.
IMPACTO DE UN MEJORADOR ORGáNICO EN CRUDO EXTRAPESADO Y SU APLICACIóN EN UN MEDIO POROSO.
Castro de León Griselda Guadalupe, Instituto Tecnológico de Matamoros. Domínguez Gutiérrez Edric, Instituto Politécnico Nacional. Asesor: Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
El petróleo es una mezcla compleja de hidrocarburos que suelen clasificarse en saturados, aromáticos, resinas y asfaltenos, y tales fracciones determinan las propiedades fisicoquímicas del fluido.
En México, la Industria del petróleo es importante debido al impacto económico Nacional, sin embargo, la mayor parte de las reservas tanto a nivel nacional como mundial son crudos pesados y extrapesados. El petróleo extrapesado se caracteriza comúnmente por contener un alto contenido de asfaltenos y elevada viscosidad, lo que da lugar a problemas operativos en el campo.
Uno de los principales problemas en la extracción de crudo extrapesado es la precipitación de asfaltenos ocasionando taponamientos tanto en el espacio poroso del yacimiento como en las líneas de flujo, esto puede mejorarse a partir de la adición de ciertos productos químicos de diferente naturaleza.
METODOLOGÍA
En la presente investigación se realizó una reacción de transesterificación de alcoholisis del triglicérido y el metóxido de sodio para la cual se utilizó un sistema de destilación vertical con reflujo dando como resultado la síntesis de un compuesto orgánico derivado de ésteres de ácidos grasos que se evaluó en un crudo de 77000cP a 23°C. Primeramente, se realizó la caracterización del mejorador basados en las normas de la ASTM, evaluando su densidad, tensión superficial y viscosidad, así como la inhibición de los asfaltenos. Posterior a ello, se procede a evaluar la viscosidad del crudo, así como de las mezclas crudo-mejorador para observar el impacto en la reducción de su viscosidad. Con ello se realiza una prueba de fluidez a través de un permeámetro integrado por una muestra de roca carbonatada homologa a un medio carbonatado fracturado, haciendo fluir la muestra de crudo original, así como adicionada con 3, 6 y 12% de mejorador para registrar el gasto de crudo obtenido en la salida del sistema.
CONCLUSIONES
Se encontró que los asfaltenos permanecen homogéneamente distribuidos en la superficie y que se logra alcanzar una disminución de la viscosidad en el crudo alrededor del 50% e incrementa el flujo de fluido al dosificar un bajo porcentaje del mejorador. El trabajo realizado demuestra que existen alternativas más sustentables que se pueden utilizar para una optimización en el manejo y transporte del crudo.
Cebreros Verdin Angel Gerardo, Universidad de Guadalajara
Asesor:Dra. Mariana Elvira Callejas Jimenez, Consejo Quintanarroense de Ciencia y Tecnología
CAMBIO Y AFECTACIóN EN EL USO DE SUELOS ASOCIADO AL TREN MAYA EN TRAMO 6 Y 7
CAMBIO Y AFECTACIóN EN EL USO DE SUELOS ASOCIADO AL TREN MAYA EN TRAMO 6 Y 7
Cebreros Verdin Angel Gerardo, Universidad de Guadalajara. Navarro Delgadillo Diego, Universidad de Guadalajara. Asesor: Dra. Mariana Elvira Callejas Jimenez, Consejo Quintanarroense de Ciencia y Tecnología
PLANTEAMIENTO DEL PROBLEMA
El cambio y afectación del uso de suelos es un tema de importancia mundial, actualmente en México existen grandes extensiones de territorio nacional que se ven envueltos en un cambio drástico debido a la construcción de nueva infraestructura para la movilidad del sureste del país, lo que provoca un proceso de afectación en los ecosistemas de dicha región, cada vez es más común en la construcción de obras tramitar el cambio del uso de suelo debido al antecedente establecido. El cambio de uso de suelo es la transformación de la cubierta vegetal existente con el fin de dar paso a otros usos o degradar la calidad de la vegetación asiendo modificaciones como densidad y composición. (1).
La construcción del tren maya abarca aproximadamente 1460 km del territorio sur, con presencia en Chiapas, Tabasco, Yucatán y Quintana Roo (2). Ante la enorme cantidad de extensión territorial el presente trabajo se centró en dos tramos el 6 y 7, con el fin de inferir el impacto en la región.
Tomando en cuenta lo antes mencionado formulamos la siguiente pregunta de investigación:
¿Existen cambios en el uso de suelo por la construcción del tren maya en los tramos 6 y 7?
METODOLOGÍA
Para comprender mejor el impacto del tren maya, es importante conocer el nivel de deforestación que se produjo años atrás y qué factor la provoca. Hoy en día, demasiados factores naturales o humanos han influido en la pérdida de la selva.
Con la ayuda de CONAFOR, se encontró que los desarrolladores urbanos y turísticos han afectado seriamente la mayor parte de la vegetación forestal a lo largo de la costa Caribe[MCJ1] .(3) En el estado de Quintana Roo, el número de cuartos de alojamiento aumentó de 269 cuartos en 2000 (38,206 cuartos) a 2018 (102,890 cuartos)[MCJ2] .(3) La infraestructura turística que acompañó esta expansión apareció principalmente en áreas cubiertas por selvas y manglares.[MCJ3] [MCJ4] Cada año se pierden 1.882 hectáreas de vegetación forestal en las áreas de crecimiento de la infraestructura turística, lo que destruye uno de los factores importantes para la vida, la salud y el bienestar de los habitantes de la región (3). En 24 años, la comunidad de Bacalar ha perdido 75,263 hectáreas de bosque, lo que representa una deforestación anual de 0.7. % pérdida promedio anual de cobertura forestal 3136 hectáreas. (4)
En este sentido, es muy importante conocer el efecto que provoca el tren maya y los impactos que puede causar en la región.
También se han visto noticias o videos en redes sociales sobre protestas que los municipios o comunidades indígenas han organizado para detener la construcción del tren maya porque les afecta mucho, así lo dice el diario (PAÍS UE: MÉXICO). Los afectados califican la construcción como "ecocidio", que ha provocado la deforestación de miles de hectáreas, la pérdida de cenotes y aguas subterráneas, y el desplazamiento de biodiversidad y comunidades. Integrantes de las comunidades de Bacalar, Calakmul, Puerto Morelos y Carrillo Puerto advirtieron sobre daños ambientales que afectan a más de 100 comunidades indígenas, incluyendo daños al agua, flora y fauna. Si no tenemos tierra, ¿cómo vamos a vivir? Trabajamos la tierra. Que nos ayuden a protegerlo, no a dañarlo, dijo Nicolás Moreno del Consejo Indígena de Calakmul. Como ya se mencionó, gran parte del tren pasa por tierras ejidales y allí cultivan, en su mayoría su única fuente de ingresos y temen perder sus tierras. (6)
Para la ejecución del presente trabajo, se realizó búsqueda, análisis y revisión de artículos científicos, con la finalidad de familiarizarse con el tema de la investigación. Además, se obtuvo capacitación en fundamentos de percepción remota, uso y manejo de Q-GIS.
Se realizó trabajo de campo con la finalidad recabar información relevante para la ejecución del proyecto, relacionado a levantamiento y georreferenciación de puntos relevantes de vegetación y cultivos, así como aplicación de encuestas en el municipio de Bacalar Quintana Roo, en las localidades de Nicolas Bravo, Maya Balam, Manuel Ávila Camacho, Kuchumatan, Lázaro Cárdenas, Reforma, Ucum.
Se analizaron imágenes satelitales para identificar los principales tipos de vegetación tanto natural (selva, tular, manglar, etc.), así como los diferentes cultivos presentes en el área de estudio.
CONCLUSIONES
Conclusión
Durante la estancia de investigación se pudo recabar información sobre los cambios de uso de suelo, la deforestación y los factores que la provocaban sin tomar en cuenta la construcción del tren maya. Con la cual se plantea la posibilidad de las obras del tren maya pueden provocar desequilibrios en el medio ambiente, poniendo en peligro rápidamente los recursos naturales de suma importancia, de la misma manera se puede inferir la presión por recursos como agua y el suelo, con modificaciones de terrenos de selva hacia la agricultura del municipio, para saber sus ventajas o desventajas generadas a las comunidades y su influencia en la economía local.
Ceron Bautista Andrea Jiovana, Instituto Politécnico Nacional
Asesor:Mtra. Maria Claudia Angeles Velásquez Velásquez, Universidad César Vallejo
TECNOLOGíAS INNOVADORAS EN LA ARQUITECTURA: UNA INVESTIGACIóN SOBRE EL IMPACTO DE LA INTELIGENCIA ARTIFICIAL (IA) EN EL DISEñO Y CONSTRUCCIóN DE EDIFICACIONES
TECNOLOGíAS INNOVADORAS EN LA ARQUITECTURA: UNA INVESTIGACIóN SOBRE EL IMPACTO DE LA INTELIGENCIA ARTIFICIAL (IA) EN EL DISEñO Y CONSTRUCCIóN DE EDIFICACIONES
Ceron Bautista Andrea Jiovana, Instituto Politécnico Nacional. Asesor: Mtra. Maria Claudia Angeles Velásquez Velásquez, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
En la era contemporánea, la Inteligencia Artificial (IA) ha surgido como una tecnología disruptiva con el potencial de transformar diversos sectores industriales. Uno de los campos en los que su influencia se está haciendo cada vez más evidente es el diseño y la construcción de edificaciones. La aplicación de la IA en esta área plantea una serie de desafíos y oportunidades que requieren una evaluación exhaustiva.
Tradicionalmente, el diseño y la construcción de edificaciones han sido procesos altamente especializados, que involucran la colaboración de arquitectos, ingenieros, diseñadores y otros profesionales. Sin embargo, la introducción de la IA en estas fases del ciclo de vida de una edificación ha generado un cambio significativo en la dinámica de trabajo y en la toma de decisiones. Surge así la interrogante sobre cómo el uso creciente de la IA impacta en la calidad, eficiencia y sostenibilidad de las edificaciones resultantes.
Adicionalmente, el desarrollo y la implementación de tecnologías de IA en el diseño y la construcción plantean desafíos éticos y regulatorios. La toma de decisiones asistida por máquinas puede plantear dilemas en cuanto a la responsabilidad y la rendición de cuentas en caso de errores o malfuncionamientos. Esto es particularmente relevante en edificaciones que albergan a comunidades y tienen implicaciones directas en la seguridad y el bienestar de las personas.
Por otro lado, la IA promete optimizar procesos y mejorar la eficiencia, reduciendo los costos y los plazos de construcción. No obstante, es necesario investigar si estas promesas se cumplen en la práctica y cómo se equilibran con las demandas tradicionales de calidad y durabilidad en las edificaciones. La adaptación a las nuevas tecnologías también puede requerir una inversión significativa en capacitación y recursos, lo que plantea la cuestión de la accesibilidad y adopción generalizada de la IA en el sector de la construcción.
METODOLOGÍA
La presente investigación documental abordó el análisis del impacto de la Inteligencia Artificial en los procesos de diseño arquitectónico desde una perspectiva multidimensional, a través de la recolección y análisis de datos provenientes de cuestionarios en línea.
Con el propósito de comprender las percepciones y perspectivas tanto de los futuros profesionales; como de los expertos en el campo, se aplicaron cuestionarios en la plataforma Google Forms (https://forms.gle/ZFdho5Crm3gZRspx8) a una muestra representativa de 40 estudiantes de la carrera Ingeniero Arquitecto de la Escuela Superior de Ingeniería y Arquitectura, Unidad Tecamachalco del Instituto Politécnico Nacional en México, así como 40 docentes, y arquitectos de la Universidad César Vallejo de Filial, Perú.
Estos cuestionarios abordaron diversas dimensiones del tema, como la percepción de la IA en el diseño arquitectónico, su influencia en los procesos creativos y técnicos, así como las expectativas y desafíos asociados con su integración en la disciplina.
A través de esta metodología, se buscó capturar una variedad de opiniones y experiencias que permitieran arrojar luz sobre las percepciones en torno a cómo la Inteligencia Artificial está influyendo en la concepción y desarrollo de proyectos arquitectónicos en el contexto actual.
Sin embargo, me parece relevante, mencionar cuales fueron los resultados obtenidos en cada una de las preguntas formuladas en el cuestionario de la plataforma Google Forms.
CONCLUSIONES
En conclusión, los resultados de la encuesta han arrojado una perspectiva amplia y enriquecedora sobre el impacto actual de la Artificial en el proceso de diseño arquitectónico, a través de estudiantes, docentes y arquitectos. Se ha evidenciado que existe un consenso general en torno al potencial transformador de la IA en la disciplina, destacando su capacidad para agilizar y optimizar diversas etapas del proceso creativo.
Se aprecia un marcado entusiasmo por las capacidades transformadoras de la Inteligencia Artificial (IA) en el diseño arquitectónico. Se destaca su optimismo en cuanto a la automatización de tareas repetitivas, la agilización de procesos y la ampliación de la creatividad a través de herramientas generativas. Sin embargo, este grupo también manifiesta preocupaciones acerca de la pérdida de la autenticidad y la esencia humana en el proceso creativo, subrayando la importancia de mantener un equilibrio entre la tecnología y la originalidad.
En el mismo, se resalta la importancia fundamental de la intuición y la sensibilidad humana en la toma de decisiones cruciales sentido en el diseño. Los docentes y arquitectos han subrayado que, si bien la IA puede ser una herramienta poderosa, la esencia de la disciplina radica en la creatividad y la conexión emocional que solo los seres humanos pueden aportar. Además, se ha planteado un debate ético en torno a la responsabilidad de los profesionales en el uso adecuado y consciente de la IA, así como en la garantía de que las tecnologías emergentes no desplacen los valores humanos esenciales en la arquitectura.
En síntesis, los resultados de esta encuesta muestran que la Inteligencia Artificial está en camino de redefinir la forma en que se conciben y desarrollan proyectos arquitectónicos. Si bien su influencia es innegable y su potencial es emocionante, existe un consenso generalizado en que el enfoque óptimo implica una colaboración simbiótica entre la tecnología y la creatividad humana. En un entorno donde la originalidad, la ética y la identidad cultural son valores fundamentales, la IA se posiciona como una herramienta valiosa pero que debe ser utilizada con precaución y sabiduría. Este estudio ofrece una base sólida para continuar explorando este vínculo dinámico entre la tecnología y el arte arquitectónico en evolución.
Cervantes Delgadillo Elian Gael, Universidad de Guadalajara
Asesor:Dra. Maria Elena Tejeda Yeomans, Universidad de Colima
SIMULACIóN DE DOSIS DE RADIACIóN ABSORBIDA DURANTE UNA TOMOGRAFíA COMPUTARIZADA DE TóRAX
SIMULACIóN DE DOSIS DE RADIACIóN ABSORBIDA DURANTE UNA TOMOGRAFíA COMPUTARIZADA DE TóRAX
Cervantes Delgadillo Elian Gael, Universidad de Guadalajara. Asesor: Dra. Maria Elena Tejeda Yeomans, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
Se propuso encontrar una forma de modelar la manera en que material biológico (órganos humanos, en este caso) absorbe la radiación durante un proceso médico común como lo es la tomografía computarizada. Para esto, se ha partido desde las bases de la mecánica cuántica, ideando un programa en Python para identificar partículas subatómicas dados su 4-momento y energía medidas. Una vez comprendidos estos mecanismos, fue posible dar el salto a la simulación de radiación absorbida en órganos humanos.
Este proyecto se basa en los ODS 3 y 4, ya que se espera encontrar un sistema que procure el debido monitoreo de radiación en el cuerpo del paciente, así como que, para llegar al mismo, se ha comenzado desde las bases de la física de partículas, mismas que fueron propiciadas por la asesora.
METODOLOGÍA
Se comenzó con la selección de una actividad en el portal de internet Partcile Physics Playground, mismo que tiene el objetivo de incentivar la incursión del estudiante tanto en física de partículas como la programación enfocada en la ciencia. En este portal se ha seleccionado la actividad 00, misma que tiene el objetivo de identificar partículas subatómicas mediante su masa calculada.
La actividad en cuestión procedió de primera mano con la teoría básica de física cuántica y relatividad, con la cual se ha podido generar un modelo matemático que, sabiendo el 4-vector de momento y energía de la partícula, arroja un valor de masa. Este proceso se ha repetido para 2000 datos, lo cual nos genera un valor pico, mismo que será considerado el valor estimado de masa. Una vez conocido el valor de la masa, se compara con la base de datos del Particle Data Group para encontrar un candidato.
Una vez entendidas las bases de la física de partículas, se da el salto hacia la simulación de radiación absorbida por órganos humanos durante una tomografía computarizada. Aquí se han utilizado datos experimentales publicados por la revista Nature, mismos que han sido comparados con aquellos obtenidos mediante una simulación computarizada propiciada que lleva el nombre Waza-AriV2 para finalmente comprar y calcular la energía obtenida por órgano. Esta comparación se centra únicamente en una tomografía de tórax.
CONCLUSIONES
Como resultado de la primera fase, se ha obtenido un rango de valores, pero como era de esperarse, hay una zona con mayor densidad, acumulando más del 80% de éstos, resultando en que la partícula desconocida en cuestión era sino un muon.
Una vez comprendidos los mecanismos básicos, se ha podido interpretar tanto los procesos como los resultados obtenidos en la fase dos, relativa a la tomografía de tórax. Se ha encontrado aquí que la simulación Waza-AriV2 realiza una muy buena aproximación, con un error relativo máximo de 30% en los límites de la zona torácica en comparación con los datos empíricos presentados por Nature, de modo que la zona aledaña al esternón es la que presenta valroes más altos y con menos variación. Se han identificado como posibles causas el hecho de que la simulación se realiza sobre sujetos vivos, mientras que los datos empíricos fueron obtenidos de cadáveres, así como las posibles fluctuaciones de posición y tamaño de radiografía, pero dado el bajo orden de magnitud de los resultados (mili-gray), son prácticamente despreciables, resultando en una simulación de alta calidad.
Estos resultados aportan no sólo al entendimiento de la mecánica cuántica y física de partículas, sino también a las posibles áreas de aplicación de estos conocimientos que, a ojos de personas no allegadas a la ciencia, es algo fuera de su incumbencia o meramente una pérdida de tiempo, cuando esto no podría ser más equivocado. Este acercamiento va de la mano con el entendimiento de los efectos de los procesos radioactivos con nuestros procesos biológicos, lo cual es un área relativamente reciente la ciencia.
Chávez Aquino Guillermo, Universidad de Guadalajara
Asesor:Post-doc Jorge Andrés Ramírez Rincón, Fundación Universidad de América
DESARROLLO DE UN SISTEMA DE ILUMINACIóN ARTIFICIAL Y SU IMPLEMENTACIóN EN EL USO ESPECTRóMETROS Y CáMARAS UV-VIS-NIR
DESARROLLO DE UN SISTEMA DE ILUMINACIóN ARTIFICIAL Y SU IMPLEMENTACIóN EN EL USO ESPECTRóMETROS Y CáMARAS UV-VIS-NIR
Chávez Aquino Guillermo, Universidad de Guadalajara. Asesor: Post-doc Jorge Andrés Ramírez Rincón, Fundación Universidad de América
PLANTEAMIENTO DEL PROBLEMA
Es sabido que el Sol es una de las fuentes de análisis más importantes que se ha presentado en los últimos años, debido al gran avance que se tiene a lo que energías renovables. No obstante, la luz y la energía que se puede obtener del Sol va mucho más allá que fuentes renovables, y dado que es algo que está presente en nuestro día a día, no logramos dimensionar el gran impacto que tiene alrededor de nuestras vidas.
Tomando como ejemplo tanto al sector rural como el sector empresarial, muchas de ellos necesitan la ayuda del Sol para poder realizar diversos tipos de análisis.
En los campos de los caficultores, es necesaria la luz solar para que agricultores capacitados den el visto bueno a los granos de café para su posterior distribución y venta.
En la comparación e igualación de pinturas (automotrices, de interiores, etc) para poder ofrecerle un mejor producto al cliente y que cumpla con sus requerimientos, o en su caso, cualquier industria que requiera igualar un color ya sea de un pigmento, pintura, barniz, etc.
Vemos que ciertos aspectos están más presentes en nuestra vida cotidiana que lo que uno realmente esperaría. Sin embargo, surge un detalle, la luz que nos llega del Sol no es 100% uniforme al cruzar la atmosfera dado que al tener un cielo con abundancia de nubes, contaminación y demás detalles, esto atrasaría nuestros resultados al querer obtener el día perfecto para poder realizar nuestras mediciones o análisis, sino es que estropearía nuestros resultados, por lo que el objetivo principal de la estancia fue el poder realizar dos sistemas de iluminación con un espectro similar al solar, a bajo costo, supliendo así sistemas de iluminación de miles de dólares.
METODOLOGÍA
Se realizó un estudio de campo para poder determinar específicamente qué es lo que se necesitaba, y una vez con ello, se concluyó que se necesitaban dos sistemas de iluminación: una fuente de alta potencia para la degradación de pigmentos naturales para su posterior aplicación en un proyecto de celdas solares, y un sistema de iluminación de bajo consumo para poder sustituir la iluminación original de un espectrómetro (descompostura de la iluminación original). Además se buscó simular el espectro de emisión solar por lo cual fue necesario el uso 3 tipos de iluminación con distintos rangos de emisión espectral: ultravioleta, visible e infrarroja, por lo que, teniendo estas consideraciones, se adquirieron varias lámparas y focos.
Necesitábamos que el primer sistema de iluminación fuera robusto dado que requeríamos una buena salida de iluminación, por lo que, con la ayuda de una cámara RGB-hiperespectral, realizamos mediciones y fuimos escogiendo uno por uno la lámpara o foco que nos otorgaran los mejores resultados. Posteriormente realizamos diversos arreglos para determinar cómo colocar cada uno de los focos y lámparas, concluyendo con un arreglo de iluminación LED y ultravioleta de forma lateral, mientras que una tercera iluminación con luces incandescentes se distribuyó en la base del arreglo. No obstante, no podíamos simplemente encender los focos y medir debido a que en la salida de la iluminación se iba notar la naturaleza de cada uno de los focos, por lo que también realizamos el análisis de varios difusores (los cuales no ayudan a homogeneizar las diversas iluminaciones) llegando así a un arreglo experimental funcional.
Por otro lado, con el sistema de iluminación para el espectrómetro tomamos varios detalles más, dado que en esta ocasión necesitábamos incidir la luz en una cierta región sin perder las propiedades ópticas anteriormente mencionadas, por lo que en esta ocasión se optó por diseñar el sistema en el software de modelado en 3D, Blender, para su posterior impresión e implementación, así como la implementación de un circuito, cálculo de resistencias y acomodo de los accesorios, probando así ambos sistemas y obteniendo muy buenos resultados.
CONCLUSIONES
Con la realización de esta pasantía, se logró entender de mejor forma conceptos de óptica y colorimetría, así como el manejo de un espectrómetro con su esfera de integración y el software propio y el manejo de una cámara hiperespectral. A su vez, se logró aplicar los conocimientos adquiridos a lo largo de la carrera de Física (electrónica, análisis de datos, laboratorios, etc.) para el desarrollo de nuevos instrumentos que nos abran camino al análisis y entendimiento de nuevo conocimiento.
Chavez Cervantes Itzel, Instituto Tecnológico Superior de Los Reyes
Asesor:Dr. Joan Manuel Redondo Ortegón, Universidad Católica de Colombia
CIUDADES SOSTENIBLES DESDE UNA PERSPECTIVA DE SISTEMAS COMPLEJOS
CIUDADES SOSTENIBLES DESDE UNA PERSPECTIVA DE SISTEMAS COMPLEJOS
Benítez Vazquez María José, Instituto Tecnológico de Ciudad Guzmán. Chavez Cervantes Itzel, Instituto Tecnológico Superior de Los Reyes. Asesor: Dr. Joan Manuel Redondo Ortegón, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, el desarrollo sostenible se ha convertido en un imperativo global, buscando equilibrar el progreso socioeconómico con la protección del medio ambiente. El crecimiento acelerado de la población y la rápida urbanización han dado lugar a un aumento en la demanda de recursos, infraestructuras y servicios en las ciudades, lo que plantea el desafío de abordar la sostenibilidad urbana de manera integral. Las ciudades desempeñan un papel crucial como centros de actividad humana y motores de desarrollo, pero también son fuentes significativas de emisiones de carbono, contaminación y consumo desmedido de recursos naturales.
La complejidad y la interconexión de los sistemas urbanos hacen que la planificación y gestión de ciudades sostenibles sea un desafío considerable. Los problemas urbanos, como la congestión del tráfico, la escasez de viviendas asequibles, la contaminación y la degradación del medio ambiente, no pueden abordarse de manera aislada, sino que requieren enfoques integrales y sistemas de pensamiento integradores para encontrar soluciones sostenibles. En este contexto, el enfoque de sistemas complejos surge como un marco teórico importante para comprender la dinámica de las ciudades y sus sistemas interconectados. Este enfoque permite considerar las múltiples relaciones entre los componentes urbanos y analizar cómo las decisiones en un área específica pueden tener efectos secundarios en otras partes del sistema.
METODOLOGÍA
Para abordar el problema de la sostenibilidad urbana desde una perspectiva de sistemas complejos, se llevó a cabo una revisión exhaustiva de investigaciones previas que exploran cómo este enfoque ha influido en el diseño y la implementación de ciudades sostenibles en México. La metodología se basó en el análisis de estudios de casos, informes gubernamentales, literatura académica y proyectos de desarrollo urbano.
En primer lugar, se identificaron estrategias clave que han demostrado ser efectivas en el avance hacia la sostenibilidad urbana desde una perspectiva de sistemas complejos. Estas estrategias incluyen la promoción del transporte público eficiente y sostenible, el fomento de la energía limpia y renovable, la implementación de prácticas de diseño urbano orientadas a la comunidad y la creación de espacios verdes y áreas recreativas accesibles para todos los ciudadanos.
Además, se examinaron las herramientas analíticas utilizadas para comprender la complejidad urbana, como los modelos de simulación, el análisis de redes y el uso de tecnologías de información geográfica. Estas herramientas permiten visualizar y evaluar los efectos de las intervenciones urbanas en diferentes aspectos de la ciudad, lo que facilita la toma de decisiones informadas.
Finalmente, se presentaron ejemplos específicos de proyectos urbanos en México que han aplicado con éxito la perspectiva de sistemas complejos para lograr avances significativos en sostenibilidad. Estos ejemplos incluyeron proyectos de regeneración urbana que han revitalizado áreas degradadas, iniciativas de participación ciudadana que han involucrado a la población en la toma de decisiones y proyectos de movilidad que han reducido la dependencia del automóvil y mejorado la calidad del aire.
CONCLUSIONES
El análisis de las investigaciones previas y ejemplos concretos ha demostrado que la perspectiva de sistemas complejos ofrece una forma prometedora de comprender las interacciones entre sistemas naturales y sociales en el contexto urbano. La comprensión de las dinámicas y las relaciones entre los distintos componentes de la ciudad permite identificar soluciones más efectivas y sistémicas para abordar los desafíos de la sostenibilidad urbana en México.
Uno de los hallazgos clave es que el crecimiento demográfico desmedido puede tener impactos negativos en la calidad del hábitat urbano, lo que resalta la necesidad de considerar una planificación cuidadosa y estratégica para evitar futuros desbordes. El enfoque de sistemas complejos ha demostrado ser útil para evaluar los efectos a largo plazo de las decisiones urbanas y para identificar posibles consecuencias no deseadas.
Las estrategias basadas en la sostenibilidad emocional y en la participación activa de las partes interesadas han demostrado ser especialmente efectivas para lograr resultados sostenibles y centrados en la comunidad. Al involucrar a los ciudadanos en la toma de decisiones y considerar sus necesidades y aspiraciones, se puede crear una visión compartida de la ciudad que promueva el bienestar y la calidad de vida de todos sus habitantes.
Es esencial que la investigación y la práctica continúen avanzando en esta dirección, ya que la sostenibilidad urbana sigue siendo un desafío complejo y en constante evolución. Es importante que los responsables políticos, urbanistas y líderes comunitarios trabajen en conjunto para desarrollar políticas y prácticas que impulsen un futuro más sostenible para las ciudades mexicanas y sus habitantes.
La visión de ciudades sostenibles desde una perspectiva de sistemas complejos ofrece una oportunidad única para abordar los desafíos urbanos de manera más integral y coherente. Al considerar las ciudades como sistemas interconectados, se pueden identificar soluciones que no solo aborden problemas específicos, sino que también fomenten un desarrollo urbano equitativo, inclusivo y ambientalmente responsable. Solo mediante la implementación de lineamientos que promuevan una comunidad educativa comprometida, una infraestructura adecuada al entorno y espacios públicos que fomenten la convivencia y el bienestar, será posible construir ciudades verdaderamente sostenibles y resilientes ante los desafíos futuros.
Contreras Lopez José Alejandro, Universidad de Sonora
Asesor:Dr. Jose Humberto Camacho Garcia, Benemérita Universidad Autónoma de Puebla
SIMULACIóN DEL CARBURO DE SILICIO 42 PARA OBTENER SUS PROPIEDADES FíSICAS
SIMULACIóN DEL CARBURO DE SILICIO 42 PARA OBTENER SUS PROPIEDADES FíSICAS
Contreras Lopez José Alejandro, Universidad de Sonora. Asesor: Dr. Jose Humberto Camacho Garcia, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En este proyecto se trabajará con carburo de silicio (SiC), del grupo espacial 42 ortorrómbico, ya que no hay tanta información experimental acerca del material. Por eso, se elige este material para la simulación por computadora usando software como VESTA y Quantum Espresso, con el fin de estudiar sus propiedades físicas y evaluar su utilidad en aplicaciones de tecnología. Además, se espera poder complementar en un futuro con nueva información experimental o computacional.
METODOLOGÍA
Se realiza una investigación acerca de las estructuras cristalinas y grupos espaciales. Una vez identificado un grupo espacial, se elige el de mayor interés para el material elegido: el Carburo de Silicio (SiC). En este caso, el grupo 42 ortorrómbico. Con esta información, se introduce en el software de uso gratuito VESTA para visualizar las posiciones atómicas del material en ese grupo espacial. Esto será útil para la entrada posterior en Quantum Espresso y comenzar la simulación.
A continuación, se investiga acerca de la teoría DFT (Teoría de Funcionales de Densidad) para los pseudopotenciales que se utilizarán. Una vez elaborado esto, se puede empezar a simular el material para calcular su energía de convergencia. Se variará la energía de corte hasta llegar a cambios insignificantes y, posteriormente, se variará la malla de puntos k para hacer el mismo proceso y alcanzar el estado basal de la estructura estudiada, obteniendo los resultados esperados del material en ese estado.
Con esta información, se puede hacer el cálculo termo-pw para conseguir la matriz de constantes elásticas y dureza del material.
CONCLUSIONES
El uso de herramientas computacionales para trabajar y analizar materiales es de vital importancia debido a que los costos asociados a estudiar materiales de manera experimental resultan elevados y, en la situación económica actual, a veces inaccesibles. Aunque aún no hemos finalizado el cálculo de los datos de la matriz de constantes elásticas debido a limitaciones de tiempo, los resultados obtenidos hasta el momento son altamente prometedores. La complejidad de llevar a cabo estudios experimentales en materiales es considerable, ya que se requiere mantenerlos en condiciones óptimas para su análisis. Sin embargo, mediante el uso de herramientas computacionales, hemos logrado avanzar en el estudio de este material y esperamos que en el futuro sea posible complementar nuestra investigación con trabajos realizados por estudiantes y académicos.
Contreras Madueña Melissa de Jesús, Universidad Autónoma de Sinaloa
Asesor:M.C. Higinio Cepeda Quintero, Universidad Autónoma de Sinaloa
DETERMINACIóN DEL PERFIL DE RESISTENCIA A ANTIMICROBIANOS DE BACTERIAS AISLADAS DE LECHE MASTíTICA DE BOVINOS DE CULIACáN, SINALOA.
DETERMINACIóN DEL PERFIL DE RESISTENCIA A ANTIMICROBIANOS DE BACTERIAS AISLADAS DE LECHE MASTíTICA DE BOVINOS DE CULIACáN, SINALOA.
Contreras Madueña Melissa de Jesús, Universidad Autónoma de Sinaloa. Asesor: M.C. Higinio Cepeda Quintero, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Una de las principales actividades económicas de los habitantes del estado de Sinaloa es la crianza de ganado bovino con fines de comercialización de la leche y sus derivados; sin embargo, uno de los problemas de esta crianza es la mastitis, que ocasiona la disminución de la calidad y cantidad de leche y, con ello, severas pérdidas económicas, representando hasta el 70% de los gastos totales para los ganaderos lecheros. Además, esta enfermedad constituye un riesgo potencial en salud pública puesto que la contaminación bacteriana de la leche contribuye a la transmisión de enfermedades zoonóticas
Hoy día, la mastitis es considerada como la enfermedad más costosa dentro de los establos lecheros debido a la disminución en la producción de leche, deshecho de leche contaminada, reemplazo de animales y uso de medicamentos.
Aunado a esto, en la salud humana y veterinaria, existen prácticas deficientes de prescripción y falta de seguimiento en los tratamientos, así como regulaciones y supervisión inadecuada, especialmente en la venta sin receta. Esto, junto con la creciente presencia de antimicrobianos falsos o de calidad inferior, son factores que contribuyen al problema.
METODOLOGÍA
Se colectaron muestras de leche bovina positivas a la prueba California (CMT+), primero limpiado los pezones con una toalla limpia, descartando los tres primeros chorros de leche. Mediante el uso de guantes, se desinfectó el pezón con un algodón impregnado en alcohol al 70%. Para la colecta de la muestra, se emplearon vasos estériles y se colectaron aproximadamente 60 ml. Las muestras de leche colectadas fueron debidamente identificadas y colocadas en hielera a no más de 4°C para transportarlas al Laboratorio de Bacteriología y Micología de la Facultad de Medicina Veterinaria y Zootecnia de la Universidad Autónoma de Sinaloa, para su procesamiento.
Previo a procesar las muestras, éstas se incubaron 10 min a 37°C para liberar los microorganismos atrapados en la grasa de la leche. Posteriormente, se homogeneizaron y se tomó 0.1 mL de la muestra de leche para colocarla en placas de agar sangre. Una vez impregnado el inóculo en los medios de cultivo, se procedió a estriar, rotular la placa e incubarla. Las placas se incubaron a 37°C durante 24 h. De las colonias bacterianas aisladas, se observó su morfología macro y microscópica, reacción al Gram, agrupación propiedades metabólicas y resistencia a los antibióticos.
La identificación por medio de pruebas bioquímicas permite determinar las características metabólicas de las bacterias con el objetivo de identificarlas, para ello, se determinó la presencia de hemólisis, catalasa, coagulasa, oxidasa, fermentación de manitol. Asimismo, las bacterias aisladas se inocularon en medios agar triple azúcar (TSI), agar lisina hierro (LIA), agar citrato de Simmons, prueba del sulfuro indol motilidad (SIM), incubándose a una temperatura de 37°C ± 1°C durante 24 h. En TSI se evaluó la capacidad para fermentar carbohidratos como glucosa, sacarosa y lactosa; en LIA se evaluó la presencia de la enzima decarboxilasa (descarboxilación de la lisina); en citrato de Simmons se comprobó la utilización del citrato de sodio como única fuente de carbono; en SIM se probó la motilidad, la producción de H2S e indol; en la prueba de catalasa se comprobó la presencia de esta enzima, la cual es capaz de descomponer el peróxido de hidrógeno en agua y oxígeno; la prueba de coagulasa evidencia la presencia de esta enzima al coagular el plasma, transformando el fibrinógeno en fibrina; y por último, en fermentación de manitol, algunos microorganismos pueden fermentarlo haciendo que el rojo de fenol cambie a amarillo.
Para la determinación de la resistencia, se inocularon tubos con infusión cerebro corazón (BHI) con los aislados bacterianos mediante un asa bacteriológica previamente esterilizada, se incubó a 37°C ± 1°C hasta alcanzar la escala de McFarland de 0.5, se utilizó el espectrofotómetro para ver la densidad óptica a una longitud de onda de 600 nm, obteniendo 1.5 x 108 de Unidades Formadoras de Colonias por mililitro (UFC/ml). Con un hisopo estéril se tomó un inoculo y se procedió a estriar en agar Müeller - Hinton (MH) mediante estría continúa cruzada. Se dejó reposar durante 10 min para la absorción del inóculo en el medio. Terminada la absorción se colocó un multidisco PT-35 Multibac I.D los cuales contenían 12 antimicrobianos para bacterias Gram Negativas o en su defecto un multidisco PT-34 Multibac I.D que contenía 12 antimicrobianos para bacterias Gram Positivas, luego, se incubó a 37°C ± 1°C durante 24 h para su posterior lectura.
CONCLUSIONES
En el transcurso de la estancia de verano, se obtuvieron diversos conocimientos prácticos y teóricos tales como la correcta toma de muestra de leche, el procesamiento de las muestras, junto con la identificación morfológica y fisiológica de los agentes que se encontraban en la leche. Se obtuvieron un total de 31 bacterias diferentes, siendo el género Staphylococcus spp uno de los más frecuentemente aislados y con resistencias in vitro que van hasta los 9 antibióticos. En las muestras de leche, la presencia de microorganismos indica una mastitis de tipo infeccioso, esto sugiere una potencial diseminación debido a manejo inadecuado, lo cual podría causar cambios desfavorables a la leche, además, los microorganismos presentes pudieran ser causales de zoonosis, por lo cual es necesario implementar el uso periódico de técnicas de diagnóstico de mastitis subclínica y mejorar las técnicas de manejo de los hatos en general. La presencia de estas bacterias patógenas puede ser debido a la exposición y dispersión, implicándose en la resistencia y multirresistencia encontrada en este tipo de hatos, por lo cual se considera necesario explorar alternativas al uso de los antibióticos.
Cortes Hernández Juan Daniel, Instituto Tecnológico de Pachuca
Asesor:Mg. Alejandro Alzate Buitrago, Universidad Libre
INCIDENCIA DE LOS MATERIALES GEOLóGICOS, LA MORFOMETRíA Y LAS PROPIEDADES FíSICO-MECáNICAS DEL SUELO EN LA OCURRENCIA DE DESLIZAMIENTOS
INCIDENCIA DE LOS MATERIALES GEOLóGICOS, LA MORFOMETRíA Y LAS PROPIEDADES FíSICO-MECáNICAS DEL SUELO EN LA OCURRENCIA DE DESLIZAMIENTOS
Álvarez Mayorga Michelle Guadalupe, Instituto Tecnológico de Pachuca. Cortes Hernández Juan Daniel, Instituto Tecnológico de Pachuca. Asesor: Mg. Alejandro Alzate Buitrago, Universidad Libre
PLANTEAMIENTO DEL PROBLEMA
Los deslizamientos son fenómenos naturales que ocasionan el movimiento de suelos, rocas y materiales orgánicos bajo los efectos de la gravedad, aunque, pueden ser provocados por causas naturales o antrópicas; estas alteraciones al superar la resistencia al corte de la superficie pueden mover grandes volúmenes de tierra a velocidades muy variadas y violentas, ocasionando desastres que repercuten económica y socialmente a la población.
Entre los años 2019 y 2021 la Dirección de Gestión de Riesgo del municipio de Dosquebradas, Colombia; registró la ocurrencia de 154 deslizamientos. Dichos eventos fueron caracterizados y evaluados mediante el registro de información morfométrica y geológica, incrementándose de esta manera la condición de riesgo de pobladores e infraestructura en el territorio municipal. De manera particular en la microcuenca de la quebrada Aguazul se localizaron el 11.04% del total de fenómenos de remoción en masa. Adicionalmente, se identificó la reactivación del deslizamiento con latitud 4.870695 y longitud -75.649554.
METODOLOGÍA
1. Área de estudio
Para el ejercicio investigativo se hizo uso del método determinístico, dadas las propiedades particulares tanto físicas como mecánicas del suelo, de las precipitaciones y de la cobertura vegetal de la zona de interés.
Dosquebradas es el más joven Municipio del Departamento de Risaralda y uno de los de mayor crecimiento poblacional, no solamente en la región sino en el país, con un desarrollo socio económico muy superior al promedio nacional. Su ubicación, en el valle de los Quimbayas, contiguo a la capital Pereira, separados tan solo por el río Otún y el viaducto César Gaviria Trujillo y su acceso a distintas vías nacionales, tales como la Troncal de Occidente y la Autopista del Café, lo convierten en lugar estratégico para el asentamiento de grandes empresas manufactureras y centros logísticos y de distribución de mercancías (Plan de Ordenamiento Territorial, Municipio de Dosquebradas, 2022).
Entre los años 1933 al año 2012, el municipio de Dosquebradas registró la ocurrencia de 504 deslizamientos (Corporación OSSO -Colombia, 2016). Es importante precisar que los impactos socioeconómicos, asociados a tales registros, han sido altamente significativos, hecho éste que se confirma en los 132 muertos, los 16 desaparecidos y las 94 viviendas destruidas por la ocurrencia de procesos de remoción en masa. Se destaca el evento ocurrido en la zona urbana del municipio, en el sector conocido como El Viacrucis, el 5 de octubre de 1976, asociado a la segunda temporada invernal del régimen bimodal de lluvias, que generó 77 muertos y 17 viviendas destruidas, convirtiéndose en el evento de mayor impacto a lo largo de la historia municipal (Plan de Ordenamiento Territorial, Municipio de Dosquebradas, 2022).
Para este trabajo investigativo se consideró la microcuenca Aguazul, ya que, está categorizada como el principal afluente de la quebrada Dosquebradas, su estudio es esencial debido al alto potencial hídrico con el que cuenta dada la situación de la alta intervención humana, explotación de los recursos naturales, deforestación, usos inadecuados del agua y el territorio que pone en riesgo el funcionamiento de la quebrada. Los cambios climáticos que se generan como consecuencia a lo dicho anteriormente, requiere de un estudio y sistematización que permita miniar y prevenir desastres. (Orozco, 2016).
Se elaboró una estadística descriptiva para establecer la relación existente entre los parámetros físico-mecánicos, la morfometría y los materiales geológicos del deslizamiento con los datos de inventario recopilados por la DIGER.
2. Fase 1: Trabajo de campo
Se realizó una visita de campo para recorrer la zona y conocer el deslizamiento en análisis; de igual forma, se tomaron las medidas correspondientes para la obtención de la morfometría del talud, su correspondiente caracterización y toma de fotografías aéreas para una mejor visualización del fenómeno.
Consecutivamente, se llevó a cabo la extracción de tres muestras alteradas y un sondeo de cinco inalteradas a 1, 2, 3, 4, y 5 metros de profundidad; al igual que toma inalterada de cenizas volcánicas a un metro de profundidad, garantizando el almacenaje técnico de las muestras.
2. Fase 2: Trabajo de laboratorio
Toma de muestras alteradas y ensayos ejecutados:
Toma de tres muestras alteradas en distintos sitios de la cara libre del talud.
Ensayos realizados: contenido de humedad natural, límites de consistencia y clasificación granulométrica.
Toma de muestras inalteradas y ensayos ejecutados:
Ejecución de sondeo 1 de cinco metros de profundidad y recuperación de muestras inalteradas cada metro.
Ejecución de sondeo 2 a un metro de profundidad y recuperación de muestra inalterada.
Ensayos realizados: contenido de humedad natural, pesos unitarios y corte directo.
CONCLUSIONES
De la construcción del perfil de meteorización se estableció que existe materia orgánica, cenizas volcánicas y residual de rocas ígneo-metamórficas. En la caracterización del fenómeno localizado con latitud 4.870695 y longitud -75.649554 se determinó un movimiento rotacional. El entorno acorde con la evaluación denota que la cobertura de pastos, las altas pendientes y los materiales geológicos fueron los factores condicionantes para la ocurrencia de deslizamientos.
De acuerdo a los parámetros del suelo, la exploración geotécnica, la obtención de muestras y a los ensayos realizados las humedades naturales predominantes en el lugar objeto de estudio estuvieron entre 35 y 78%. Los valores de las cohesiones entre 0.19 y 0.97 kg/cm2 y las fricciones se encontraron entre 3º y 25º.
Acorde a las condiciones del entorno y los parámetros físico-mecánicos evaluados se recomienda que la mejor solución para garantizar la estabilidad del talud es acometer obras o medidas correctivas fundamentadas en soluciones basadas en la naturaleza consistentes en la construcción de trinchos vivos, filtros vivos, zanjas de coronación y reforestación con flora endémica que cuenta con un sistema radicular de estilo pivotante.
Cortes Herrera Sayara Aidali, Universidad de Guadalajara
Asesor:Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla
SEGUIMIENTO FOTOGRAMéTRICO (SATELITAL Y FIJO) DE EXHALACIONES DEL VOLCáN POPOCATéPETL Y SU POSIBLE EFECTO EN EL CAMBIO CLIMáTICO DEL ESTADO DE PUEBLA
SEGUIMIENTO FOTOGRAMéTRICO (SATELITAL Y FIJO) DE EXHALACIONES DEL VOLCáN POPOCATéPETL Y SU POSIBLE EFECTO EN EL CAMBIO CLIMáTICO DEL ESTADO DE PUEBLA
Cortes Herrera Sayara Aidali, Universidad de Guadalajara. Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Se busca analizar y encontrar patrones en la velocidad y dirección del viento a lo largo de los años. Esto para pronosticar y conocer las áreas donde los productos piroclásticos tendrían mayor tendencia a dirigirse y quedarse.
METODOLOGÍA
A través de datos meteorológicos dados por la NASA en diferentes plataformas, como GIOVANNI NASA y NASA-POWER, así como diversas páginas especializadas en el tema como Atmospheric Sounding se descargaron los archivos climatológicos de velocidad y dirección de viento en el estado de Puebla. Los datos obtenidos fueron diarios en un periodo de 20 años, con alturas desde 10m y 50m. Con ayuda de softwares como Excel y Word se limpiaron y graficaron los datos para que, de este modo, los datos pudieran ser legibles y útiles.
CONCLUSIONES
A lo largo del año la dirección del viento va variando dependiendo la estación en la que se encuentre y la altura. El conocer sus patrones de dirección y velocidad de este nos permite como ciudadanos conocer las zonas de mayor riesgo ya que como sabemos las regiones cercanas al volcán Popocatépetl del estado de Puebla presentan un riesgo mayor en cuanto a probabilidad climatológica de que los desechos piroclásticos del volcán les afecten. Zonas como San Nicolás de los Ranchos, Tochimilco, San salvador el verde, etc. Que se encuentran dentro de un rango de 25 km a la redonda del volcán y, sobre todo, que la mancha urbana está creciendo en zonas de alto riesgo propone un mayor problema al momento de evacuar a toda la población en caso de erupción.
Cortez Talavera Selene, Instituto Tecnológico de Tepic
Asesor:Dr. Gabriel Castañeda Nolasco, Universidad Autónoma de Chiapas
APORTE DEL DISEñO BIOCLIMáTICO EN LA VIVIENDA DE INTERéS SOCIAL EN CHIAPAS, MéXICO.
APORTE DEL DISEñO BIOCLIMáTICO EN LA VIVIENDA DE INTERéS SOCIAL EN CHIAPAS, MéXICO.
Cortez Talavera Selene, Instituto Tecnológico de Tepic. Asesor: Dr. Gabriel Castañeda Nolasco, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
En el presente trabajo se desarrolló una investigación sobre la aplicación del diseño bioclimático en la vivienda de interés social siendo Chiapas nuestra área de estudio, teniendo como objetivo conocer estrategias para el mejoramiento de las condiciones térmicas de la vivienda
METODOLOGÍA
mediante una investigación documental y sistemática de esta tipología de vivienda, se concluye que la variable térmica es secundaria para los desarrolladores, pues las viviendas son un producto con un enfoque mercantil donde la variable más importante es hacer más con menos dinero.
CONCLUSIONES
Por tanto, es conveniente analizar cada caso para proponer estrategias bioclimáticas eficientes y mejoren las condiciones térmicas de la misma.
Cosio Tello Andrés Abel, Universidad de Guadalajara
Asesor:Dra. Maria Elena Tejeda Yeomans, Universidad de Colima
ANáLISIS DE LEYES DE CONSERVACIóN EN LOS DECAIMIENTOS DEL TAU.
ANáLISIS DE LEYES DE CONSERVACIóN EN LOS DECAIMIENTOS DEL TAU.
Cosio Tello Andrés Abel, Universidad de Guadalajara. Asesor: Dra. Maria Elena Tejeda Yeomans, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
Se planteó el objetivo de utilizar los datos de una fuente confiable como Particle Data Group (PDG, 2023), además de los datos compartidos en un código en GITHUB que tiene por nombre Decay Language: describe, manipulate and convert particle decays la cual tiene como función principal implementar un lenguaje para describir y convertir desintegraciones de partículas entre representaciones digitales, permitiendo incorporar varios programas de ajuste. La finalidad de este proyecto fue analizar y verificar algunas de las leyes de conservación dentro de los modos de decaimiento de la partícula tau; las leyes de conservación a comprobar fueron la de carga, número leptónico (electrón, muon y del tau), número bariónico y la conservación aproximada del sabor.
METODOLOGÍA
Para la realización de este proyecto, se creó un ambiente en el cual se permitiera el uso del código del proyecto Decay Language, dentro de este se hizo uso de un archivo que lleva por nombre LHCB.dec en el cual se encuentran datos de experimentos y se tienen cadenas de decaimientos de bastantes partículas, inicialmente se verificaron varias con la intención de entender del programa, y por las características del tau, además de su increíble cantidad de decaimientos, se decidió por tomar las líneas de decaimiento del tau.
Posteriormente, se realizó un ligero código con la finalidad de mejorar la eficiencia del análisis de leyes de conservación como la de carga y la de número de bariones, con el código escrito se revisó cada uno de los decaimientos del tau, tanto con la idea de comprobar esta generalización de las leyes de conservación, así como buscar algo que no entre en ese modelo. También, se realizó un análisis manual enfocado en la conservación del sabor.
Además, se recopilaron las probabilidades de los decaimientos con el objetivo de plantear alguna relación entre estas y el tipo de decaimiento correspondiente.
CONCLUSIONES
En este proyecto, se obtuvo como resultado la confirmación de leyes de conservación de carga, número bariónico, número leptónico (electrón, muon y tau), sin embargo, la conservación del sabor resultó extraña. Ya que en algunos decaimientos se cumple la conservación del sabor, mientras que en otras se producen partículas extrañas por pares lo cual concuerda con lo establecido con Gell-Mann y en muy raras ocasiones no sucede ninguna de las dos situaciones, es decir, no se conserva la extrañeza cambiando en solo una unidad en la extrañeza como los es en el decaimiento del tau a un Kaón negativo y un neutrino tau.
En este proyecto se desarrolló una mejor comprensión de los tipos de decaimientos, sus interacciones y también se observó que los decaimientos resultados de una interacción de carácter débil son aquellos donde se dan estos eventos donde hay una diferencia entre la extrañeza inicial y la final.
Cruz Avila Estefani Sarahi, Universidad Tecnologica de León
Asesor:Dr. Alan David Blanco Miranda, Universidad Tecnologica de León
SISTEMA OPTOMECATRóNICO PARA MEDICIóN DE DESPLAZAMIENTOS 3D MEDIANTE LA
COMBINACIóN DE LAS TéCNICAS óPTICAS DE PROYECCIóN DE FRANJAS Y FOTOGRAFíA
DIGITAL DE MOTEADO DE LUZ BLANCA
SISTEMA OPTOMECATRóNICO PARA MEDICIóN DE DESPLAZAMIENTOS 3D MEDIANTE LA
COMBINACIóN DE LAS TéCNICAS óPTICAS DE PROYECCIóN DE FRANJAS Y FOTOGRAFíA
DIGITAL DE MOTEADO DE LUZ BLANCA
Cruz Avila Estefani Sarahi, Universidad Tecnologica de León. Asesor: Dr. Alan David Blanco Miranda, Universidad Tecnologica de León
PLANTEAMIENTO DEL PROBLEMA
Las técnicas utilizadas (Proyección de franjas, FP y Fotografía Digita de Moteado de Luz Blanca, SP) han sido comúnmente utilizadas para la obtención de la forma de un objeto por comparación con un fondo más claro que él. Su rango de medición va desde unas cuantas décimas de micras hasta unos cuantos milímetros. Las características que hacen a estas técnicas tan importante es que utilizan un método no invasivo, ya que no entran en contacto físico con el objeto analizado, y por consiguiente son no destructivas, proveen una muy alta sensibilidad, , aunado a su factibilidad de entregar resultados de campo completo.
La literatura de medición de desplazamientos y forma es muy vasta. Entre los métodos recientes que más se usan para dicha tarea se encuentran los de deflexión de rayos. Estas técnicas han cobrado importancia debido a la sencillez de los arreglos experimentales y a la inmunidad ante ruido del ambiente. De ese tipo de métodos destacan el método de Fotografía de Moteado, Interferometría Holográfica, Interferometría de Moiré y Fotoelasticidad. Se pretende realizar una combinación de técnicas para cuantificar el control de los parámetros involucrados (desplazamiento dentro y fuera de plano de un objeto) a fin de tener una caracterización del objeto analizado además de determinar y cuantificar las deformaciones en un objeto con forma definida y conocida comparándolo con parámetros de calidad establecidos. El análisis se concluirá con la entrega de una interfaz gráfica que simule el movimiento en 3 dimensiones de un objeto y procese la información obtenida sirviendo como base para aprendizaje y demostración del uso de estas técnicas ópticas.
METODOLOGÍA
En el estudio de evaluación de los métodos para medición de desplazamientos es fundamental el análisis de los parámetros y variables que entran en juego al utilizarlos.
Para analizar los parámetros más importantes se realizaron una serie de simulaciones de las 2 técnicas bajo análisis para la obtención de los desplazamientos tanto en plano como fuera de plano, lo cual implicó la generación de imágenes de franjas con periodo constante y definido para la técnica de proyección de franjas, mientras que para la técnica de Fotografía Digital de Moteado, la generación de partículas cuyas posiciones fueron designadas en forma aleatoria.
Para hacer la simulación de la técnica de Proyección de Franjas (FP) se generaron imágenes de referencia y deformada para una región de 400x400 pixeles con 40 franjas verticales con periodo de 1 mm/franja, con un ciclo de trabajo 50-50, lo cual significa que el área cubierta por las franjas negras y blancas será la misma. Las franjas fueron generadas mediante la ecuación
Para simular la deformación se genera una función en forma de paraboloide que simula el desplazamiento hacia la dirección fuera de plano haciendo uso de la ecuación,
donde T es el periodo de las franjas sx es el tamaño de la región en mm, y h(x,y) es la función de alturas.
Para la técnica de fotografía digital de moteado, los valores teóricos utilizados serán los mismos que para la técnica anterior, una región de 400x400pix con 16000 partículas gaussianas de 3 diferentes radios (1,2 y 4 pixeles) distribuidas aleatoriamente en dicha región, las cuales fungirán como simulador del ‘speckle’ o moteado que aparecerá en la superficie del objeto analizado al ser iluminado por luz blanca
La principal diferencia con la técnica de FP reside en la obtención de los desplazamientos, para lo cual se hará uso de la técnica de correlación cruzada por Transformada de Fourier. En este caso el tamaño de la imagen se verá reducida al número de sub-imágenes utilizadas para realizar dicha correlación y verificar el movimiento asignado al objeto analizado en las direcciones sobre el plano objeto. Las sub-imágenes mencionadas tendrán un tamaño uniforme de 32x32 pixeles, obteniéndose una región de información para esta etapa de simulaciones de 27x27 vectores de desplazamiento.
Con la finalidad de optimizar el registro de la información sólo se reporta el caso para la simulación de partículas de radio 1 pixel.
Para localizar la posición del máximo en la técnica de correlación cruzada para cada par de sub-imágenes se aplica el método de ajuste gaussiano por 3 puntos.
Con la finalidad de realizar una aplicación con fines prácticos en la educación y mejor entendimiento de las técnicas utilizadas se lleva a cabo una interfaz gráfica donde el usuario puede modificar los diferentes parámetros involucrados y así lograr un análisis basto haciendo uso del software de QtDesigner el cual es compatible con Python.
CONCLUSIONES
Se mostró la viabilidad de la combinación de las técnicas propuestas, FP y SP, para la medición de fenómenos transitorios. El rango de las mediciones de los desplazamientos esta entre micrómetros a algunos centímetros. En tanto el tamaño del objeto va de algunos milímetros a un tamaño limitado por la potencia de las fuentes de iluminación.
Respecto a la sensitividad a ruido externo resulta prometedora por el hecho de usar luz blanca. Además, la señal de información puede ser diseñada a voluntad y en forma expedita.
El tiempo que le lleva el procesamiento de la información es muy corto, y debido a que las franjas de FP contienen niveles relativamente bajos de ruido, éstas pueden ser procesadas mediante un algoritmo de desenvolvimiento extremadamente sencillo. Por lo tanto, un resultado preliminar es que FP podrá ser aplicada en innumerables aplicaciones en la rama de fluidos.
Por último, es importante mencionar que se ha sumado exitosamente un proyecto de innovación desarrollado por alumnos de la academia de STEM utilizando la librería para visión artificial OpenCV. Como resultado se hizo entrega de un programa de visión artificial, el cual fue desarrollado a través de software de código abierto e implementando interfaz gráfica de usuario con software libre.
Cruz López Fabricio, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Sergio Ivvan Valdez Peña, Centro de Investigación en Ciencias de Información Geoespacial, A.C. (CONACYT)
PREDICCIóN CON SERIES DE TIEMPO DE DELITOS HACIA LAS MUJERES EN MéXICO: EVALUACIóN DE MODELOS ESTADíSTICOS EN CIFRAS DE FEMINICIDIOS
PREDICCIóN CON SERIES DE TIEMPO DE DELITOS HACIA LAS MUJERES EN MéXICO: EVALUACIóN DE MODELOS ESTADíSTICOS EN CIFRAS DE FEMINICIDIOS
Cruz López Fabricio, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Sergio Ivvan Valdez Peña, Centro de Investigación en Ciencias de Información Geoespacial, A.C. (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Nuestra nación atraviesa un periodo de tiempo crítico para su transformación, entre la búsqueda del cumplimiento de minutas gubernamentales, hasta el aseguramiento de la calidad de vida de la población, sin embargo, es tema de trato fundamental la seguridad de la población común, en específico, de la mujer.
La mujer como integrante de la sociedad está expuesta a un gran número de delitos los cuales pueden alterar su seguridad, desde la desaparición, el robo común, el robo de información, hasta el homicidio; todas estas por diversas índoles, siendo esta, por vías forzadas, o de formas particulares carentes de interés político. Sin importar el motivo, un común denominador de este tipo de acciones es la creación del miedo y el intento de minimizar la participación de las mujeres en diversas ramas de la vida en sociedad, dando así a luz a un nuevo tipo de delito: El Feminicidio, el cual tiene como vehículo la misoginia.
Es justamente este tipo de violencia orientada hacia la mujer la cual, en tiempos atrás ha sido aprobada para la realización de parte del hombre, desde que este descubrió que su diferencia fenotípica puede infundir miedo, hasta el establecimiento de los primeros Códigos Legales, como el Código Hammurabi. No obstante, los móviles que en la anterioridad daban causa a la generación de la violencia hacia la mujer y los que hoy lo generan tienen la misma raíz: La Violencia por Cuestiones de Género, pero esto no implica que otros motivos de violencia ausentes de género no generen daño a la integridad femenina.
Gracias a la implementación de modelos de predicción, como lo son ARIMA (Autoregressive Integrated Moving Average) y Croston, es posible la determinación de la frecuencia de casos a futuro, con lo cual, se puede dilucidar el comportamiento delictivo en determinadas áreas geográficas, así como inferir cuales son las características en común de las zonas, para advertir a la población.
METODOLOGÍA
Se procedió en primera instancia con la descarga de la base de datos del Secretariado Ejecutivo de Seguridad Pública para conocer la incidencia delictiva en México por mes, tras ello, se derivó a la limpieza de datos a través de RStudio, con el objetivo de obtener información que narre la incidencia de delitos hacia la mujer en México, seleccionándose específicamente Feminicidios. Con los datos obtenidos se siguió la Metodología de Box y Jenkins para la aplicación del Modelo ARIMA:
Se aplicaron las suficientes transformaciones para convertir la serie en estacionaria. Se determinó el posible Modelo ARIMA.
Se obtienen los errores estándar y los residuos del modelo.
Verificación de ruido blanco en residuos.
Predicción de valores futuros.
Tras esta primera ronda de datos se optó por la implementación del uso de Auto-ARIMA, de la librería Forecast, dicha función brinda el mejor Modelo ARIMA.
Con el análisis de las series de tiempo obtenidas surge una problemática: En muchas ocasiones la incidencia delictiva correspondiente por mes es reportada con valor igual a 0, lo cual genera sesgo al implementar ARIMA, por ello, se aplica el Método de Croston, el cual toma en cuenta series de tiempo con periodos sin observaciones.
Para el entrenamiento del modelo se utilizó el método leave-one-out cross-validation. Los criterios de evaluación del rendimiento de cada Algoritmo de Regresión fueron determinados a través del Error Cuadrático Medio (MSE) y del Error Absoluto Medio (MAE), así como con la comparación del porcentaje de la serie de tiempo que posee datos sin observaciones. El análisis, la limpieza y la graficación de los datos se realizó a través de la herramienta RStudio.
CONCLUSIONES
Se obtuvieron los gráficos correspondientes de la predicción de serie de tiempo de Feminicidios en México por municipio, tanto con el Modelo ARIMA, como con Método de Croston; se logra apreciar que ambos modelos funcionan de forma efectiva cuanto mayor es el máximo valor histórico del municipio, sin embargo, mientras más cantidad de periodos sin observaciones tiene la serie de tiempo, mejor rendimiento muestra el Método de Croston. Entre los municipios con un máximo histórico de Feminicidios registrados tenemos a Monterrey, Juárez, Culiacán, Tijuana, Cuautémoc, San Pedro Tlaquepaque, Navolato, Manzanillo, Iztacalco e Iztapalapa. Tomando en cuenta tales municipios, el máximo histórico registrado en promedio es de 5 feminicidios por mes (rango: 8-4), teniendo las series de tiempo en promedio un 63% de periodos sin observaciones, en las mismas condiciones, se arroja un MAE correspondiente al ARIMA (0.1319) menor que el reflejado con Método de Croston (0.1350), sin embargo al comparar el MSE se invierten los lugares (Croston: 0.0387, ARIMA: 0.0527).
Cruz Perez Karina, Instituto Politécnico Nacional
Asesor:Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo
ANALISIS DEL CICLO DE VIDA DE BLOQUES TRADICIONALES VS MUROS SUSTENTABLES A BASE DE BARRO Y NIXAYO
ANALISIS DEL CICLO DE VIDA DE BLOQUES TRADICIONALES VS MUROS SUSTENTABLES A BASE DE BARRO Y NIXAYO
Cruz Perez Karina, Instituto Politécnico Nacional. Asesor: Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
El sector de la construcción ha sido tradicionalmente una de las industrias más importantes, a la par que una de las más contaminantes; basta con señalar los siguientes datos:
Se necesitan más de 2 toneladas de materia prima por cada metro cuadrado de vivienda que se construye.
La energía empleada en fabricar los materiales para construir una vivienda equivale a un tercio del consumo energético de un hogar medio durante 50 años.
La producción de residuos derivados de la construcción y demolición supera la tonelada anual por habitante.
Los habituales materiales de construcción como el acero, el hormigón, el amianto, ciertos tipos de pinturas y barnices, elementos de gas radón, uranio, plomo o mercurio, contaminan el entorno pudiendo llegar a causar enfermedades debido principalmente al elevado consumo de energía y materias primas, asociados a su proceso de obtención, producción, tratamiento, transporte e instalación.
El sector de la construcción contribuye a 23% de la contaminación atmosférica, 40% de la contaminación del agua potable, y 50% de residuos en los vertederos. Estas cifras son alarmantes. Para entender realmente este tema, tenemos que profundizar en los detalles.
Recursos Naturales
El sector de la construcción es uno de los mayores explotadores de recursos, y la mitad de ellos son no renovables. Según el World Watch Institute, el sector consume 40% del uso mundial en piedras brutas, grava y arena y 25% de su madera virgen por año. Podemos fingir que el problema no existe, pero tarde o temprano puede resultar que nos quedemos sin muchos recursos naturales cruciales.
Algunas empresas están empezando a cambiar poco a poco, aplicando tecnologías modernas para reducir el uso de materiales, como las impresoras 3D o los textiles biodegradables. Sin embargo, es posible que el cambio no llegue pronto, ya que la construcción sigue siendo una de las las industrias menos digitalizadas
METODOLOGÍA
El ACV se realizó empleando la herramienta de software ECO-it,
Un análisis de ECO-it consta de cuatro etapas en las que el usuario introduce sus propios criterios:
• Ciclo de vida: se describe el ciclo de vida del producto que se analiza.
• Producción: se introduce la estructura jerárquica del producto y se especifican los materiales y los procesos de producción de cada pieza (parte), a partir de un amplio grupo de materiales y procesos disponibles.
• Uso: se especifica la demanda de electricidad, transporte y material en la fase de uso.
• Fin de vida: permite especificar cuál es el destino final del producto, o las distintas piezas o materiales, tras finalizar su vida útil.
Esta metodología traduce las emisiones y extracciones de recursos, en un número limitado de puntuaciones de impacto ambiental, por medio de los llamados factores de caracterización, los cuales representan la contribución relativa de un recurso a una categoría de impacto. Los indicadores punto medio se centran en problemas ambientales únicos, siendo estos: el cambio climático, la disminución de la capa de ozono, la toxicidad humana, la formación de oxidantes fotoquímicos, la formación de materia particulada, la radiación ionizante, la acidificación terrestre, la eutrofización de agua dulce, la eutrofización marina, la ecotoxicidad terrestre, la ecotoxicidad de agua dulce, la ecotoxicidad marina, la ocupación de terreno agrícola, la ocupación d e terreno urbano, la transformación de terreno natural, la disminución de cantidad de agua dulce, la disminución de recursos minerales y la disminución de combustibles fósiles.
CONCLUSIONES
Se ha comparado el impacto ambiental de los bloques fabricados con y sin subproductos, a través de un Análisis de Ciclo de Vida (ACV) denominado de la cuna a la puerta. Tras la investigación desarrollada, se ha demostrado que en un bloque de hormigón, el mayor responsable del impacto generado es el cemento, que aporta en torno a un 48% de las emisiones de CO2-eq. Tras su fabricación el transporte a obra teniendo en cuenta que una distancia competitiva económicamente de un máximo de 100km, supone una incidencia en el impacto ambiental de un 14% de las emisiones de CO2-eq. El reemplazo de la arena caliza por serrín en un 5%, reduce la resistencia a compresión, pero mejora el comportamiento térmico, esto se traduce en una reducción del impacto ambiental en alrededor de un 2% de las emisiones de CO2-eq. Por el contrario, la mayor reducción en el impacto ambiental ocurrió cuando las virutas y los lodos de cal se incorporaron en los bloques como sustitutos de la caliza y el cemento Portland respectivamente, siendo esta reducción de 8.7% para las emisiones de CO2-eq y de 6.3% para el índice de impacto ambiental. Finalmente se puede concluir cómo en el caso de los bloques de hormigón para su uso en la envolvente de los edificios, permite reducir su impacto ambiental, por medio de la adición de subproductos industriales en la medida que sigan manteniendo los requerimientos prestacionales para los que fueron diseñados originalmente. Así, aquellas adiciones que permitan reducir la cantidad de cemento utilizada, serán las que obtengan mejores resultados en el impacto ambiental final.
Cruz Pintor Ana Giovanna, Instituto Tecnológico de Querétaro
Asesor:Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo
MURO DE BAHAREQUE EMPLEANDO COMPLEMENTOS DE MUCÍLAGO DE NOPAL, CENIZA Y NEJAYOTE.
MURO DE BAHAREQUE EMPLEANDO COMPLEMENTOS DE MUCÍLAGO DE NOPAL, CENIZA Y NEJAYOTE.
Alvarez Bernardino Jaqueline Susana, Instituto Tecnológico de Querétaro. Cruz Pintor Ana Giovanna, Instituto Tecnológico de Querétaro. Mejia Arredondo Leslie, Instituto Tecnológico de Querétaro. Asesor: Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
A lo largo de la historia una solución constructiva en muchas culturas ha sido el bahareque, el que tiene por significado "pared de cañas y/o maderas y tierra"
Gracias a la aparición de nuevos materiales de construcción, se han creado modificaciones a las técnicas constructivas de dicho muro.
Dentro de esta investigación se realizarán 3 prototipos donde se emplea la misma base, únicamente se cambiará un material, para poder identificar la diferencia, así como si existen pros y contras en cada uno de ellos, estos materiales son: nejayote, ceniza y mucílago de nopal.
METODOLOGÍA
Se obtuvieron materiales naturales como son:
Arcilla
Para la obtención del material, se realizó una excavación a un metro de profundidad de esta manera se asegura la pureza del material, esto con la finalidad de evitar la incorporación de otros materiales, tales como, piedras, materia vegetal, elementos en descomposición, entre otras.
Mucílago de nopal
El mucílago del nopal mejor conocido como la baba de nopal, es un biopolímero coagulante que se ha utilizado para impermeabilizar, tapar poros, resanar e incluso se utiliza como adhesivo.
Para obtener el mucílago de nopal, es necesario utilizar nopales en buen estado y con un grosor considerable de 2 cm o más. Una vez teniendo esto será necesario retirar la piel de cada nopal para poder obtener la pulpa, posteriormente la pulpa se deberá reposar en agua para que suelte el mucílago que se necesitará.
Nejayote
La palabra nejayote significa agua con cenizas en náhuatl. Proviene de las palabras nextli, que significa ceniza y ayotl que es líquido. La referencia a las cenizas proviene del método tradicional de nixtamalización. Para preparar el nixtamal en algunas partes de México, y siguiendo la tradición prehispánica, se utiliza ceniza, en vez de cal. Se coloca ceniza o cal, para cocer el maíz y después se deja reposar por horas.
De forma popular, el término nejayote se utiliza para identificar el agua amarillenta en que se ha cocido el maíz.
Cal
Sustancia alcalina constituida por óxido de calcio, de color blanco o blanco grisáceo, que al contacto del agua se hidrata o se apaga, con desprendimiento de calor, y mezclada con arena forma la argamasa o mortero.
Carrizo
Es un material ecológico y sostenible de bajo costo, estéticamente aceptable, fácil de obtener y colocar, ya que permite generar diferentes sistemas constructivos.
Es resistente a las heladas y un buen aislante térmico, debido a la gran cantidad de huecos llenos de aire de los tallos. Su conductividad térmica es λ = 0,055 W/m.K.
Se generará un muro de 1m2 donde la estructura es a base de carrizo entrelazado para crear un módulo donde posteriormente se agrega la mezcla para recubrir toda la superficie.
Ceniza
La ceniza de madera es un material que se obtiene como resultado de quemar la madera en una chimenea o en una estufa de leña. Los beneficios de este material son: que es un abrasivo natural, fertilizante natural, repelente de plagas, sustrato versátil, tiene propiedades abrasivas y suavizantes, y en este caso lo usaremos en la construcción.
Elaboración de las mezclas
Para la realización de la mezcla vamos emplear los materiales base, los cuales son, tierra, arena y cal, para posterior agregar el material elegido (najaya, mucílago de nopal o ceniza)
Aplicación
La colocación del relleno se realizará iniciando desde la parte baja del bahareque y de allí hasta la parte superior de forma ordenada y pareja.
Se realizan bolas de tierra de aproximadamente 10 cm de diámetro para posteriormente lanzarla con fuerza y la mezcla logre cubrir por completo la superficie.
Es importante emplear las manos para darle un mejor acabado al muro.
Secado
El secado del muro de bahareque de arcilla con mucílago de nopal, deberá ser a temperatura ambiente, tomando en cuenta las siguientes:
Cubrir la superficie de aplicación para evitar la incidencia solar de manera directa (esto con el fin de evitar grietas).
Recomendable descubrir por las noches las pasta para que la misma seque a temperatura ambiente por las noches.
Resultados
Como resultado de los tres tipos de muro, principalmente pudimos notar que hacer la mezcla fue sencilla, hubo buena adherencia entre los materiales y se logró conseguir una mezcla homogénea; La aplicación fue fácil en la superficie, lo que pudimos notar igual en el muro de ceniza y maíz es que no tenía la suficiente adherencia para mantenerse, sin embargo en el de mucílago de nopal se sostuvo muy bien, algo que podemos proponer en estos casos es agregar otro material a la mezcla para poder obtener mayor resistencia.
CONCLUSIONES
Durante la estancia de verano de investigación se logró adquirir conocimientos teóricos de los materiales que se pueden utilizar para realizar un muro sostenible. De igual manera se puso en práctica lo teórico, creando prototipos de 1 m2, para generar el muro de bahareque con la misma base y solo cambiar con el mucílago de nopal, ceniza y con nejayote, mostrando así, buenos resultados debido a que se abaratan costos y recursos, además se disminuye el impacto ambiental e incrementa la cultura de las comunidades.
Cruz Sánchez Alejandra Guadalupe, Universidad de Guadalajara
Asesor:Post-doc Jorge Andrés Ramírez Rincón, Fundación Universidad de América
USO DE UNA CáMARA HIPERESPECTRAL EN EL ANáLISIS DE DEGRADACIóN ÓPTICA DE
PIGMENTOS NATURALES Y SINTéTICOS PARA LA SENSIBILIZACIóN DE CELDAS SOLARES
USO DE UNA CáMARA HIPERESPECTRAL EN EL ANáLISIS DE DEGRADACIóN ÓPTICA DE
PIGMENTOS NATURALES Y SINTéTICOS PARA LA SENSIBILIZACIóN DE CELDAS SOLARES
Cruz Sánchez Alejandra Guadalupe, Universidad de Guadalajara. Asesor: Post-doc Jorge Andrés Ramírez Rincón, Fundación Universidad de América
PLANTEAMIENTO DEL PROBLEMA
La búsqueda de alternativas a los combustibles fósiles ha sido objeto de estudio para los científicos debido a la crisis energética mundial. El Sol nos brinda una de las formas de energía amigable con el medio ambiente más abundante, por lo que las celdas solares de tercera generación se han posicionado como una de las favoritas para reemplazar otro tipo de fuentes contaminantes.
Las celdas solares son un dispositivo que funciona por medio del efecto fotoeléctrico/fotovoltaico para convertir los rayos provenientes del Sol en energía eléctrica aprovechable. Las celdas solares sensibilizadas con colorantes (DSSC por sus siglas en inglés) están formadas por un electrodo semiconductor de óxido metálico, usualmente TiO2 por su baja toxicidad, alta estabilidad térmica y química, sus propiedades ópticas y su bajo costo de producción. Como sensibilizador se suelen utilizar complejos de Rutenio, que pueden alcanzar una eficiencia de hasta 12.3%. (Rivera et. Al, 2019). Sin embargo, debido a su toxicidad y costo elevado, suelen ser poco accesibles para la población.
En este trabajo se estudiará el uso de tintes naturales más económicos y de fácil acceso, como fotosensibilizadores en celdas solares. El análisis de sus propiedades ópticas y eléctricas nos permiten optimizar el uso de estos tintes. Para ello se usarán las técnicas de espectroscopía hiperespectral con el fin de estudiar las variaciones en la absorción del tinte bajo exposición continua a la luz durante 2 semanas, y el instrumento multiparámetros HQ 40d para determinar los cambios en su conductividad eléctrica.
METODOLOGÍA
Se realizó el diseño de las celdas solares como primer paso, ya uno de los retos es obtener una mayor área activa sin aumentar la resistividad eléctrica. Se realizaron diferentes diseños con el propósito de disminuir el camino que deben seguir las cargas antes de ser extraídas.
Posteriormente, se hicieron varias pruebas con filtros de diferentes colores analizados anteriormente en el CINVESTAV de Mérida, Yucatán con un espectrómetro, para así comparar la diferencia de color en la degradación de estos, y aprender a usar Origin, Specim IQ Studio y Envi, que fueron los softwares utilizados para el análisis de los datos.
Después, una vez teniendo los tintes a analizar, en este caso Eugenia y Achiote, se hicieron varias muestras con diferentes concentraciones. El primer colorante que se analizó fue la Eugenia, ya que tiene un color similar al Rutenio, sin embargo, al momento de diluirla en el etanol se volvía más transparente, lo que hacia que no se pudiera absorber la luz. Se intentó con agua y funcionó mejor, pero se quería utilizar un conservante que sólo diluía en etanol para que no degrade tanto, así que no funcionó.
El segundo colorante que se utilizó fue el achiote, este diluyó bien en etanol por lo que se hicieron muestras de 1000 a 100.000 ppm, 90 000 ppm, 90 000 ppm con conservante BHT, 50 000 ppm, 50 000 ppm con conservante BHT, 10 000 ppm, 9 000 ppm y 9 000
ppm más conservante BHT.
Durante ocho días se tomaron fotos con la cámara para analizar la transmitancia de cada muestra, dejando la muestra bajo una fuente de iluminación durante esos días, y determinar si la absorción disminuye o se conserva en el tiempo, lo cual resulta ser de
vital importancia para la construcción de las celdas DSSC.
CONCLUSIONES
Como resultados se obtuvo que el achiote conserva sus propiedades ópticas en el tiempo, mientras que el Rutenio si presentó una disminución en su máximo de absorción. La muestra de 100 000 ppm resultó ser un colorante prometedor para la
sensibilización de estas celdas solares. Se realizarán pruebas de estabilidad eléctrica para confirmar la utilidad de este tinte como posible sensibilizador y sustituto del Rutenio en celdas solares DSSC.
Cubillos Diaz Mariafernanda, Universidad Católica de Manizales
Asesor:Dra. Martha Palacios Peñaranda, Universidad Autónoma de Occidente
EFECTOS DE LA CONTAMINACIóN POR PLáSTICOS Y MICROPLáSTICOS SOBRE LOS SERVICIOS ECOSISTéMICOS DEL MANGLAR BAHíA BUENAVENTURA: SAN PEDRO
EFECTOS DE LA CONTAMINACIóN POR PLáSTICOS Y MICROPLáSTICOS SOBRE LOS SERVICIOS ECOSISTéMICOS DEL MANGLAR BAHíA BUENAVENTURA: SAN PEDRO
Cubillos Diaz Mariafernanda, Universidad Católica de Manizales. Asesor: Dra. Martha Palacios Peñaranda, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
La acumulación de basura en los océanos es una de las grandes problemáticas que existen actualmente pues esta genera cambios significativos a los ecosistemas marinos alterando así la flora y fauna que lo conforma, además de incidir en el bienestar de las comunidades cercanas. (Garcés Ordóñez & Bayona Arenas, 2019)
La basura marina afecta al ecosistema marino de forma directa, por medio de la ingestión, el entrelazamiento y la alteración del ecosistema, y de manera indirecta porque contribuye con el movimiento de especies invasivas (EPA, 2017). Para el año 2021 según un artículo publicado en la revista de la Universidad Nacional de Colombia- sede Palmira los microplásticos habían aumentado más de un 80% en Buenaventura generando cambios significativos a los ecosistemas marinos alterando así la flora y fauna que lo conforma, además de incidir en el bienestar de las comunidades cercanas.
El ecosistema de la Bahía de Buenaventura tiene un alto nivel de intervención antrópico, al albergar una población de 300.000 habitantes (DANE, 2019) siendo además el puerto más importante de Colombia (Vega et al., 2019).
METODOLOGÍA
El área de estudio corresponde a Buenaventura en dos puntos específicos, uno de ellos es la playa de San Pedro ubicada a 3°50 '07.8 "N y 77°15' 28.8"W. Esta playa está ubicada en el pacifico colombiano que está altamente influenciado por las migraciones de la zona de convergencia intertropical y la proximidad a la cordillera occidental de los Andes, resultando ser una de las regiones más húmedas del mundo con una precipitación aproximada de 6 980 mm año-1 (Lobo-Guerrero, 1993).
Se recolectaron las muestras para el área de estudio de Bahía Buenaventura: San Pedro un total de 43 muestras,en temporada seca (Marzo) se tomarón 25 muestras y durante la temporada de lluvia (Agosto) se recolectarón 18 muestras.
La metodología de campo utilizada se realizo en base a (Kauffman et al., 2016) en la cual se establecen un total de seis parcelas circulares,tres en el interior del manglar y tres en el exterior del manglar, cada muestra de sedimento fue secada en horno, tamizada y posteriormente de acuerdo con Loder, M y Gerdts, G (2015) se disponen 10 gr por muestra de sedimento, se agregaron 50 ml de H2O2 al 30% durante 24 horas, seguido a esto se homogeneizó y se agregó ZnCl2 seguido a esto se dispuso en un embudo de separación realizando la filtración en un equipo de vacío en la que se dispondrán filtro membrana de nitrato de celulosa, una
vez haya culminada el proceso se retira la membrana y se dispone en una caja de Petri, para finalmente realizar su análisis e identificación visual de los microplasticos usando un estereomicroscopio electrónico por tamaño, color y forma.
CONCLUSIONES
Época seca (Marzo 2022)
Se encontró que la parcela 6 contenía la mayor cantidad partículas de microplásticos encontradas en el mes de marzo con un total de 208 MP’s, predominando las fibras en cada una de la parcelas.
Para el mes de Marzo 2022 (época seca) se encontró en un 33% mayor cantidad de partículas de MP´s en la profundidad de 30-50 cm, con respecto a las demás profundidades. Pueden influir diferentes factores tales como las actividades antrópicas
Época lluviosa (Agosto 2022):
Se puede identificar que Agosto fue el mes que tuvo mayor presencia de microplasticos con un total de 796 MP, en comparación con el mes seco: Marzo, que obtuvo un total de 945 MP además de identificar que en las parcelas 3 y 4 contenían mayor cantidad partículas de microplásticos encontradas en el mes de agosto con un total de 188 y 189 MP’s respectivamente, predominando las fibras en cada una de la parcelas.
Para el mes de Agosto 2022 (época lluviosa), se encontró en un 38% mayor cantidad de partículas de MP´s en la profundidad de 0-15 cm, con respecto a las demás profundidades, esto debido a las fuertes precipitaciones, la escorrentía de agua lluvia.
En total se encontaron 1742 MP durante ambas epocas, además se pudo identificar que la parcela 6 tuvo mayor presencia de MP con un total de 368 MP y en la profundidad de 30-50cm, en comparación con la parcela 1 que obtuvo menor presencia de MP con 214 MP encontrando en su mayoria en profundidades 0-15cm.
Se encontro en su myoria MPde tipo fibra, en un 96%, además de que los colores más representativos fue el traslucido y azul.
CONCLUSIONES
En Bahía Buenaventura: San Pedro se puede identificar la presencia en el 100% de las muestras procesadas hubo presencia de MP.
Se logro identificar que el mes en el cual hubo mayor presencia de MP fue en agosto debido a la temporada de lluvia, además de que estos fueron encontrados en profundidades de 30-50cm.
Es esencial implementar medidas de gestión y concienciación para reducir y prevenir la acumulación de microplasticos en esta área y proteger la biodiversidad costera.
Damián Hernández Nallely Itzel, Instituto Politécnico Nacional
Asesor:Dr. Alberto Beltrán Morales, Universidad Nacional Autónoma de México
MEDICIóN DE PROPIEDADES TERMOFíSICAS DE ELECTROLITOS DéBILES
MEDICIóN DE PROPIEDADES TERMOFíSICAS DE ELECTROLITOS DéBILES
Damián Hernández Nallely Itzel, Instituto Politécnico Nacional. Asesor: Dr. Alberto Beltrán Morales, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Debido a la creciente demanda poblacional, el uso de energía se ha incrementado en décadas recientes. Las magnitudes de este problema han generado un impacto tan grande que el desarrollo de fuentes de energía asequible y no contaminante ha sido reconocido en la agenda 2030 de desarrollo sostenible.
Con la búsqueda de nuevas tecnologías no contaminantes y asequibles se presentan las energías renovables como la solar o eólica que generan electricidad a través de recursos naturales renovables; sin embargo, los problemas emergentes que presentan estas nuevas tecnologías es su intermitencia, por lo cual es necesario desarrollar dispositivos de almacenamiento de energía confiables que puedan brindar una mayor estabilidad a la red eléctrica sostenida por fuentes de energía renovables.
Las baterías de metal líquido (BML) se postulan como dispositivos confiables y duraderos de almacenamiento de energía a gran escala. A diferencia de las configuraciones tradicionales de las baterías de litio, las BML cuentan con capas estratificadas de fluidos conductores de electricidad separados por una sal fundida. La capa de sal fundida actúa como conductor entre los electrodos de metal líquido. No obstante, debido a la naturaleza del estado de los componentes de la batería, pueden generarse fenómenos que provoquen la inestabilidad de la celda, por lo que es necesario entender cómo se comportan los fluidos. En particular, el electrolito es el que ofrece la mayor resistencia eléctrica por lo que es fundamental comprender su comportamiento dentro de la celda y evitar fenómenos que desestabilicen la BML. En este trabajo, se realizaron mediciones de propiedades termofísicas como la densidad y viscosidad para electrolitos débiles a base de agua, en un amplio rango de temperaturas.
METODOLOGÍA
Se realizaron las mediciones de densidad de electrolitos (KCl y NaHCO3) utilizados en estudios previos del grupo de trabajo sobre BML, teniendo concentraciones de 5, 10, 20 y 30% en masa y en el rango de temperatura de 5 a 60 con incrementos de 5 Para realizar las mediciones se prepararon los electrolitos, comenzando con KCl a una concentración de 5%; se pesaron 5 g de la sal de KCl y se agregaron en un vaso de precipitado posteriormente se vertieron 100 ml de agua ultrapura con ayuda de una pipeta. La solución se agitó durante 3 minutos de manera manual hasta que el soluto se diluyó totalmente.
Una vez preparado el electrolito se procedió a enfriar con ayuda de un criotermostato de circulación modelo CORIO CD-201F de la marca Julabo. Se programó el equipo para alcanzar una temperatura de 5 y se sumergió el vaso de precipitado con el electrolito preparado, se verificó la temperatura del electrolito hasta que se consiguió la temperatura esperada. Posteriormente se utilizó un densímetro modelo DMA 35 de la marca Anton Par para medir la densidad del fluido; se tomaron cinco mediciones de cada una de las temperaturas mencionadas anteriormente para elaborar una gráfica con los datos obtenidos.
Posteriormente, se procedió a preparar las demás muestras de los electrolitos utilizando 100 ml de agua ultrapura y 10, 20 y 30 g de KCl para las concentraciones de 10, 20 y 30%, respectivamente, además de 5, 10, 20 y 30 g de NaHCO3 siguiendo la metodología anteriormente mencionada.
Otra propiedad de interés para la dinámica del flujo al interior de las BML es la viscosidad dinámica, dicha propiedad fue medida con la ayuda de un viscosímetro Ametek Brookfield modelo DV2T. Se vertieron 125 microlitros de los electrolitos preparados anteriormente en la aguja del equipo, posteriormente se seleccionaron diversos valores de RPM para cada una de las temperaturas deseadas, estas revoluciones fueron previamente seleccionadas por el equipo de trabajo. Una vez analizada la muestra, se procedió a obtener una gráfica con los resultados obtenidos.
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos teóricos de las BML, se reconocieron los desafíos que esta tecnología implica y se estudiaron las propiedades intrínsecas de dos electrolitos empleados en el estudio BML con el fin de conocer las propiedades de los mismos y entender posibles patrones de flujo presentes en las BML. La gráfica elaborada muestra que, para ambos casos los electrolitos que presentan una mayor concentración exhiben densidades mayores, además, la temperatura provoca un decremento en la densidad del electrolito, los datos de ambos electrolitos presentan una respuesta lineal.
Los resultados de las mediciones de viscosidad indican que la viscosidad del electrolito aumenta cuando lo hace la concentración del mismo, adicionalmente, a mayores temperaturas (50-70 ), la viscosidad de los electrolitos disminuye significativamente.
de la Cruz de la Cruz Angel Hermilo, Universidad Autónoma de Chiapas
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
ESTUDIO DE METAMATERIALES PARA CONTRARRESTAR SISMOS A TRAVéS DE SIMULACIONES EN COMSOL MULTIPHYSICS
ESTUDIO DE METAMATERIALES PARA CONTRARRESTAR SISMOS A TRAVéS DE SIMULACIONES EN COMSOL MULTIPHYSICS
de la Cruz de la Cruz Angel Hermilo, Universidad Autónoma de Chiapas. Vergara Eslava Oswaldo Alan, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Para comprender lo necesario para poder realizar el desarrollo del experimento, debemos comprender que las ondas sismicas son un factor ambiental que puede provocar desastres, as ́ı como perjudicar a edificaciones y patrimonio del entorno, por ello, sabemos que hay ciertos materiales que pueden ayudar a poder contrarrestrar estas ondas sismicas, a lo que llamamos Metamateriales, estos materiles son un tipo de material artificial dise ̃nado para tener propiedades que no se encuentran en la naturaleza; en este caso las usamos como una forma de interferir con las ondas sismicas de la cual sus propiedades logran una mejor eficiencia en el acomodo de las estructuras o edificaciones. Una vez establecido la idea de los metamateriales, llevamos a practica de como estudiar y analizar lo antes mencionado, para ello establecemos simulaciones que nos ayudar ́an comprender la eficiencie de los modelos. Estas silmulaciones se dise ̃nan en un software que facilita modelar metamateriales, desarrollo de una estructura, la manera de poder manejar con mayor facilidad, esto es mediante COMSOL MULTIPHYSCS
METODOLOGÍA
El producto final de trabajo se buscó realizar únicamente con el uso de simulaciones, por lo que el primer paso es aprender a manejar el software COMSOL Multiphysics. Primeramente se selecionan las dimensiones con las que se trabajará la simulación (1D, 2D, o 3D) siguiendo con las físicas que nos interesan estudiar; para nuestro caso en particular se eligió una simulación sobre mecánica de sólidos en ondas elásticas sobre un espacio tridimensional.
Se continúa eligiendo los parámetros con los que se trabajarán, esto en términos de propiedades de materiales y tamaño de la geometría que se requiere. En la parte de la feometría se estaba simulando un bloque rectangular de 40m x 20m x 10m, con incrustaciones cilíndricas (se experimentó con geometrías cónicas o cuadradas, pero resultaron más eficaces las cilindricas) de 160mm de radio por 5m de profundidad, colocado en una matriz de 10 x 20 cilindros. Hablando de los materiales, se estudiaron cuatro en el arreglo: arena, grava, caliche y concreto. esto porque son de los suelos más comunes donde se suele construir.
Es importante hacer énfasis en que se estudió una geometría de suelo plano tomando valores del módulo de Young, coeficionte de Poisson y densidad de cada material; y que se debe hacer el estudio de cada de una de éstas cantidades al igual que el de la geometría para cada caso particular.
Una vez contruida la geometría y caracterizado los materiales que constituyen la geometría de la simulación, se procede a hacer el mallado de la geometría para que COMSOL ejecute un estudio analitico y estructural eficiente, en donde pueda establecer un buen parametro de estudio, en el caso usamos un enmallado fina, establecemos propiedades ambientales, establecemos que los estudios que ingresamos, esta ejecutará la forma mas beneficiosa del comportamiento, cabe recalcar que debemos establecer propiedades ambientales, los elementos del entorno, así como los valores de POISSSON, YOUNG, entre otros que pide el programa.
Establecido los criterios a tratar, ejecutamos el programa, los resultados van a variar el tiempo de entrega dependiendo del equipo en donde se haya instalado COMSOL, despues de un tiempo, el programa nos arrojará tablas, la simulacion de la deformacion del bloque de la geometria, a través del tiempo, así como las propiedades a tratar, la vista del flujo del impacto, tambíen en la parte de forma del solido, podemos ver como este bloque interpreta las ondas, el flujo de energia, la elasticidad del medio, la temperatura del medio, la alteracion del bloque.
Cuando el programa nos arroja los resultados, podemos notar que tambien nos mostrará tablas de información, lo que le pasa a el bloque a través del tiempo, las flechas de dirección, la maginitud y más. Los resultados son obtenidos con ecuaciones que el mismo programa estabalece para desarrrolarlos, los calculos son el principio del fundamento para poder obtener de manera optima un estudio, para después interpretarlos de manera correcta y su uso para desarrollar mejores eficiencias en construcción.
Los resultados nos mostrará los graficos, mediente ellas podremos interpretar una mejor solución para poder tratar el bloque y el medio en donde que por un principio lo necesitamso para tener un mejor rendimiento a una estructura, nostamos que mediante los resultados, los metamateriales son unas forma eficiente para poder tratar las ondas sismicas, estos resultados nos ayudan a poder dar una mejor eficiencia al entorno, así como a futuro poder implementarlo en la vida diaria.
CONCLUSIONES
Es beneficioso saber que el hecho de que esté el arreglo de cilindros en el suelo es beneficioso para contrarrestar los sismos, en particular la amplitud, pues en el caso de que el suelo estaba completamente plano sin ningun arreglo, el sismo ocurría como de costumbre. Sin embargo, al estar los cilindros en cualquiera de sus presentaciones materiales (aire, arena, grava, caliche y concreto), sí existe un cambio en la propagación de la onda sobre la superficie del suelo, consiguiendo una reducción de la amplitud de las ondas sísmicas después de que pasan el arreglo de cilindros. Todo esto considerando el caso en que las ondas llegan de frente al arreglo.
de la Paz Cota Alvaro Santiago, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional
INVESTIGATING THE STRUCTURAL AND FERROELECTRIC BEHAVIOR OF BI0.5NA0.5TIO3
INVESTIGATING THE STRUCTURAL AND FERROELECTRIC BEHAVIOR OF BI0.5NA0.5TIO3
de la Paz Cota Alvaro Santiago, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El material de nuestro interés BNT, presenta una estructura cristalina del tipo ABO3, la cual debido a las desviaciones que llegan a existir en su celda unitaria con respecto al modelo ideal presenta propiedades ferroeléctricas, es decir, presentan una polarización espontánea reversible, la cual puede ser también inducida por un campo eléctrico externo [1-2].
Debido a esto, el BNT tiene diversas aplicaciones en electrocalórica, conducción de iones de óxidos, fotoluminiscencia, sistemas pulse-power, entre muchas áreas de interés, ya que sirve como capacitador dieléctrico de alta temperatura y alto voltaje [3]. Por esto, resulta de gran importancia el desarrollo teórico del material a través de una modelación digital para tener una libre manipulación del material y poder entender su comportamiento bajo ciertas condiciones, y así lograr una optimización en su desarrollo experimental.
METODOLOGÍA
Aplicando Density Functional Theory (DFT) en el software Quantum ESPRESSO (QE) se buscó simular el comportamiento del BNT. Para esto, se realizó una revisión bibliográfica sobre los materiales ferroeléctricos y el BNT.
Para la modelación del material se accesó al Laboratorio Nacional de Supercómputo del Sureste de México (LNS). Primero, se realizó el archivo.in de cada estructura del BNT, para el cuál se requirió especificar el peso atómico de cada elemento, así como también los pseudopotenciales de estos [https://www.quantum-espresso.org/pseudopotentials/]. Con ayuda del software VESTA se estableció una estructura del tipo ABO3, teniendo a los cationes A (Bi y Na) formando una estructura cúbica, los oxígenos una octaédrica, y el catión B (Ti) siendo colocado en el centro de la estructura. Se establecieron dos parámetros de celda, uno con a =3.890 (Estructura A) [4] y uno con a=5.519 y c=3.909 (Estructura B) [5].
Se analizó con que corte de energía cinética para funciones de onda los pseudopotenciales eran más estables. Una vez teniendo los resultados, se realizó el análisis en las variaciones de la energía de acuerdo con el número de K-points establecidos, para que, de igual manera, pudiéramos obtener un valor de estos con el que el material mostrara una mayor estabilidad.
Aplicando el cálculo vc-relax, obtuvimos el estado de relajación del compuesto con nuevos parámetros de celda, teniendo como resultado para A parámetros de a=6.206234703A, b y c=4.052390406A, y para B a=6.283560342A, b=3.991465033A y c=4.12982467A con los cuáles se realizaron los cálculos DOS (Density of States) y bands (Para la estructura de bandas), obteniendo una energía de Fermi de 13.4514 eV para la A y 13.1847 eV para la B, con una transición directa e indirecta respectivamente. Se analizó el band gap (Eg) del material, obteniendo 0.7275 eV para la A y 1.0176 eV para la B, siendo estos bastante bajos con respecto a los reportados experimentalmente (2.9 - 3.3eV) [5-6].
Se realizó el cálculo de la energía total del sistema con respecto a la variación de la posición del ion de Titanio, para esto se realizaron 21 variaciones en el parámetro de celda con diferencia de 0.01 en dirección de z. Con esto, se pudo observar que los estados de mínima energía cuando la posición del Titanio varía +-0.09 con respecto al modelo ideal, lo que hace que ahí el sistema sea más estable. También se varió en dirección de x de igual manera que en el caso anterior, sin embargo, el sistema mostró mayor estabilidad donde marca el modelo ideal.
Después, se calculó la polarización del BNT en presencia de un campo eléctrico externo. Se obtuvo que cuando el campo eléctrico es 0 V/A el material presenta una polarización espontánea en dirección de x. Posterior a eso, se varió el campo eléctrico en sentido positivo y negativo sobre el eje z en intervalos de 0.5 V/A. Se observó una irregularidad en la polarización del material, probablemente proveniente de la estructura dada.
Se propusieron 3 nuevas estructuras de celda para el análisis del comportamiento del BNT, teniendo ahora súper celdas, donde en la primera tenemos un arreglo de los cationes A intercalados formando diagonales entre si (Estructura C), las otras 2 con alineación en paralelo de los cationes, siendo una en horizontal (Estructura D) y la otra en vertical (Estructura E).
Con las nuevas estructuras se obtuvieron mejores resultados en el band gap del material, teniendo 2.0789 eV para C y 1.7849 eV para D y E.
Adicionalmente, se realizó una corrección en la energía del sistema en C del tipo GGA+U, dando una energía adicional de U=6 eV a los iones de Titanio [7], haciendo que el band gap aumentara considerablemente a 2.6836 eV.
Por último, se aplicó un campo eléctrico externo en intervalos de 0.5V/A a los nuevos modelos, observando que en esta ocasión el comportamiento de la dirección de polarización va de acuerdo con la del campo eléctrico, dándonos una mejor aproximación al comportamiento real del BNT.
CONCLUSIONES
Durante la estancia de verano se lograron adquirir conocimientos sobre los materiales ferroeléctricos, el comportamiento del material BNT y el método del DFT, así como también su aplicación en el software Quantum ESPRESSO, teniendo como resultado una aproximación a un modelo ideal del BNT. Al ser una modelación bastante extensa no se pudieron completar los cálculos de polarización de las ultimas estructuras para así realizar nuevas correcciones y lograr una mayor aproximación al fenómeno real, sin embargo, se espera que conforme la magnitud del campo eléctrico crezca lleguemos a una saturación de cargas en la dirección de este, así como también poder elevar su band gap a un valor más cercanos reportados experimentalmente.
REFERENCIAS
[1] DOI: 10.1016/S0081-1947(01)80020-5
[2] Antti Karttunen. Perovskites. En: Solid State Chemistry (2023).
[3] DOI: 10.1016/j.pmatsci.2021.100836
[4] DOI: 10.1021/acsomega.0c01845
[5] DOI: 10.1080/14786435.2015.1099755
[6] DOI: 10.1016/j.nanoen.2021.105936
[7] DOI: 10.1016/j.jpowsour.2019.227457
de la Riva Martinez Hector Josue, Instituto Politécnico Nacional
Asesor:Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
INSPECCIóN AUTOMáTICA DE JITOMATE USANDO DIGITALIZACIóN 3D.
INSPECCIóN AUTOMáTICA DE JITOMATE USANDO DIGITALIZACIóN 3D.
de la Riva Martinez Hector Josue, Instituto Politécnico Nacional. Delgadillo Wong Graciela, Instituto Tecnológico de Culiacán. Espejel Zarate Ricardo, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El mercado alimentario presenta irregularidad en los flujos de venta debido a la producción por temporadas. Este fenómeno afecta especialmente a huertos y pequeñas empresas de invernadero por los costos de inspección y clasificación. Un caso particular es la producción de jitomate, que es producto básico de la gastronomía mexicana con una variedad de más de 60 especies. La producción de jitomate necesita inspección y clasificación para asegurar su calidad tanto para el consumo local como para exportación.
Para las pequeñas empresas, la inspección y clasificación de jitomate es costosa porque depende del trabajo manual y la visión humana. En contraste a la clasificación manual, se pueden emplear tecnologías modernas que permitan a los agricultores realizar la clasificación de su producto de forma automática, rápida, y precisa, reduciendo tiempos y costos. La visión por computadora y la reconstrucción 3D son alternativas prometedoras para automatizar los procesos de clasificación del jitomate, impulsando la competitividad y el crecimiento de la agricultura en México.
METODOLOGÍA
El proyecto desarrollado en esta estancia de investigación adopta un enfoque cuantitativo y aplicado. Se construyó un sistema de visión 3D conformado por, una cámara webcam con resolución de 1280 x 720 píxeles, un proyector con resolución de 800 x 1280 píxeles y una laptop con procesador Intel-Core i7-9750H y memoria DDR4 de 16GB con el software Matlab para procesamiento de imágenes. Se recibieron clases teóricas sobre modelos matemáticos de cámaras, proyectores y procesamiento de imágenes.
Se implementaron métodos de demodulación de fase, que son esenciales para la reconstrucción digital de objetos 3D. Después de calibrar el sistema, se verificó su funcionalidad reconstruyendo esferas blancas y rojas de diámetro conocido. Los resultados obtenidos confirmaron la capacidad de realizar reconstrucción 3D, con un margen de error de 2 a 4 mm. Aunque este proyecto se centró en la detección de esferas, este sistema se puede emplear para detección de otros objetos como elipsoides.
La captura de franjas sigue un patrón cosenoidal y conlleva su propia complejidad debido a los requerimientos matemáticos involucrados. Las pruebas iniciales se realizaron proyectando franjas verticales y horizontales sobre el objeto. Este enfoque requiere procesar un número elevado de imágenes. Posteriormente se recibieron clases donde se investigó un método nuevo que solo requiere proyectar franjas verticales, reduciendo a la mitad el número de imágenes a procesar. De esta forma, se simplificó el proceso experimental de reconstrucción a través de métodos más avanzados de triangulación.
La fase de postprocesamiento engloba la captura de parámetros intrínsecos y extrínsecos de cada captura digitalizada, tanto para la cámara como para el proyector. La combinación de estos datos mediante software especializado, como Meshlab y Blender, conduce a la reconstrucción completa y precisa del objeto observado. A pesar de la complejidad inherente a todo el proceso, se logra una reconstrucción con un margen de error aceptable para nuestro proyecto de clasificación de jitomate. Como trabajo a futuro, se propone investigar la forma de reducir aún más el número de imágenes necesarias, y reducir el tiempo de captura de imágenes. Esto involucra estudiar a profundidad teorías de demodulación de fase y triangulación para realizar reconstrucción de objetos 3D de forma más rápida y precisa.
En última instancia, el proyecto llega a la fase de ajustar una esfera a la nube de puntos mediante series de Taylor. El resultado de este ajuste es el cálculo del tamaño del jitomate digitalizado. Aunque el enfoque se concentra en la detección en 3D de esferas, los resultados obtenidos son altamente satisfactorios. La meticulosa implementación de conceptos matemáticos y algoritmos es clave para lograr detecciones precisas y detalladas de las características de los objetos en estudio. En comparación con otros métodos existentes, esta solución desarrollada en México destaca por su eficiencia y bajo costo. Este enfoque innovador usa únicamente una cámara web, un proyector, y una computadora convencional, lo que lo convierte en una alternativa accesible y práctica en diversos contextos y aplicaciones.
CONCLUSIONES
En este proyecto, la técnica de proyección de luz estructurada a través de franjas ha demostrado ser altamente efectiva y precisa en la medición de jitomates. Los resultados indican un margen de error aceptable para esta aplicación. A diferencia de otras soluciones como redes neuronales y bases de datos extensas, esta técnica destaca por su simplicidad y economía. Dada la importancia del jitomate en la dieta mexicana y su uso en platos tradicionales, contar con una solución local y accesible para su clasificación es esencial para el sector agrícola y alimentario. Los resultados respaldan la viabilidad de este enfoque. Como trabajo a futuro se propone desarrollar un prototipo con un mini proyector y una cámara Raspberry Pi 4. Esto ofrece una alternativa práctica y asequible para invernaderos con recursos limitados, en contraste con sistemas costosos utilizados por grandes empresas.
de León Alfonso Sheila Berenice, Universidad Autónoma de Chiapas
Asesor:Dr. Jorge González Gutiérrez, Universidad Autónoma de Chiapas
ANÁLISIS DE FORMACIÓN DE PATRONES EN GOTAS SECAS DE MEDICAMENTO: METAMIZOL.
ANÁLISIS DE FORMACIÓN DE PATRONES EN GOTAS SECAS DE MEDICAMENTO: METAMIZOL.
de León Alfonso Sheila Berenice, Universidad Autónoma de Chiapas. Asesor: Dr. Jorge González Gutiérrez, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
El metamizol sódico es un medicamento analgésico y antipirético ampliamente utilizado en el tratamiento de dolores de cabeza, cólicos y fiebre. Sin embargo, su disponibilidad bajo diferentes nombres comerciales debido a múltiples empresas farmacéuticas que lo producen y distribuyen, ha generado interrogantes en la comunidad médica y científica sobre su calidad y eficacia. En la actualidad, existen diversas técnicas para asegurar la integridad y seguridad de los medicamentos, entre ellas, el análisis de patrones en gotas secas de medicamentos. Esta herramienta proporciona información valiosa sobre la dispersión, tamaño, forma y uniformidad de las gotas depositadas, lo que puede contribuir a mejorar el diseño y la eficacia de las formulaciones de medicamentos, así como a comprender mejor su comportamiento en distintos contextos de administración. Uno de los principales problemas que enfrentan los consumidores de medicamentos es la incertidumbre en torno a la calidad y autenticidad del producto adquirido. La posibilidad de que los fármacos estén adulterados o no cumplan con los estándares de calidad establecidos genera preocupación y desconfianza entre los pacientes.
El presente trabajo tiene como objetivo analizar los patrones generados en las gotas secas de metamizol sódico. El estudio de su comportamiento en diferentes soluciones puede contribuir al desarrollo de nuevos sistemas de administración que mejoren su efectividad. Asimismo, la comprensión de los patrones de secado y dispersión de las gotas puede tener implicaciones cruciales en la detección de la eficacia y estabilidad del medicamento. Al abordar estas cuestiones, se pretende ofrecer una contribución significativa para garantizar la calidad y seguridad de los medicamentos a base de metamizol sódico, así como para mejorar la confianza de los usuarios en el uso de este fármaco en el ámbito clínico. Los resultados obtenidos pueden ser fundamentales para el desarrollo de estrategias farmacéuticas más efectivas y para brindar a los profesionales de la salud una mayor comprensión sobre el comportamiento de este medicamento en el organismo.
METODOLOGÍA
Durante este proyecto se estructuraron diversas etapas para lograr el objetivo de investigación, las cuales se basaron en estructuras con enfoque analítico y experimental.
En la primera etapa, se realizó una exhaustiva búsqueda de información científica y de datos relacionados con el tema, así como información relevante sobre el medicamento metamizol sódico. Se consultaron artículos científicos, publicaciones especializadas y fuentes confiables para establecer bases sólidas y obtener una comprensión profunda de la investigación. Para la segunda etapa del proyecto, se adquirió metamizol sódico en forma de polvo y se prepararon soluciones de distintas concentraciones y con diferentes sales para cada una de las muestras. Se definieron las concentraciones y las sales específicas que se utilizarían para preparar los depósitos de gotas secas. Para este punto fue importante garantizar la uniformidad y estandarización de las muestras. En total se elaboraron las siguientes soluciones: Metamizol, Metamizol/NaCl, Metamizol/CsCl y Metamizol/KCl. Con una micropipeta de 3 microlitros se colocaron las gotas del medicamento en un portaobjetos, este proceso se realizó para cada una de las soluciones preparadas. Para el secado de las gotas se utilizó un sustrato de polimetacrilato (PMMA) completamente nuevo, las gotas se secaron a una temperatura y humedad relativa controlada. Posteriormente, se observaron los depósitos de las gotas de medicamento después de la evaporación en condiciones ambientales. Se tomaron fotografías de los patrones generados utilizando un microscopio acoplado con una cámara de alta resolución. Esta etapa permitió visualizar detalladamente los patrones y obtener información visual relevante. Se llevó a cabo un análisis completo de los patrones formados por las gotas de metamizol sódico, enfocándose en aspectos como su forma, tamaño, distribución y regularidad. En este punto se obtuvo una imagen completa de los patrones generados para cada muestra, lo que proporcionó información valiosa para la interpretación de los resultados.
Una vez obtenidos los patrones en las muestras se sometieron a un análisis estadístico para esto se utilizó la Matriz de co-ocurrencia de nivel de gris (GLCM) donde se calculó parámetros como Entropía, Energía, Correlación, Inercia e IDM para cada una de las cuatro soluciones. Este análisis permitió cuantificar y comparar los patrones obtenidos con enfoque cuantitativo.
CONCLUSIONES
El proyecto de investigación "Análisis de formación de patrones de gotas secas en Metamizol sódico" ha sido una valiosa oportunidad para explorar y obtener información relevante sobre la estructura del medicamento cuando se mezcla con sales. Durante este proceso, hemos adquirido conocimientos fundamentales sobre los materiales de laboratorio, la deposición de gotas,la adquisición y el análisis estadístico de las imágenes de los patrones generados.
Los resultados obtenidos durante este verano fueron de gran interés ya que se han identificado claras diferencias entre los grupos que utilizaron sales y el grupo sin sal. Es notable que en las soluciones de Metamizol con cloruro de sodio y Metamizol con cloruro de Potasio se presentaron más patrones amorfos e irregulares. Además, se ha observado que cada solución ha generado patrones distintos, ya que varían en forma. Como salpicaduras, formas de corona y con protuberancias en los bordes, entre otros. Estos hallazgos fueron de gran importancia en nuestra investigación, ya que proporcionan un mejor entendimiento de la influencia de las sales en los patrones de gotas secas del medicamento.Esta información obtenida nos puede proporcionar implicaciones significativas para el diseño y desarrollo de futuros medicamentos, así como para la optimización de procesos de formulación y producción.
Delgadillo Wong Graciela, Instituto Tecnológico de Culiacán
Asesor:Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
INSPECCIóN AUTOMáTICA DE JITOMATE USANDO DIGITALIZACIóN 3D.
INSPECCIóN AUTOMáTICA DE JITOMATE USANDO DIGITALIZACIóN 3D.
de la Riva Martinez Hector Josue, Instituto Politécnico Nacional. Delgadillo Wong Graciela, Instituto Tecnológico de Culiacán. Espejel Zarate Ricardo, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El mercado alimentario presenta irregularidad en los flujos de venta debido a la producción por temporadas. Este fenómeno afecta especialmente a huertos y pequeñas empresas de invernadero por los costos de inspección y clasificación. Un caso particular es la producción de jitomate, que es producto básico de la gastronomía mexicana con una variedad de más de 60 especies. La producción de jitomate necesita inspección y clasificación para asegurar su calidad tanto para el consumo local como para exportación.
Para las pequeñas empresas, la inspección y clasificación de jitomate es costosa porque depende del trabajo manual y la visión humana. En contraste a la clasificación manual, se pueden emplear tecnologías modernas que permitan a los agricultores realizar la clasificación de su producto de forma automática, rápida, y precisa, reduciendo tiempos y costos. La visión por computadora y la reconstrucción 3D son alternativas prometedoras para automatizar los procesos de clasificación del jitomate, impulsando la competitividad y el crecimiento de la agricultura en México.
METODOLOGÍA
El proyecto desarrollado en esta estancia de investigación adopta un enfoque cuantitativo y aplicado. Se construyó un sistema de visión 3D conformado por, una cámara webcam con resolución de 1280 x 720 píxeles, un proyector con resolución de 800 x 1280 píxeles y una laptop con procesador Intel-Core i7-9750H y memoria DDR4 de 16GB con el software Matlab para procesamiento de imágenes. Se recibieron clases teóricas sobre modelos matemáticos de cámaras, proyectores y procesamiento de imágenes.
Se implementaron métodos de demodulación de fase, que son esenciales para la reconstrucción digital de objetos 3D. Después de calibrar el sistema, se verificó su funcionalidad reconstruyendo esferas blancas y rojas de diámetro conocido. Los resultados obtenidos confirmaron la capacidad de realizar reconstrucción 3D, con un margen de error de 2 a 4 mm. Aunque este proyecto se centró en la detección de esferas, este sistema se puede emplear para detección de otros objetos como elipsoides.
La captura de franjas sigue un patrón cosenoidal y conlleva su propia complejidad debido a los requerimientos matemáticos involucrados. Las pruebas iniciales se realizaron proyectando franjas verticales y horizontales sobre el objeto. Este enfoque requiere procesar un número elevado de imágenes. Posteriormente se recibieron clases donde se investigó un método nuevo que solo requiere proyectar franjas verticales, reduciendo a la mitad el número de imágenes a procesar. De esta forma, se simplificó el proceso experimental de reconstrucción a través de métodos más avanzados de triangulación.
La fase de postprocesamiento engloba la captura de parámetros intrínsecos y extrínsecos de cada captura digitalizada, tanto para la cámara como para el proyector. La combinación de estos datos mediante software especializado, como Meshlab y Blender, conduce a la reconstrucción completa y precisa del objeto observado. A pesar de la complejidad inherente a todo el proceso, se logra una reconstrucción con un margen de error aceptable para nuestro proyecto de clasificación de jitomate. Como trabajo a futuro, se propone investigar la forma de reducir aún más el número de imágenes necesarias, y reducir el tiempo de captura de imágenes. Esto involucra estudiar a profundidad teorías de demodulación de fase y triangulación para realizar reconstrucción de objetos 3D de forma más rápida y precisa.
En última instancia, el proyecto llega a la fase de ajustar una esfera a la nube de puntos mediante series de Taylor. El resultado de este ajuste es el cálculo del tamaño del jitomate digitalizado. Aunque el enfoque se concentra en la detección en 3D de esferas, los resultados obtenidos son altamente satisfactorios. La meticulosa implementación de conceptos matemáticos y algoritmos es clave para lograr detecciones precisas y detalladas de las características de los objetos en estudio. En comparación con otros métodos existentes, esta solución desarrollada en México destaca por su eficiencia y bajo costo. Este enfoque innovador usa únicamente una cámara web, un proyector, y una computadora convencional, lo que lo convierte en una alternativa accesible y práctica en diversos contextos y aplicaciones.
CONCLUSIONES
En este proyecto, la técnica de proyección de luz estructurada a través de franjas ha demostrado ser altamente efectiva y precisa en la medición de jitomates. Los resultados indican un margen de error aceptable para esta aplicación. A diferencia de otras soluciones como redes neuronales y bases de datos extensas, esta técnica destaca por su simplicidad y economía. Dada la importancia del jitomate en la dieta mexicana y su uso en platos tradicionales, contar con una solución local y accesible para su clasificación es esencial para el sector agrícola y alimentario. Los resultados respaldan la viabilidad de este enfoque. Como trabajo a futuro se propone desarrollar un prototipo con un mini proyector y una cámara Raspberry Pi 4. Esto ofrece una alternativa práctica y asequible para invernaderos con recursos limitados, en contraste con sistemas costosos utilizados por grandes empresas.
Delgado Sánchez Edgar Daniel, Universidad Tecnologica de León
Asesor:Dr. Alan David Blanco Miranda, Universidad Tecnologica de León
DISEÑO DEL PROTOTIPO PARA LA APLICACIÓN DE REALIDAD VIRTUAL -REAL INTERACTION-
DISEÑO DEL PROTOTIPO PARA LA APLICACIÓN DE REALIDAD VIRTUAL -REAL INTERACTION-
Aguilar Lavín Mauricio, Universidad Tecnologica de León. Delgado Sánchez Edgar Daniel, Universidad Tecnologica de León. Sarabia Martinez Juan Elias, Universidad Tecnologica de León. Asesor: Dr. Alan David Blanco Miranda, Universidad Tecnologica de León
PLANTEAMIENTO DEL PROBLEMA
La principal problemática resulta dentro de las limitaciones con las que cuentan muchas instituciones, ya sean educativas o ya dentro del ámbito empresarial.
Al existir limitaciones dentro de la práctica física se recurre al uso de equipos reales para ser utilizados en el ámbito educacional y de aprendizaje, cosa que resulta de gran utilidad, sin embargo, es algo con lo que no se puede contar siempre gracias a los costos elevados de los equipos y a la disponibilidad con la que pueda contar la institución o empresa.
En este caso, la limitación de equipo y herramientas no permite en su totalidad un desarrollo completo de habilidades.
Agregando a todo esto la posibilidad que puede llegar a existir el daño o deterioro de los equipos debido a los errores que pueden existir por ser exigidos dentro del ámbito educacional donde justamente están para ello, aprender.
Al tener costos y disponibilidades limitadas, se busca la manera de reemplazar, agregar y mejorar la práctica convencional, es aquí donde entra la simulación por medio de realidad virtual en donde todos los entornos pueden ser reutilizados cuantas veces sean necesarias y sin el riesgo de que exista una posibilidad de dañar equipos por fallas eléctricas, golpes, mal conexiones o fallos de programación.
METODOLOGÍA
La metodología del proyecto fue desarrollada en base a la proposición de un total de 7 objetivos a realizar dentro de las 7 semanas establecidas en el plan de trabajo.
En este proyecto se utilizaron meramente recursos tecnológicos los cuales pudiesen brindar la innovación y la gran adaptabilidad que se busca conseguir en el desarrollo de proyectos modernos, es por ello que dentro de los principales pasos seguir era el hecho de comenzar con una investigación y pequeña capacitación con respecto a los recursos bibliográficos necesarios, dentro de los cuales se encuentran: el uso del software Unity, programación en lenguaje C# (para uso dentro del mismo) y la interconexión entre Unity y el software para desarrollo de programación en PLC.
Una vez tenidas las bases para poder comenzar con el desarrollo material del proyecto se comenzaron a generar los diseños 3D para el uso dentro de la simulación.
Puesto que la idea era generar un ambiente industrial para hacer la práctica lo más familiar posible con la realidad se buscó generar e importar diversos modelados que pudieran influenciar en lograr la experiencia lo más real posible dentro de los entornos de realidad virtual.
Los elementos modelados:
Banda transportadora
PLC
Botones (para diversas actividades)
Sensores
Objetos de prueba
Elementos decorativos
Área de trabajo
Con los diseños ya generados se procedió a la importación dentro del plano de trabajo del proyecto, así como a la programación de las físicas de la simulación y la programación del comportamiento que tendría cada elemento dependiendo de la situación.
Una vez con los elementos correctamente generados con sus propiedades es momento de asignar las actividades:
Generar una simulación que sirva como capacitación en base a una banda transportadora la cual será operada desde un panel de control para representar un proceso industrial dentro de una línea de producción.
Realizar un examen interactivo que tenga como fin el corroborar los conocimientos sobre las partes que conforman un PLC y su funcionamiento básico.
Las actividades anteriormente mencionadas se generaron dentro del área de trabajo de tal manera que además pueden llegar a generar un puntaje que daría la calificación obtenida con respecto al resultado del examen.
Con las actividades ya establecidas es momento de hacer la interconexión entre la comunicación por parte del software Unity hacía el software de PLC en ambientes industriales.
Esta interconexión viene directamente desde la programación base del proyecto la cual fue desarrollada en lenguaje C#, dentro de este lenguaje se facilita el uso de librerías que permiten hacer la comunicación deseada, en este caso, NetToPLCsim. Y con ello ahora es posible hacer que las instrucciones dentro de ambos lenguajes de programación sean efectuadas con la toma de variables entre ambos programas.
Dada que la vinculación es únicamente de manera back end y la interacción entre el usuario y el software no será con la programación ahora es necesario la creación de una interfaz de usuario gráfica o un panel de control, para ello, se utilizaron los elementos 3D ya modelados anteriormente los cuales permiten directamente la ejecución de comandos por medio del uso de equipo de realidad virtual.
Puesto a que todos los elementos ahora cuentan con sus propiedades definidas, actividades, interconexiones, comunicación e interacción con el usuario únicamente quedaría pendiente el realizar la simulación de las actividades para obtener una representación de los resultados con respecto a la interfaz gráfica, el manejo del equipo y la experiencia del usuario.
CONCLUSIONES
Durante la estancia de verano se logró definir que este tipo de proyectos representan una innovadora solución para la capacitación y entrenamiento de los estudiantes, técnicos y operarios encargados del mantenimiento, operación que involucran estos entornos y reparación de los equipos.
La realidad virtual permite recrear situaciones y escenarios de forma interactiva y segura, sin tener que utilizar equipos reales y sin interrumpir la producción.
Los resultados obtenidos en proyectos de este tipo demuestran la efectividad de la realidad virtual para mejorar la comprensión de los procesos productivos y optimizar los tiempos y costos asociados al entrenamiento tradicional. Además, el uso de la realidad virtual permite la simulación de situaciones de emergencia y la toma de decisiones en tiempo real.
En definitiva, la interconexión de la realidad virtual con un PLC representa una solución innovadora y valiosa para la industria, que puede mejorar significativamente el proceso de entrenamiento y mantenimiento de estos equipos y, por ende, mejorar la eficiencia en la producción en la industria.
Delgado Toro Laura Fernanda, Colegio Integrado Nacional Oriente de Caldas
Asesor:M.C. Noé Casas Ruiz, Universidad de La Ciénega del Estado de Michoacán de Ocampo
TRAS LAS HUELLAS DEL MEZCAL: UN RECORRIDO POR LA TRADICIóN Y EL ARTE DESTILADOR EN SAHUAYO
TRAS LAS HUELLAS DEL MEZCAL: UN RECORRIDO POR LA TRADICIóN Y EL ARTE DESTILADOR EN SAHUAYO
Delgado Toro Laura Fernanda, Colegio Integrado Nacional Oriente de Caldas. Asesor: M.C. Noé Casas Ruiz, Universidad de La Ciénega del Estado de Michoacán de Ocampo
PLANTEAMIENTO DEL PROBLEMA
En Sahuayo, Michoacán, México, hay un creciente interés en el turismo relacionado con la producción de mezcal. La ciudad cuenta con una sólida tradición mezcalera, con productores locales que elaboran esta bebida de forma artesanal, manteniendo su autenticidad. Sin embargo, a pesar de su potencial turístico, existen obstáculos que dificultan la plena realización de la "ruta del mezcal". Estos desafíos incluyen la falta de conocimiento, promoción y difusión, la escasez de capacitación e interés, problemas regulatorios y legales, y la necesidad de garantizar la sostenibilidad y preservación de la cultura local.
METODOLOGÍA
Esta investigación realizará un estudio profundo sobre la factibilidad de la ruta del Mezcal en Sahuayo, la historia de la zona, su infraestructura, los actores principales, los puntos claves del recorrido y otros aspectos relacionados, teniendo como base el estudio etnometodológico.
FASE 1: Investigación de la historia, los recursos disponibles y una valoración de la viabilidad del proyecto.
FASE 2: Identificación de destinos y puntos de interés
FASE 3: Definición de la ruta del mezcal.
FASE 4: Prueba y evaluación de la propuesta de proyecto de la ruta del mezcal.
.
CONCLUSIONES
El proyecto de la ruta del mezcal en Sahuayo, Michoacán, ha avanzado en la consulta y observación de factores climáticos, ambientales, económicos e infraestructurales. Se ha encontrado una viabilidad positiva debido a la óptima infraestructura en la región, incluyendo hoteles, restaurantes y vinatas.
Se destaca el encuentro con don Jaime Magaña Valdovinos, un productor mezcalero, quien enfatiza la importancia de preservar la tradición mezcalera y proteger el medio ambiente mediante prácticas agroforestales y bancos de germinación para los agaves.
Se han identificado 13 hoteles y más de 110 restaurantes cercanos a ellos, lo que enriquecerá la experiencia de los turistas que recorran la ruta del mezcal.
En conclusión, la ruta del mezcal en Sahuayo ofrece una valiosa oportunidad para fomentar la riqueza cultural, impulsar el turismo y contribuir al desarrollo económico local. Es importante la colaboración de todos los implicados para enriquecer la propuesta con autenticidad y preservar la tradición mezcalera. Un recorrido planificado por destilerías y lugares emblemáticos asegurará una experiencia memorable.
Díaz Gutiérrez Luis Carlos, Universidad de Sonora
Asesor:Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla
DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE ADQUISICIóN DE DATOS PARA LA CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS DE CENTELLEO CON TUBO FOTOMULTIPLICADOR.
DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE ADQUISICIóN DE DATOS PARA LA CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS DE CENTELLEO CON TUBO FOTOMULTIPLICADOR.
Díaz Gutiérrez Luis Carlos, Universidad de Sonora. Garcia Gutierrez Alejandro Ivan, Benemérita Universidad Autónoma de Puebla. Medina Ferrer Gustavo Alberto, Universidad de Sonora. Navarro Lopez Iveth Rocio, Universidad de Sonora. Pérez Morán Federico Santiago, Universidad de Guadalajara. Asesor: Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los distintos experimentos y búsqueda de fenómenos exóticos relacionados con la física de altas energías requieren de instrumentos que cuenten con una alta precisión en la toma de datos.
Por ello el diseño y desarrollo de detectores de partículas cada vez más precisos es importante pues debe de haber una mejora en los mecanismos de detección además de la optimización en la toma de señales para que estas sean procesadas, discriminadas y tratadas, con el fin de evitar perdida de información y cuellos de botella.
Debido a esto, en este trabajo se analizará la arquitectura de dos chips (NINO y HPTDC) diseñados para su uso especifico en física de altas energías, donde es fundamental, alta frecuencia de detección, gran precisión en la resolución temporal y una alta cantidad de densidad de canales para la medición de la carga depositada en sensores de plástico centellador y de placas resistivas
METODOLOGÍA
En primera instancia se preparó un sistema básico de trigger, el cual sirve para la detección de un evento/ partícula incidente en un arreglo de tres o más detectores, dos de los cuales fungen como trigger; el evento se confirma al registrarse de forma simultánea por este arreglo.
Los detectores de disparo (trigger) se caracterizan y se determina el voltaje de alimentación para el cual el par registra un número similar de señales. Para esto se realizó una sincronización sobre un par detectores de plástico centelleador y tubos fotomultiplicadores de dimensiones 9.7 9.7 3.4 cm. Se aplicó para cada detector una variación del voltaje de alimentación en un intervalo de 1 a 1.7 kV con pasos de 0.5 kV, para cada valor se llevó a cabo el conteo de eventos/señales registradas para cada detector, el conteo se realizó utilizando la patente de la contadora de eventos para pruebas rápidas de parte de la Benemérita Universidad Autónoma de Puebla. Para cada valor de voltaje se realizaron tres mediciones de 1 minuto de duración, con un voltaje de discriminación de 15 mV. Se determinaron los voltajes para el cual se presenta una diferencia de conteos menor al 10% entre los detectores.
Posteriormente, se usó un arreglo experimental en el cual el sistema de trigger se localizó por encima y por debajo del detector a caracterizar (L1), de forma que la proyección de su área transversal coincida para ambos detectores del sistema. Se aplicó una variación del voltaje de alimentación únicamente para L1 (en este caso se da una alimentación con un voltaje negativo) en un intervalo de 0.9 a 1.45 kV con pasos de 0.5 kV, para el trigger se da el voltaje de alimentación previamente obtenido. Se realizó igualmente el registro del número de eventos para cada valor de voltaje con la contadora, se efectuaron 3 mediciones de 4 minutos cada una; se registraron los eventos para L1, los del trigger y las coincidencias entre los tres. Se determinó la eficiencia del detector L1 y se escogió el voltaje de alimentación óptimo para este mismo.
En un posterior arreglo se da lugar a la digitalización de la señal obtenida de L1. Se usa el sistema anterior compuesto por el detector y el trigger. La señal de salida de L1 es procesada por la tarjeta NINO 2468 del experimento ALICE, que devuelve un pulso cuadrado cuyo ancho se ve relacionado con la amplitud de la señal de entrada y a su vez con la carga de la partícula incidente. Posteriormente, este pulso es direccionado a otra tarjeta que realiza una conversión de señal LVDS (low voltage differential signal) a salida TTL, posteriormente esta señal es recibida por un módulo traductor CAEN para la conversión a NIM, con el objetivo de conectar la señal a un TDC (time to digital converter) para la digitalización y obtención de los flancos de subida y bajada del pulso cuadrado, realizar el cálculo de su ancho en el eje temporal y así conocer la amplitud de la señal del detector. La precisión de la medición de los flacos de subida y bajada de estas señales es de 25 ps.
La señal de ambos detectores del trigger es direccionada a un módulo discriminador, posteriormente a un módulo de coincidencias que devuelve una única señal TTL. Después, se utiliza el mismo módulo traductor a NIM para finalmente llegar al TDC para poder efectuar la obtención del tiempo de la señal. El trigger en el TDC realiza la confirmación de un evento de L1 por medio de un método de medición que consiste en la aplicación de una ventana de tiempo de búsqueda previamente definida, donde a los pulsos registrados dentro de dicha ventana se les toma el tiempo del flanco de subida y de bajada.
Finalmente, se realizó un código para la lectura de los datos recabados y el posterior cálculo de los anchos de las señales obtenidas y así conocer la resolución temporal del detector.
CONCLUSIONES
Durante la estancia se hizo uso de instrumentos que son comunes para hacer pruebas con los distintos detectores esto con el fin de comprobar su correcto funcionamiento, adquiriendo conocimiento de cómo usar estos instrumentos, igualmente se aprendió a utilizar un software con el que se obtienen datos, además al recoger estos datos se llevó a cabo un análisis de estos, buscando la resolución temporal, tiempo de llegada de señales respecto al trigger, la estadística de veces que cierta resolución llego y la medición de la carga de cada evento detectado. Sin embargo, los últimos datos aún se encuentran en proceso de ser analizados, pero se espera que estos datos nos indiquen un funcionamiento correcto y bastante preciso de los detectores caracterizados.
Díaz Huerta Omar Ulises, Universidad Autónoma de Ciudad Juárez
Asesor:Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)
CARACTERIZACIóN DE UN DEPóSITO DE ACERO 316L SOBRE ACEROS GRADO HERRAMIENTA Y DE BAJO CARBONO MEDIANTE LA TECNICA LASER CLADDING.
CARACTERIZACIóN DE UN DEPóSITO DE ACERO 316L SOBRE ACEROS GRADO HERRAMIENTA Y DE BAJO CARBONO MEDIANTE LA TECNICA LASER CLADDING.
Díaz Huerta Omar Ulises, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Si bien se tienen registros de la búsqueda de información respecto a la tecnología de Laser Cladding (LC), no ha sido hasta épocas recientes que la aplicación de todos los conocimientos que se han obtenido desde la época de los 1980 ha comenzado con el creciente auge de las tecnologías de manufactura aditiva; más concretamente la tecnología LC cuyos fundamentos llevan un tiempo estudiándose pero no ha sido hasta hace pocos años que la exploración hacia sus aplicaciones se ha visto en diversos campos, desde recubrimientos, reparaciones hasta la creación de piezas completas desde cero.
En el presente año se ha visto un aumento en el estudio de recubrimientos por medio de la técnica de LC, analizando principalmente la manera en que los parámetros de entrada pueden afectar la calidad de los depósitos, si bien se tiene constancia de que trabajos enfocados en un mismo recubrimiento variando el material donde se va depositar existen, la cantidad de ellos es contada siendo de total importancia para analizar como la energía necesaria para depositar dichos recubrimientos puede afectar de distinta forma cada material.
En el presente año se ha visto un aumento en el estudio de recubrimientos por medio de la técnica de LC, analizando principalmente la manera en que los parámetros de entrada pueden afectar la calidad de los depósitos, si bien se tiene constancia de que trabajos enfocados en un mismo recubrimiento variando el material donde se va depositar existen, la cantidad de ellos es contada siendo de total importancia para analizar como la energía necesaria para depositar dichos recubrimientos puede afectar de distinta forma cada material.
METODOLOGÍA
El recubrimiento analizado fue un acero 316L, la composición de dicho acero se encuentra dentro de lo establecido por la designación Unified Numbering System (UNS J92800). Los sustratos donde se hizo el recubrimiento fueron 2 grado herramienta (D2 y H13) y un acero de bajo carbono (1018). El depósito fue realizado por medio de LC usando un alimentador de polvos ‘Thermach inc AT-1200’ y un cabezal Nittany DBCH 3000con boquilla lateral montado un brazo robótico ‘Kuka, KR 2700’. El proceso de preparación metalográfica de la sección transversal fue realizado empleando una pulidora y lijadora metalográfica ‘CMS metrology YMP-2B’; usando papel abrasivo de 80 hasta 2500, procedido por un acabado con pasta de diamante (1 µm) y silica coloidal (0.02µm), posteriormente se realizó proceso de ataque químico con Nital 3% durante 10 segundos.
Las muestras se analizaron con microscopios ópticos ‘Keyence VH - Z500R‘ y ‘VELAB METALLURGICAL MICROSCOPE’ con el fin de analizar la microestructura resultante de los depósitos. Se analizo el impacto del ataque químico sobre el sustrato y el recubrimiento, por último, se realizó el estudio de durezas mediante un durómetro Vickers ‘Lianer micro-Vickers Hardness tester HV-1000’ de las muestras para analizar variaciones en distintas zonas del sistema.
CONCLUSIONES
Durante la etapa de lijado se debió tener especial cuidado, que las diferencia entre dureza entre el sustrato y el depósito provocaba un desgaste desigual, así como que fueran mas propenso el efecto de borde. Lo anterior se pudo observar en las pruebas realizadas por el durómetro Vickers el cual dio indicios de cambios significativos entre el sustrato y los cordones; por otro lado, también se observó un aumento significativo de dureza en la HAZ indicando un posible cambio en la microestructura generado por la energía suministrada durante el proceso de depósito y los efectos de Inter difusión de los elementos del sustrato y el depósito. El ataque químico revelo la zona del sustrato mas no la zona de los cordones dando un indicio que el uso de esta aleación de recubrimiento efectivamente protegería contra la corrosión, ya que se trata de un acero inoxidable. Durante la etapa de revisión de microestructura no se encontraron grietas ni la presencia de porosidad.
Díaz Lievano Lázaro Raúl, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Luz Adriana Cordero Cid, Benemérita Universidad Autónoma de Puebla
ESTUDIO DE NUEVA FíSICA EN EL CONTEXTO DEL 2HDM INERTE.
ESTUDIO DE NUEVA FíSICA EN EL CONTEXTO DEL 2HDM INERTE.
Díaz Lievano Lázaro Raúl, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Luz Adriana Cordero Cid, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El modelo estandar de física de particulas es una de las teorías más importantes de la física actual por su alcance para explicar 3 de las 4 interacciones fundamentales. Aún así, existen fenomenos de la fisica de altas energias que no se pueden explicar con este modelo, por ello, se estudian extensiones y modelos más allá del modelo estándar.Una de las opciones más naturales es introducir dos dobletes de Higgs al modelo estándar.
El modelo de dos dobletes de Higgs ha sido ampliamente estudiado en la literatura y a nosotros nos ha interesado analizar una versión de dicho modelo considerando un doblete como el del modelo estándar y el otro doblete inerte. Como extra, consideramos que los nuevos campos escalares que se introducen al modelo, pueden considerarse como candidatos de materia obscura y analizamos la producción de dichos campos en decaimientos del bosón de Higgs a los nuevos escalares.
METODOLOGÍA
El trabajo se inició estudiando el Modelo Estándar (SM), que es una teoría basada en el grupo de norma SU(3) x SU(2)x U(1). Dicha teoría describe las interacciones fuerte, débil y electromagnética entre las partículas elementales como los fermiones, así como con partículas mediadoras de las interacciones como los bosones de norma y el bosón de Higgs. Por tanto, el SM es una teoría totalmente comprobada que sirve de base para el estudio de nueva física que se puede ver en modelos extendidos.
Estudiamos el sector escalar del modelo de dos dobletes de Higgs inerte, considerando que el primer doblete realiza el trabajo del Campo de Higgs del modelo estandar usual, mientras que en el segundo doblete se implementan los nuevos campos correspondientes a los nuevos bosones de Higgs. Respecto al potencial escalar, se utiliza un potencial más general que permite generar los nuevos términos de masa para los nuevos campos, así como las interacciones.
En este trabajo, estudiamos el sector escalar el modelo, enfocándonos al análisis de la nueva física que surge de los acoplamientos entre el bosón de Higgs y los nuevos escalares que se introducen.
Particularmente estudiamos indicios de nueva física, analizando los decaimientos el bosón de Higgs a los nuevos escalares del modelo, esto es, calculando la amplitud del proceso y la anchura de decaimiento de forma analitica, así mismo, a través de uso de software especializado como la paquetería Feyncalc de Mathematica.
CONCLUSIONES
Durante el desarrollo de la estancia, se ha estudiado el Modelo Estándar. Dicho modelo, nos permite entender las interacciones entre las partículas elementales.
En este trabajo analizamos indicios de nueva física, considerando el 2HDM inerte. Dicho modelo se caracteriza por tener un sector escalar extendido por medio de un doblete inerte. La extensión del sector escalar del modelo estudiado nos permite estudiar acoplamientos entre escalares y analizar decaimientos del bosón de Higgs a los nuevos campos escalares que se introducen al modelo.
Diaz Robles Mauricio, Universidad Autónoma de Guerrero
Asesor:Dra. Margarita García Hernández, Instituto Politécnico Nacional
FABRICACIóN DE MEMBRANAS DE QUITOSANO A PARTIR DE ESQUELETOS DE OSTIONES Y QUITOSANO COMERCIAL.
FABRICACIóN DE MEMBRANAS DE QUITOSANO A PARTIR DE ESQUELETOS DE OSTIONES Y QUITOSANO COMERCIAL.
Diaz Robles Mauricio, Universidad Autónoma de Guerrero. Asesor: Dra. Margarita García Hernández, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Planteamiento
En México, existe una gran cantidad de residuos de ostiones que es necesario ser aprovechados para un interés comercial e industrial; mediante la aplicación de métodos de síntesis se pueden obtener polímeros que dan lugar a un cambio biológico importante que tienen beneficios tales como, eliminación, desarrollo y crecimiento bacterias Gram + y Gram -.
A los problemas que han causado los residuos orgánicos e inorgánicos es la contaminación de los ecosistemas costeros causando una preocupación importante debido a las actividades industriales y urbanas que son fuentes significativas de contaminación en estas áreas, lo que puede tener un impacto negativo en la salud de los ecosistemas y la vida marina.
Por otro lado, el uso de materiales poliméricos presenta propiedades versátiles que le dan la ventaja como un reemplazo de órganos, que podrían resolver daños aparentes como su biocompatibilidad y su biodegradación. Las de membranas poliméricas permitirían tratar enfermedades de odontología de enfoque tisular siendo una línea de investigación prometedora que busca mejorar la eficacia de los tratamientos frentes a enfermedades tisulares y obtener mejores resultados en el campo de la odontología regenerativa. Estas membranas poliméricas estarían diseñadas para ser biocompatibles y permitir la regeneración de tejidos dañados o perdidos en la cavidad oral.
METODOLOGÍA
Metodología experimental
Obtención de quitosano
Para la obtención del quitosano, primero se deben eliminar la mayor cantidad de proteína y algunas carnosidades, y a su vez deben ser secados a de 100 °C para eliminar la humedad durante 5 h en la estufa y realizar la molienda de los ostiones hasta alcanzar un tamaño de partícula aprox. de 250 μm. Posteriormente, se hace la desproteinizaciòn al agregar NaOH al 1 M a una proporción 1:15 con temperatura ambiente durante 2h de agitación. Por otro lado, en la etapa de desmineralización se añade HCl al 0,6 N en relación 1:11 sólido -líquido a temperatura ambiente por 3h para la eliminación del carbonato de calcio. La quitina obtenida, finalmente se somete al proceso de desacetilación, mediante el cual, es convertida en quitosano; para ello se pesa 10 g de quitina obtenida y se diluye en una solución de NaOH al 1,5 M en una relación 1:4 sólido- líquido, a temperatura de 60 °C - 100 °C.
Obtención de Hidroxiapatita
Los huesos de pollo (pierna) deben ser minuciosamente limpiados para eliminar cualquier resto de carnes, articulaciones y proteínas que puedan estar presentes, una vez limpios se someten a altas temperaturas en la estufa de laboratorio. Inicialmente, se llevan a una temperatura de 100 °C durante las primeras 3 horas y luego se incrementa la temperatura a 180 °C. Después del tratamiento térmico, los huesos se trituran hasta alcanzar un tamaño de partícula de aproximadamente 250 μm. Esta etapa es importante para obtener partículas pequeñas y homogéneas; así puedan incorporase con otras sustancias. Finalmente, las partículas trituradas se someten a la mufla, a una temperatura de 300 °C. La temperatura se incrementa gradualmente hasta alcanzar los 1000 °C (1 hora por cada 100 °C de aumento).
Fabricación de membranas
Método de evaporación de solventes
En dos vasos de precipitado de 500 ml añadir 2 g de quitosano comercial y en el otro vaso, añadir 2 g de quitosano obtenido de los ostiones. Después disolver 57 ml de ácido acético y esperar 5 minutos que ocurra las reacciones exotérmicas para mantenerlo en agitación por 10 minutos hasta obtener una mezcla homogénea y se forme una masa uniforme. Posteriormente agregar el agente plastificante (7,6 g) en relación m/v y mantenerlo en constante agitación por 3h s a temperatura ambiente. Finalmente, verter la mezcla en la caja Petri a temperatura controlada a 40°C durante 48h.
CONCLUSIONES
Conclusiones
Bajo las condiciones experimentales usadas en la investigación, se logró extraer con éxito dos importantes polímeros naturales: la quitina y el quitosano. Estos polímeros fueron obtenidos mediante diversas etapas que implicaron reacciones intermoleculares para otorgarles propiedades específicas. Uno de los aspectos destacados del proceso fue la eliminación de compuestos proteicos y minerales durante la molienda, lo que redujo el riesgo de intoxicación y minimizó el impacto en el medio ambiente. De las propiedades resultantes de la quitina y el quitosano se derivaron de su peso molecular, y se observaron efectos beneficiosos del quitosano en aplicaciones médicas, industriales y comerciales.
Además, se extrajo hidroxiapatita (HAp) a partir de huesos de pollo, que se utilizó como agente biológico con propiedades antibacterianas. Al combinar la HAp con el quitosano, se logró fabricar una membrana polimérica que prevé ser efectiva para evitar el paso de bacterias Gram + y Gram-. Es importante destacar que la rigidez del quitosano comercial fue más pronta en comparación con el quitosano obtenido de los ostiones, que requirió más tiempo para alcanzar la firmeza y permeabilidad deseada en la membrana.
Finalmente, la investigación abre oportunidades para aplicar estos polímeros naturales en diversas industrias y campos, como la medicina y la tecnología, debido a sus propiedades únicas como el efecto antibacteriano, antitumoral, anticoagulante y una mejor regeneración tisular de la membrana polimérica desarrollada. Sin embargo, es necesario seguir optimizando los procesos para aprovechar al máximo estas aplicaciones potenciales y así dar un segundo uso a los residuos marinos.
Díaz Solano Fatima Yetzareth, Instituto Politécnico Nacional
Asesor:Dr. Marco Montiel Zacarías, Universidad Veracruzana
PATRIMONIO Y SUSTENTABILIDAD
PATRIMONIO Y SUSTENTABILIDAD
Briones Sánchez Erick Daniel, Instituto Politécnico Nacional. Díaz Solano Fatima Yetzareth, Instituto Politécnico Nacional. García Acosta Diana del Carmen, Instituto Politécnico Nacional. Asesor: Dr. Marco Montiel Zacarías, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
En Veracruz, sobre todo en el puerto, diariamente llega infinidad de barcos con gran variedad de mercancía, misma que debe ser correctamente empaquetada y protegida para transportarla de una manera más fácil y segura, existen dos elementos que se usan para ese fin: los pallets de madera y el unicel. Estos materiales ofrecen solución para dos de las problemáticas más grandes que tiene Veracruz las cuales son la falta de vivienda digna para las personas de bajos recursos y el gran desperdicio de materiales que se vuelven inservibles en el puerto.
Para medir la sustentabilidad de una sociedad, según la UNESCO, el indicador más importante es el patrimonio ya que su salud muestra que tan sostenible es una sociedad. Lamentablemente el patrimonio se ve afectado cuando el desconocimiento en restauración hace que se empleen técnicas y materiales que no son los adecuados, lo que provoca el deterioro del patrimonio de las ciudades y en cierta medida ocasiona su pérdida, como es el caso de varios lugares en la de Veracruz.
El centro histórico de Veracruz alberga siglos de historia en cuanto a patrimonio arquitectónico. En esta ciudad se encuentran edificios con diferentes estilos arquitectónicos los cuales datan de la época de la conquista hasta la modernidad, sin embargo, los edificios más recientes han sufrido diferentes grados de alteraciones que hacen que se pierda gran cantidad del bagaje cultural e histórico de la ciudad de Veracruz.
Con este proyecto se busca analizar la situación que presenta Veracruz tanto en vivienda y patrimonio, trabajando ambos temas de manera conjunta para ofrecer soluciones integrales.
METODOLOGÍA
Durante la estancia se han realizado tres proyectos que en conjunto dan la solución para coadyuvar a que Veracruz sea una ciudad más sostenible.
Primeramente, se trabajó con el proyecto de B-Pallets, ideado por la Universidad Veracruzana como una alternativa para la construcción de viviendas que sean accesibles para personas con bajos recursos y a la vez ayudar a formar comunidades que fomenten valores como la solidaridad. La principal característica que destaca de este sistema es el reciclaje de los pallets de madera y el unicel usados para el embalaje de mercancía que llega al puerto de Veracruz, formando un sistema constructivo que funcione como muros divisorios, sean exteriores o interiores, que trabajando en conjunto con una estructura se puede volver una excelente solución para formar viviendas dignas.
Se trabajó en el proceso de construcción de cuatro especímenes del sistema B-Pallets experimentando con los materiales y dosificaciones para que posteriormente se les puedan hacer las pruebas pertinentes en laboratorio bajo a criterios de las normas aplicables para determinar que cualidades físicas y mecánicas puede ofrecer este sistema.
Se hicieron bastidores con un pallet de madera de 1.14 m x 1.14 m que fue dividido en cuatro partes para poder trabajar dichos especímenes. Una vez obtenidos los bastidores de madera, se procede a extraer placas de poliestireno expandido (unicel) que tengan las medidas del hueco que se forma en el interior del bastidor hecho con el pallet de madera; el unicel se usa para reciclar el "material de desperdicio" de los embalajes de mercancía, pero este a su vez otorga al muro B-Pallet cualidades primordialmente acústicas y térmicas por el grosor de la placa que se corta que va de los 11 a 12 cm dependiendo del pallet de madera que vaya a ser utilizado como bastidor. después se puso una tela de gallinero que servirá como soporte para las capas de tierra. Posteriormente se trabajó en conjunto con técnicas de construcción con tierra para darle estabilidad al sistema constructivo, en las que se agregaron tres capas de tierra por cara del muro, cada una con diferentes características: las cuales son: capa de relleno, capa de nivelación y capa de acabado. Para la primera capa se trabajó con una mezcla de tierra del lugar, cal y paja; con esta capa se consigue rellenar el espacio entre el bastidor de madera. unicel y la tela de gallinero, estableciendo una superficie rígida que reciba la siguiente capa. La capa de nivelación esta hecha de una mezcla de cal y arena, tiene un grosor de no más de 5 mm y forma una superficie más lisa sobre la que se puede agregar un acabado. En este caso, se agregó un acabado con cal pigmentada para experimentar las ventajas de la cal como un acabado final.
Se pretende que el sistema de B-Pallets se lleve a cabo a gran escala empleando los pallets completos y que para llevar a cabo la construcción de viviendas se usen materiales del lugar y el apoyo de toda una comunidad.
Asimismo, el conocimiento de técnicas de construcción con tierra y materiales naturales es un gran aliado al momento de intervenir en patrimonio histórico en donde se han usado estos tipos de técnicas, como en la fortaleza de San Juan de Ulúa, en donde se llevaron a cabo levantamientos arquitectónicos del Cuerpo de Vigilancia de la fortaleza ubicado en la parte de tierra firme de la misma. Al ser un espacio con al menos 300 años de historia fue necesario realizar el reconocimiento de los materiales utilizados y técnicas de construcción entre los que destacan el uso de piedra múcara y aplanados con cal, a la vez también se hizo el levantamiento de los deterioros que presenta el edificio y así ofrecer una estrategia para su correcta restauración.
Comprendiendo que preservar el patrimonio de una ciudad es una actividad que debe realizarse día a día, se recorrieron las calles de la colonia Flores Magón del centro histórico de Veracruz para poder identificar los edificios hechos a partir de finales del siglo XIX los cuales no cuentan con ningún tipo de protección de alguna institución como el INAH o INBA, buscando catalogarlo para que en un futuro pueda ser reconocido y protegido.
CONCLUSIONES
Las actividades realizadas en el verano de ciencias otorgaron experiencias y conocimientos que muestran la importancia del entendimiento del pasado, siendo una inspiración para la solución de problemas del presente para asegurar un mejor futuro para las sociedades; además que con los nuevos conocimientos es posible conservar aquel pasado que forma parte de la identidad cultural de las personas que habitan en determinado lugar. Se espera poder seguir trabajando en la preservación y reconocimiento del patrimonio arquitectónico; a su vez en más propuestas de técnicas de construcción que fomenten el sentido de comunidad que fortalezca a las sociedades tanto de Veracruz como del resto del país.
Diaz Tequia Karen Daniela, Universidad Simón Bolivar
Asesor:Dra. Griselda Chávez Aguilar, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias
EL PAPEL DE LAS BACTERIAS EN EL CRECIMIENTO VEGETAL COMO PARTE POTENCIALMETE PARA LA AGRICULTURA
EL PAPEL DE LAS BACTERIAS EN EL CRECIMIENTO VEGETAL COMO PARTE POTENCIALMETE PARA LA AGRICULTURA
Diaz Tequia Karen Daniela, Universidad Simón Bolivar. Asesor: Dra. Griselda Chávez Aguilar, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias
PLANTEAMIENTO DEL PROBLEMA
Los microorganismos son parte importante del suelo, ya que realizan funciones elementales para el mantenimiento de los ecosistemas terrestres, como el de contar con enzimas esenciales para la degradación de diversos elementos como el nitrógeno, fosforo y potasio; nutrientes que son necesarios para la germinación, crecimiento y desarrollo de las plantas, por ejemplo, son parte de la nutrición de cultivos esenciales a la humanidad, como el frijol.
Los fertilizantes químicos son usados de forma excesiva por los agricultores, ya que estos son capaces de producir lixiviado en las aguas subterráneas y superficiales. Los lixiviados son generalmente de nitratos y productos, esto ha generado diversas afectaciones del ambiente como lo son la toxicidad del agua, contaminación de aguas subterráneas, contaminación del aire, degradación de los suelos e incluso desequilibrios biológicos . Por esto se han buscado estrategias organizas, tales como los biofertilizantes que no solo ayuden al crecimiento de las plantas, sino que permitan generar una agricultura sostenible, a través del uso de binóculos generados con soluciones bacterianas, como bacterias promotoras del crecimiento vegetal (PGPR, por su siglas en ingles), que ayuden a disminuir el uso de fertilizantes químicos.
Las PGPR promueven el crecimiento de las plantas, a través del efecto de tres PGPR sobre la germinación y crecimiento de plantas de frijol en condiciones de invernadero. En la metodología se utilizó dos especies de frijol, las cuales se sembraron en bolsas y ademas se inocularon en cada uno diversas cantidades de microorganismo para así determinar cuál tenía el potencial para un mayor desarrollo y volumen. Cada una de las plántulas fueron revisadas constantemente por diez días, al final se revisaron los resultados, en donde se analizó la eficiencia en los aspectos de área y altura.
Por consiguiente, se continuará realizando una revisión exhaustiva con el fin de determinar si estos microorganismo son eficientes en el crecimiento y volumen de las plántulas de frijol, para así poder avanzar con los resultados a otras experimentaciones.
METODOLOGÍA
La mayoría de las pruebas han sido realizadas en cultivos de plantas específicas con frijol, que es una leguminosa, que presenta simbiosis con bacterias capaces de crear pequeños nódulos que ayudan en el desarrollo del cultivo, específicamente del género Rhizobium.
Esta investigación se llevó a cabo con un experimento de invernadero establecido en la región de Los Llanos de Ojuelos, en el estado de Jalisco, México; con la finalidad de evaluar el efecto de la inoculación de tres bacterias promotoras del crecimiento vegetal sobre la germinación e incremento de biomasa de los componentes aéreos y subterráneos de la plantas de frijol. Las bacterias utilizadas fueron: Stenotrophomonas sp., Enterobacter sp., y Rhizobium sp., las cuales fueron previamente aisladas de suelos rizosféricos de 10 diferentes sistemas productivos, en el estado de Chiapas, México. Además, esto permitirá conocer el potencial de las cepas bacterianas sobre el desarrollo de frijol, permitiendo establecer el valor práctico del manejo de estas cepas en cultivos establecidos en zonas semiáridas.
En invernadero, se estableció un diseño experimental que consistió en 5 tratamientos, tres de éstos consistieron en evaluar las tres cepas bacterianas de forma individual, un tratamiento más consistió en la mezcla de las tres cepas y, por último, el tratamiento testigo (sin inoculación bacteriana). Se usaron semillas de frijol del tipo negro verdín, las cuales fueron previamente tratadas, en bolsas de macetas de 1 kg, se le adiciono sustrato esterilizado mezclado junto con Peat moss ( un sustrato de la descomposición de materia orgánica que se pude encontrar generalmente en zonas pantanosas), en una proporción de 70-30%, respectivamente. Las semillas de frijol fueron inoculadas en el momento de la siembra, el proceso de germinación tuvo un período de observación de 10 días en total, tiempo en el cual germinaron todas las semillas. Con el número de semillas que germinaron en este tiempo, se calcularon variables como porcentaje y velocidad de germinación de la plántula (Chávez-Aguilar et al., 2021). Según la grafica donde se encuentran reflejados los resultados, esta ayuda a entender de forma clara y sencilla que algunas de los microorganismos hasta hora podrían ser potencialmente usados para ayudar en el crecimiento de las plántulas de frijol entre esas esta MIX3 - 0 cuenta con la mayoría de la biomasa total a diferencia de los demás los cuales se encuentran disminuidos, el de mayor desarrollo y rendimiento en volumen, es decir aérea, fue el microorganismo Stenotrophomonas el cual cuenta con un mayor índice de crecimiento.
Pero Las variables de crecimiento y de biomasa de las plántula de frijol inoculadas aún se encuentran en proceso de análisis, para poder entender si se encuentran algunas diferencias dependiendo de los tratamiento que se evaluaron a lo largo de la investigación y de los cuales aun se deben estudiar más a fondo.
Grafica 1. Semillas de frijol, datos arrojados por la experimentación en invernadero
CONCLUSIONES
Por medio de la experimentación , se puedo llegar a la conclusión de que las bacterias son esenciales en el suelo, además de ser potenciadoras en el crecimiento y nutrición de las plantas, en este caso del frijol, el cual es fundamental en la canasta familiar básica de la mayoría de las poblaciones.
Domínguez Gutiérrez Edric, Instituto Politécnico Nacional
Asesor:Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas
IMPACTO DE UN MEJORADOR ORGáNICO EN CRUDO EXTRAPESADO Y SU APLICACIóN EN UN MEDIO POROSO.
IMPACTO DE UN MEJORADOR ORGáNICO EN CRUDO EXTRAPESADO Y SU APLICACIóN EN UN MEDIO POROSO.
Castro de León Griselda Guadalupe, Instituto Tecnológico de Matamoros. Domínguez Gutiérrez Edric, Instituto Politécnico Nacional. Asesor: Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
El petróleo es una mezcla compleja de hidrocarburos que suelen clasificarse en saturados, aromáticos, resinas y asfaltenos, y tales fracciones determinan las propiedades fisicoquímicas del fluido.
En México, la Industria del petróleo es importante debido al impacto económico Nacional, sin embargo, la mayor parte de las reservas tanto a nivel nacional como mundial son crudos pesados y extrapesados. El petróleo extrapesado se caracteriza comúnmente por contener un alto contenido de asfaltenos y elevada viscosidad, lo que da lugar a problemas operativos en el campo.
Uno de los principales problemas en la extracción de crudo extrapesado es la precipitación de asfaltenos ocasionando taponamientos tanto en el espacio poroso del yacimiento como en las líneas de flujo, esto puede mejorarse a partir de la adición de ciertos productos químicos de diferente naturaleza.
METODOLOGÍA
En la presente investigación se realizó una reacción de transesterificación de alcoholisis del triglicérido y el metóxido de sodio para la cual se utilizó un sistema de destilación vertical con reflujo dando como resultado la síntesis de un compuesto orgánico derivado de ésteres de ácidos grasos que se evaluó en un crudo de 77000cP a 23°C. Primeramente, se realizó la caracterización del mejorador basados en las normas de la ASTM, evaluando su densidad, tensión superficial y viscosidad, así como la inhibición de los asfaltenos. Posterior a ello, se procede a evaluar la viscosidad del crudo, así como de las mezclas crudo-mejorador para observar el impacto en la reducción de su viscosidad. Con ello se realiza una prueba de fluidez a través de un permeámetro integrado por una muestra de roca carbonatada homologa a un medio carbonatado fracturado, haciendo fluir la muestra de crudo original, así como adicionada con 3, 6 y 12% de mejorador para registrar el gasto de crudo obtenido en la salida del sistema.
CONCLUSIONES
Se encontró que los asfaltenos permanecen homogéneamente distribuidos en la superficie y que se logra alcanzar una disminución de la viscosidad en el crudo alrededor del 50% e incrementa el flujo de fluido al dosificar un bajo porcentaje del mejorador. El trabajo realizado demuestra que existen alternativas más sustentables que se pueden utilizar para una optimización en el manejo y transporte del crudo.
Dominguez Solis Gerardo Aldair, Universidad de Guadalajara
Asesor:Dr. José Alberto Luna López, Benemérita Universidad Autónoma de Puebla
OBTENCIóN, PROPIEDADES ELéCTRICAS Y OPTIMIZACIóN DE LOS óXIDOS CONDUCTORES TRANSPARENTES: OXIDO DE ESTAñO DOPADO CON FLúOR Y OXIDO DE ESTAñO DOPADO CON INDIO UTILIZANDO LA TéCNICA DE SPRAY PIROLISIS ULTRASóNICO
OBTENCIóN, PROPIEDADES ELéCTRICAS Y OPTIMIZACIóN DE LOS óXIDOS CONDUCTORES TRANSPARENTES: OXIDO DE ESTAñO DOPADO CON FLúOR Y OXIDO DE ESTAñO DOPADO CON INDIO UTILIZANDO LA TéCNICA DE SPRAY PIROLISIS ULTRASóNICO
Dominguez Solis Gerardo Aldair, Universidad de Guadalajara. Asesor: Dr. José Alberto Luna López, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En México la búsqueda de energías renovables como lo son la energía solar fotovoltaica está en pleno auge, pues actualmente en el país se desarrolla una nueva revolución tecnológica y por ende es de vital importancia la investigación en este campo. Los óxidos conductores transparentes dentro de este panorama, son una parte vital para el desarrollo de celdas fotovoltaicas eficientes, por lo que en esta estancia de investigación se propone optimizar este tipo de películas, específicamente enfocándonos en el óxido de estaño dopado con flúor (FTO) y el óxido de estaño dopado con indio (ITO) que son los más utilizados en esta industria energética, utilizando una técnica de depósito sencilla, económica y escalable como lo es la técnica de spray pirolisis ultrasónico.
METODOLOGÍA
Para el depósito de las películas fue utilizada la técnica de spray pirolisis ultrasónico, la cual cuenta con los parámetros; temperatura, tiempo, concentración de la solución, flujo, distancia y tamaño de gota. Los parámetros de distancia, flujo, concentración de la solución y tamaño de gota se mantuvieron con un valor fijo el cual fue determinado de acuerdo con los resultados obtenidos en pruebas previas realizadas por el grupo de investigación del Dr. José Alberto Luna.
Los parámetros variables en la investigación realizada en la presente estancia fueron la temperatura y tiempo de depósito, además, se utilizaron 2 diferentes sustratos; silicio tipo p con resistividad de 1 a 10 ohms y orientación (100) y portaobjetos. La finalidad de utilizar ambos sustratos fue la de obtener los parámetros ópticos de reflectancia (en el caso de los sustratos de silicio) así como transmitancia y absorbancia (para las películas depositadas sobre los portaobjetos).
Para la preparación de la solución de FTO ésta fue preparada en una base de metanol y etanol con el objetivo de comparar con que solvente se obtenían mejores propiedades eléctricas (mejora en la conductividad), al realizarse diversas pruebas se llegó a la conclusión de que era mejor utilizar finalmente una base de etanol. Los precursores utilizados fueron NH4F y SnCl4*5H2O, con relaciones 7.14% y 0.38% (masa/volumen%) respectivamente.
La solución de ITO fue preparada en una base de metanol conteniendo InCl3 y SnCl4*5H2O, se formaron 2 diferentes soluciones con relaciones 8% (masa/volumen%) entre el InCl3 y SnCl4 e inversamente. La finalidad de elaborar 2 soluciones al igual que en la comparativa que se hizo entre los diferentes solventes del FTO, es la de determinar con que solución se obtuvo una mejor conductividad del material, utilizándose finalmente la solución que contiene un menor porcentaje de contenido de indio, siendo esta además una ventaja respecto al costo de producción de la película.
Respecto a los resultados obtenidos en la variación de los parámetros de temperatura y tiempo de depósito se realizaron pruebas utilizando como base la temperatura reportada para la obtención del ITO y FTO la cual ronda aproximadamente los 350°C, por lo que se utilizó el rango de temperaturas de 300°C a 400°C incrementando 10° en cada depósito, usando para ello un tiempo fijo de 10 minutos. Para establecer cuál era la mejor temperatura de depósito fue medida la resistencia de las películas obtenidas, donde la temperatura de 370°C mostro mejores resultados.
Finalmente, con los resultados anteriormente mencionados se procedió a fijar la temperatura de síntesis de ambos materiales y se utilizaron los tiempos de depósito de 10, 15, 20 y 30 minutos, con lo que se obtuvieron un total de 8 muestras, a las cuales se les realizo un tratamiento térmico a 550°C en un ambiente de oxigeno por 1 hora, por lo que se consiguieron 16 muestras finales 8 de ITO y 8 de FTO (4 sin y 4 con tratamiento térmico en ambos casos).
Para caracterizar los materiales obtenidos y determinar sus propiedades eléctricas fueron realizadas mediciones de corriente contra voltaje (I-V) en configuración horizontal utilizando un equipo Keythley 4200 SCS, mientras que para las propiedades ópticas fueron realizadas mediciones de reflectancia, transmitancia y absorbancia en el rango UV-Visible.
De las mediciones eléctricas y ópticas se observó un compromiso entre el espesor y la conductividad del material, de los resultados eléctricos se determinó que la mayor conductividad se obtuvo para las películas de ITO con una menor concentración de indio depositada por 30 minutos alcanzando una resistencia de 0.002 ohms, además, el tratamiento térmico disminuye la resistividad del material de acuerdo con lo observado y el comportamiento eléctrico corresponde a una conducción óhmica como es esperado. En cuanto a los resultados ópticos el incremento en el tiempo de depósito efectuó un corrimiento del borde de absorción hacia mayores energías para ambos materiales siendo más notorio para el caso del ITO.
CONCLUSIONES
En el transcurso de la estancia se logró obtener conocimiento en el ámbito teórico y experimental respecto a los óxidos conductores transparentes, la técnica spray-pirólisis y los equipos de caracterización eléctricos y ópticos.
Como logros de la investigación se mantuvo un buen grado de transparencia sin aumentar la resistencia de las películas observándose una transmitancia de alrededor del 90% en la región del visible y 80% en el UV en los mejores casos, incluso en algunos teniendo también buena absorbancia en la región del IR. Siendo esto un buen indicador de que se podrían llegar usar en celdas fotovoltaicas o dispositivos optoelectrónicos.
Duarte Lopez Miguel Angel, Universidad de Sonora
Asesor:Dr. Miguel Mora González, Universidad de Guadalajara
DESARROLLO DE ALGORITMOS DE PROCESAMIENTO DIGITAL DE IMáGENES E INTELIGENCIA ARTIFICIAL PARA SU APLICACIóN EN EL RECONOCIMIENTO Y CLASIFICACIóN DE ABERRACIONES óPTICAS
DESARROLLO DE ALGORITMOS DE PROCESAMIENTO DIGITAL DE IMáGENES E INTELIGENCIA ARTIFICIAL PARA SU APLICACIóN EN EL RECONOCIMIENTO Y CLASIFICACIóN DE ABERRACIONES óPTICAS
Duarte Lopez Miguel Angel, Universidad de Sonora. Labandera Rodríguez José Julián, Universidad de Sonora. Tirado López Isaul, Universidad de Sonora. Asesor: Dr. Miguel Mora González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Nuestro objetivo principal fue abordar el desafío de la detección y clasificación de aberraciones ópticas en imágenes sintéticas. Las aberraciones ópticas pueden tener un impacto significativo en la calidad de las imágenes, afectando la nitidez, el contraste, forma y otros aspectos visuales. El desarrollo de algoritmos efectivos y eficientes para identificar y clasificar estas aberraciones es de gran importancia en aplicaciones que requieren imágenes de alta calidad, como la fotografía digital, la medicina, la industria o la vida cotidiana.
METODOLOGÍA
Nuestro plan de trabajo se dividió en diferentes etapas a lo largo de las siete semanas de la estancia. Durante las primeras tres semanas, nos enfocamos en conceptos fundamentales del procesamiento digital de imágenes, incluyendo definición de imagen, resolución, cuantificación, descomposición de colores y niveles de gris, así como operaciones lógicas y aritméticas.
En la siguiente semana, nos adentramos en el análisis del histograma y su expansión, así como en técnicas de filtrado espacial. La semana tres estuvo dedicada al filtrado de frecuencia, analizando los distintos tipos de máscaras para generar filtros pasa altas, pasa bajas, pasa banda, así como supresores de banda. En esta semana también exploramos otros tipos de filtros, como: Canny, Roberts, Prewitt y GplusC.
La cuarta semana trabajamos el reconocimiento de patrones, donde nos familiarizamos con las definiciones y aplicaciones de esta área. En esta semana, también comenzamos a trabajar en los algoritmos de simulación de aberraciones ópticas (interferogramas sintéticos), realizando en forma continua una base de datos de imágenes con mezclas de aberraciones para entrenar los algoritmos.
Durante la quinta y sexta semana, nos centramos en el reconocimiento estadístico de patrones, estudiando el Teorema de Bayes y los clasificadores de distancia mínima (Euclidiana y Mahalanobis). También exploramos conceptos como la función de densidad de probabilidad (PDF por sus siglas en inglés), el parámetro de máxima verosimilitud, modelos mixtos y el perceptrón.
Finalmente, en la última semana, abordaremos otros modelos de reconocimiento de patrones, como K-means, KNN (vecinos más cercanos) y PCA (análisis de componentes principales). Además, examinaremos diversas aplicaciones de estos modelos en el contexto del reconocimiento de patrones.
Durante todo el proceso, consultamos una amplia variedad de fuentes bibliográficas, incluyendo los libros "Digital Image Processing" de Gonzales & Woods, "Visión por Computador" de Velez et al, Pattern Recognition and Image Processing, de Bow, entre otros. También revisamos varios artículos relevantes relacionados con nuestro proyecto. Cabe destacar que cada algoritmo estudiado fue implementado en Python, presentado y evaluado por el investigador, quien proporcionó asesoramiento y retroalimentación para mejorar nuestro trabajo.
CONCLUSIONES
Nuestra estancia se centró en la aplicación de IA para el desarrollo de algoritmos de procesamiento digital de imágenes, con un enfoque en la detección y clasificación de aberraciones ópticas. A través de la metodología propuesta, adquirimos conocimientos fundamentales en el procesamiento digital de imágenes y el reconocimiento de patrones y desarrollamos habilidades prácticas en la implementación de algoritmos utilizando las plataformas Colab y Jupiter de Python.
Hasta el momento, nuestros avances nos han permitido construir una base de datos que cuenta con una cantidad significativa de interferogramas sintéticos de aberraciones ópticas, lo que permitirá contar con datos suficientes para entrenar nuestros algoritmos y con ello detectar cada tipo de aberración, así como combinaciones de estas.
La experiencia adquirida durante esta estancia nos brindó una base sólida para continuar explorando y desarrollando nuevas aplicaciones de IA en el campo del procesamiento digital de imágenes y el reconocimiento de patrones, así como sus posibles aplicaciones en la óptica física (interferencia y difracción).
Duran Serrano Esmeralda Guadalupe, Universidad Vizcaya de las Américas
Asesor:Dr. Sergio Gabriel Ordóñez Sánchez, Benemérita Universidad Autónoma de Puebla
DEVALUACIóN DE LA MONEDA MEXICANA
DEVALUACIóN DE LA MONEDA MEXICANA
Duran Serrano Esmeralda Guadalupe, Universidad Vizcaya de las Américas. Asesor: Dr. Sergio Gabriel Ordóñez Sánchez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
¿Qué está pasando?, ¿es real, como estàincrementando su valor la moneda mexicana?, ¿cómo sucedió?, ¿qué hacer para que se mantenga o no se vuelva a devaluar tanto? El valor de la moneda mexicana está ocasionando mucho de qué hablar a principio de enero del 2023 hasta el día de hoy.
En esta investigación nos basaremos en varios puntos lo cual va de la mano con la política, ciertas instituciones, con la historia y datos que van ordenados, entre otros temas que veremos más adelante, trabajando principalmente con la metodología Histórica.
METODOLOGÍA
Es importante tener en cuenta que los datos históricos de inflación y devaluación mencionados en la tabla pueden variar según las fuentes y los factores económicos y políticos específicos de cada periodo. Sin embargo, entiendo que los valores que mencionas corresponden a las cifras proporcionadas en la tabla anterior.
Es cierto que durante los años de 1970-1982, la inflación y la devaluación en México fueron altas, lo que generó desafíos económicos significativos. Estos fenómenos pueden estar relacionados con decisiones económicas en la producción nacional y eventos tanto nacionales como internacionales que afectaron la economía del país.
Durante el periodo de Miguel de la Madrid, la inflación alcanzó un nivel muy elevado, debido en parte a las catástrofes nacionales e internacionales que enfrentó su gobierno. La devaluación también fue alta durante ese periodo, lo que contribuyó a la situación económica crítica del país
Luego, desde 1988 hasta 2012, la inflación disminuyó con un promedio más bajo, lo que puede ser resultado de diferentes políticas económicas y factores que se implementaron durante esos años.
Es cierto que la inflación y la devaluación pueden tener cierta proporcionalidad, ya que estos dos indicadores están relacionados con el comportamiento de la economía y la estabilidad monetaria de un país.
Es correcto observar que en la historia presidencial de México, ha habido una relación inversamente proporcional entre el crecimiento del PIB y el crecimiento de la inflación y la devaluación.
Cuando la inflación y la devaluación aumentan, como sucedió durante los periodos de Gustavo Díaz Ordaz hasta José López Portillo, la moneda nacional se debilita frente a la moneda internacional, lo que afecta la economía del país y puede generar desbalances económicos y sociales.
Durante el periodo de Miguel de la Madrid, la inflación alcanzó niveles muy altos, y el PIB se contrajo significativamente, lo que resultó en una devaluación históricamente alta. Estos eventos contribuyeron a debilitar la fortaleza económica de México.Es importante señalar que las políticas económicas y las decisiones de los gobiernos pueden tener un impacto significativo en estas variables y en el comportamiento económico del país. Es fundamental buscar un equilibrio y estabilidad en la economía para impulsar el crecimiento sostenible y el bienestar social.
La relación entre el crecimiento del PIB, la inflación y la devaluación es un tema complejo y multifactorial, pero es crucial analizar y entender estas variables para tomar decisiones informadas en la gestión económica del país..
Es cierto que durante la presidencia de Carlos Salinas de Gortari, el peso mexicano experimentó una "pequeña estabilidad" con una devaluación de alrededor del 50.08%. Durante su mandato, se implementó el nuevo modelo económico basado en el neoliberalismo, que buscaba modernizar la economía y fomentar la inversión extranjera.
La modernización nacional y las políticas económicas adoptadas durante su gobierno contribuyeron a una disminución de la inflación y a una mejoría en la sociedad mexicana. Sin embargo, es importante mencionar que su administración también enfrentó críticas y controversias relacionadas con la crisis económica de 1994 y la devaluación del peso en diciembre de ese año, conocida como el "Efecto Tequila".
Es cierto que los presidentes posteriores a Carlos Salinas de Gortari tuvieron un promedio en la devaluación de alrededor del 64.56%, lo que indica una mayor volatilidad en el tipo de cambio en comparación con el periodo de estabilidad mencionado.
El incremento del PIB puede haber sido menor en balance con los primeros sexenios presidenciales debido a diversos factores económicos y políticos que influyen en el crecimiento económico del país.
Es importante recordar que el comportamiento económico de un país es influenciado por múltiples factores, incluyendo las políticas económicas, eventos internacionales, la situación económica global y otros factores locales. Analizar estas tendencias y comparar los resultados de diferentes periodos puede proporcionar información valiosa para entender la evolución económica de México.
CONCLUSIONES
La devaluación del peso mexicano fue históricamente alta durante ese periodo, lo que debilitó la fortaleza económica de México y generó desafíos en los aspectos macroeconómicos y microeconómicos.
Es importante tener en cuenta que la situación económica de un país puede ser influenciada por una serie de factores complejos, y las decisiones económicas y políticas durante ese periodo también pueden haber contribuido a la crisis que se vivió.
Es fundamental analizar y aprender de la historia económica de un país para tomar decisiones informadas y buscar un equilibrio económico y una mayor estabilidad en el futuro..
En el actual sexenio de Amlo es el que esta priorizando la anomia en mexico y por eso la moneda mexicana esta arriba del dólar y en cierta parte influye mas las acciones del presidente para tener una economia estable y no solo se trate de vender a gente de otros países
Enciso Gonzalez Abraham Alberto, Universidad Veracruzana
Asesor:Dr. Sair Enrique Arquez Mendoza, Universidad Simón Bolivar
REALIZAR UN ALGORITMO PARA LA
VISUALIZACIóN DE ENTRELAZAMIENTO CUáNTICO USANDO 3 QUBITS
REALIZAR UN ALGORITMO PARA LA
VISUALIZACIóN DE ENTRELAZAMIENTO CUáNTICO USANDO 3 QUBITS
Enciso Gonzalez Abraham Alberto, Universidad Veracruzana. Asesor: Dr. Sair Enrique Arquez Mendoza, Universidad Simón Bolivar
PLANTEAMIENTO DEL PROBLEMA
La computación cuántica o informática cuántica es un paradigma de computación distinto al de la informática clásica. Se basa en el uso de qubits, una especial combinación de unos y ceros. Los bits de la computación clásica pueden estar en 1 o en 0, pero solo un estado a la vez, en tanto que el qubit puede tener los dos estados simultáneamente. Esto da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos debido a esto, nuestro de quiso demostrar una manera de poder mostrar como funciona un efecto cuántico que es el entrelazamiento para ello se necesita la formulación y realización de un código mediante programas específicos de creación de códigos
METODOLOGÍA
El proyecto se realizo mediante una serie de pasos a seguir para poder tener todo en en orden y una división de trabajo mas correcta, estos son:
Recopilación de Bibliografía Se investigo todo la informacion que mas se pudo además de repasar lo que ya tenia de cursos pasados de computación cuantica y varios libros mas avanzados de creación de codigos en python.
Comprensión fisica del efecto de entrelazamiento Recopilación de información en donde podemos ver como se comporta teoricamente las particulas y como hacen para realizar este proceso y todo lo que lleva acabo
Aplicacion de la herramienta Qiskit Aqui podemos decir que era una herramienta nueva que no habia usado con anterioridad por lo que se tuvo que realizar un codigo en el cual se vea como funciona lo anterior investigado que es el entrelazamiento
Creación de un algoritmo con 3 qubits Al crear un sistema de entrelazamiento de 2 qubits se plantea la idea de usar un sistema de 3 qubits usando puertas cuánticas de hadamart entre otras para hacer que la información llegue al qubit final sin necesidad de intervenir una tercer persona, un algoritmo mas avanzado para visualizarlo mejor.
Elaboración gráfica del sistema Una vez creado el sistema tenemos que evaluarlo de manera que sea mas sencillo su análisis y la verificación sera mediante gráficos igualmente creadas en la herramienta de Qiskit agrandando una librería ya al tener todos los datos de nuestro circuito corriendo solo es cuestión de ver si la información si consiguió entrelazarse entre los 3 qubits.
CONCLUSIONES
El trabajo de investigación fue de amplio recuento de todo lo que necesitaba repasar para conocer en que estábamos trabajando así como también el estudio de como crear un algoritmo de entrelazamiento necesitaba conocer muy bien la teoria para que fuera aplicada al codigo, claro que esto fue una demostración solamente de un sistema con 3 qubits, cuando en la actualidad hay computadoras cuanticas con mas de 10000 qubits lo qiue hace que nuestro algoritmo funcione pero con mas qubits este algoritmo solo es cuestión de agregar puertas cuánticas con matrices mas grandes de 0 y 1 cambiando la complejidad del asunto, para ello se necesitaria una computadora cuantica para poder correr el codigo , en general el proyecto se puede ver como una comprensión mas sencilla del proceso de entrelazamiento mediante la programación.
Escobar Candelaria Francisco Damián, Universidad Autónoma de Chiapas
Asesor:Dr. Félix Raymundo Saucedo Zendejo, Universidad Autónoma de Coahuila
IMPLEMENTACIóN DE UN MéTODO SIN MALLA PARA APROXIMAR FUNCIONES Y RESOLVER EDPS.
IMPLEMENTACIóN DE UN MéTODO SIN MALLA PARA APROXIMAR FUNCIONES Y RESOLVER EDPS.
Escobar Candelaria Francisco Damián, Universidad Autónoma de Chiapas. Losoya Sifuentes Diego de Jesús, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Félix Raymundo Saucedo Zendejo, Universidad Autónoma de Coahuila
PLANTEAMIENTO DEL PROBLEMA
La resolución de ecuaciones en derivadas parciales (EDPs) es de gran importancia en diversas áreas científicas y de ingeniería. Los métodos numéricos tradicionales para aproximar soluciones de EDPs se basan en la discretización del dominio mediante una malla, lo que puede resultar en limitaciones en términos de adaptabilidad a dominios irregulares y complejidad computacional.
El método sin malla (meshless method) surge como una alternativa a estos enfoques basados en mallas. En lugar de utilizar una malla, este método se basa en la interpolación de datos utilizando funciones de base radial (RBF) para aproximar las soluciones de las EDPs. Sin embargo, aunque el método sin malla ofrece varias ventajas teóricas y prácticas, su implementación plantea desafíos significativos.
El objetivo de este proyecto y estudio es investigar y desarrollar una implementación eficiente y precisa de un método sin malla para aproximar funciones y resolver EDPs. Se busca explorar las ventajas del método sin malla en términos de adaptabilidad a dominios irregulares y reducción de la complejidad computacional. Además, se pretende evaluar y comparar la precisión y eficacia del método sin malla con respecto a los métodos tradicionales basados en mallas.
METODOLOGÍA
En general, la metodología utilizada puede incluir la formulación del problema de valores límite mixtos, la obtención de la solución analítica, la implementación de métodos numéricos para obtener una solución numérica, y la comparación de los resultados obtenidos mediante ambas soluciones.
Recopilación de información:
Realizar una revisión exhaustiva de la literatura científica y técnica relacionada con los métodos sin malla y su aplicación en la resolución de EDPs.
Familiarizarse con los conceptos teóricos y fundamentos matemáticos detrás del método sin malla y las funciones de base radial.
Selección de problemas de EDPs:
Identificar una serie de problemas de EDPs adecuados que permitan evaluar la eficacia y precisión del método sin malla.
Generación de nodos:
Diseñar un algoritmo para la generación de nodos en el dominio de interés, considerando la distribución adecuada de los mismos para una buena aproximación de la solución.
Explorar diferentes estrategias de generación de nodos, como la distribución uniforme o la adaptativa.
Construcción de funciones de base radial:
Implementar algoritmos para construir las funciones de base radial y ajustar sus parámetros según las características del problema.
Evaluación de la precisión y rendimiento:
Aplicar el método sin malla a los problemas de EDPs seleccionados y obtener soluciones numéricas.
Comparar las soluciones numéricas con soluciones analíticas conocidas o soluciones obtenidas mediante métodos tradicionales basados en mallas.
Análisis de resultados:
Interpretar y analizar los resultados obtenidos en términos de precisión, eficacia y adaptabilidad a dominios irregulares.
Conclusiones y recomendaciones:
Resumir las conclusiones clave obtenidas del estudio de implementación del método sin malla.
Ofrecer recomendaciones para futuros investigadores interesados en aplicar o mejorar el método sin malla en la resolución de EDPs.
CONCLUSIONES
Para el análisis del método se consideraron tres probelmas diferentes con con condiciones de frontera distitntos, de Dirchlet, Neumman y otro mas en donde las condicones son mixtas.
Condición de Dirchlet
Para la primera función se obtuvieron muy buenos resultados a priori, pues desde que se concluyó su programación con el método, mostró un error menor al 5%, sin embargo, luego de tantear con las condiciones iniciales y de frontera, se consiguieron mejores aproximaciones tanto visuales como analíticas pues se consiguió reducir el error porcentual a menos del 0.5%. Lo anterior en parte podría deberse que es el que es el que menos modificaciones se hacen en la matriz M.
Condición de Neumman
Con la segunda función sucedió algo un tanto diferente, pues si bien las gráficas mostraban que se tenía la forma de la solución analítica, las escalas diferían en al menos dos órdenes de magnitud; y sin importar cuanto se tratara de modificar las condiciones iniciales, de frontera o de la función de pesos, no había una mejora significativa en los resultados. Por lo que al final se optó por multiplicar los valores obtenidos por un escalar a forma de compensar lo diminuto de los resultados. Dicha estrategia funcionó a la perfección y de empezar con un error cercano a al 200%, se pudo disminuir hasta cerca del 1%. Para éste ejemplo se tuvieron que agregar modificaciones a la obtención de la matriz M, teniendo tres condionales más en comparación con el ejmeplo 1.
Condiciones mixtas
Para el tercer y último caso, no se pudo llegar a estar cerca de algo parecido tanto en forma como en magnitud a la solución analítica (SA). A pesar de tener la experiencia de los otros dos casos previos, no se pudo encontrar la fuente que originara tanta disparidad entre los valores de la SA y la aproximación, pues por más iteraciones del programa o ajustes dentro del mismo no se conseguía que las gráficas empalmaran como anteriormente se logró. Nuestras conclusiones apuntan que al tener que mezclar las distintas condiciones de frontera que involucra tanto a la función U, como suderivada parcial respecto de n.
Finalmente, aunque no se obtuvieron los resultados como se tenía planeado al inicio, no quita mérito al método. Pues hay que recordar que estamos aproximando funciones muy complejas a partir de condiciones de frontera, que, dependiendo del método a elegir, pueden llegar a ser difíciles de implementar.
Además, gran parte del código es reciclable, en el ámbito que, basta con cambiar ciertos parámetros para adecuarla a otra función, lo que le otorga gran versatilidad y ahorro de tiempo al momento de trabajar con EDPs.
Escobar Wilson Marco Antonio, Universidad Autónoma de Chiapas
Asesor:Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
EFECTOS DE LA ATMóSFERA EN LOS CHUBASCOS ATMOSFéRICOS OBSERVADOS CON LOS DETECTORES DE SUPERFICIE DEL OBSERVATORIO PIERRE-AUGER.
EFECTOS DE LA ATMóSFERA EN LOS CHUBASCOS ATMOSFéRICOS OBSERVADOS CON LOS DETECTORES DE SUPERFICIE DEL OBSERVATORIO PIERRE-AUGER.
Escobar Wilson Marco Antonio, Universidad Autónoma de Chiapas. Asesor: Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Cuando un rayo cósmico entra en la atmósfera, las partículas cósmicas de alta energía colisionan con las partículas de la atmósfera terrestre, estas colisiones producen una cascada de partículas secundarias, cuyas partículas pueden a su vez provocar más colisiones, esto es un fenómeno denominado "chubasco atmosférico".
Ya que este fenómeno se produce y propaga por la atmósfera, es importante conocer si las variables presentes en la misma pueden llegar a afectar el desarrollo de los chubascos.
METODOLOGÍA
El observatorio Pierre-Auger es una superficie de 3000km2 en la cual se extiende una cuadricula triangular de 1600 detectores cherenkov separados por 1.5km entre si, dentro de esta superficie también se encuentran estaciones meteorológicas, las cuales monitorean la temperatura y presión atmosférica cada 5 minutos.
Utilizando los datos atmosféricos proporcionados de forma gratuita en la base de datos del observatorio Pierre-Auger entre los años 2005-2008, se planteó realizar los calculos para conocer la densidad de particulas de la atmosfera cada intervalo de tiempo.
Se llevó a cabo un modelo que mostrara como cambian la presión y la densidad atmosférica al día y a lo largo de los años.
Habiendo obtenido los datos atmosféricos necesarios, vemos que la densidad de partículas sigue cierta modulación, se pretende hacer simulaciones en CORSIKA y ver cómo se comporta el promedio de eventos diarios
CONCLUSIONES
Comparando la tasa de eventos diaria a lo largo de los 3 años en estudio, se pretende encontrar una relación directa entre los eventos detectados y la densidad de partículas en la atmosfera a lo largo del día y de los años.
Escobedo Villaneda Perla Patricia, Universidad Autónoma de Zacatecas
Asesor:Dr. Jesús López Hernández, Universidad Autónoma de Sinaloa
ZONAS DE FORMACIóN ESTELAR CON DATOS DE ESPECTROSCOPIA INTEGRAL DE CAMPO
ZONAS DE FORMACIóN ESTELAR CON DATOS DE ESPECTROSCOPIA INTEGRAL DE CAMPO
Escobedo Villaneda Perla Patricia, Universidad Autónoma de Zacatecas. Asesor: Dr. Jesús López Hernández, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La investigación de este trabajo está enfocada en el medio interestelar y formación estelar, en la cual se aborda la fotometría y espectroscopia, maneras de observar el universo, así mismo se detallan técnicas para llevarla a cabo, estas son: combinación de metodologías, barridos con rendija, Fabry-Perot, prisma objetivo y espectroscopia integral de campo; de igual manera se trata cómo es que ocurre la formación estelar y se habla sobre algunos mecanismos de ionización.
Teniendo claro las técnicas para la observación del medio interestelar y la formación estelar, se abordan varios espectros y se da una introducción a las líneas de emisión que estos tienen mediante diagramas de diagnóstico, en ellos se presenta la línea de divisoria de Kewley y la línea de divisoria de Kauffmann, con las técnicas fue sencillo identificar en el espectro la formación estelar, AGN, y la combinación de estos dos.
De igual manera se abordan otros aspectos como las nebulosas fotoionizadas y la metalicidad que estas presentan, teniendo claro que para calcular la abundancia se puede obtener mediante la composición química de las estrellas o con las regiones HII que son nubes de gas y plasma. Tambien se trata el corrimiento al rojo y se desarrolla un programa para su corrección.
METODOLOGÍA
Para llevar a cabo este trabajo es necesario introducirse a la página Mapping Nearby Galaxies at APO (MaNGA) en la que se observan algunos espectros y su información, estando en ella se elige uno y se descarga su cubo de datos.
El desarrollo del trabajo se realiza programando en lenguaje python para lo cual es necesario descargar algunas librerías como es el caso de astropy.
Ejecutando el cubo de datos es posible la visualización del espectro, así como su información y la gráfica del flujo vs la longitud de onda, desarrollando esta gráfica es posible tener el espectro a una longitud de onda dada; aquí ese espectro se ajusta mediante una función a una Gaussiana con la cual se lleva a cabo la integración del espectro por área.
Tambien se importa el catálogo de datos del manga DR17, ejecutando su información se identifica la línea de emisión Hα, Hβ, OIII, NII y con la ayuda del artículo Theoretical modeling of starburst galaxies, se obtiene la ecuación para obtener la línea divisoria de Kewley:
log([OIII]λ5007/Hβ ) = 0,61/(log([N II]Hα ) − 0,47)+ 1,19
De igual manera con el artículo: The host galaxies of active galactic nuclei, es posible ejecutar la línea divisoria de Kauffmann:
log([OIII]/Hβ ) > 0,61/(log([N II]Hα ) − 0,05)+ 1,3
Teniendo ya las líneas es fácil identificar los puntos debajo de la línea divisoaria de Kauffmann (Formación estelar), los puntos arriba de la línea divisoria de Kewley (AGN) y los puntos intermedios entre estas dos (Formación estelar y AGN).
Con base en la tabla 1 del artículo: New light on the search for low metallicity galaxies - I. The N2 calibrator se calculó la abundancia del oxígeno en escala12 + log(O/H) usando el indicador N2, mediante las siguientes formulas:
N 2 = log( n2/Hα )
.
Abundancia = 9,12 + 0,73(N 2)
.
Utilizando el flujo central y los datos de línea de emisión Hα, Hβ, OIII, NII es posible realizar un histograma de los datos de abundancia para cada galaxia.
Debido al alejamiento de espectros entre ellos ocasiona que las líneas de emisión cambien por lo que es necesario hacer una corrección por corrimiento al rojo, esta se hace a través de un código y se trabaja con el espectro ya corregido, en este se identifica Hα, Hβ, OIII, NII, se les ajusta una gaussiana y se calcula su área.
En la página Marvin SDSS se muestra el comando para instalar las librerías de Marvin, con estás librerías es posible trabajar con la información de los espectros sin necesidad de bajar su cubo de datos, solo se necesita su Manga ID.
Teniendo las librerías y trabajando en python fue posible la visualización del mapa y el diagrama de diagnóstico del espectro, estás gráficas se basan generalmente en Hα ya que es la línea de emisión más intensa. En el mapa mediante el manejo de una barra de colores se logra observar el valor del flujo.
CONCLUSIONES
Se obtiene el diagrama de diagnóstico de las SDSS galaxias donde se visualiza la formación estelar, AGN, y el conjunto de estos dos mediante la línea divisoria de Kewley y la línea divisoria de Kauffmann. Obteniendo las coordenadas de estas 61 SDSS galaxias se consiguió el Manga ID propio de cada una.
Desde esta misma página se eligió la galaxia con Manga-ID 1 44637 en la cual debido a la expansión del universo se hizo una corrección por corrimiento al rojo, donde se identificó y se ajustó a una gaussina Hα, Hβ, OIII, NII obteniendo el valor de cada área y mediante la libreria "scipy"fue posible calcular su error estimado:
Resultado de la integral Hα: 5.6199777458073905
Error estimado: 6.542090688790426e-11
Resultado de la integral Hβ: 1.3207666186306748
Error estimado: 1.271105057321087e-08
Resultado de la integral OIII: 1.021662954485199
Error estimado: 3.867430972638499e-13
Resultado de la integral NII: 0.25612398715114937
Error estimado: 2.8435474801057853e-15
Así mismo se analizó su mapa de flujo Hα 6564 seleccionando la región donde estuviera más presente y se incorporó de igual manera su diagrama de diagnóstico con la línea divisoria de Kewley y la línea divisoria de Kauffmann.
Con base en la tabla 1 del artículo: New light on the search for low metallicity galaxies - I. The N2 calibrator se calculó la abundancia del oxígeno en escala 12 + log(O/H) usando el indicador N2. Utilizando el flujo central y los datos de línea de emisión Hα, Hβ, OIII, NII se realizó un histograma de los datos de abundancia para cada galaxia
Esparza Enriquez Fernando, Instituto Tecnológico de Chihuahua II
Asesor:Dr. Victor Muñiz Sánchez, Centro de Investigación en Matemáticas (CONACYT)
IDENTIFICACIóN DE MENSAJES SEXISTAS CON TECNICAS DE MACHINE LEARNING
IDENTIFICACIóN DE MENSAJES SEXISTAS CON TECNICAS DE MACHINE LEARNING
Esparza Enriquez Fernando, Instituto Tecnológico de Chihuahua II. Asesor: Dr. Victor Muñiz Sánchez, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
En la actualidad contamos con la facilidad de tener a nuestra disposición las redes sociales, las cuales nos permiten comunicarnos con seres queridos, amigos e incluso con personas de otras comunidades o países.
A pesar de las ventajas y beneficios que ofrecen, la accesibilidad y el anonimato que proporcionan también facilitan la difusión de discursos o comentarios xenófobos, racistas, sexistas, entre otros, sin temor a ser castigados.
Ante esta problemática, se propone la implementación de diversos métodos de machine learning para la detección y clasificación de mensajes sexistas en las redes sociales. El objetivo es identificar el modelo más adecuado para dicha tarea, y a su vez contribuir en la moderación del discurso de odio en las redes sociales.
METODOLOGÍA
El desarrollo del proyecto consta de varias etapas. En la primera etapa, se realizó una revisión bibliográfica y del estado del arte que ayudó a establecer la forma en la que se llevará a cabo el proyecto y a obtener los datos para trabajar.
La base de datos cuenta con 2 conjuntos de datos: un set para el entrenamiento del modelo y otro para llevar a cabo las predicciones. Los datos de entrenamiento están compuestos por una lista de tweets etiquetados como sexistas y no sexistas. Además, los tweets sexistas se encuentran clasificados según el tipo de sexismo.
A continuación, se analizaron y pre-procesaron los datos utilizando técnicas de procesamiento del lenguaje natural, preparándose para modelos de visualización y análisis de datos. Entre estos modelos, se encuentran la bolsa de palabras (bag of words), que analiza la frecuencia de ocurrencia de las palabras en el corpus con la finalidad de entender la idea del texto gracias a la presencia de palabras específicas en ellos, y los word embeddings, que son representaciones vectoriales de palabras que capturan las relaciones semánticas y contextuales.
Una vez llevada a cabo la revisión bibliográfica, el análisis y preprocesamiento de los datos, y el uso de word embeddings y bag of words, se procede a la implementación de métodos de Machine Learning en los datos utilizados. Para el proyecto, se utilizó el modelo BERT, que significa Representación de Codificador Bidireccional de Transformers, desarrollado por Google y publicado en 2018.
Se realiza un pre-entrenamiento con los datos para que el modelo sea capaz de clasificar si un tweet es sexista o no y la categoría a la que pertenece.
CONCLUSIONES
El machine learning y el procesamiento del lenguaje natural siempre han sido temas que captaron mi atención, pero no tenía una gran idea de su funcionamiento o proceso. Durante mi estancia de investigación de verano, tuve la oportunidad de sumergirme en este fascinante campo, lo que me brindó valiosos conocimientos en un área que desconocía por completo. El uso del modelo BERT resultó especialmente interesante, ya que me permitió realizar predicciones con una exactitud mayor a la que se obtenía a través de métodos de machine learning no supervisado como la regresión estadística o los word embeddings. Esta experiencia ha sido sumamente enriquecedora, y estoy emocionado por seguir explorando y aprendiendo más sobre el emocionante mundo del machine learning y el procesamiento del lenguaje natural.
Espejel Zarate Ricardo, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor:Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
INSPECCIóN AUTOMáTICA DE JITOMATE USANDO DIGITALIZACIóN 3D.
INSPECCIóN AUTOMáTICA DE JITOMATE USANDO DIGITALIZACIóN 3D.
de la Riva Martinez Hector Josue, Instituto Politécnico Nacional. Delgadillo Wong Graciela, Instituto Tecnológico de Culiacán. Espejel Zarate Ricardo, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El mercado alimentario presenta irregularidad en los flujos de venta debido a la producción por temporadas. Este fenómeno afecta especialmente a huertos y pequeñas empresas de invernadero por los costos de inspección y clasificación. Un caso particular es la producción de jitomate, que es producto básico de la gastronomía mexicana con una variedad de más de 60 especies. La producción de jitomate necesita inspección y clasificación para asegurar su calidad tanto para el consumo local como para exportación.
Para las pequeñas empresas, la inspección y clasificación de jitomate es costosa porque depende del trabajo manual y la visión humana. En contraste a la clasificación manual, se pueden emplear tecnologías modernas que permitan a los agricultores realizar la clasificación de su producto de forma automática, rápida, y precisa, reduciendo tiempos y costos. La visión por computadora y la reconstrucción 3D son alternativas prometedoras para automatizar los procesos de clasificación del jitomate, impulsando la competitividad y el crecimiento de la agricultura en México.
METODOLOGÍA
El proyecto desarrollado en esta estancia de investigación adopta un enfoque cuantitativo y aplicado. Se construyó un sistema de visión 3D conformado por, una cámara webcam con resolución de 1280 x 720 píxeles, un proyector con resolución de 800 x 1280 píxeles y una laptop con procesador Intel-Core i7-9750H y memoria DDR4 de 16GB con el software Matlab para procesamiento de imágenes. Se recibieron clases teóricas sobre modelos matemáticos de cámaras, proyectores y procesamiento de imágenes.
Se implementaron métodos de demodulación de fase, que son esenciales para la reconstrucción digital de objetos 3D. Después de calibrar el sistema, se verificó su funcionalidad reconstruyendo esferas blancas y rojas de diámetro conocido. Los resultados obtenidos confirmaron la capacidad de realizar reconstrucción 3D, con un margen de error de 2 a 4 mm. Aunque este proyecto se centró en la detección de esferas, este sistema se puede emplear para detección de otros objetos como elipsoides.
La captura de franjas sigue un patrón cosenoidal y conlleva su propia complejidad debido a los requerimientos matemáticos involucrados. Las pruebas iniciales se realizaron proyectando franjas verticales y horizontales sobre el objeto. Este enfoque requiere procesar un número elevado de imágenes. Posteriormente se recibieron clases donde se investigó un método nuevo que solo requiere proyectar franjas verticales, reduciendo a la mitad el número de imágenes a procesar. De esta forma, se simplificó el proceso experimental de reconstrucción a través de métodos más avanzados de triangulación.
La fase de postprocesamiento engloba la captura de parámetros intrínsecos y extrínsecos de cada captura digitalizada, tanto para la cámara como para el proyector. La combinación de estos datos mediante software especializado, como Meshlab y Blender, conduce a la reconstrucción completa y precisa del objeto observado. A pesar de la complejidad inherente a todo el proceso, se logra una reconstrucción con un margen de error aceptable para nuestro proyecto de clasificación de jitomate. Como trabajo a futuro, se propone investigar la forma de reducir aún más el número de imágenes necesarias, y reducir el tiempo de captura de imágenes. Esto involucra estudiar a profundidad teorías de demodulación de fase y triangulación para realizar reconstrucción de objetos 3D de forma más rápida y precisa.
En última instancia, el proyecto llega a la fase de ajustar una esfera a la nube de puntos mediante series de Taylor. El resultado de este ajuste es el cálculo del tamaño del jitomate digitalizado. Aunque el enfoque se concentra en la detección en 3D de esferas, los resultados obtenidos son altamente satisfactorios. La meticulosa implementación de conceptos matemáticos y algoritmos es clave para lograr detecciones precisas y detalladas de las características de los objetos en estudio. En comparación con otros métodos existentes, esta solución desarrollada en México destaca por su eficiencia y bajo costo. Este enfoque innovador usa únicamente una cámara web, un proyector, y una computadora convencional, lo que lo convierte en una alternativa accesible y práctica en diversos contextos y aplicaciones.
CONCLUSIONES
En este proyecto, la técnica de proyección de luz estructurada a través de franjas ha demostrado ser altamente efectiva y precisa en la medición de jitomates. Los resultados indican un margen de error aceptable para esta aplicación. A diferencia de otras soluciones como redes neuronales y bases de datos extensas, esta técnica destaca por su simplicidad y economía. Dada la importancia del jitomate en la dieta mexicana y su uso en platos tradicionales, contar con una solución local y accesible para su clasificación es esencial para el sector agrícola y alimentario. Los resultados respaldan la viabilidad de este enfoque. Como trabajo a futuro se propone desarrollar un prototipo con un mini proyector y una cámara Raspberry Pi 4. Esto ofrece una alternativa práctica y asequible para invernaderos con recursos limitados, en contraste con sistemas costosos utilizados por grandes empresas.
Espíndola Camacho Omar, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Jesús López Hernández, Universidad Autónoma de Sinaloa
ESTUDIO Y CLASIFICACIóN DE GALAXIAS MEDIANTE LA ESPECTROSCOPíA INTEGRAL DE CAMPO DEL SONDEO MANGA
ESTUDIO Y CLASIFICACIóN DE GALAXIAS MEDIANTE LA ESPECTROSCOPíA INTEGRAL DE CAMPO DEL SONDEO MANGA
Espíndola Camacho Omar, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Jesús López Hernández, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La espectroscopía integral de campo (IFS) es una técnica observacional que consiste en recolectar información espectral del cielo en un campo de visión bidimensional, por lo tanto obteniéndose un cubo de datos cuyos ejes son dos espaciales (x,y) y la longitud de onda. Mediante esta técnica se intenta solucionar algunas desventajas de la espectroscopía tradicional de una rendija larga, pues permite registrar simultáneamente el espectro de cada parte de un objeto, en lugar de solo una sección delgada.
Para esta técnica se requieren dos instrumentos: un espectrógrafo y una unidad integral de campo o IFU (integral field unit) en inglés. El objetivo de una IFU es convertir el espacio bidimenisonal que se observa, en un arreglo continuo sobre el cual obtener los espectros. Estos arreglos pueden clasificarse en tres tipos, de acuerdo a su funcionamiento: arreglos de microlentes, arreglos de fibras ópticas y arreglos con espejos divisores. Si bien cada tipo de arreglo tiene ventajas y desventajas, hoy en día el más común es el de fibras ópticas, al cual pueden o no acoplarse microlentes, y que además permite cubrir una gran parte del espacio 2D sin conllevar a corrimientos de longitud de onda.
Enfocando la espectroscopía integral de campo al estudio de galaxias, es posible clasificarlas por tipo de acuerdo con la intensidad de sus líneas de emisión. Más aún, gracias a la resolución que ofrece la IFS, la clasificación puede extenderse a distintas regiones de cada galaxia para identificar posibles fenómenos que ocurran ahí.
METODOLOGÍA
Para los fines de este trabajo se utilizaron los datos publicados en el sondeo Mapping Nearby Galaxies at Apache Point Obsevatory (MaNGA), el cual provee información espectral para cerca de 10,000 galaxias cercanas. El archivo Data Analysis Pipeline (DAP) publicado en el Data Release 17 (DR17) contiene las propiedades de las líneas de emisión en cada spaxel de las galaxias estudiadas, por lo que sus datos son manipulados a través de distintas rutinas creadas con Python.
Inicialmente se descargaron cubos de datos de MaNGA en formato FITS para aprender a manipular la información contenida. En particular, para esta parte se trabajó con una galaxia espiral cuyo Plate-IFU es 9494-9102. Desde el sitio web Sky Server, accediendo desde Marvin, se descargó el archivo que contiene al cubo de datos con longitudes de onda expresadas en forma lineal.
Mediante un código de Python se accedió a la información de las longitudes de onda y sus correspondientes flujos, localizadas en el HDU del archivo. Para este objeto fue de interés generar la gráfica del espectro localizado en el spaxel central de la galaxia y posteriormente hacer un acercamiento para observar más detalladamente la línea de emisión de Ha.
Por otro lado, utilizando el archivo DAP en el cual se encuentra la información de todos los objetos del catálogo, se ajustó el espectro del mismo objeto para ajustarlo de acuerdo a su corrimiento al rojo.
Para poder asignar una clasificación a las galaxias del catálogo se utilizaron diagramas de diagnóstico o diagramas BPT (Baldwin, Phillips & Terlevich), cuyos autores demos-traron que es posible diferenciar las galaxias entre las que tienen formación estelar (Starburst) y las galaxias de núcleo activo (AGN) tipo 2, basándose en la intensidad del cociente de dos pares de líneas de emisión: [OIII] 5007/Hb y [NII] 6584/Ha.
Al graficar el diagrama BPT para estos datos, se tomaron en consideración dos curvas que pretenden establecer un límite para diferenciar aquellas galaxias con formación estelar de las AGN’s. La primera es la curva propuesta por Kewley et al. y la segunda curva es la propuesta más recientemente por Kauffmann et al.,
Siguiendo los límites igualmente mencionados por Kauffmann et al., se considerarán como galaxias tipo Seyfert aquellas cuyas líneas de emisión satisfagan que[OIII]/Hb > 3 y [NII]/Ha > 0,6 y como LINER’s a las que satisfagan que [OIII]/Hb < 3 y [NII]/Ha > 0,6. Por lo tanto, las galaxias Starburst serán entonces aquellas por debajo de la curva de Kauffmann.
Se muestran imágenes para cada una de las tres galaxias seleccionadas en cada región: Starburst, LINER y Seyfert, respectivamente. Para cada inciso de cada figura se encuentran tres diagramas para cada galaxia, identificada por su Plate-IFU.
El primer diagrama corresponde a la imagen bidimensional obtenida del cubo de datos, fijando lambda en Ha e indicando su intensidad. El segundo diagrama corresponde a la misma imagen bidimensional, seleccionando una región circular al centro de la galaxia. Posteriormente el tercer diagrama es un diagrama BPT, incluyendo las curvasde Kewley et al. y Kauffmann et al., marcando en color rojo los spaxels de la selección circular.
Se espera que la clasificación de la región central para cada galaxia en el diagrama BPT coincida con la clasificación de dicha galaxia. Sin embargo, existen casos en los que la región central de la galaxia no corresponde totalmente a la clasificación de la galaxia basada en la suma de todos sus flujos.
Basándose en el primer diagrama para cada galaxia, se observa que las líneas de emisión de Ha en varios spaxels alcanzan sus valores más altos en las galaxias tipo Seyfert, como se esperaría teóricamen- te.
A pesar de que la teoría coincide en gran parte con los datos ob- servados, es de especial interés extendiendo la línea de este trabajo, explorar las discrepancias que puedan existir. Es necesario estudiar no solo las regiones centrales de cada galaxia, sino también el res- to de sus partes y analizar qué tipo de fenómenos están ocurriendo en los alrededores y si coinciden con lo esperado o si requieren un estudio más profundo y particular para explicarlo.
CONCLUSIONES
A lo largo de este trabajo se han explorado distintas herramientas que permiten la manipulación de los datos publicados por diferentes sondeos que utilizan la espectroscopía integral de campo. Mediante rutinas escritas en Python y un trasfondo teórico, es posible abrirse camino dentro del estudio de las galaxias y los fenómenos que ocurren en ellas, haciendo uso de la novedosa herramienta que representa la IFS.
Si bien en este caso se abordan técnicas comunes y se llega a resultados conocidos, es posible dirigir este conocimiento a más líneas de investigación utilizando los fundamentos aprendidos durante este trabajo. El creciente desarrollo de esta área, así como las observaciones que se publican cada día o que están por publicarse, significan una oportunidad importante para proponer nuevos proyectos que puedan ampliar el conocimiento que se tiene sobre los fenómenos astronómicos.
Espinosa López Luis Humberto, Universidad de Guadalajara
Asesor:Dr. Rafael Hernández Jiménez, Universidad de Guadalajara
ESTUDIO DEL POTENCIAL INFLACIONARIO NATURAL
ESTUDIO DEL POTENCIAL INFLACIONARIO NATURAL
Espinosa López Luis Humberto, Universidad de Guadalajara. Asesor: Dr. Rafael Hernández Jiménez, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El modelo de inflación cósmica ha sido ampliamente reconocido como una de las hipótesis
más aceptadas para explicar el origen del universo y su rápida expansión exponencial en
las primeras etapas con un factor de 10^26 [1]. En el marco de la inflación, la generación de
estructuras a gran escala en el universo observable proviene de pequeñas fluctuaciones
cuánticas en un campo escalar conocido como "inflatón". Estas fluctuaciones cuánticas se
amplifican y se convierten en perturbaciones primordiales, que posteriormente dan lugar a la
formación de galaxias y las anisotropías del fondo cósmico de microondas.
La inflación cósmica se puede modelar utilizando el campo escalar junto con su densidad
de energía potencial. Durante este período, el concepto de "Slow-roll" se vuelve esencial, ya
que el campo se desplaza lentamente a lo largo de su potencial, permitiendo así una
expansión inflacionaria más prolongada.
En este contexto, este proyecto de investigación busca simular el slow roll de un potencial
natural para comprender en detalle la dinámica de la inflación y sus implicaciones en la
generación de perturbaciones cosmológicas primordiales.
METODOLOGÍA
Numéricamente se trabaja con cantidades adimensionales, por lo que se procedió a
reescribir el potencial natural de forma adimensional con ayuda del valor inicial del inflatón
con unidades de masas de Planck. Para obtener las condiciones iniciales de este problema
se desarrollaron las aṕroximaciones de slow roll, esto se llevó a cabo expandiendo el
potencial en una serie de Taylor, lo cual permitió calcular el número de e-folds que son el
número de veces que el universo se expande durante la inflación.
Los valores de la tasa de cambio del campo inflatón y su segunda derivada con respecto al
tiempo fueron analizados en un código de C++ para simular la evolución del universo.
Con esta simulación se obtuvieron datos del cruce de horizonte, y la dinámica de la inflación
durante el slow roll.
CONCLUSIONES
Durante el desarrollo de este proyecto se estudiaron las ecuaciones de la dinámica de
inflación cósmica y la implementación del concepto de slow roll para un potencial natural
específico. De esta forma se puede decir que el enfoque numérico para estudiar las
perturbaciones cosmológicas ha demostrado ser efectiva y que en un futuro se puede
complementar este trabajo con diferentes análisis trabajando con otros potenciales.
Mediante el uso de python se gráfico el comportamiento de las fluctuaciones escalares
descritas por el potencial natural, donde se identificó un comportamiento constante una vez
que se cruzaba el valor del cruce de horizonte.
Esquipula López Mauricio, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor:Dr. Victor Hugo Márquez Ramírez, Universidad Nacional Autónoma de México
RESPUESTA DE SITIO A PARTIR DE RUIDO AMBIENTAL
RESPUESTA DE SITIO A PARTIR DE RUIDO AMBIENTAL
Esquipula López Mauricio, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. Victor Hugo Márquez Ramírez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Los sismos son uno de los fenómenos naturales que se producen en todo del mundo, provocando daños a bienes materiales y perdidas humanas, ya que el planeta libera una gran cantidad de energía en poco tiempo, además, actualmente no existen equipos ni tecnologías para pronosticarlos.
La república mexicana es considerada a nivel mundial como una región sísmicamente activa, ya que se encuentra en un sistema tectónico complejo por la interacción de cinco placas: la placa de Cocos, la placa del Pacífico, la placa de Norteamérica, la placa Rivera y la del Caribe. Es en la zona de límites tectónicos donde se libera la energía y se presenta la mayoría de los sismos, pues en estas regiones las placas tectónicas interactúan entre sí (González, 2011).
Cuando se produce un evento sísmico las condiciones litologicas y el contraste de impedancia del suelo y la roca, determinan las posibles consecuencias en la infraestructura: daños estructurales, agrietamientos, colapsos, entre otros. Por lo anterior, resulta importante estimar la respuesta del sitio ante eventos sísmicos con parámetros detallados y características de los suelos para conocer los periodos fundamentales y, en consecuencia, las acciones a prever sobre las estructuras fundadas.
En la actualidad el método de Nakumara, es uno de los más usados para la determinación del periodo dominante del suelo y para la caracterización de los efectos de sitio, debido a su fácil implementación, tanto en el trabajo de campo como en el procesamiento de datos.
METODOLOGÍA
El método de Nakamura o Razón Espectral H/V, es un método Pasivo, basado en el análisis de microtremores (vibraciones del suelo producidas por fuentes naturales o artificiales) y el uso de sensores triaxiales. Nakamura 1989, propuso la utilización de los microtremores para la evaluación de los efectos de sitio, relacionando las componentes espectrales horizontales (N-S, O-E) y vertical del movimiento superficial registrado en un lugar (H/V). Obteniendo una señal compuesta donde el peak de mayor amplitud indica la Frecuencia fundamental del suelo (SALDIVIA, 2014).
Para la adquisición de datos de ruido ambiental se ocupó un sismómetro profesional Raspberry Shake 3D de carcasa de acrílico, constan de geófonos ortogonales de velocidad triaxial de tres componentes (Norte-Sur, Este-Oeste y la componete Vertical), con una frecuencia nominal dentro del rango ~ 0.6-34 Hz para el movimiento vertical y lateral, con una frecuencia de muestreo de 100 muestras por segundo.
En los sitios destinados para realizar el estudio de efecto de sitio se colocó a grabar al sismómetro con un tiempo de 90 minuto, de acuerdo a las recomendaciones del proyecto de investigación europeo (SESAME, 2004).
Después de medir, se adquirieron los datos ingresando en la memoria de almacenamiento del equipo.
Los datos se procesaron con el software de código abierto Geopsy, en el cual se corrigió la linea base, se establecieron que las ventanas de tiempo fueran de 40 segundos, un Overlap de 15% y se activo la herramienta de Anti-triggering, la cual sirve para descartar frecuencias altas que son producto de perturbaciones ajenas a la sismicidad natural del terreno. Además se seleccionó el filtro de Konno & Ohmachi por ser el más adecuado, estos parámetros fueron aplicados para cada medición hecha.
En cada procesado se guardo el blog de notas que genera H/V de Geopsy, ya que es donde esta el valor de la frecuencia fundamental (f0), el factor de amplificación (A0) y todos los valores que conforman las curvas H/V. Luego se diseñó un código en Python para graficar los valores de las curvas del promedio, máximo y el mínimo del blog de notas que genera el software. Con el objetivo de crear graficas más estéticas y limpias en comparación a las que generá el programa Geopsy. En el código para graficar los valores se utilizaron las librerías de Python: Pandas, Matplotlib y Numpy.
También se comparo los resultados que generá el H/V del Geopsy con el código de Joseph Vantassel que fue creado en Python para procesar señales de ruido ambiental y obtener el H/V. En ambos procedimientos se utilizó los mismos parámetros para obtener la frecuencia fundamental, con el fin de que en ambos diera el mismo resultado.
Al realizar la comparación con los dos procedimientos, no siempre se obtuvo los mismos resultados aunque tuvieron los mismos parámetros, por lo que se opto por solo considerar los resultados del Geopsy, porque es el software estándar para realizar los estudios H/V y que esta comprobado mundialmente.
CONCLUSIONES
Durante la estancia de verano adquirí conocimientos tanto teóricos como prácticos para obtener la frecuencia fundamental del terreno a partir de mediciones de ruido ambiental con sismómetros y así estimar la respuesta del sitio ante un sismo. El software donde se procesaron las señales fue Geopsy, el cual es el software mundialmente utilizado para obtener la frecuencia fundamental de un sitio.
El uso de la programación con Python fue importante para crear graficas más estéticas y limpias en comparación a las que se obtienen en Geopsy. Además se intento comparar los resultados del Geopsy con los de un código creado en Python para obtener la frecuencia fundamental, aunque no se obtuvo los mismos resultados en ambos.
Esperamos que las metodologías resultantes sean de apoyo en un futuro para los ingenieros y las autoridades locales utilicen estas herramientas para prevenir daños estructurales y víctimas humanas durante terremotos de moderados a fuertes.
Estrada Martinez Yadhyra Itzel, Universidad de Guadalajara
Asesor:Dr. Erik Díaz Bautista, Instituto Politécnico Nacional
ESTADOS COHERENTES EN GRAFENO CONSTRUIDOS MEDIANTE OPERADORES DE ENTRELAZAMIENTO.
ESTADOS COHERENTES EN GRAFENO CONSTRUIDOS MEDIANTE OPERADORES DE ENTRELAZAMIENTO.
Estrada Martinez Yadhyra Itzel, Universidad de Guadalajara. Asesor: Dr. Erik Díaz Bautista, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El presente trabajo se enfoca en la construcción de estados coherentes para un electrón de Dirac en grafeno, bajo la influencia de un campo magnético ortogonal a la superficie del material. Inicialmente, se parte de una solución espinorial a la ecuación de Dirac y se introduce un operador de entrelazamiento que conecta las componentes del espinor, permitiendo describir el comportamiento cuántico del electrón en esta configuración mediante funciones de onda entrelazadas.
METODOLOGÍA
Para obtener los estados coherentes, se plantea un operador de aniquilación y se calculan sus eigenestados, los cuales son los estados coherentes buscados. Estos estados son de particular interés en sistemas cuánticos debido a sus propiedades semi-clásicas y su aplicación en diversos contextos, como la descripción de la dinámica de estados electrónicos.
Finalmente, se presenta un análisis de la densidad de probabilidad de los estados coherentes obtenidos. Esta densidad de probabilidad proporciona información sobre la distribución espacial del electrón, lo que resulta fundamental para comprender su comportamiento y en presencia de un campo magnético.
CONCLUSIONES
En conclusión, este estudio contribuye a una mejor comprensión de la física de los electrones de Dirac en grafeno bajo condiciones específicas de campo magnético utilizando funciones de onda entrelazadas, y ofrece una herramienta valiosa para analizar su comportamiento mediante la utilización de los estados coherentes y la densidad de probabilidad asociada.
Estrada Méndez Diana Angélica, Universidad Autónoma de Chiapas
Asesor:Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
REVISIóN DEL ESTUDIO RELACIONADO A ANISOTROPíAS PUBLICADO POR LA COLABORACIóN PIERRE AUGER EN EL 2017
REVISIóN DEL ESTUDIO RELACIONADO A ANISOTROPíAS PUBLICADO POR LA COLABORACIóN PIERRE AUGER EN EL 2017
Estrada Méndez Diana Angélica, Universidad Autónoma de Chiapas. Asesor: Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Cuando hablamos de anisotropías en el contexto de los rayos cósmicos nos referimos a una variación del flujo de estos que llega a la Tierra dependiendo de la dirección en la que se mida. Aún no se determina las fuentes ni los procesos físicos que producen los rayos cósmicos de ultra-alta energía. De medir la suficiente cantidad de eventos de UHECR (por sus siglas en inglés) se puede aproximar la dirección de la que vienen y con esto, proponer sus posibles fuentes.
METODOLOGÍA
El proceso para obtener el mapa de la anisotropía es en gran parte mediante programación, utilizando Python 10.3. Primero se conservan únicamente los eventos con energía mínima de 8EeV, después se realiza un mapa de número de eventos por pixel. Posteriormente se grafica el mapa de exposición relativa por pixel. A ambos mapas se les aplica la técnica de suavizado 'top-hat', para finalmente obtener el mapa de flujo dividiendo los datos del mapa de conteo de eventos entre los datos del mapa de exposición.
CONCLUSIONES
Los resultados obtenidos tienen 1.5 sigmas de significancia, en comparación, los resultados obtenidos por el Pierre Auger en el 2017 tienen 5 sigmas de significancia. Si bien, en las gráficas obtenidas ambas anisotropías tienen direcciones similares, los resultados que se obtuvieron no son tan confiables como los publicados por el Pierre Auger, por lo que se destaca la importancia de contar la mayor cantidad de datos posible para este tipo de estudios, y también hay que considerar que los procedimientos no fueron exactamente los mismos.
Estrada Pineda Luis Eduardo, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor:Dr. Juan Pablo Serrano Rubio, Instituto Tecnológico Superior de Irapuato
ALGORITMOS BIO-INSPIRADOS PARA EL ENTRENAMIENTO DE REDES NEURONALES ARTIFICIALES
ALGORITMOS BIO-INSPIRADOS PARA EL ENTRENAMIENTO DE REDES NEURONALES ARTIFICIALES
Estrada Pineda Luis Eduardo, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Juan Pablo Serrano Rubio, Instituto Tecnológico Superior de Irapuato
PLANTEAMIENTO DEL PROBLEMA
El entrenamiento de redes neuronales artificiales para tareas de clasificación de patrones suele ser una tarea compleja a medida que crece el número de parámetros a estimar. El entrenamiento de una red puede entenderse como un problema de optimización donde el objetivo es buscar los parámetros (pesos) que satisfacen una función de costo (función de error). Tradicionalmente, el entrenamiento de las redes neuronales se ha llevado a cabo por medio de métodos de descenso del gradiente; sin embargo, en los últimos años el uso de algoritmos bio-inspirados se ha convertido en una alternativa viable cuando la formulación matemática para el entrenamiento del modelo resulta compleja de resolver en función del número de parámetros y la complejidad de las neuronas.
El objetivo de este trabajo de investigación es la implementación del algoritmo llamado Particle Swarm Optimization (PSO) para el entrenamiento de una red neuronal tipo perceptrón y comparar el rendimiento con los métodos tradicionales de gradiente.
METODOLOGÍA
La metodología del estudio se basa en el diseño y entrenamiento de redes neuronales tipo perceptrón usando algoritmos evolutivos. La implementación de los algoritmos se llevó a cabo usando el lenguaje de programación Python y la librería Keras. Para evaluar el rendimiento de los modelos de red neuronal, se hace uso de la base de datos de Iris que contiene información de 3 especies de plantas de Iris (Setosa, Virginica y Versicolor) donde el objetivo fue reconocer a la clase a la que pertenece un patrón de entrada. Para estimar el número de neuronas en la capa oculta, se llevó a cabo el diseño de un experimento de acuerdo a la siguiente serie: 3, 5 y 8 neuronas, creando en total 6 modelos. Se repitieron los experimentos del entrenamiento 30 veces para hacer un análisis estadístico del rendimiento del entrenamiento de la red. Se obtuvieron las medidas de tendencia central para describir el comportamiento de los modelos durante el entrenamiento de la red.
CONCLUSIONES
Los métodos 3 y 5 mostraron un rendimiento más consistente y mayor precisión en comparación con los métodos 1, 2 y 4. No obstante, el método 6 tiene sus inconsistencias en los valores, mas un buen rendimiento. La topología con 8 neuronas para el algoritmo PSO demostró ser bastante efectiva en comparación con el resto de los modelos, aunque también son buenos. La topología de 5 neuronas con la librería del keras es la más precisa, haciendo hincapié en la variabilidad dentro de modelos complejos. Cabe resaltar la enriquecedora experiencia de conocer un nuevo enfoque de la ciencia y tecnología en aras de una innovación progresiva gracias al Verano de Investigación Científica.
Fabian Gomez Jesus Matin, Universidad de Ciencias y Artes de Chiapas
Asesor:Dr. Rafael Mendez Sanchez, Universidad Nacional Autónoma de México
MOLECULA DE MORFONIO
MOLECULA DE MORFONIO
Fabian Gomez Jesus Matin, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Rafael Mendez Sanchez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
En la molécula de morfonio se buscaba comparar los resultados finales de la graficacion del software comsol multiphysics de la simulación y tanto el Experimental. Este trabajo se me fue entregado ya hecho la simulación de la molécula hecho por el maestro Edgar. Posteriormente se trata de poder hacer una configuración para poder eliminar el ruido que se nos dio como resultado al hacer el experimento por medio de pos-amplificador por ir quitando y poniendo en diferentes pociones los tumpers y moviendo el volumen del amplificador.
METODOLOGÍA
Las moléculas isoespectrales son especies no idénticas cuyos gráficos moleculares tienen el mismo conjunto de valores propios dentro de los cálculos de HMO. Se discuten varios conceptos y métodos nuevos para construir pares de gráficos isoespectrales. Se describen algunas posibles aplicaciones experimentales y teóricas de los pares moleculares isoespectrales.
Manipulación del pos-amplificador y volumen del amplificador
En este trabajo se hablará sobre la interpretación de la molécula de morfinio, para la comparación de los resultados finales ya se tanto como simulaciones numéricas y experimental, que se obtuvo un error en la medición de la molécula que el resultado final siempre obtuvimos ruido.
Para conllevar en trabajo se tuvo que implementar una técnica para poder quitar el ruido que se nos arrojaba al final del experimento, en la cual no tuvimos buenos resultados esperados, ya el amplificador no funcionaba bien en altas frecuencias. se tuvo que hacer algunos ajustes para llevar dicho caso, en este caso se utilizó el pos-amplificador e ir jugando con el volumen de amplificador
CONCLUSIONES
Se pudo comprobar la eliminación de ruido por medio del pos-amplificador y por el volumen del amplificador, ir cambiando la configuración. Tanto a la comparación de las gráficas de simulación de comsol y del experimental no se pudo comparar, ya que no podíamos medir a una frecuencia mayor de 30 kHz. En esta estancia se conllevo una experiencia a conocimiento adecuado, se obtuvo conocimiento de programa como el comsol multiphysics y labview. Y también el uso de los equipos de medición. Y que al final se llevó en trabajo final con la experiencia obtenida.Se pudo comprobar la eliminación de ruido por medio del pos-amplificador y por el volumen del amplificador, ir cambiando la configuración. Tanto a la comparación de las gráficas de simulación de comsol y del experimental no se pudo comparar, ya que no podíamos medir a una frecuencia mayor de 30 kHz. En esta estancia se conllevo una experiencia a conocimiento adecuado, se obtuvo conocimiento de programa como el comsol multiphysics y labview. Y también el uso de los equipos de medición. Y que al final se llevó en trabajo final con la experiencia obtenida.
Fajardo Muñoz Raúl Alejandro, Universidad de Guadalajara
Asesor:Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara
INFLUENCIA DE CQD DE SARGAZO EN UNA CAPA SEMICONDUCTORA SINTETIZADA POR OXIDACIóN TéRMICA DE TITANIO
INFLUENCIA DE CQD DE SARGAZO EN UNA CAPA SEMICONDUCTORA SINTETIZADA POR OXIDACIóN TéRMICA DE TITANIO
Fajardo Muñoz Raúl Alejandro, Universidad de Guadalajara. Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Los materiales semiconductores son de gran importancia debido a sus propiedades que permiten su aplicación en diversos sistemas, en particular con la conversión de luz en electricidad, se han hecho grandes esfuerzos para desarrollar sistemas capaces de disminuir el potencial necesario para que ciertas reacciones se den, y así poder crear procesos más sustentables, tales como las baterías de combustible, o hidrógeno verde. Parte de este esfuerzo nace de la necesidad de aprobechar la mayor cantidad de luz del sol, ya que existe una cierta región energética del espectro electromagnético en la que los electrones de los materiales son excitados y se permite el flujo de estos. El dióxido de titanio es capaz de absorber alrededor del 5 % de la energía que recibe del sol, sólo en la región UV, de forma que para incrementar este valor se tiende a sensibilizar los semiconductores por medio de diferentes técnicas, laplanteada en este trabajo es con puntos cuánticos de carbono (CQD), sintetizados a partir de biomasa de sargazo.
METODOLOGÍA
Para la preparación de la muestra se partió realizando una solución con los puntos cuánticos de 2 mg/ml, en agitación por media hora, y dejando reposar 24h posteriores para que precipitara aquellas estructuras que no son estables. Posteriormente se cortaron láminas de titanio (99.99 %) de alrededor de 1 cm2 para ser sumergidas en la solución reposada e introducir a un proceso de calentamiento que depende de cada muestra está dentro del rango desde los 200°C a 400°C, y con diferentes tiempos de calentamiento. Finalmente se realizó la técnica de voltamperometría cíclica de barrido para analizar el comportamiento de la muestra, asícomo la capacitancia de la misma, esto es, la carga almacenada en el semiconductor. La técnica se aplicó dentro del rango de -0.3V a 0.6V, en soluciones 0.5M de Na2SO4 mostrando potenciales de equilibrio del sistema a circuito abierto alrededor del -0.2V.
CONCLUSIONES
Los resultados obtenidos muestran una clara diferencia entre las muestras sin CQD con las que si los tienen, apreciándose valores de corriente de un orden de magnitud mayor, al no existir un pico en el voltamperograma, la curva no muestra reacción alguna, pero a diferencia del sistema sin CQD, la corriente es mucho mayor en cada punto, por lo que se plantea la posibilidad de que los puntos cuánticos forman sitios dentro del bandgap, cercanos a la banda de conducción distribuidos de una forma casi uniforme a lo largo de esta.
Farias Navarro Shara Nailea, Universidad de Colima
Asesor:Dra. Alicia Sarmiento Villagrama, Universidad Autónoma de Guerrero
CARACTERIZACIóN DE SUELOS
CARACTERIZACIóN DE SUELOS
Farias Navarro Shara Nailea, Universidad de Colima. Asesor: Dra. Alicia Sarmiento Villagrama, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
Los suelos han sido severamente afectados por la contaminación derivada de la actividad humana. Los suelos agrícolas han sido afectados por el uso de agroquímicos y elementos tóxicos que son traslocados a las plantas comestibles que se cultivan.
Por esto es necesario que haya alimentos inocuos, los cuales contribuyen a una vida saludable, un planeta saludable y un futuro saludable.
Por lo tanto, la importancia de que se hagan análisis químicos y físicos de los suelos agrícolas.
METODOLOGÍA
Se colectaron 2 kg de suelo de los primeros 20cm de la capa más superficial del suelo. Una vez secos, se procedió a tamizar los suelos.
Muestra de malla #10:
Laminas del suelos: 10g de la muestra de malla #10 se pasaron por malla #230, se lavaron en un tubo de centrífuga con agua destilada, se puso a secar en el triffe box, se impregnó con resina epóxica, se dejó secar por 24 horas, se comenzó a desbastar con abrasivos del 80, 240, 400 y 600 para obtener la lámina delgada, terminado el proceso se lijó la muestra con lijas de #1000, #2500 y #3500, se pasó a la pulidora, primero media hora con 6 micras y agua y después media hora con 1 micra y agua.
Determinación de pH: 10g de muestra se pusieron en un vaso de precipitado, se agregaron 20ml de agua MQ, se calibró el potenciómetro con las soluciones buffer 7, 4 y 10. Se agitó con una varilla de vidrio intermitentemente cada 5min por 30min, se tomó la lectura de pH.
Conductividad eléctrica de suelos: 20g de suelo se pusieron en un vaso de precipitado de 100ml, se le adicionaron 40ml de agua destilada, se agitó durante 30min intermitentemente, se filtró para después leer la CE usando la celda de conductividad y el conductímetro.
Textura por el método de Bouyoucos: se colocaron 40g de suelo seco en un vaso de dispersión, se adicionan 60ml de solución dispersante y agua destilada. Se dispersó la suspensión por un tiempo de 5min. Se transfirió la suspensión a un cilindro de 1L. Determinación de limo + arcilla se utilizó un agitador, 1 gota de alcohol amílico y se tomó la lectura del hidrómetro. Se determinó la arcilla, agitando y dejando 4 horas reposar, y se registró la lectura.
Materia orgánica: en un matraz de 500ml se puso 1.0g de suelo, se le adicionó 10ml de 1N K2Cr2O7, 20ml H₂SO₄ concentrado y se mezcló. Se dejó actuar por 1 hora. Se le agregaron 200ml de agua destilada, 5ml de ácido fosfórico concentrado y 0.5ml del indicador difenilamina sulfúrica, se tituló con 0.5N de sulfato ferroso amoniacal, se agitó de forma lenta hasta que cambió de color, se detuvo la titulación.
Capacidad de intercambio catiónico: a 5g de suelo se adicionaron 33ml de NaOAc y se agitó por 5 min, posterior se centrifugó y descartó lo sobrante. Procesos alternados de agitación y centrifugación se lavó el suelo con 3 porciones de NaOAc 1N de 33ml c/u y se descartó sobrante. Se lavó el suelo con 3 porciones de 33ml de alcohol y se descartó lo sobrante. Al final, se lavó el suelo con 3 porciones de 33 ml de NH4OAc pH 7, se guardó el sobrante, se filtró y se llevó al volumen final de 100ml con NH4OAc.
Muestra malla #230
XRDifraction: en un porta muestras se colocó 1g de muestra, seca y molida. Ya que la muestra estuvo lista se colocó en el difractómetro D8 Advance donde se identificaron minerales por su estructura. Este proceso trabaja con rayos X y difracción en ángulos desde 5º hasta 60º.
Extracción de ADN metagenómico de suelo: 0.3g de muestra se pusieron en un tubo de 1.5ml, se agregó 1ml de Na4P2O7 y se pasó al vortex por 10s, se centrifugó a 13000x3min, se decantó, se repitió el paso anterior, se decantó y agregó 1ml de buffer de fosfatos y de nuevo se pasó al vortex 10s, se centrifugó, decantó y se agregaron 100uL de lizosima y se mezcló, por 15min se dejó incubar y se continuó con la extracción de ADN.
Microbiología de suelos: 0.1g de muestra de suelo se puso en un tubo de 1.5ml, se colocó la muestra en un tubo de 900Ul con buffer de fosfatos y se homogeneizó. Se pasaron 100ul del tubo a otro que contenía 900uL de buffer de fosfato y se homogeneizó, en una placa de cultivo se colocaron 100uL se homogeneizó con perlas estériles para después dejar secando las placas a una temperatura de 30ºC por 24 horas.
CONCLUSIONES
Se aprendió algunas técnicas para su análisis como determinación de pH, conductividad eléctrica (86.1 Ms/cm lo que quiere decir que tiene concentraciones de sales muy bajas), textura por el método de Bouyoucos, materia orgánica (el suelo tenía 2.15 % de esta lo cual indica que tiene buena fertilidad, 15% de arcilla, 11.25% de limo y un total de 74.75% de arenas), capacidad de intercambio catiónico, difracción de rayos X, geoquímica elemental por ICP-AES (la muestra contenía, oxido de fierro, cuarzo, esfena, circón y plagioclasas) y extracción de ADN. Sin embargo, aunque se hayan obtenido dichos resultados es necesario que se analicen más sus propiedades.
Fernández Loera Vanesa, Universidad Autónoma de Ciudad Juárez
Asesor:Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
IMPACTO DE LOS EFECTOS ATMOSFéRICOS EN LA RECONSTRUCCIóN ENERGéTICA DE LAS LLUVIAS DE AIRE OBSERVADAS POR LOS DETECTORES DE SUPERFICIE CON LOS DATOS LIBERADOS DEL OBSERVATORIO PIERRE AUGER.
IMPACTO DE LOS EFECTOS ATMOSFéRICOS EN LA RECONSTRUCCIóN ENERGéTICA DE LAS LLUVIAS DE AIRE OBSERVADAS POR LOS DETECTORES DE SUPERFICIE CON LOS DATOS LIBERADOS DEL OBSERVATORIO PIERRE AUGER.
Fernández Loera Vanesa, Universidad Autónoma de Ciudad Juárez. Asesor: Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
La influencia de las condiciones atmosféricas en los chubascos es crucial para comprender los rayos cósmicos. Estas EAS, se ven afectadas por variaciones atmosféricas que pueden impactar la medición precisa de la energía de los rayos cósmicos. Este estudio utiliza datos libres del Observatorio Pierre Auger y se enfoca en eventos de alta energía y ángulos cenitales menores a 60 grados para reducir efectos no deseados. Los resultados proporcionan coeficientes valiosos para corregir las mediciones de energía de los rayos cósmicos, mejorando nuestra comprensión de sus características clave.
METODOLOGÍA
En este estudio, se reproduce el análisis de datos presentado en el articulo "Impact of atmospheric effects on the energy reconstruction of air showers observed by the surface detectors of the Pierre Auger Observatory", utilizando información libremente disponible en la página web del Observatorio Pierre Auger. La limpieza de datos se efectuó para el periodo entre el 1 de enero de 2005 y el 31 de diciembre de 2015, resultando en un conjunto de 17,340 datos analizados, equivalente al 1% del tamaño del conjunto original.
Para la determinación de los parámetros climáticos, se utilizó el código proporcionado por el observatorio según las indicaciones del documento "Weather correction of the energy estimator". Inicialmente, se calcularon los coeficientes para todos los eventos verticales registrados en el archivo "dataSummary" con energías superiores a 1 EeV. Los valores finales de los parámetros se obtuvieron al promediar los resultados de estos cálculos.
Ademas se graficó ña tasa promedio diaria a lo largo del periodo, en donde se muestran las modulaciones correlacionadas con las variaciones de presión y densidad.
CONCLUSIONES
En esta investigación, se ha abordado cómo comprender y corregir los efectos debidos a cambios en las variables atmosféricas que impactan en el desarrollo de los chubascos. El impacto de los efectos atmosféricos depende de cómo se realice la reconstrucción, especialmente de la distancia de referencia desde el eje de la lluvia adoptada para obtener la señal utilizada como estimador de energía, que es de 1000 m para la matriz de 1500 m , ademas se realizó una parametrización de la dependencia de esta señal en las variaciones de la densidad del aire y la presión atmosférica para poder tener en cuenta estos efectos.
Aunque el estimador de energía de eventos individuales puede verse afectado en un nivel de pocos porcentajes debido a las variaciones de las condiciones atmosféricas, se espera que la energía promedio de todos los eventos se vea afectada en no más del 0.5%.
Flores Esparza Ana Valeria, Universidad Autónoma de Zacatecas
Asesor:Dr. Alejandro Puga Candelas, Universidad Autónoma de Zacatecas
ESTIMANDO LA DISTRIBUCIóN DE PROBABILIDADES DEL
CORRIMIENTO AL ROJO DEL LAS GALAXIAS EN EL GRUPO LOCAL
ESTIMANDO LA DISTRIBUCIóN DE PROBABILIDADES DEL
CORRIMIENTO AL ROJO DEL LAS GALAXIAS EN EL GRUPO LOCAL
Flores Esparza Ana Valeria, Universidad Autónoma de Zacatecas. Asesor: Dr. Alejandro Puga Candelas, Universidad Autónoma de Zacatecas
PLANTEAMIENTO DEL PROBLEMA
Los métodos de Máxima Entropía han sido clave para el aprendizaje automático y el modelado de procesos en la vida real. Gracias a esto, nos permiten predecir sucesos o fenómenos. Edwin Hubble refutó la teoría del Big Bang mediante el corrimiento al rojo que calculó gracias a sus observaciones e investigaciones.
Con este trabajo, buscamos predecir y brindar un modelo apegado a los Métodos de Máxima Entropía, que tenga en cuenta el alejamiento de las galaxias con el fin de conocer más acerca del causante de este suceso.
METODOLOGÍA
En la estancia se realizaron investigaciones de diversas bibliografías relacionadas tanto con los Métodos de Entropía Máxima como con los antecedentes del corrimiento al rojo de las Galaxias. Esto con la finalidad de conocer y profundizar más en lo ya obtenido acerca de este tema.
Se realizó un curso especializado para aplicar los MaxEnt a casos de la vida cotidiana.
Además, se automatizaron cada paso usando software que fue capaz de facilitar y agilizar el proceso, cálculos e investigación.
CONCLUSIONES
Después del planteamiento, paso a paso se siguió la metodología fijada. Se investigó acerca de los MaxEnt y su aplicación para el tema de interés. Con la finalidad de saber más, nos acercamos a diferentes opiniones de científicos e investigadores.
Esperamos que investigando más y realizando más intentos, podamos llegar a un modelo que se ajuste más a la hipótesis o concluir si esto no es posible.
Flores Manzanares Ana María, Tecnológico de Estudios Superiores de Tianguistenco
Asesor:Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional
PREPARACIóN DE COMPOSITOS BI12TIO20-BI4TI3O12/α-BI2O3 PARA REMOCIóN DE CONTAMINANTES PRESENTES EN AGUA
PREPARACIóN DE COMPOSITOS BI12TIO20-BI4TI3O12/α-BI2O3 PARA REMOCIóN DE CONTAMINANTES PRESENTES EN AGUA
Flores Manzanares Ana María, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La contaminación del agua es un problema mundial que tiene su origen en la aparición de sustancias ajenas a su composición original, este suceso es causa de la preocupación en la sociedad puesto que tiene efectos negativos para los ecosistemas y la salud humana.
Existen diversos tipos de contaminantes de origen orgánico, específicamente, el colorante Rodamina B es el objeto de estudio del presente proyecto.
Algunos de los procesos que se emplean en el tratamiento de aguas residuales dependen principalmente de las propiedades de los contaminantes que se desean remover, el tipo de agua a tratar y las condiciones del medio. De manera convencional estos procesos y operaciones se agrupan en tres etapas: pretratamiento, tratamiento primario, secundario y/o terciario.
Debido al impacto que esta situación genera, se han realizado estudios que permiten promover el tratamiento de aguas residuales con tecnologías alternativas en donde destacan los procesos de oxidación avanzada (POA) tales como la fotocatálisis considerada una alternativa sustentable debido a los propósitos en el que se ha empleado, especialmente en el tratamiento de aguas residuales.
Por otro lado, los materiales base de bismuto han recibido gran atención debido a sus propiedades fotocatalíticas, por lo general han sido una excelente opción para la mineralización de contaminantes emergentes y orgánicos, se ha demostrado que son activos en luz visible. Entre los materiales fotocatalíticos base de bismuto que ofrecen una opción viable de degradación de compuestos orgánicos empleando luz solar se encuentran los titanatos de bismuto (Naciri, et. al. 2022). La razón de mostrar interés en este analito es que destaca por su persistencia y presencia en el entorno ambiental, es decir, tienden a degradarse con dificultad en el medio de manera natural, además de ser bioacumulativas en los organismos de los seres vivos.
METODOLOGÍA
Las heteroestructuras Bi12TiO20-Bi4Ti3O12/α-Bi2O3 se sintetizaron en dos etapas, la primera en la obtención de óxido de bismuto (α-Bi2O3) por el método de precipitación partiendo de bismuto metálico y la segunda en la formación de la heterounión.
1. Síntesis de Oxido de bismuto.
Se hicieron dos mezclas iniciales en donde se agregaron (a) 50 ml /50 ml a una concentración del 65.5% y la segunda de (b) 25 ml /25 ml . Una vez teniendo las dos mezclas se llevaron a planchas de agitación a 80 rpm agregando bismuto metálico hasta alcanzar su saturación, para la mezcla (a)13.233 g y (b)12 g.
Se preparó una solución neutralizadora de concentración 2 molar de Hidróxido de sodio () pesando 45.029 g y diluyendo en 500 ml de agua destilada, posteriormente se agregó por goteo 333 ml en la mezcla (a) y 166 ml en la mezcla (b), obteniendo oxido de bismuto. El precipitado generado se llevó a un filtro haciendo lavado con agua y etanol puro, finalmente se llevó al horno a 100°C por 24 h
2. Obtención de compositos Bi12TiO20-Bi4Ti3O12/α-Bi2O3
Usando óxido de bismuto (b) obtenido en la primera etapa, y con isopropoxido de titanio se realizaron las heterouniones a partir del método de impregnación siguiendo las siguientes relaciones molares Ti/Bi: 0/1; 0.25/0.75; 0.5/0.5 con y sin propanol; 0.75/0.25; 1/0. Para todas las impregnaciones se diluyó el isopropoxido de titanio con 2 ml de 2-propanol (C3H8O) y se llevaron a agitación hasta evaporar el 2-propanol, se secaron en el horno a 100°C por 24 h.
Una vez teniendo las muestras secas se les dio tratamiento térmico usando una Mufla Thermolyne a 500°C durante 2 h, se molieron con ayuda de un mortero para hacer pruebas preliminares.
3. Pruebas preliminares
La evaluación de cada material obtenido se realizó con soluciones de RhB y Azul de Metileno, ambos a 100 ppm. Se molió cada material con ayuda de un mortero y se pesaron 40 mg de cada heterounión obtenida, agregando 40 ml de cada colorante en tubos falcon de 50 ml, se dejaron al sol durante 4 horas y cada 60 min se tomaron muestras de 1 ml en microtubos y posteriormente se centrifugaron a 5000 rpm durante 5 min. Para determinar la concentración de colorante se realizaron mediciones de absorbancia UV-VIS en un espectrofotómetro (Biotek, Epoch 2). Los materiales fueron más eficientes en la degradación de RhB.
Se reusó el material impregnado 0.5/0.5 añadiendo 0.4 ml de RhB a 1000 ppm en el tubo falcon y aforando nuevamente a 40 ml con la finalidad de evaluar la capacidad de degradación del material, esto se realizó dos veces, encontrando que el material aun puede degradar el contaminante.
CONCLUSIONES
El composito 0.5/0.5 demostró tener una alta capacidad fotocatalítica en la remoción del colorante RhB con reactor de propela en luz solar. El mecanismo principal de la degradación es el movimiento de los electrones promovidos por la radiación solar, generando un par electrón hueco y radicales hidroxilo y superóxido. El radical hidroxilo al reaccionar con las moléculas de agua tienden a oxidar el grupo cromóforo del contaminante. Se prevé que la obtención de estos materiales y su aplicación en el tratamiento de aguas genere un impacto positivo en el medio ambiente.
Fuentes Cortes Uriel, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Georgina Beltrán Pérez, Benemérita Universidad Autónoma de Puebla
SENSORES Y BIOSENSORES BASADOS EN FIBRAS óPTICAS
SENSORES Y BIOSENSORES BASADOS EN FIBRAS óPTICAS
Fuentes Cortes Uriel, Benemérita Universidad Autónoma de Puebla. Ocaña Miranda Jenifer Alondra, Universidad de Sonora. Tellechea Cañez Luis Ángel, Universidad de Sonora. Asesor: Dra. Georgina Beltrán Pérez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Un biosensor es un dispositivo que se utiliza para convertir reacciones biológicas en señales medibles. Estos constan de tres componentes: un elemento biológico que realiza el reconocimiento, este genera un cambio particular que el elemento transductor convierte en una señal fácilmente medible y por último el elemento de salida.
El principio de un biosensor óptico es la interacción de la onda evanescente con el anticuerpo. La modificación del índice de refracción circundante modifica el coeficiente de extinción de la onda evanescente, lo que genera cambios en la energía lumínica que transmite la fibra, dichas pérdidas pueden relacionarse con la diferente cantidad de proteína detectada. Los biosensores que utilizan como elemento de reconocimiento biológico anticuerpos o proteínas, tienen alta afinidad y especificidad para detectar analitos de interés.
Por otra parte, la interleucina 10 (IL-10) es una proteína que actúa como molécula mensajera, esta se produce en células del sistema inmune y en otras células del organismo. La IL-10 es la citocina de mayor poder antiinflamatorio y se ve involucrada en el proceso de isquemia cerebral.
En el proyecto se busca detectar la presencia de interleucina 10 en plasma sanguíneo de modelo murino a través de biosensores de fibra óptica con el fin de buscar una alternativa en el futuro donde se pueda determinar la concentración de la proteína para construir dispositivos poco invasivos que permitan hacer diagnóstico.
METODOLOGÍA
En la construcción de biosensores se utilizó fibra monomodo SMF-28. Se realizó el corte de las fibras con una longitud de 80 cm, haciendo un devastado de 5 cm en el centro de la fibra retirando la cubierta polimérica.
Para llevar a cabo el grabado de las fibras por medio de dos electrodos operando un arco eléctrico de 85mW. Se realizó el grabado de 40 puntos con una periodicidad de 550 μm y una separación de 1cm.
Para analizar los espectros ópticos se utilizó una OSA 9057 F/8 con un diodo láser CLD1015 como fuente de luz. Se caracterizo la fibra sin puntos y grabada, esta se efectuó en el rango de longitudes de onda entre 1375 y 1575 nm.
La siguiente etapa es la hidroxilación, se preparó 15 ml de disolución de KOH a 999.306M en 15 ml de una solución 1:1 metanol-agua desionizada.
Se colocaron 10 fibras ópticas con 2RPL sumergidas en solución en pozos en una placa de teflón y se dejaron reposar por 3.5h. Después, las fibras se enjuagan con metanol y se secaron durante un minuto usando gas nitrógeno.
Se caracterizo el espectro de la fibra en condiciones de agitación de 200 rpm.
En la etapa de la funcionalización se depositaron las fibras en placa de teflón y se realizó una adición de solución de APTMS al 2% disuelta en tolueno, la fibra hidroxilada se dejó reposar por 1.5 h. Se procedió a enjuagar en tolueno. Durante este proceso, el APTMS se inmovilizó Si-O-Si, Si-Si y Si-O-H. Como consecuencia, se formaron los sitios NH-activos.
En la etapa de activación se utilizaron 200 µl de una solución compuesta por 5mg de NHS y 5mg de EDC disueltos en 2ml de PBS, se sumergió la fibra durante 90 min en agitación a 200rpm. Posteriormente se enjuagó la fibra con PBS y se midió el especto durante 15 min cada 5 min.
En la etapa de inmovilización a cada fibra se agregaron 200 µl del anticuerpo anti-interleucina 10, bajo las mismas condiciones de agitación. Una vez agregado el anticuerpo la interacción es de 2h, realizando mediciones del espectro de transmisión cada 5 min.
Respecto a la inducción del modelo murino a la enfermedad cerebrovascular isquémica global, este proceso se realizó en el Centro de Investigación en Reproducción Animal de la Universidad Autónoma de Tlaxcala. Una vez presentado los síntomas de isquemia los animales se sacrificaron a 2h y 24h por decapitación e inmediatamente se obtienen las muestras de plasma sanguíneo. Cada muestra se centrifugo a 3000 rpm por 15 min para obtener el suero sanguíneo y se almaceno a -20 °C.
En la etapa de la detección, se depositaron 200μm de las muestras de suero sanguíneo, para el primer biosensor se utilizó el plasma a 2h, para el segundo 24h y en el último se ocupó la proteína Interleucina 10 estándar. Cada biosensor se caracterizó mediante transmisión durante dos horas cada 5 min.
CONCLUSIONES
A lo largo de nuestra estancia de verano se adquirieron conocimientos teóricos sobre guías de luz y programación en Python para tratamiento de datos, así como practica en la manipulación de fibras ópticas y en la elaboración de interferómetro de Mach-Zehnder utilizando 2 rejillas de periodo largo con periodo de 550 μm en fibra óptica como parte de la elaboración de biosensores. Mediante la variación en la transmisión de dichos biosensores en función de la exposición de la zona sensible al medio se busca determinar la presencia de interleucina 10, proteína involucrada en el proceso de isquemia cerebral.
Los datos de potencia de transmisión de las fibras ópticas obtenidos en cada una de las 4 etapas (funcionalización, activación, inmovilización y detección) son normalizados, graficados y sometidos a análisis de componentes principales cuya primera componente resulto con un porcentaje de varianza de 90.42%, la segunda componente es de 7.92% y la tercera de 0.97% en pruebas de detección de plasma de 24 horas sin tratamiento. Mediante el análisis de componentes principales se pudo observar tendencias y zonas que nos permiten discriminar entre las diferentes etapas. Los datos de inmovilización se encuentran en el segundo y tercer cuadrante, y las de detección en el segundo cuadrante. Ambas mediciones presentan una tendencia definida. Para la detección en el plasma de 24 horas sin tratamiento la tendencia se contiene en una elipse y la inmovilización presenta una tendencia lineal. Comparando con los resultados de detección del estándar, el análisis nos proporciona información para determinar o no la presencia de interleucina 10.
Fuentes Cruz Ximena Yamileth, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Umapada Pal, Benemérita Universidad Autónoma de Puebla
PREPARACIóN DE NANOPARTíCULAS DE CU MEDIANTE EL MéTODO HIDROTERMAL.
PREPARACIóN DE NANOPARTíCULAS DE CU MEDIANTE EL MéTODO HIDROTERMAL.
Fuentes Cruz Ximena Yamileth, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Umapada Pal, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La contaminación creciente de los abastecimientos de agua dulce se ha convertido en un problema crítico que afectará gradualmente a toda la población mundial. El sector textil contribuye de manera importante a la economía mundial, sin embargo, es una industria que genera residuos tóxicos con alto contenido en compuestos orgánicos, especialmente colorantes, que son los principales productos del proceso de producción [1]. Desafortunadamente, el tratamiento de aguas residuales no es capaz de eliminar por completo los contaminantes para tener agua de calidad [2]. Se ha descubierto que las nanopartículas metálicas mejoran la degradación de los colorantes mediante mecanismos reductores [3]. Por lo tanto, el presente estudio se realizó con el propósito de evaluar su capacidad catalítica para la reducción del colorante de azul de metileno asistido por un agente reductor como el borohidruro de sodio (NaBH4).
METODOLOGÍA
Primeramente, se pesó el sulfato de cobre y se disolvió en 90 mL de agua desionizada y se agitó magnéticamente durante 30 minutos a una temperatura ambiente. Cuando la solución era homogénea se agregó el PVP en etapas de 2 g y pausas de 10 min. Después de 30 minutos, se le agregó el ácido ascórbico como agente reductor. En este paso, se observó que la muestra cambió de un color azul a un color café después de 1 hora de agitación magnética. Se fue midiendo el pH con el indicador universal y se agregó el hidróxido de sodio mezclado con 10 mL de agua desionizada hasta que el pH estuviera en el rango de 7 - 8. Se vació en recipientes de teflón y se selló herméticamente para colocarlo en una autoclave de acero inoxidable para hacerles un tratamiento hidrotermal en un horno gravitacional a 150° por 4 horas empleando una rampa de 3 °C/min. La autoclave se dejó enfriar a la temperatura del ambiente. En el proceso de lavado se dispersaba los sólidos en etanol y se recuperaban mediante centrifugación con una velocidad de 7000 rpm por 15 minutos. Finalmente, se repitió el proceso usando agua desionizada y se dejó centrifugar durante 20 minutos. Los sólidos se secaron con una temperatura de 60 °C durante 6 h para obtener polvos de nanopartículas, que se utilizaron para las caracterizaciones y pruebas de catálisis. La caracterización de las nanopartículas consistió en las siguientes técnicas: se realizaron estudios de difracción de rayos (XRD) para analizar la estructura cristalina. El análisis de la espectroscopia óptica se utilizó un espectrofotómetro UV-Vis-NIR Cary 5000 con el accesorio de esfera integradora para reflectancia difusa, se midió en el rango de 900 - 200 nm. Por último, se observó la muestra en un microscopio electrónico de barrido JEOL usando 5 kV. Para el análisis en el microscopio la muestra se depositó una gota de solución coloidal de la muestra en etanol sobre un sustrato de silicio. Para investigar la actividad catalítica de las nanopartículas de cobre se utilizó una solución compuesta de 2.4 mg de azul de metileno como soluto y 240 ml de agua desionizada como solvente (10 ppm). Para activar la reacción de catálisis se agregó 10 mg de borohidruro de sodio (NaBH4) a la solución. Después de 1 hora de agitación magnética en la obscuridad, se agregó 5 mg de catalizador. Posteriormente, se midió la intensidad de absorción en diferentes intervalos de tiempo. Los espectros de absorbancia fueron obtenidos en el rango de 200 a 800 nm utilizando un espectrofotómetro UV-Vis.
CONCLUSIONES
En este trabajo, la síntesis de nanopartículas de cobre a través del método hidrotermal fue investigada. Los resultados de XRD indicaron que la muestra es una mezcla de cobre y óxido de cobre, con una mayor presencia de Cu. La poca presencia del óxido de cobre en el patrón de difracción puede estar asociado a la formación de una capa de óxido en la superficie de la nanopartícula de cobre por el oxígeno presente en el ambiente. En el patrón de difracción se ve claramente que la fase mayoritaria corresponde a la formación de Cu metálico, dando indicios de que la presencia de los picos de difracción asociados al Cu2O puede estar relacionado a la formación de una capa de óxido en la superficie de las nanopartículas de Cu. La capa de óxido en la superficie pudo formarse debido a la presencia del oxígeno en el ambiente o en la reacción [4]. Los estudios de SEM revelaron que el tamaño promedio de las nanopartículas es de aproximadamente 46.9 ± 9.1 nm. La energía de banda prohibida obtenida mediante el formalismo de Kubelka-Munk de las nanopartículas de Cu/Cu2O es de 1.9 eV. Para las nanopartículas de Cu sintetizadas en este trabajo, la energía del ancho de la banda prohibida es de 1.9 eV. En los estudios de catálisis, se demostró la alta eficiencia de las nanopartículas de cobre como catalizador y NaBH4 como activador para la degradación del colorante azul de metileno. Logrando que el azul de metileno se degradara un 80% durante un tiempo de 23 min. La reducción del colorante MB muestra una cinética de primer orden con respecto al tiempo de reacción. Posteriormente, la degradación ocurre de una manera lenta y progresiva. Finalmente, la reacción de reducción se detiene a los 23 min llegando a un 80% de degradación de la solución de azul de metileno. A partir de este proyecto, se pude deducir la importancia de una investigación orientada a mejorar los métodos de síntesis para las nanopartículas de cobre y óxido de cobre, esto con el objetivo de mejorar las características del catalizador y así, extender sus aplicaciones a favor del medio ambiente [5].
Referencias
[1] M. Shahid, F. Mohammad. (2013). Journal of Cleaner Production, 57, 2-18.
[2] X. Qu, J. Brame, Q. Li, P. J. Alvarez. (2013). Accounts of Chemical Research, 46, 834-843.
[3] S.S. Raut, S.P. Kamble, P.S. Kulkarni. (2016). Chemosphere, 159, 359-366.
[4] M. Kooti, L. Matouri. (2010). Transactions on Nanotechnology, 17, 73-78.
[5] K. Dulta, G. Koşarsoy, P. Chauhan. (2020). Sustain Environ Research, 33, 4.
Fuentes Domínguez Diego Alberto, Universidad de Guadalajara
Asesor:Dr. Jose Luis Gonzalez Solis, Universidad de Guadalajara
CARACTERIZACIóN DE MUESTRAS DE PLASMA SANGUíNEO USANDO ESPECTROSCOPíA RAMAN Y ANáLISIS DE COMPONENTES PRINCIPALES
CARACTERIZACIóN DE MUESTRAS DE PLASMA SANGUíNEO USANDO ESPECTROSCOPíA RAMAN Y ANáLISIS DE COMPONENTES PRINCIPALES
Fuentes Domínguez Diego Alberto, Universidad de Guadalajara. Asesor: Dr. Jose Luis Gonzalez Solis, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El cáncer ha sido una afección que ha acompañado y perjudicado a las personas desde hace ya mucho tiempo. En específico, el cáncer cérvico uterino es uno de los cánceres que con mayor frecuencia cobra la vida de miles de mujeres alrededor del mundo. Este tipo de cáncer es uno de los más prevenibles, sin embargo, se siguen diagnosticando miles de casos cada año.
El desarrollo de esta patología se debe a la infección del virus del papiloma humano, el cual es contraído por las mujeres al momento de tener relaciones sexuales. La infección genera lesiones malignas en el área de la cervix y de no ser tratada a tiempo puede culminar en la aparición del cáncer.
Una vez diagnosticadas, las mujeres deben ser tratadas con cirugía, radiación o quimioterapia. Y a pesar de los esfuerzos, puede que la situación no mejore, ya que al menos en México, hasta 2020, el cáncer cervico uterino era el segundo cáncer más diagnosticado y la segunda causa de muerte en mujeres.
El objetivo del presente trabajo es utilizar la técnica Raman para el diangóstico temprano de este tipo de cáncer utilizando muestras de plasma sanguíneo previamente diagnosticadas con cáncer cervical.
METODOLOGÍA
La espectroscopía Raman es una técnica que permite conocer la composición química de una muestra determinada. En este estudio se analizaron un total de 138 muestras, 82 de pacientes con cancer y 56 de pacientes sanos. Las muestras fueron analizadas con un microscopio, el cual ayudaba a enfocar una radiación láser de 830nm. Tanto el microscopio como el láser se ecnuentran incorporados al equipo Raman, LabRAM HR800, HORBIA JOBIN YVON del Laboratorio de Biofísica y Ciencias Biomédicas del Centro Universitario de los Lagos, Universidad de Guadalajara. Con el fin de no afectar las muestras, la potencia del láser fue de 17 mW.
Para realizar el estudio, se colocó una gota de las muestras de plasma de sangre en un portaobjetos cubierto de aluminio previamente desinfectado con alcohol etílico. Posteriormente la muestra se dejaba secar y luego era colocada bajo el micrscopio para su análisis. Para cada muestra se tomaron 10 tomas con el microscopio en distintos puntos de la muestra, con el fin de obtener 10 espectros distintos de una misma muestra, obteniendo así un total de 1380 espectros.
Con la técnica Raman, se pretende determinar las diferencias químicas entre las muestras de plasma de pacientes sanos y pacientes con cáncer cervical. Sin embargo, obtener y observar los espectros no es suficiente, por lo tanto, es necesario aplicar métodos estadísticos para analizar los 1380 espectros. Los espectros adquiridos fueron preprocesados mediante un método de normalización para posteriormente ser analizados mediante el método multivariado de Análisis de Componentes Principales (PCA), el cual posibilita el estudio de grandes bases de datos reduciendo su órden de magnitud y permitiendo obtener una clara distinción entre los diferentes grupos que la conforman. El PCA fue aplicado en este trabajo con el fin de discriminar entre las muestras de plasma sanguíneo de pacientes sanos y pacientes con cáncer basado en las diferencias químicas que existen entre las muestras. El PCA será aplicado usando los softwares de Python y Matlab.
CONCLUSIONES
Durante la estancia de investigación se adquirieron conocimientos tanto teóricos como prácticos acerca de las técnicas de espectroscopía Raman, SERS e IR, al igual que la comprensión y aplicación de métodos de análisis de datos como los son el PCA y el Agrupamiento Superparamagnético (SPC).
En cuanto al estudio realizado, se logró medir y analizar en su totalidad los 1380 espectros, al igual que estudiarlos en las plataformas de Python y Matlab utilizando el PCA, obteniendo así gráficas que muestran el agrupamiento de datos y las diferencias que se encuentran entre las muestras de pacientes sanos y pacientes con cáncer.
Galaviz Sauceda Edith Marcela, Instituto Tecnológico de Sonora
Asesor:Dra. Magdalena Elizabeth Bergés Tiznado, Universidad Politécnica de Sinaloa
CARACTERIZACIóN Y PREPARACIóN DE MUESTRAS ORGáNICAS E INORGáNICAS PARA ANáLISIS DE METALES Y METALOIDES
CARACTERIZACIóN Y PREPARACIóN DE MUESTRAS ORGáNICAS E INORGáNICAS PARA ANáLISIS DE METALES Y METALOIDES
Camacho Zacarias Miriam Yolotzin, Instituto Tecnológico del Valle de Morelia. Galaviz Sauceda Edith Marcela, Instituto Tecnológico de Sonora. Palafox Juárez Carmen Aida, Instituto Tecnológico de Sonora. Asesor: Dra. Magdalena Elizabeth Bergés Tiznado, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La presencia de metales y metaloides en el agua, suelos, plantas y organismos acuáticos es un problema de contaminación global. Algunos de estos elementos resultan ser esenciales, mientras que otros pueden perjudicar o alterar el funcionamiento de los individuos. En muchos casos el potencial riesgo o beneficio depende de la concentración en la que estos se encuentran, ya que pueden ser muy peligrosos debido a que son agudamente tóxicos para ciertos organismos en determinadas cantidades, altamente persistentes en el tiempo, es decir no son biodegradables, por lo que permanecen en el medio ambiente durante largos periodos y bioacumulable en los tejidos de distintos organismos.
El objetivo de esta estancia fue caracterizar suelos provenientes de dos regiones mineras y la preparación de estas matrices inorgánicas, así como de muestras de plantas y músculo comestible de curvinas para el análisis de metales y metaloides.
METODOLOGÍA
Las muestras de suelo se recolectaron en dos sitios mineros de Sinaloa, en Cosalá y Concordia, estas se obtuvieron y prepararon de acuerdo con la Norma Oficial Mexicana NOM-021-RECNAT-2000, que establece las especificaciones de fertilidad, salinidad y clasificación de suelos. Estudios, muestreo y análisis. El método AS-01 se utilizó para preparar las muestras de suelo, el AS-02 para determinar el pH, la materia orgánica se midió a través del método AS-07 de Walkley y Black y la textura por el procedimiento de Bouyoucos (AS-09).
En cuanto a las plantas y el músculo de curvina, primero se liofilizaron durante 72 horas para retirar la humedad de las matrices. Después, las muestras orgánicas e inorgánicas (muestras de suelo) se homogenizaron y posteriormente, se sometieron a una digestión ácida (por duplicado), usando vasos de digestión de teflón con capacidad de 60 mL.
Plantas
Se agrega a cada frasco con muestra 5ml de HN03 + 1.5 ml de HF
Se hacen 2 blancos, introduciendo solo los ácidos
Músculo de curvina
Se agrega a cada frasco con muestra 5ml de HNO3
Se hacen 2 blancos, introduciendo solo los ácidos.
Se hace una muestra con material de referencia y los ácidos.
Se colocan los recipientes cerrados dentro de una charola con arena de mar común, esto sobre una plancha de calentamiento a altas temperaturas durante 3 hrs, dentro de una campana de extracción de gases.
Las muestras digeridas se llevaron a un volumen final de 20 mL con agua milliQ y se almacenaron en frascos de polietileno previamente acondicionados y lavados para su futuro análisis en un equipo de espectrofotometría de absorción atómica.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teórico-prácticos de las metodologías necesarias para la caracterización de suelos y el procesamiento de muestras de origen orgánico e inorgánico para la determinación de metales y metaloides. Se procesaron un total de 7 muestras de suelo y se les determinó el pH, porcentaje de carbono orgánico y materia orgánica, así como textura. Estos suelos y las muestras de tallo, raíz y hojas de 10 plantas acumuladoras de metales y metaloides, así como porciones de músculo de 80 individuos de curvina fueron digeridos y se están próximos a ser analizados para determinar la concentración de elementos como mercurio, cadmio, plomo, arsénico, entre otros.
Los resultados finales de la investigación serán relevantes para determinar el posible daño ambiental que ha provocado la minería en zonas del sur de Sinaloa en los ecosistemas.
García Acosta Diana del Carmen, Instituto Politécnico Nacional
Asesor:Dr. Marco Montiel Zacarías, Universidad Veracruzana
PATRIMONIO Y SUSTENTABILIDAD
PATRIMONIO Y SUSTENTABILIDAD
Briones Sánchez Erick Daniel, Instituto Politécnico Nacional. Díaz Solano Fatima Yetzareth, Instituto Politécnico Nacional. García Acosta Diana del Carmen, Instituto Politécnico Nacional. Asesor: Dr. Marco Montiel Zacarías, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
En Veracruz, sobre todo en el puerto, diariamente llega infinidad de barcos con gran variedad de mercancía, misma que debe ser correctamente empaquetada y protegida para transportarla de una manera más fácil y segura, existen dos elementos que se usan para ese fin: los pallets de madera y el unicel. Estos materiales ofrecen solución para dos de las problemáticas más grandes que tiene Veracruz las cuales son la falta de vivienda digna para las personas de bajos recursos y el gran desperdicio de materiales que se vuelven inservibles en el puerto.
Para medir la sustentabilidad de una sociedad, según la UNESCO, el indicador más importante es el patrimonio ya que su salud muestra que tan sostenible es una sociedad. Lamentablemente el patrimonio se ve afectado cuando el desconocimiento en restauración hace que se empleen técnicas y materiales que no son los adecuados, lo que provoca el deterioro del patrimonio de las ciudades y en cierta medida ocasiona su pérdida, como es el caso de varios lugares en la de Veracruz.
El centro histórico de Veracruz alberga siglos de historia en cuanto a patrimonio arquitectónico. En esta ciudad se encuentran edificios con diferentes estilos arquitectónicos los cuales datan de la época de la conquista hasta la modernidad, sin embargo, los edificios más recientes han sufrido diferentes grados de alteraciones que hacen que se pierda gran cantidad del bagaje cultural e histórico de la ciudad de Veracruz.
Con este proyecto se busca analizar la situación que presenta Veracruz tanto en vivienda y patrimonio, trabajando ambos temas de manera conjunta para ofrecer soluciones integrales.
METODOLOGÍA
Durante la estancia se han realizado tres proyectos que en conjunto dan la solución para coadyuvar a que Veracruz sea una ciudad más sostenible.
Primeramente, se trabajó con el proyecto de B-Pallets, ideado por la Universidad Veracruzana como una alternativa para la construcción de viviendas que sean accesibles para personas con bajos recursos y a la vez ayudar a formar comunidades que fomenten valores como la solidaridad. La principal característica que destaca de este sistema es el reciclaje de los pallets de madera y el unicel usados para el embalaje de mercancía que llega al puerto de Veracruz, formando un sistema constructivo que funcione como muros divisorios, sean exteriores o interiores, que trabajando en conjunto con una estructura se puede volver una excelente solución para formar viviendas dignas.
Se trabajó en el proceso de construcción de cuatro especímenes del sistema B-Pallets experimentando con los materiales y dosificaciones para que posteriormente se les puedan hacer las pruebas pertinentes en laboratorio bajo a criterios de las normas aplicables para determinar que cualidades físicas y mecánicas puede ofrecer este sistema.
Se hicieron bastidores con un pallet de madera de 1.14 m x 1.14 m que fue dividido en cuatro partes para poder trabajar dichos especímenes. Una vez obtenidos los bastidores de madera, se procede a extraer placas de poliestireno expandido (unicel) que tengan las medidas del hueco que se forma en el interior del bastidor hecho con el pallet de madera; el unicel se usa para reciclar el "material de desperdicio" de los embalajes de mercancía, pero este a su vez otorga al muro B-Pallet cualidades primordialmente acústicas y térmicas por el grosor de la placa que se corta que va de los 11 a 12 cm dependiendo del pallet de madera que vaya a ser utilizado como bastidor. después se puso una tela de gallinero que servirá como soporte para las capas de tierra. Posteriormente se trabajó en conjunto con técnicas de construcción con tierra para darle estabilidad al sistema constructivo, en las que se agregaron tres capas de tierra por cara del muro, cada una con diferentes características: las cuales son: capa de relleno, capa de nivelación y capa de acabado. Para la primera capa se trabajó con una mezcla de tierra del lugar, cal y paja; con esta capa se consigue rellenar el espacio entre el bastidor de madera. unicel y la tela de gallinero, estableciendo una superficie rígida que reciba la siguiente capa. La capa de nivelación esta hecha de una mezcla de cal y arena, tiene un grosor de no más de 5 mm y forma una superficie más lisa sobre la que se puede agregar un acabado. En este caso, se agregó un acabado con cal pigmentada para experimentar las ventajas de la cal como un acabado final.
Se pretende que el sistema de B-Pallets se lleve a cabo a gran escala empleando los pallets completos y que para llevar a cabo la construcción de viviendas se usen materiales del lugar y el apoyo de toda una comunidad.
Asimismo, el conocimiento de técnicas de construcción con tierra y materiales naturales es un gran aliado al momento de intervenir en patrimonio histórico en donde se han usado estos tipos de técnicas, como en la fortaleza de San Juan de Ulúa, en donde se llevaron a cabo levantamientos arquitectónicos del Cuerpo de Vigilancia de la fortaleza ubicado en la parte de tierra firme de la misma. Al ser un espacio con al menos 300 años de historia fue necesario realizar el reconocimiento de los materiales utilizados y técnicas de construcción entre los que destacan el uso de piedra múcara y aplanados con cal, a la vez también se hizo el levantamiento de los deterioros que presenta el edificio y así ofrecer una estrategia para su correcta restauración.
Comprendiendo que preservar el patrimonio de una ciudad es una actividad que debe realizarse día a día, se recorrieron las calles de la colonia Flores Magón del centro histórico de Veracruz para poder identificar los edificios hechos a partir de finales del siglo XIX los cuales no cuentan con ningún tipo de protección de alguna institución como el INAH o INBA, buscando catalogarlo para que en un futuro pueda ser reconocido y protegido.
CONCLUSIONES
Las actividades realizadas en el verano de ciencias otorgaron experiencias y conocimientos que muestran la importancia del entendimiento del pasado, siendo una inspiración para la solución de problemas del presente para asegurar un mejor futuro para las sociedades; además que con los nuevos conocimientos es posible conservar aquel pasado que forma parte de la identidad cultural de las personas que habitan en determinado lugar. Se espera poder seguir trabajando en la preservación y reconocimiento del patrimonio arquitectónico; a su vez en más propuestas de técnicas de construcción que fomenten el sentido de comunidad que fortalezca a las sociedades tanto de Veracruz como del resto del país.
Garcia Aparicio Julissa, Universidad Autónoma de Zacatecas
Asesor:Mtra. Sol María Hernández Hernández, Benemérita Universidad Autónoma de Puebla
ÓPTICA, COLOR Y COMPORTAMIENTO ONDULATORIO DE LA LUZ.
ÓPTICA, COLOR Y COMPORTAMIENTO ONDULATORIO DE LA LUZ.
Garcia Aparicio Julissa, Universidad Autónoma de Zacatecas. Asesor: Mtra. Sol María Hernández Hernández, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Encontrar nuevas maneras de realizar un aprendizaje más ameno y didáctico para los alumnos
METODOLOGÍA
Utilizar recursos para lectura,audiovisual y de práctica para que los alumnos desarrollen sus habilidades de comprensión y pensamiento lógico partiendo del análisis de los recursos
CONCLUSIONES
Al realizar los cuestionarios y agregar preguntas tanto de comprensión como preguntas de razonamiento causa una mayor comprensión del tema y estos al realizarlos de los tres recursos diferentes nos dan una reafirmación de los conocimientos adquiridos.
Garcia Delgado Mario Eduardo, Universidad de Guadalajara
Asesor:Dr. Juan Martin Gómez Gomez Gonzalez, Universidad Nacional Autónoma de México
SISMICIDAD E INSTRUMENTACIÓN EN EL DESARROLLO DE UNA RED SÍSMICA
SISMICIDAD E INSTRUMENTACIÓN EN EL DESARROLLO DE UNA RED SÍSMICA
Garcia Delgado Mario Eduardo, Universidad de Guadalajara. Meza Ross Luz Arely, Instituto Tecnológico de Sonora. Asesor: Dr. Juan Martin Gómez Gomez Gonzalez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La Sierra Gorda Queretana esta incrustada en la Sierra Madre Oriental, está compuesta por numerosas formaciones marinas deformadas y plegadas hace entre 60 y 100 millones de años. En la actualidad se han reportado distintos episodios de sismicidad en Querétaro. Desde el 2000 el Centro de Geociencias (CGEO) ha realizado varios monitoreos mediante redes sísmicas temporal para entender el origen y comportamiento del fenómeno sísmico.
En 2021, el CGEO puso en marcha la Red sísmica del estado de Querétaro (ReSeQ), la primera en su tipo en el centro del país, para monitorear la sismicidad local y regional. Uno de los productos es la elaboración de un catálogo que contenga el historial de la sismicidad, el cual pueda ayudar a identificar algunas de las zonas sismogénicas., información importante tanto para la investigación como para las autoridades de Protección Civil de Querétaro. Esta estancia de investigación nos puede ayudar a conocer las bases de la Sismología, aprender a manejar software para el análisis de sismicidad, utilizar métodos de automatización y colaborar en la fabricación de un circuito electrónico que proteja la infraestructura de las estaciones sísmicas de las descargas por corrientes inducidas.
METODOLOGÍA
Durante la estancia trabajamos con un software de código abierto, Seisan, el cual permite analizar las señales sísmicas, localizar los hipocentros y estimar su magnitud, entre otras. Revisamos más de 15,000 señales de la ReSeQ para identificar los arribos de las ondas P y S. Obtuvimos 93 localizaciones que conforman el primer catálogo de sismicidad, el cual cubre de enero a junio de 2023, del cual derivó un reporte para el gobierno estatal.
Realizamos una salida a campo para el mantenimiento, revisión, instalación, configuración de sismógrafos y extracción de datos de la ReSeQ. También realizamos mejoras a las casetas para reducir la vulnerabilidad ante condiciones meteorológicas extremas. Dada la vulnerabilidad de las estaciones sísmicas ante fenómenos meteorológicos, es necesario protegerlas ante descargas eléctricas. Por ello, colaboramos con el Centro de Física Aplicada y Tecnología Avanzada (CFATA) de la UNAM en el desarrollo de un circuito para proteger los equipos ante el impacto de corrientes inducidas.
CONCLUSIONES
Durante nuestra estancia aprendimos el manejo de sismógrafos y la importancia de cuidar el ambiente en el que están instalados. Visitamos todas y cada una de las estaciones de la red sísmica de Querétaro. Dimos mantenimiento preventivo en varias estaciones, corregimos diferentes problemas de infraestructura y comunicación. También aprendimos a instalar y usar el sistema operativo Linux, y software libre y gratuito, como SEISAN, GMT, que ofrecen muchas ventajas de uso, especialmente en la Sismología. Adquirimos conocimientos teóricos y prácticos sobre el manejo, adquisición y análisis de datos sísmicos, así como a interpretarlos. Finalmente, nos introdujimos en el ambiente de la sismología instrumental y pudimos conocer el trabajo necesario que conlleva hacer un análisis de datos sísmicos. Conocimos la importancia del análisis de datos sísmicos, tanto para la investigación como para la sociedad.
Garcia Gutierrez Alejandro Ivan, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla
DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE ADQUISICIóN DE DATOS PARA LA CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS DE CENTELLEO CON TUBO FOTOMULTIPLICADOR.
DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE ADQUISICIóN DE DATOS PARA LA CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS DE CENTELLEO CON TUBO FOTOMULTIPLICADOR.
Díaz Gutiérrez Luis Carlos, Universidad de Sonora. Garcia Gutierrez Alejandro Ivan, Benemérita Universidad Autónoma de Puebla. Medina Ferrer Gustavo Alberto, Universidad de Sonora. Navarro Lopez Iveth Rocio, Universidad de Sonora. Pérez Morán Federico Santiago, Universidad de Guadalajara. Asesor: Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los distintos experimentos y búsqueda de fenómenos exóticos relacionados con la física de altas energías requieren de instrumentos que cuenten con una alta precisión en la toma de datos.
Por ello el diseño y desarrollo de detectores de partículas cada vez más precisos es importante pues debe de haber una mejora en los mecanismos de detección además de la optimización en la toma de señales para que estas sean procesadas, discriminadas y tratadas, con el fin de evitar perdida de información y cuellos de botella.
Debido a esto, en este trabajo se analizará la arquitectura de dos chips (NINO y HPTDC) diseñados para su uso especifico en física de altas energías, donde es fundamental, alta frecuencia de detección, gran precisión en la resolución temporal y una alta cantidad de densidad de canales para la medición de la carga depositada en sensores de plástico centellador y de placas resistivas
METODOLOGÍA
En primera instancia se preparó un sistema básico de trigger, el cual sirve para la detección de un evento/ partícula incidente en un arreglo de tres o más detectores, dos de los cuales fungen como trigger; el evento se confirma al registrarse de forma simultánea por este arreglo.
Los detectores de disparo (trigger) se caracterizan y se determina el voltaje de alimentación para el cual el par registra un número similar de señales. Para esto se realizó una sincronización sobre un par detectores de plástico centelleador y tubos fotomultiplicadores de dimensiones 9.7 9.7 3.4 cm. Se aplicó para cada detector una variación del voltaje de alimentación en un intervalo de 1 a 1.7 kV con pasos de 0.5 kV, para cada valor se llevó a cabo el conteo de eventos/señales registradas para cada detector, el conteo se realizó utilizando la patente de la contadora de eventos para pruebas rápidas de parte de la Benemérita Universidad Autónoma de Puebla. Para cada valor de voltaje se realizaron tres mediciones de 1 minuto de duración, con un voltaje de discriminación de 15 mV. Se determinaron los voltajes para el cual se presenta una diferencia de conteos menor al 10% entre los detectores.
Posteriormente, se usó un arreglo experimental en el cual el sistema de trigger se localizó por encima y por debajo del detector a caracterizar (L1), de forma que la proyección de su área transversal coincida para ambos detectores del sistema. Se aplicó una variación del voltaje de alimentación únicamente para L1 (en este caso se da una alimentación con un voltaje negativo) en un intervalo de 0.9 a 1.45 kV con pasos de 0.5 kV, para el trigger se da el voltaje de alimentación previamente obtenido. Se realizó igualmente el registro del número de eventos para cada valor de voltaje con la contadora, se efectuaron 3 mediciones de 4 minutos cada una; se registraron los eventos para L1, los del trigger y las coincidencias entre los tres. Se determinó la eficiencia del detector L1 y se escogió el voltaje de alimentación óptimo para este mismo.
En un posterior arreglo se da lugar a la digitalización de la señal obtenida de L1. Se usa el sistema anterior compuesto por el detector y el trigger. La señal de salida de L1 es procesada por la tarjeta NINO 2468 del experimento ALICE, que devuelve un pulso cuadrado cuyo ancho se ve relacionado con la amplitud de la señal de entrada y a su vez con la carga de la partícula incidente. Posteriormente, este pulso es direccionado a otra tarjeta que realiza una conversión de señal LVDS (low voltage differential signal) a salida TTL, posteriormente esta señal es recibida por un módulo traductor CAEN para la conversión a NIM, con el objetivo de conectar la señal a un TDC (time to digital converter) para la digitalización y obtención de los flancos de subida y bajada del pulso cuadrado, realizar el cálculo de su ancho en el eje temporal y así conocer la amplitud de la señal del detector. La precisión de la medición de los flacos de subida y bajada de estas señales es de 25 ps.
La señal de ambos detectores del trigger es direccionada a un módulo discriminador, posteriormente a un módulo de coincidencias que devuelve una única señal TTL. Después, se utiliza el mismo módulo traductor a NIM para finalmente llegar al TDC para poder efectuar la obtención del tiempo de la señal. El trigger en el TDC realiza la confirmación de un evento de L1 por medio de un método de medición que consiste en la aplicación de una ventana de tiempo de búsqueda previamente definida, donde a los pulsos registrados dentro de dicha ventana se les toma el tiempo del flanco de subida y de bajada.
Finalmente, se realizó un código para la lectura de los datos recabados y el posterior cálculo de los anchos de las señales obtenidas y así conocer la resolución temporal del detector.
CONCLUSIONES
Durante la estancia se hizo uso de instrumentos que son comunes para hacer pruebas con los distintos detectores esto con el fin de comprobar su correcto funcionamiento, adquiriendo conocimiento de cómo usar estos instrumentos, igualmente se aprendió a utilizar un software con el que se obtienen datos, además al recoger estos datos se llevó a cabo un análisis de estos, buscando la resolución temporal, tiempo de llegada de señales respecto al trigger, la estadística de veces que cierta resolución llego y la medición de la carga de cada evento detectado. Sin embargo, los últimos datos aún se encuentran en proceso de ser analizados, pero se espera que estos datos nos indiquen un funcionamiento correcto y bastante preciso de los detectores caracterizados.
García Gutiérrez Angel David, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor:Dr. Marco Antonio Morales Sánchez, Benemérita Universidad Autónoma de Puebla
ESTUDIO NUMéRICO DE UN NUEVO MODELO MECANOQUíMICO BAJO COMPETENCIA E INTERACCIóN DE QUIMIOTAXIS Y HAPTOTAXIS.
ESTUDIO NUMéRICO DE UN NUEVO MODELO MECANOQUíMICO BAJO COMPETENCIA E INTERACCIóN DE QUIMIOTAXIS Y HAPTOTAXIS.
García Gutiérrez Angel David, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Marco Antonio Morales Sánchez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Es bien sabido que la piel de los animales vertebrados está constituida por cinco capas (Oster et. al. 1983, Maini & Murray 1988). Una capa externa que es la epidermis, una capa interna: la dermis, la lámina basal que es una capa intermedia entre estas dos (secretada por un tipo de células de la dermis llamadas fibrolastos), y dos capas más profundas subcutáneas, las cuales en los modelos no son consideradas, puesto que pueden ser tomadas en cuenta como sustratos. La función de la lámina basal es comunicar interacciones químicas entre dermis y epidermis, así como servir de anclaje mecánico de la epidermis sobre la dermis (Widelitz et. al.1996, Barrio et. al. 2009). Una manera de estudiar la formación de patrones en la piel de los animales vertebrados, es considerar que en la epidermis (Kondo & Asai 1995, Varea et. al. 1997, Aragón et. al. 1998, Asai et. al. 1999, Venkataraman et. al. 2011) y/o dermis están presentes estas substancias activadoras e inhibidoras de tal forma que ambas capas son modeladas por dos sistemas de Turing acoplados con términos lineales o no linealmente (Barrio et. al. 1999, Barrio et. al. 2009). Por otro lado, los modelos mecánicos consideran a los elementos de la dermis como un continuo lineal, isotrópico y visco-elástico (matriz extracelular) que incluye procesos de transporte para las células del medio continuo (tracción celular, convección, división celular y difusión), los cuales son modelados por ecuaciones de leyes de la Física de fluidos y medios contínuos (Oster et. al. 1983, Murray et. al. 1983, Murray & Oster 1984, Perelson et. al. 1986, Maini & Murray 1988, Ngwa & Maini 1995, Cruywagen et al. 1997). Los modelos mecano-químicos acoplan el sistema de reacción-difusión para modelar la dermis (con «inestabilidad inducida por difusión» para las interacciones entre morfógenos), y el modelo mecánico para la dermis (Nagorcka & Manoranjan 1987, Shaw & Murray1990, Murray & Myerscough 1991). Un caso especial de este tipo de modelos son los modelos de quimiotáxis (Murray & Maini 1988, Maini et. al. 1991, Painter & Maini 1999, Painter et. al. 2000), los cuales consideran flujos de concentraciones químicas de la epidermis hacia la dermis. Un mecanismo análogo a este tipo de flujos es la apotáxis que considera flujos celulares en la dermis. En la investigación realizada por Murray & Maini en 1988, se discute sobre las diferencias entre los modelos de pre-patrones y mecano-químicos. En los modelos de pre-patrones, se asume que el patrón de concentración química es formado, entonces la morfogénesis toma lugar secuencialmente: las células copian este patrón y varios procesos como la diferenciación celular, el movimiento celular, etc., se siguen de los pre-procesos químicos. Mientras que en los modelos mecano-químicos, la formación de patrones y el proceso de la morfogénesis son considerados como procesos de retroalimentación biológico. No obstante, estos modelos tienen la desventaja de ser difíciles de analizar numérica y analíticamente, a pesar de poder ser reducidos a modelos más simples. Por el contrario, los modelos de Turing son fáciles de tratar en ambos aspectos (numérica y analíticamente) y también son capaces de generar patrones más complejos, siempre que estos consistan de términos cuadráticos o cúbicos en dos sistemas bi-dimensionales de Turing acoplados (Bario et. al. 1999, Barrio et. al. 2009), pero carecen de una interpretación biológica inmediata. Sin embargo, en un trabajo reciente (M. A. Morales et. al., 2015) se propone un modelo mecano-químico que tiene interpretación biológica, está compuesto por una ecuación de reacción difusión y una ecuación que modela interacciones físicas. Estas ecuaciones se deducen en detalle en la siguiente sección y se propone una modificación del modelo original, al considerar la quimiotaxis en la epidermis y la haptotaxis en la dermis.
METODOLOGÍA
Se plantea el modelo matemático a partir de la revisión bibliográfica y se generaliza un modelo mecanoquímico considerando la quimiotaxis haptotaxis. se resuelve numéricamente las ecuaciones diferenciales parciales no lineales del modelo matemático, utilizando el método de Euler para resolver la parte temporal y el método de diferencias finitas para resolver los términos espaciales del modelo. las soluciones numéricas se grafican en forma de patrones espaciales bidimensionales y se analizan las diferencias y similitudes entre estos al considerar la quimiotaxis-haptotaxis inhibirlas las mismas o desprécialas
CONCLUSIONES
1. Al considerar la haptotaxis como un mecanismo biológico en la dermis en la segunda de las ecuaciones diferenciales parciales del modelo matemático, se observa un rompimiento de simetría de la fase de laberintos a una fase de puntos ligeramente modulada de una fase hexagonal, así mismo aparecen regiones de patrones similares a fases de microemulsiones.
2. Al considerar la quimiotaxis como un mecanismo biológico en la epidermis en la primera de las ecuaciones diferenciales parciales del modelo matemático, se observa también un rompimiento de simetría en los patrones de manchas y tripas. La complejidad del cambio de simetría es mayor comparado con el comportamiento presentado debido a la haptotaxis.
3. La competencia e interacción entre el mecanismo de haptotaxis y quimiotaxis considerando del modelo matemático tiene un comportamiento mucho más complejo que cuando solamente se considera uno de los dos. por ejemplo, se obtiene patrones especiales que son mezclas de varias fases que surgen en la quimiotaxis haptotaxis por separado. de esto se implica que el mecanismo de quimiotaxis es más robusto que el mecanismo de la haptotaxis es decir la haptotaxis es un mecanismo con mayor sensibilidad a los cambios de la quimiotaxis.
Garcia Guzman Ulises, Universidad Autónoma de Baja California
Asesor:Dr. Roberto Carlos Ambrosio Lazaro, Benemérita Universidad Autónoma de Puebla
SÍNTESIS Y CARACTERIZACIÓN DE PROPIEDADES MORFOLÓGICAS, ESTRUCTURALES, ELECTRÓNICAS Y CONDUCTIVAS DE PM-SIGE:H DOPADO CON FÓSFORO.
SÍNTESIS Y CARACTERIZACIÓN DE PROPIEDADES MORFOLÓGICAS, ESTRUCTURALES, ELECTRÓNICAS Y CONDUCTIVAS DE PM-SIGE:H DOPADO CON FÓSFORO.
Garcia Guzman Ulises, Universidad Autónoma de Baja California. Asesor: Dr. Roberto Carlos Ambrosio Lazaro, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Un material compuesto por una matriz amorfa y cristales o cúmulos cristalinos de tamaño nanométrico embebidos en la misma recibe la denominación de un material polimorfo. Dicha familia de materiales se caracteriza por ser de bajo costo de producción, con bajas temperaturas de procesamiento, uniformes y estables, además de ser materiales con un transporte electrónico prometedor, siendo la aleación de pm-SiGe:H (Silicio germanio hidrogenado polimorfo) objeto de gran estudio gracias a las propiedades anteriormente mencionadas, además de su gran estabilidad y absorción en el rango infrarrojo del espectro electromagnético.
En la actualidad el Deposito Químico de Vapor Asistido por Plasma (PECVD, Plasma Enchanced Chemical Vapor Deposition por sus siglas en inglés), es el método de síntesis por excelencia para la producción de aleaciones de SiGe:H gracias a su relativa baja temperatura de fabricación, excelente control de deposito, así como de estructura, dado que posee la capacidad para sintetizar materiales polimorfos.
Dichos materiales también pertenecen a la rama de semiconductores amorfos, los cuales gozan de la peculiaridad de obtener extensiones en sus bandas de conducción y valencia, llamadas colas de valencia y conducción; además, presentan un pseudo gap generado por defectos de estado que a su vez son generados por su amorficidad, los cual se ve reflejado es su Band Gap y genera propiedades electrónicas como la energía de activación y la energía de Urbach.
Debido a la naturaleza del método de síntesis es bastante sensible a modificar las propiedades electrónicas del material en base a los parámetros de síntesis, por lo que un cambio en la estequiometria de la aleación o bien en la introducción de alguna impureza a la aleación intrínseca genera cambios en las propiedades tanto estructurales como electrónicas del material.
El presente trabajo reporta el cambio en propiedades morfológicas, estructurales electrónicas y conductivas de aleaciones polimorfas de SiGe:H intrínsecas y dopadas con fosforo (tipo N) sintetizadas vía PECVD.
METODOLOGÍA
Se sintetizaron aleaciones de SiGe:H mediante PECVD. La síntesis se llevó a cabo introduciendo los precursores en forma gaseosa acorde a su naturaleza, durante la síntesis el reactor se mantuvo con una frecuencia de plasma de 110 Hz, a 0.6 Torr, con una temperatura de 200°C y una potencia de 300 W durante 20 min.
Las aleaciones depositadas fueron estudiadas mediante espectroscopia infrarroja (FTIR, Fourier Transform Infrared por sus siglas en inglés) y Raman para constituir el estudio de su composición química y estructural. A modo de confirmación estructural, fue implementada la microscopía electrónica de barrido de alta resolución (HRTEM, High Resolution Transmision Electron Microscope por sus siglas en inglés). El estudio de su morfología superficial fue realizado por microscopía electrónica de barrido (SEM, Scanning Electron Microscope por sus siglas en inglés) y microscopia de fuerza atómica (AFM, Atomic Force Microscope por sus siglas en inglés). Por otro lado, el estudio de sus propiedades electrónicas fue realizado por espectroscopia UV-vis-NIR, donde a dichos resultados se le fue aplicado el método de Tauc Plot y la ecuación para la energía de Urbach (Ecuación 1); el primero para el cálculo de Band Gap de las aleaciones y la segunda para encontrar la energía de Urbach, graficando el logaritmo natural del coeficiente de absorción (ln(α) ) frente a la energía, el inverso del ajuste línea de la curva por debajo del valor del Band Gap representa la energía de Urbach, dentro de la ecuación h representa la constante de Planck, v frecuencia, Eg el Band Gap, α el coeficiente de absorción y Eu la energía de Urbach.
α=α0e(hv-Eg/Eu) (1)
Finalmente, para él estudio de sus propiedades conductivas fueron realizadas curvas de corriente-voltaje dependiente de temperatura, en un rango de temperatura entre 27°C y 127°C, con incrementos de 10°C, para cada temperatura se realizó la medición entre -20 V y 20 V, con paso de 1 V. Los subsecuentes resultados proporcionaron la conductividad del material aplicando la ley de Ohm en su descripción diferencial (Ecuación 2); donde d es la distancia entre electrodos, L la longitud de la película y th el espesor de la película. Con los resultados de conductividad y junto con la expresión de Arrhenius (Ecuación 3) se realizó el cálculo para la energía de activación, graficando el logaritmo natural de la conductividad (ln(σ)) frente al inverso de la temperatura (1/kT ), la pendiente obtenida corresponde a la energía de activación.
σ=Id/VLth (2)
σ(T)=σ0e(Ea/kT) (3)
CONCLUSIONES
La síntesis de aleaciones de SiGe:H polimorficas fue llevada a cabo con éxito, confirmado por las bandas de absorción en el estudio por FTIR y Raman; la aleación demostró ser capaz de generar una matriz amorfa con cúmulos cristalinos los cuales en teoría promueven una buena conductividad eléctrica, mientras que la fase amorfa estropea la conductividad térmica. La aleación tipo N resultó con un mayor band gap, de 1.36 eV a comparación de la aleación intrínseca de 1.11 eV, donde dicho comportamiento se mantuvo en la energía de Urbach con valores de 0.478 eV y 0.224 eV respectivamente. Las aleaciones presentaron energías de activación hasta cierto grado similares, de 0.300 eV para la aleación intrínseca y 0.249 eV para la aleación tipo N.
García Hernández Danna Greeksaida, Universidad de Guadalajara
Asesor:Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla
DETECTORES DE CENTELLEO
DETECTORES DE CENTELLEO
García Hernández Danna Greeksaida, Universidad de Guadalajara. García Monroy Jorge Andrés, Benemérita Universidad Autónoma de Puebla. Hernández Rodríguez Duviel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Asesor: Dr. Lucio Fidel Rebolledo Herrera, Benemérita Universidad Autónoma de Puebla
Los plásticos centelladores son detectores de radiación que poseen la capacidad de transformar la radiación ionizante en fotones. Estos materiales centelladores se utilizan ampliamente en experimentos relacionados con el estudio de partículas y astro partículas, y también encuentran aplicación en el campo de la imagenología médica, desempeñando el papel de monitores de radiación en tecnologías como la Tomografía por Emisión de Positrones (PET). Por otro lado, estos materiales se combinan con dispositivos capaces de detectar los fotones emitidos y con la cualidad de generar corrientes eléctricas a partir de estos fotones, tales como los tubos fotomultiplicadores (PMT) o los fotomultiplicadores de silicio (SiPM).
Durante la estancia se caracterizó el voltaje de operación de dos fotomultiplicadores de silicio (SiPM) empleando un plástico centellador. Con el objetivo de que, al realizar nuevas mediciones, la señal detectada por ambos SiPM tengas amplitudes similares.
METODOLOGÍA
Preparación del plástico centellador
Inicialmente, se procedió a cortar cuidadosamente un fragmento de 38 cm de la barra de plástico centellador con una segueta, asegurando una velocidad de corte lenta para evitar un aumento significativo en la temperatura del material. Además, se prestó especial atención para lograr un corte recto y preciso, lo cual facilitaría los pasos posteriores de pulido y lijado en los extremos cortados del plástico.
Una vez extraída la barra más corta, se procedió a lijar los extremos de ésta, utilizando lijas de agua de diferentes granos, comenzando con la de grano 80 y progresando hasta la de grano 2000. Se tuvo un cuidado meticuloso durante el lijado, manteniendo un ritmo lento y asegurándose de que la cara de la barra de plástico que estaba siendo lijada no adquiriera curvatura, con el objetivo de lograr un acabado lo más recto posible en la superficie lijada.
En la etapa del pulido, se inició frotando suavemente cada extremo lijado con pasta de color rosa, empleando algodón y realizando movimientos circulares de manera lenta y cuidadosa. Posteriormente, según el criterio del responsable del pulido, se hizo uso de la pasta blanca, nuevamente aplicando algodón y realizando movimientos controlados. Este procedimiento se repitió hasta lograr un acabado óptimo y transparente en el plástico centellador.
A continuación, se utilizó un vernier digital para medir con exactitud la longitud de cada lado del SiPM, con el propósito de trazar en papel reflectante un marco que cubriera las caras pulidas del plástico, pero dejara al descubierto un cuadro con las dimensiones del SiPM. Una vez colocado y asegurado con cinta el marco en ambos extremos de la barra se procedió a forrar el cuerpo del plástico centellador con cartulina negra (con la intención de evitar el paso de luz visible por esta área y así evitar que ésta fuera detectada por el SiPM), excepto en el espacio previamente mencionado. Dicho espacio, al que denominamos "ventana", fue reservado para colocar posteriormente el SiPM.
Luego, se procedió a nombrar las tarjetas como "tarjeta 1" y "tarjeta 2", y se colocaron los detectores SiPM en cada extremo de la barra, asegurándolos con cinta de aislar. Acto seguido, se ubicó el arreglo sobre una base improvisada dentro de un espacio cerrado para evitar el paso de luz visible. Finalmente se conectaron los detectores a la fuente de alimentación y al osciloscopio.
Calibración de los detectores SiPM
Se inició la etapa de caracterización del voltaje de operación óptimo para los detectores SiPM. Para llevar a cabo esta fase, se emplearon dos fuentes radiactivas: Co60 y Sr90. La primera fue situada en las proximidades de la "tarjeta 1" sobre el plástico centellador y mediante la fuente de alimentación, se llevó a cabo un barrido de voltaje desde 30V (ya que es el voltaje máximo proporcionado por el fabricante) hasta 28V, disminuyendo en intervalos de 0.5V en cada paso. Simultáneamente, con el apoyo del osciloscopio y mediante un algoritmo realizado en Python 3.10, se adquirieron 10,000 pulsos para cada valor de voltaje. El mismo proceso se repitió para la "tarjeta 2" y para la fuente de Sr90.
Captura de datos
Tras la recopilación de los datos, se llevó a cabo la implementación de un algoritmo en Python haciendo uso de las bibliotecas os, glob, NumPy, scipy y matplotlib para procesar la información. Mediante este algoritmo, se determinaron tanto las amplitudes como las cargas de los 10,000 pulsos, y a partir de estos valores se calcularon los promedios. Estos promedios fueron empleados para realizar un ajuste lineal a través del método de mínimos cuadrados, el cual ayudaría para determinar el voltaje de operación de ambas tarjetas.
CONCLUSIONES
El propósito inicial era caracterizar la diferencia de tiempo entre los detectores SiPM, cuando la amplitud de la señal detectada por éstos superaba cierto valor dado, como función de la posición de la fuente radiactiva sobre la barra de plástico centellador. No obstante, al realizar pruebas con Sr90 y Co60, se observó que, debido a la gran longitud del plástico centellador, los fotones generados en su interior dejaban de ser detectados por los SiPM a una distancia aproximada de 3.7 cm para la tarjeta 1 y 4.5 cm para la tarjeta 2. Además, se encontró que los sensores SiPM presentaban diferentes sensibilidades, reflejadas en notables diferencias en los histogramas de amplitudes y cargas. Por esta razón, el objetivo del estudio se centró en la caracterización del voltaje de operación óptimo para los fotomultiplicadores de silicio. Tras realizar diversos análisis y procesamientos de las muestras capturadas con distintos voltajes, se seleccionaron los valores de 29.5V y 29.8V para las tarjetas 1 y 2, respectivamente, asegurando así, una sensibilidad similar para ambos SiPM. Así, al capturar nuevos pulsos, se obtendrán amplitudes y cargas consistentes sin importar la tarjeta empleada.
Agradecimientos al laboratorio de física médica de la Benemérita Universidad Autónoma de Puebla, por su constante apoyo y asesoría para la realización de este proyecto.
García Mejía Marlon Steve, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
CONSTRUCCIóN Y ANáLISIS DE EXTENSIONES DEL MODELO ESTáNDAR CON UN SECTOR DE HIGGS EXTENDIDO USANDO FEYNRULES Y MICROMEGAS
CONSTRUCCIóN Y ANáLISIS DE EXTENSIONES DEL MODELO ESTáNDAR CON UN SECTOR DE HIGGS EXTENDIDO USANDO FEYNRULES Y MICROMEGAS
García Mejía Marlon Steve, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En este trabajo se propone construir y analizar dos extensiones del Modelo Estándar de la Física de Partículas (SM) que incorporan un sector de Higgs extendido: el Modelo Escalar con N-dobletes (NS-SM) y el Modelo Estándar extendido con 2 singletes escalares y dos singletes fermiónicos (2SF-SM). El objetivo es estudiar cómo estas extensiones afectan las propiedades y características de las partículas y, en particular, buscar candidatos de Materia Oscura (DM) dentro de cada modelo.
METODOLOGÍA
La metodología consistirá en dos etapas principales: la construcción de los modelos NS-SM y 2SF-SM utilizando el software especializado Feyrules, y el análisis de las propiedades y comportamientos de las partículas resultantes, centrándonos en los candidatos de Materia Oscura.
Construcción de los modelos: Se utilizará el software Feyrules para desarrollar las extensiones del Modelo Estándar con el sector de Higgs extendido. Para el NS-SM, se considerarán N-dobletes escalares con N variando de 1 a 4, mientras que para el 2SF-SM se incorporarán dos singletes escalares y dos singletes fermiónicos. Estos modelos se definirán mediante sus respectivas ecuaciones y se evaluará su coherencia y consistencia con las teorías físicas establecidas.
Análisis de los candidatos de Materia Oscura: Se seleccionará al menos un candidato de Materia Oscura dentro de cada modelo (ya sea un candidato escalar o fermiónico).
Luego, se utilizará el software MicrOmegas para realizar pruebas y simulaciones que evalúen las propiedades y características de estos candidatos de Materia Oscura, como su densidad de relicto, sus interacciones con otras partículas y su posible detección experimental.
CONCLUSIONES
La construcción y análisis de las dos extensiones del Modelo Estándar de la Física de Partículas (SM) con un sector de Higgs extendido han arrojado resultados interesantes. Los modelos NS-SM y 2SF-SM han demostrado ser consistentes y viables desde el punto de vista teórico. Además, se ha identificado al menos un candidato de Materia Oscura en cada modelo, lo que sugiere que estas extensiones podrían ofrecer nuevos escenarios para comprender la naturaleza de la Materia Oscura.
El uso de software especializado como Feyrules y MicrOmegas ha sido fundamental para llevar a cabo esta investigación de manera eficiente y precisa. Estos resultados pueden tener implicaciones importantes para la física de partículas y la cosmología, ya que contribuyen al conocimiento sobre la posible naturaleza de la Materia Oscura y su interacción con las partículas conocidas del Modelo Estándar.
García Monroy Jorge Andrés, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla
DETECTORES DE CENTELLEO
DETECTORES DE CENTELLEO
García Hernández Danna Greeksaida, Universidad de Guadalajara. García Monroy Jorge Andrés, Benemérita Universidad Autónoma de Puebla. Hernández Rodríguez Duviel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Asesor: Dr. Lucio Fidel Rebolledo Herrera, Benemérita Universidad Autónoma de Puebla
Los plásticos centelladores son detectores de radiación que poseen la capacidad de transformar la radiación ionizante en fotones. Estos materiales centelladores se utilizan ampliamente en experimentos relacionados con el estudio de partículas y astro partículas, y también encuentran aplicación en el campo de la imagenología médica, desempeñando el papel de monitores de radiación en tecnologías como la Tomografía por Emisión de Positrones (PET). Por otro lado, estos materiales se combinan con dispositivos capaces de detectar los fotones emitidos y con la cualidad de generar corrientes eléctricas a partir de estos fotones, tales como los tubos fotomultiplicadores (PMT) o los fotomultiplicadores de silicio (SiPM).
Durante la estancia se caracterizó el voltaje de operación de dos fotomultiplicadores de silicio (SiPM) empleando un plástico centellador. Con el objetivo de que, al realizar nuevas mediciones, la señal detectada por ambos SiPM tengas amplitudes similares.
METODOLOGÍA
Preparación del plástico centellador
Inicialmente, se procedió a cortar cuidadosamente un fragmento de 38 cm de la barra de plástico centellador con una segueta, asegurando una velocidad de corte lenta para evitar un aumento significativo en la temperatura del material. Además, se prestó especial atención para lograr un corte recto y preciso, lo cual facilitaría los pasos posteriores de pulido y lijado en los extremos cortados del plástico.
Una vez extraída la barra más corta, se procedió a lijar los extremos de ésta, utilizando lijas de agua de diferentes granos, comenzando con la de grano 80 y progresando hasta la de grano 2000. Se tuvo un cuidado meticuloso durante el lijado, manteniendo un ritmo lento y asegurándose de que la cara de la barra de plástico que estaba siendo lijada no adquiriera curvatura, con el objetivo de lograr un acabado lo más recto posible en la superficie lijada.
En la etapa del pulido, se inició frotando suavemente cada extremo lijado con pasta de color rosa, empleando algodón y realizando movimientos circulares de manera lenta y cuidadosa. Posteriormente, según el criterio del responsable del pulido, se hizo uso de la pasta blanca, nuevamente aplicando algodón y realizando movimientos controlados. Este procedimiento se repitió hasta lograr un acabado óptimo y transparente en el plástico centellador.
A continuación, se utilizó un vernier digital para medir con exactitud la longitud de cada lado del SiPM, con el propósito de trazar en papel reflectante un marco que cubriera las caras pulidas del plástico, pero dejara al descubierto un cuadro con las dimensiones del SiPM. Una vez colocado y asegurado con cinta el marco en ambos extremos de la barra se procedió a forrar el cuerpo del plástico centellador con cartulina negra (con la intención de evitar el paso de luz visible por esta área y así evitar que ésta fuera detectada por el SiPM), excepto en el espacio previamente mencionado. Dicho espacio, al que denominamos "ventana", fue reservado para colocar posteriormente el SiPM.
Luego, se procedió a nombrar las tarjetas como "tarjeta 1" y "tarjeta 2", y se colocaron los detectores SiPM en cada extremo de la barra, asegurándolos con cinta de aislar. Acto seguido, se ubicó el arreglo sobre una base improvisada dentro de un espacio cerrado para evitar el paso de luz visible. Finalmente se conectaron los detectores a la fuente de alimentación y al osciloscopio.
Calibración de los detectores SiPM
Se inició la etapa de caracterización del voltaje de operación óptimo para los detectores SiPM. Para llevar a cabo esta fase, se emplearon dos fuentes radiactivas: Co60 y Sr90. La primera fue situada en las proximidades de la "tarjeta 1" sobre el plástico centellador y mediante la fuente de alimentación, se llevó a cabo un barrido de voltaje desde 30V (ya que es el voltaje máximo proporcionado por el fabricante) hasta 28V, disminuyendo en intervalos de 0.5V en cada paso. Simultáneamente, con el apoyo del osciloscopio y mediante un algoritmo realizado en Python 3.10, se adquirieron 10,000 pulsos para cada valor de voltaje. El mismo proceso se repitió para la "tarjeta 2" y para la fuente de Sr90.
Captura de datos
Tras la recopilación de los datos, se llevó a cabo la implementación de un algoritmo en Python haciendo uso de las bibliotecas os, glob, NumPy, scipy y matplotlib para procesar la información. Mediante este algoritmo, se determinaron tanto las amplitudes como las cargas de los 10,000 pulsos, y a partir de estos valores se calcularon los promedios. Estos promedios fueron empleados para realizar un ajuste lineal a través del método de mínimos cuadrados, el cual ayudaría para determinar el voltaje de operación de ambas tarjetas.
CONCLUSIONES
El propósito inicial era caracterizar la diferencia de tiempo entre los detectores SiPM, cuando la amplitud de la señal detectada por éstos superaba cierto valor dado, como función de la posición de la fuente radiactiva sobre la barra de plástico centellador. No obstante, al realizar pruebas con Sr90 y Co60, se observó que, debido a la gran longitud del plástico centellador, los fotones generados en su interior dejaban de ser detectados por los SiPM a una distancia aproximada de 3.7 cm para la tarjeta 1 y 4.5 cm para la tarjeta 2. Además, se encontró que los sensores SiPM presentaban diferentes sensibilidades, reflejadas en notables diferencias en los histogramas de amplitudes y cargas. Por esta razón, el objetivo del estudio se centró en la caracterización del voltaje de operación óptimo para los fotomultiplicadores de silicio. Tras realizar diversos análisis y procesamientos de las muestras capturadas con distintos voltajes, se seleccionaron los valores de 29.5V y 29.8V para las tarjetas 1 y 2, respectivamente, asegurando así, una sensibilidad similar para ambos SiPM. Así, al capturar nuevos pulsos, se obtendrán amplitudes y cargas consistentes sin importar la tarjeta empleada.
Agradecimientos al laboratorio de física médica de la Benemérita Universidad Autónoma de Puebla, por su constante apoyo y asesoría para la realización de este proyecto.
García Núñez Angel Fernando, Universidad de Sonora
Asesor:Dr. Carlos Alberto Lara Alvarez, Centro de Investigación en Matemáticas (CONACYT)
APRENDIZAJE REFORZADO POR Q-LEARNING
APRENDIZAJE REFORZADO POR Q-LEARNING
García Núñez Angel Fernando, Universidad de Sonora. Asesor: Dr. Carlos Alberto Lara Alvarez, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
En la actualidad existen múltiples problemas, los cuales involucran la toma de decisiones en base a distintos factores, ejemplos de esto pueden ser la gestión de recursos en una organización, la compra y venta de acciones en un fondo de inversión, la trayectoria mas eficiente para un robot, e inclusive la opción a tomar dentro de un juego o simulación. Para problemas de este tipo, resulta de gran utilidad contar con un algoritmo que implemente la politica óptima y nos de aquella opción que represente un mayor beneficio en cuanto a los parámetros del problema especifico.
METODOLOGÍA
Durante esta estancia, se aprendió e implementó el algoritmo de Q-learning para el aprendizaje por refuerzo. Se abordaron distintos problemas, todos ellos codificados en Python. En primer lugar, se trabajó en el desplazamiento dentro de un conjunto de casillas, en las cuales existen recompensas y castigos. El algoritmo logró converger y tomar la ruta más óptima para resolver este problema.
Posteriormente, se abordó el juego de Pong, y se programó el entorno del juego utilizando el módulo PyGame. Se utilizó un perceptrón para aproximar la función Q en este contexto.
El tercer problema abordado fue una simulación de ’Cart Pole’, para lo cual se empleó el entorno de Gym. La función Q se aproximó mediante una red neuronal con una capa oculta.
Para el ultimo problema, se tomó un conjunto de datos de la libreria NeoRL, que proporciona interacciones dentro de un entorno de gestión de recursos. Se realizó el entrenamiento del agente fuera de linea, e implementando un modelo de red neuronal de tipo Critic-Action para la toma de acciones de carácter continuo.
CONCLUSIONES
En los dos primeros problemas, el comportamiento del agente convergió hacia la politica óptima, mientras que para los siguientes problemas, fue necesario implementar Dropout para evitar el sobreajuste.
En resumen, el Q-learning resulta una alternativa eficiente para la resolución de este tipo de problemas, donde el desafio radica en el modelo de aproximación y los parámetros de optimización utilizados en el entrenamiento.
García Parra Mauricio, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dra. Martha Palacios Peñaranda, Universidad Autónoma de Occidente
CARACTERIZACIóN DE MICROPLáSTICOS EN SEDIMENTO DE MANGLAR EN CIéNAGA GRANDE DE SANTA MARTA, MAGDALENA COLOMBIA
CARACTERIZACIóN DE MICROPLáSTICOS EN SEDIMENTO DE MANGLAR EN CIéNAGA GRANDE DE SANTA MARTA, MAGDALENA COLOMBIA
García Parra Mauricio, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Martha Palacios Peñaranda, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
Una de las principales problemáticas que tienen los servicios ecosistémicos de los manglares en Colombia es la contaminación de plásticos y microplásticos, los cuales son materiales de origen orgánico y de elevado peso molecular, constituidos por largas cadenas de moléculas llamadas polímeros, se obtienen principalmente a partir del petróleo y del gas natural, por otra parte los microplásticos se dividen en primarios que son fabricados de tamaño menor a 5 mm, presentes en cremas, detergentes, gel de tipo exfoliante, pasta dentífrica, etc. y los secundarios de igual manera menores a 5 mm pero originados por la degradación de los diferentes residuos.
Estos microplásticos interfieren en la salud de la fauna y flora de manglar, afectando a las condiciones físicas, biológicas, económicas y sociales.
Por tal razón en este estudio se identificó y se caracterizó diversos tipos de microplásticos conforme a color, profundidad y forma en Ciénaga Grande de Santa Marta ubicada al extremo noroccidental del departamento de Magdalena considerada la laguna costera más grande, así como la más productiva del Caribe Colombiano, declarada humedal RAMSAR, reserva biosfera y parque nacional.
METODOLOGÍA
La primera parte del proyecto fue la recolección de muestras en donde se obtuvieron 21 muestras de sedimento en Ciénaga Grande de Santa Marta de acuerdo a la metodología de Kauffman (2016), fueron recolectados 105 gramos en total con un nucleador en 6 parcelas diferentes cada parcela con 25 metros de distancia una de la otra.
Posteriormente se les dio un tratamiento a las muestras en laboratorio, conforme a la metodología de Löder, M y Gerdts, G (2015). De manera general se realizó el secado de muestra a 60°C (48 hrs), tamizado, pesar g/muestra, digestión de materia orgánica de H2O2 (24hrs), adición de ZnCl2 (48 hrs), filtración de muestra con filtros de membrana.
Por último, se realizó la identificación visual en un estereomicroscopio electrónico a 4X y caracterización de microplásticos por color, forma, tamaño, profundidad y así poder inferir si es microplástico primario o secundario.
CONCLUSIONES
De acuerdo con este estudio se confirma la problemática y se dan resultados de manera cuantitativa, en el cual se destacan 3 indicadores importantes color, forma y profundidad.
El color de fibra translucida (55%) fue la más abundante, seguido de la fibra negra (21%), fibra azul (10%), fibra blanca (6%), fibra naranja (3%), fibra roja (2%).
Por otra parte, los pellets (47%) fue la forma con mayor presencia en el estudio, seguido de films (21%), filamentos (18%), fragmentos (14%).
La profundidad con mayor número de microplásticos identificados es de 0-15 cm (38%) cerca de la superficie, seguido de 15-30 cm (34%), 30-50 cm (19%), 50-100 cm (9%).
Los microplásticos translucidos son los más abundantes en la CGSM estos se pueden derivar del polietileno (PE), polipropileno (PP), tereftalato de polietileno (PET). Los microplásticos se encuentran cerca de la superficie a 0-15 cm de profundidad, debido a las actividades constantes que existen en la CGSM. Los pellets es la forma más presente en este estudio, esto debido a la degradación de plásticos como bolsas, botellas, redes de pesca etc. provenientes de las áreas cercanas a la ciénaga.
Aunque se han detectado indicadores importantes, es necesario realizar más estudios para saber con exactitud el origen de los microplásticos identificados con el fin de mitigar el impacto que generan los mismos hacía a la biodiversidad al ser ingeridos por la vida silvestre y los peces, causando daños a la red trófica, al igual que alterando el equilibrio de los procesos naturales, económicos y sociales.
García Sánchez Adrián, Universidad Autónoma de Ciudad Juárez
Asesor:Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
MEDICIóN DE LA SECCIóN TRANSVERSAL DE PROTóN-AIRE, CON DATOS LIBERADOS DEL OBSERVATORIO PIERRE AUGER.
MEDICIóN DE LA SECCIóN TRANSVERSAL DE PROTóN-AIRE, CON DATOS LIBERADOS DEL OBSERVATORIO PIERRE AUGER.
García Sánchez Adrián, Universidad Autónoma de Ciudad Juárez. Asesor: Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
En esta investigación tratamos con el área de altas energías, específicamente lo que son los rayos cósmicos y su interacción con la atmósfera siendo uno de los objetivos obtener el valor de la sección transversal protón-aire con datos del observatorio Pierre Auger, esta sección transversal se mide en la unidades de barn esta es una unidad de superficie equivalente a 10-28m2, principalmente lo que indica esta medición es la probabilidad de interacción que hay en partículas pequeñas, por lo que en nuestros resultados obtendremos esta sección transversal indicándonos las probabilidades de interacción de protón con las partículas del aire cuando hay un chubasco atmosférico ocasionado por un rayo cósmico.
METODOLOGÍA
Por medio de los datos del observatorio Pierre Auger usaremos los datos de los detectores de fluorescencia (FD) los cuales van de 1 de Diciembre del 2004 al 20 de Septiembre del 2010, por lo que solo usaremos las columnas de fd_Xmax, fd_hdXmax y fd_totalEnergy, al hacer la limpieza de datos solo seleccionamos los datos que en el hdXmax sean igual a 1, y solo usaremos los eventos en donde el Xmax estén en los rangos de 550 a 1050 g/cm2, una vez obtuvimos los datos limpios empezamos con nuestros análisis por medio de gráficas para poder generar la sección transversal de la interacción Protón-Aire. Por lo que por medio del software Python 3 manejaremos los datos y obtendremos distintas graficas que nos ayudaran a demostrar el propósito de esta investigación.
CONCLUSIONES
Una vez analizadas las gráficas obtenemos un resultado de la sección transversal de la interacción protón-aire de 486.97 (-9.86+14.40)mb lo cual esta interacción corresponde a energías de 1018 eV.
La importancia de obtener el resultado anterior de fue un gran avance ya que las simulaciones y cálculos que se usan son para energías de GeV y el resultado que obtenemos como antes se mencionó son para energías de EeV, de acuerdo al observatorio de donde se obtienen los datos ellos obtiene una sección transversal de 495.47 (-36.65 +38.11) mb el cual nuestro resultado es bastante semejante, la diferencia de incertidumbre entre nuestro resultado y el de ellos se basa en el método en el cual se hace el ajuste de datos ya que ellos utilizan el método de likelihood, mientras que nosotros usamos un ajuste potencial sencillo, ya que el método likelihood hace un ajuste de los pequeños ajustes que se hacen periódicamente con cada dato de la distribución, ya que este método toma en cuenta todos los datos de la distribución por lo que tienen un resultado más probable pero con incertidumbre estadística mucho más alto.
García Vega Ángel, Universidad Michoacana de San Nicolás de Hidalgo
Asesor:Dr. Alexander Moreno Briceño, Universidad Antonio Nariño
PRODUCCION DEL QUARK TOP EN COLISIONADORES ELECTRóN-POSITRóN
PRODUCCION DEL QUARK TOP EN COLISIONADORES ELECTRóN-POSITRóN
García Vega Ángel, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Alexander Moreno Briceño, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
Un desafío importante en el programa de física de altas energías es el estudio del quark top. El estudio de la dinámica y las propiedades de este quark nos abre una ventana importante al Modelo Estándar (ME) y a la física más allá del ME. Debido a su masa, de alrededor de 173 GeV, el quark top juega un papel muy importante en el estudio del mecanismo de Rompimiento Espontáneo de la Simetría (RES), y también en la búsqueda de señales de nueva física asociadas al RES. El top tiene un tiempo de vida muy corto, más corto que el tiempo de hadronización, lo cual indica que decae antes de hadronizarse, con lo cual toda la información acerca de correlaciones de espín y polarización provenientes del proceso de producción de pares del quark top se conserva en su decaimiento, y puede ser estudiado en distribuciones angulares de los productos del decaimiento del mismo. El quark top es el fermión más pesado en el ME, y ha sido observado en colisiones hadrónicas en el Tevatron y en el LHC. Igualmente, puede ser producido en colisionadores electrón-positrón, permitiéndonos hacer medidas complementarias de precisión. El propósito de este trabajo es el de estudiar en detalle los mecanismos de producción de pares del quark top, mediados por el fotón y por el bosón Z, en colisionadores electrón-positrón.
METODOLOGÍA
Se ha estudiado en detalle el ME de física de partículas, el cual ha descrito éxitosamente todas las mediciones de fenómenos a nivel subatómico a muy alta precisión. El ME es una teoría cuántica de campos renormalizable que está basado en el grupo de simetrías gauge SU(3)xSU(2)xU(1) y en el principio de RES. Se ha estudiado la estructura básica del ME, su contenido de partículas, la teoría de la cromodinámica cuántica, y la teoría electrodébil. Igualmente, el sector de Yukawa, en donde encontramos las interacciones entre los fermiones y el sector escalar.
Después de estudiar el ME, se estudia y se calcula la amplitud del proceso de producción de pares del quark top mediado por un fotón y un bosón Z, en colisionadores electrón-positrón. Para calcular la amplitud de los dos procesos estudiados para generar pares del quark top, aplicamos las reglas de Feynman, retrocediendo a lo largo de cada línea fermiónica. Romão y Silva (2012) proporcionaron el vértice y el propagador para estos procesos en su trabajo sobre los diagramas de Feynman en el ME. Después de simplificar la última expresión, obtenemos el módulo cuadrado de la amplitud, donde aplicamos varias propiedades de las matrices gamma que fueron adquiridas de Peskin y Schroeder (1995). A continuación, realizamos la suma sobre todas las posibles orientaciones de espín y luego utilizamos la relación de completitud (Griffiths, 1987). Empleando el truco de Casimir, expresamos el resultado en términos de trazas de matrices.
Finalmente, calculamos las trazas utilizando las propiedades relevantes derivadas de Griffiths (1987). Después de algunas manipulaciones algebraicas, llegamos a nuestro resultado final para el cuadrado de la amplitud de los procesos estudiados en términos de los cuadrimomentos de todas las partículas involucradas. Este resultado final nos servirá a continuación para hacer el cálculo de la sección eficaz de la producción de pares del quark top en colisionadores electrón-positrón.
CONCLUSIONES
Se ha estudiado en detalle, en esta estancia de investigación, la estructura básica del ME con el fin de apropiarnos del conocimiento básico y fundamental de la física de partículas elementales. Se ha estudiado y calculado la amplitud de los mecanismos básicos de producción de pares del quark top en colisionadores electrón-positrón. Este cálculo obtenido a partir de los diagramas de Feynman que involucran la intermediación del fotón y del bosón Z, y usando las correspondientes reglas de Feynman, nos permitirán en una siguiente fase de este proceso investigativo, calcular las secciones eficaces de los procesos estudiados. El cálculo de estas últimas cantidades físicas son fundamentales tanto a nivel teórico como experimental para entender los procesos físicos en el cual el quark top está involucrado.
REFERENCIAS
Romão, J. C., & Silva, J. P. (2012). A resource for signs and Feynman diagrams of the Standard Model. International Journal of Modern Physics A, 27(26), 1230025. doi:10.1142/s0217751x12300256
Peskin, M. E. & Schroeder, D. V. (1995). An Introduction to Quantum Field Theory. Westview Press.
Griffiths, D. (1987). Introduction to Elementary Particles. New York, USA: John Wiley & Sons.
Garzón Mesinas Gerardo, Universidad Autónoma Benito Juárez de Oaxaca
Asesor:Dr. Gaspar Rodrigo de Jesús León Gil, Instituto Tecnológico Superior de Tacámbaro
ECUACIONES DIFERENCIALES EN LA ESFERA
ECUACIONES DIFERENCIALES EN LA ESFERA
Garzón Mesinas Gerardo, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Gaspar Rodrigo de Jesús León Gil, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
Una técnica muy útil al estudiar sistemas de ecuaciones diferenciales ordinarias el el plano fase, el cual nos da información del comportamiento de las soluciones del sistema conforme avanza el tiempo, sin embargo, hay ocasiones en las que el comportamiento de las soluciones cuando el tiempo tiende a infinito no es tan fácil de inferir.
METODOLOGÍA
Se usaron métodos de cálculo para obtener técnicas de análisis del plano fase dado por un sistema de ecuaciones diferenciales, una fue el cambio de coordenadas cartesianas a polares, y otra fue el proyectar el plano fase, usando el campo vectorial dado por el sistema de ecuaciones diferenciales, a la esfera de radio 1 con centro en el origen sin el punto del polo norte, con lo que se obtiene un nuevo campo vectorial, y luego se proyecta este desde la misma esfera pero sin el punto del polo sur de regreso al plano, para así obtener un nuevo campo vectorial que tendrá la información del comportamiento de las soluciones del sistema cuando el tiempo tienda a infinito.
CONCLUSIONES
Al estudiar diferentes tipos de planos fase, usando sus respectivos campos vectoriales, mediante las técnicas desarrolladas, se obtuvieron conocimientos que serán útiles a la hora de estudiar otros sistemas de ecuaciones diferenciales ordinarias (o campos vectoriales) más complicados.
Gasga Ruiz Alexis, Universidad Autónoma de Baja California Sur
Asesor:Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur
APLICACIóN MóVIL PARA LA PROTECCIóN DE ESPECIES MARINAS A TRAVéS DEL RECONOCIMIENTO DE IMáGENES USANDO LA INTELIGENCIA ARTIFICIAL
APLICACIóN MóVIL PARA LA PROTECCIóN DE ESPECIES MARINAS A TRAVéS DEL RECONOCIMIENTO DE IMáGENES USANDO LA INTELIGENCIA ARTIFICIAL
Gasga Ruiz Alexis, Universidad Autónoma de Baja California Sur. Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur
PLANTEAMIENTO DEL PROBLEMA
En el presente existen softwares y aplicaciones móviles que protegen las especies marinas en peligro de extinción o que luchan contra la pescadería ilegal. Una aplicación que revolucionó la protección de especies marinas fue O-FISH, que es usado por los policías marinos para imponer restricciones a docenas de áreas marinas protegidas, permitiendo a ingresar información de infracciones contra la pescadería ilegal incluso cuando están en lugares donde no hay acceso al internet. Esta aplicación hace el proceso de ingresar datos mucho más eficiente y hace posible poder tener una base de datos y con esto se puede observar si una persona con su barco o lancha ya han tenido un historial de pescadería ilegal al ver las infracciones. (Ingram, 2020). Incluso hay otra aplicación desarrollada llamada the fish app que toma datos de lugares donde nacen peces y donde terminan ubicados cuando ya se desarrollan por completo así mismo se puede establecer lugares donde poner una reserva, después un grupo de personas podrán ir hablar con la comunidad, pescadores y negocios de pescadería para poder hablar de la reserva. (Frost, 2017)
El parque marino Cabo Pulmo ubicado en Los Cabos, Baja California Sur, ha tenido un éxito rotundo en la conservación de los ecosistemas marinos y el beneficio más palpable ha sido el incremento de un 60 por ciento de la biomasa en los últimos 15 años. Sin embargo, hay preocupación entre los habitantes de la zona, científicos y conservacionistas, debido a que el cambio climático está generando cambios importantes en los ecosistemas y porque el éxito del parque ha traído un exceso de turistas lo que podría poner en peligro el área protegida. En el contexto de un mar de Cortés o golfo de California sobreexplotado tanto por la pesca legal como ilegal e inmerso en fuertes transformaciones por el cambio climático, la relevancia del parque marino Cabo Pulmo es mayor. Esta área protegida, ubicada al interior del golfo y al sur de la península de Baja California, aloja la principal barrera de corales del océano Pacífico mexicano. (Castillo A. d., 2021)
La sobreexplotación directa de peces nos da la conseguía de la eliminación de una especie que impactan múltiples niveles tróficos. En otras palabras si una especie de pescado es extinta, esta especie podría haber sido el alimento primario de otra especie, y justamente esta especie se queda sin su alimento primario y luego queda en riesgo de extinción por no poder alimentarse o incluso pueda ser que se coma el alimento de otra especie ya que automáticamente entra en un estado de adaptación. Y luego esto causa una reacción de sobrevivencia entre muchas especies, como la naturaleza lo dice o sino el gran científico Charles Darwin No es el más fuerte de las especies que sobrevive, tampoco es el más inteligente el que sobrevive. Es aquel que es más adaptable al cambio. (destructiva, s.f)
Con base a lo anterior se decide elaborar y diseñar una aplicación donde se pueda conservar y proteger las especies marinas en peligro de extinción y así mismo luchar contra la pescadería ilegal. También con el esfuerzo de organizaciones de poder proteger la conversación de los ecosistemas marinos la aplicación dará un gran apoyo monitoreando las cantidades de pescados que salen del océano, es decir cada vez que se capture un pescado se le tomara una foto y la aplicación nos dará que pescado es y cuántos han sido capturados en el día, semana y mes. además la aplicación nos dirá si está en peligro de extinción.
METODOLOGÍA
La investigación realizada se enmarca dentro de una investigación de tipo experimental. La metodología se basa en el diseño y ejecución de experimentos con la finalidad de alcanzar los objetivos planteados.
La investigación experimental implica el diseño y control de variables, así como la recolección sistemática de datos para poder realizar inferencias y generalizaciones válidas. En este contexto, se seguirán etapas y procedimientos claramente definidos para alcanzar los objetivos planteados.
Se diseñó un modelo de Deep Learning que servirá como clasificador. Se utilizaron técnicas de Deep Learning, específicamente redes neuronales convolucionales (CNN), para extraer características relevantes de las imágenes y realizar la clasificación. En esta etapa, se definirán la arquitectura de la red neuronal, las capas y conexiones, así como los hiperparámetros que se ajustaran durante el entrenamiento.
El siguiente paso consistirá en el entrenamiento del modelo utilizando el conjunto de datos preparados. Durante esta fase, se utilizaron los datos etiquetados para ajustar el peso y parámetros de la red neuronal, de manera que se pueda aprender a reconocer las características distintivas de las especies marinas.
Después del entrenamiento, se realizará la evaluación del modelo utilizando un conjunto de datos separado, denominado conjunto de validación. Este conjunto de datos no se utilizó durante el entrenamiento y permitirá medir la capacidad del clasificador para generalizar y clasificar correctamente nuevas imágenes.
Finalmente, se llevará a cabo el análisis de los resultados obtenidos. Esto implica examinar las predicciones del clasificador, identificar aciertos y errores, y realizar una interpretación de los mismos.
CONCLUSIONES
Con base en los resultado, se puede concluir que el proyecto va en buen camino ya que se pudo desarrollar un modelo de reconocimiento de imagen que pueda identificar una especie marina que es un pez dorado o pez luna. Este es un modelo binario, y en trabajos futuros se buscara identificar aún más especies marinas. Al tener una base sólida de especies marinas se buscara compilar e implementar el modelo entrenado al entorno de los dispositivos de IPhone IOS. Para poder tomar una foto con el teléfono y el modelo reconocer la especie marina en tiempo real. Al último se pretende poner el servidor de la base de datos en la nube para que pueda funcionar desde el internet y no de un servidor local.
Gatica Murrieta Emilio, Universidad de Guadalajara
Asesor:Dra. Luz Marina Reyes Barrera, Universidad de Guadalajara
ANáLISIS DE REDES NEURONALES SIMULADAS CON EL MODELO DE RULKOV
ANáLISIS DE REDES NEURONALES SIMULADAS CON EL MODELO DE RULKOV
Gatica Murrieta Emilio, Universidad de Guadalajara. Asesor: Dra. Luz Marina Reyes Barrera, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Existen múltiples fuentes que evidencían la complejidad de las redes neuronales y la dificultad de entender el funcionamiento de las conexiones entre neuronas. Las interacción entre diferentes elementos de estas redes puede resultar en características no triviales que se pueden estudiar y clasificar para mejorar el entendimiento de la evolución en las redes neuronales. Debido a la complejidad de las interacciones entre neuronas, estas redes se estudian con modelos de sistemas dinámicos con propiedades sociales y biológicas entre otras.
Se han propuesto múltiples modelos que ayudan a describir el comportamiento que podemos observar en las redes neuronales y se han estudiado de diferentes maneras para poder compararlas con lo que observamos en experimentación. Uno de estos modelos es el modelo de Rulkov. Este modelo permite simular la compleja dinámica de las neuronas, considerando la diferencia entre neuronas inhibidoras y excitadoras. Es por esto que en el verano de investigación se estudian las redes evolutivas generadas con el modelo de Rulkov así como sus propiedades evolutivas y topológicas.
METODOLOGÍA
Se construyó un programa en python para simular una red neuronal con el modelo de Rulkov. Esta red fue construida con una geometría cuadrada y con condiciones de frontera toroidales para que los elementos pudieran moverse de un extremo del espacio al otro y, así, evitaran escapar de la red. La interacción entre ellas se definió con las ecuaciones propuestas por Rulkov: unas ecuaciones discretas que constan de una variable de cambio lento y una variable de cambio rápido. La variable de cambio rápido es el voltaje de cada neurona y define así el estado interno de cada neurona. La red neuronal también fué construida para que pudiese evolucionar en el tiempo, permitiendo no solamente la evolución del estado interno de cada neurona sino también permitiendo la evolución en las conexiones de la misma.
Se utilizó el programa para analizar el comportamiento de las diferentes neuronas actuando entre ellas así como la relación entre neuronas inhibitorias y excitatorias. También se analizó el comportamiento del modelo con diferentes parámetros para que devolviera diferentes comportamientos. Entre estos comportamientos se vieron pulsos periódicos, rafagas de pulsos y silencio en el voltaje de las neuronas.
Se procedió a analizar la evolución de las redes neuronales estudiando las conexiones que se hacían. Cambios en variables como el tamaño de la red o la distancia a la que interactúan los elementos permitió observar comportamientos de grupos estables y grupos inestables, donde los grupos estables permanecían con las mismas conexiones a lo largo del tiempo y los grupos inestables contaban con elementos saliendo y entrando de sus conexiones.
Finalmente se analizaron algunas propiedades topológicas de las redes de doscientas neuronas que se habían construido. Entre estas propiedades se encuentran la longitud de ruta promedio y el coeficiente de agrupamiento.
CONCLUSIONES
Durante la estancia de verano se logró estudiar de forma profunda el modelo de Rulkov como modelo para describir las redes neuronales. Se confirmó la efectividad del modelo de Rulkov para describir ciertas propiedades evolutivas de las redes neuronales así como las dinámicas observadas entre neuronas individuales. Sin embargo, queda pendiente el estudio a mayor profundidad de las propiedades topológicas resultantes del modelo de Rulkov así como sus similitudes con los resultados presentados en trabajos experimentales de las redes neuronales.
Gaxiola Flores Christian Daniel, Universidad de Guadalajara
Asesor:Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
MEDICIONES DE LOS DECAIMIENTOS H A 4L A PARTIR DEL OPENDATA CMS 2019
MEDICIONES DE LOS DECAIMIENTOS H A 4L A PARTIR DEL OPENDATA CMS 2019
Gaxiola Flores Christian Daniel, Universidad de Guadalajara. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los aceleradores de partículas han jugado un papel fundamental en el desarrollo de teorías como el Modelo Estándar, que pretenden explicar la naturaleza de los constituyentes fundamentales del universo. El LHC (Gran Colisionador de Hadrones) representa el colisionador más grande en la historia y ha permitido obtener información valiosa en el área de Altas Energías. Este permitió la detección experimental del bosón de Higgs, el cual se mantenía hasta el 2012 como una predicción del Modelo Estándar y cuya existencia mejora nuestro entendimiento del proceso por el cual las partículas fundamentales adquieren masa. Mediante el análisis de datos recolectados de múltiples colisiones de partículas a Altas Energías, es posible obtener información sobre los procesos de decaimiento de bosones a otras partículas.
METODOLOGÍA
Los aceleradores de partículas han jugado un papel fundamental en el desarrollo de teorías como el Modelo Estándar, que pretenden explicar la naturaleza de los constituyentes fundamentales del universo. El LHC (Gran Colisionador de Hadrones) representa el colisionador más grande en la historia y ha permitido obtener información valiosa en el área de Altas Energías. Este permitió la detección experimental del bosón de Higgs, el cual se mantenía hasta el 2012 como una predicción del Modelo Estándar y cuya existencia mejora nuestro entendimiento del proceso por el cual las partículas fundamentales adquieren masa. Mediante el análisis de datos recolectados de múltiples colisiones de partículas a Altas Energías, es posible obtener información sobre los procesos de decaimiento de bosones a otras partículas.
CONCLUSIONES
En este trabajo de investigación se analizaron los datos CMS OpenData 2019, esto es, 3208 eventos simulados, usando la plataforma iSpy. Los resultados se muestran en dos tipo: decaimiento a dos leptones y a cuatro leptones. En cuanto a los decaimientos a cuatro leptones, se observa un número de eventos que marcan una masa de alrededor de 87 GeV, el cual es un valor muy cercano al de la masa del bosón Z. A pesar de que los datos son insuficientes para detectar la masa del bosón de Higgs, se puede observar una ligera acumulación de eventos para las masas 117 y 123 GeV, valores muy cercanos al valor experimental de la masa del bosón de Higgs, 125.3 GeV. Se pretende conjuntar estos resultados con datos obtenidos de otro paquete de datos para finalizar el análisis.
Gervacio Tellez Domingo, Universidad Michoacana de San Nicolás de Hidalgo
Asesor:Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo
ANÁLISIS DEL CAMBIO DE USO DE SUELO Y SUS IMPACTOS EN LA RECARGA DEL ACUÍFERO MARAVATIO-CONTEPEC-EPITACIO HUERTA
ANÁLISIS DEL CAMBIO DE USO DE SUELO Y SUS IMPACTOS EN LA RECARGA DEL ACUÍFERO MARAVATIO-CONTEPEC-EPITACIO HUERTA
Gervacio Tellez Domingo, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Se ha observado una grave disminución de los recursos hídricos en el acuífero Maravatío-Contepec-Epitacio Huerta, además en los últimos 5 años diversas comunidades han reportado niveles muy bajos nunca vistos en pozos de abastecimiento de agua potable. Los caudales en los ríos han disminuido y muchos cuerpos de agua han desaparecido. Mientras que la agricultura de riego ha experimentado un notorio aumento en la región. Esto no solo ha afectado en la disponibilidad de los recursos hídricos, si no que el aumento en el cambio de uso de suelo para agricultura de riego a gran escala de berries, ha propiciado que se modifique gravemente el patrón de recarga del acuífero. Lo anterior ha comenzado a manifestarse con sequías prolongadas y escases de lluvia en la zona.
El objetivo principal de esta investigación es examinar cómo las modificaciones en el uso de suelo y la sobre explotación del acuífero, han afectado la disponibilidad de los recursos hídricos y han modificado el patrón de infiltración. Esta investigación demuestra el impacto de las actividades humanas en los recursos hídricos al mostrar los vínculos directos entre el cambio de uso de suelo, la agricultura intensiva y la sobreexplotación con la escasez de agua.
METODOLOGÍA
Se delimito la zona de estudio. Se realizó la búsqueda de imágenes satelitales más antiguas posibles de la zona de estudio que tengan buena resolución. Se buscó una imagen satelital del año 2000 y 2023. El objetivo de encontrar imágenes satelitales de estos años es para hacer una comparación precisa y analizar la evolución del uso de suelo en periodos distintos de tiempo.
Se aplicaron los siguientes filtros a las imágenes:
Las imágenes deben tener una nubosidad menor al 5%.
Las imágenes deben ser de un periodo de enero a marzo, ya que se consideran meses secos donde las extracciones de agua son más grandes, la cobertura del suelo luce seca por lo cual resaltan más los terrenos destinados a agricultura.
Imágenes con información suficiente de la base de datos satelital para generar distintas combinaciones de bandas espectrales.
Una vez obtenidas las 3 imágenes satelitales, se realizó un muestreo de puntos correspondientes a los distintos usos de suelo que se identificaron. Una vez establecida la cantidad y distribución optima de los puntos de muestreo, se llevó a cabo la teledetección obteniéndose los distintos usos de suelo de las 3 imágenes satelitales. Se hizo un análisis con un enfoque integrado que combina los resultados de la teledetección dirigida, análisis de datos climáticos y estudios hidrogeológicos para comprender a fondo las dinámicas que vinculan el cambio de uso de suelo con los sistemas hidrológicos.
CONCLUSIONES
El acuífero Maravatío-Contepec-Epitacio Huerta,se localiza en la parte noreste del estado de Michoacán, abarca una superficie de 2108 km2 , cubre la totalidad de los municipios Maravatío, Contepec, Epitacio Huerta, Tlalpujahua y Senguio, y una pequeña porción de Irimbo, Zinapécuaro, Aporo e Hidalgo.
Se detectaron 126 imágenes satelitales que cumplían con los filtros establecidos, eligiéndose las siguientes: Imagen LANDSAT 5 del 14 de marzo de 1986, imagen LANDSAT 7 del 24 de enero del 2000, e imagen LANDSAT 9 del 23 de enero del 2023.
Después de múltiples ajustes se muestrearon 61 253 puntos para la imagen del año 1986, 72 520 puntos para la imagen del año 2000 y 76 401 puntos para la imagen del año 2023. Una vez muestreados los puntos se obtuvieron los siguientes resultados. El uso de suelo se presenta en km2.
Año 1986 2000 2023
Cuerpo de Agua 68.16 77.51 72.71
Bosque 337.95 402.28 604.61
Urbano Construido 87.01 97.47 118.68
Pastizal 698.68 675.47 311.51
Agricultura de Temporal 465.30 382.27 379.10
Agricultura de Riego 439.62 461.72 576.61
Macro túnel (Berries) 0.00 0.00 33.31
Se observa un decremento del 55.41% de área cubierta por pastizal. Por el contrario, la agricultura de riego aumento en un 38.74% desde el año 1986 al 2023 aunque si lo comparamos del año 2000 a 2023 se nota que ha aumentado el área destinada a cultivos de riego en un 36.88%. Además, se observa un crecimiento constante en el área destinada a las zonas urbanas en el acuífero.
Nótese que parece haber un crecimiento en el área destinada a los bosques, pero en realidad se trata de un error en el proceso de teledetección derivado de las sombras de proyectadas y la luminosidad de la escena en ciertas regiones de las imágenes satelitales en especial la del año 2023. Lo anterior genero una confusión al momento de realizar el procesamiento de las imágenes con el software ARCGIS10.8.
La agricultura permanente de riego de berries a nivel industrial y el crecimiento de la población son dos factores interconectados que ejercen una presión significativa sobre el cambio de uso de suelo y la demanda de grandes cantidades de agua en la zona de estudio. En contraste con el patrón de infiltración y precipitación del acuífero obtenido mediante un modelo hidrológico superficial se establece que el cambio de uso de suelo para agricultura de berries y zonas urbanas conlleva la eliminación de vegetación natural, lo que reduce la capacidad del suelo para retener y absorber agua. Se demuestra que el aumento significativo en el cambio de uso de suelo para agricultura de berries y la sobrexplotación por parte de los agricultores para mantener estos cultivos todo el año aunado a la creciente población en la región han alterado significativamente el patrón de recarga del acuífero. Para abordar estos desafíos, es crucial adoptar prácticas agrícolas sostenibles y políticas de desarrollo urbano que promuevan una gestión responsable del agua y la conservación de los recursos naturales para garantizar un futuro sostenible para las generaciones futuras.
Giraldo Hoyos Esteban, Universidad del Quindío
Asesor:Dr. Manuel E. Trejo Soto, Universidad Autónoma de Sinaloa
SISTEMAS DE REFERENCIA GEOESPACIALES Y REDES GEODéSICAS
SISTEMAS DE REFERENCIA GEOESPACIALES Y REDES GEODéSICAS
Giraldo Hoyos Esteban, Universidad del Quindío. Asesor: Dr. Manuel E. Trejo Soto, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Un sistema de referencia terrestre determina coordenadas sobre la Tierra, de manera que se convierte en una herramienta inprescindible para el desarrollo de la cartografía, topografía y demás aspectos que requieren de su uso; lo anterior se logra gracias a las teorías, hipótesis y constantes que permiten situar tres ejes coordenadados en el espacio, definiendo su origen y orientación.
Una red geodésica (RG) es una estructura de puntos de referencia físicos y geográficos que están distribuidos en la superficie de la Tierra de manera precisa y sistemática. Las RG desempeñan un papel fundamental en la topografía, la geodesia y muchas otras disciplinas relacionadas con la representación y el estudio de la superficie terrestre.
METODOLOGÍA
Se llevaron a cabo una serie de consultas que permitieron dar respuesta a las preguntas planteadas sobre los dos temas que se abordaron y, además se desarrollaron aspectos académicos que permitieron poner en práctica la teoría. Los sistemas de referencia geoespaciales constan de sistemas de coordenadas que se pueden dividir en: cartesianas espaciales, elipsoidales, topocéntricas rectángulares, proyectadas.
Las RG son un sistema de vértices que se les ha otorgado, mediante procesos de mediciones especiales y elaboración matemática de estas mediciones, parámetros que definen su posición geo espacial y su aceleración de la gravedad. El diseño de una red geodésica consiste en la realización de estudios a priori que permiten elegir los vértices y observaciones que se llevarán a cabo para ser materializados en el lugar deseado. Las redes verticales se establecen con el fin de determinar las alturas de las estaciones geodésicas con respecto a un marco de referencia geodésico, lo cual permite establecer normas para los levantamientos geodésicos verticales, elevaciones de las curvas de nivel. Se realizan también con el fin de establecer la elevación de los puntos elegidos y demarcados en el terreno sobre una superficie de referencia, para así crear un marco de referencia nacional que sirva para el control de elevaciones. Las redes horizontales están conformadas por grupo de puntos que se encuentran situados sobre la superficie terrestre y sus coordenadas están dadas en términos de su distancia radial, distancia perpendicular al plano del horizonte del observador y su ángulo medido en el plano horizontal. Son importantes, ya que se pueden utilizar como insumos para el establecimiento de puntos de control terrestre. Algunos métodos de medición utilizados son: posiciones absolutas o puntuales y posiciones relativas o diferenciadas. Las redes GNSS son sistemas de satélites diseñados para proporcionar servicios de posicionamiento, navegación y sincronización en todo el mundo. El GNSS permite a los receptores en la Tierra determinar su ubicación, velocidad y tiempo con una alta precisión al utilizar señales transmitidas por una constelación de satélites en el espacio. Los receptores GNSS en la Tierra capturan señales de múltiples satélites y utilizan la información contenida en ellas para calcular su ubicación en coordenadas geográficas, velocidades y también para sincronizar el tiempo. La precisión de la ubicación determinada por un receptor GNSS depende de varios factores, como la calidad del receptor, el número de satélites visibles y la calidad de las señales recibidas. Son caracterizadas por su cobertura global, precisión, tiempo sincronizado, autonomía, versatilidad de aplicaciones, entre otras.
Los temas prácticos que se desarrollaron durante el periodo de la estancia, fueron la creación de dos redes de trilateración, las cuales pertenecían a la condición de horizonte y la condición de figura; ambas redes se ajustaron de acuerdo al método correlativo, el cual consiste en el establecimiento de condiciones geométricas y cálculo de correcciones a los ángulos en función de correcciones a distancias.
Además, se llevó a cabo una nivelación con un nivel de precisión DNA03, que consistió en la medición de los desniveles entre vértices ubicados dentro y cercanías del campus universitario de la UAS. Se realizo la medición de diferencias de alturas entre seis vértices, formando un circuito cerrado y un circuito entre dos bancos de nivel, alcanzando errores de cierre de hasta 2 mm. El ajuste matemático de la red de nivelación se llevó a cabo aplicando método correlativo (de condiciones) y el paramétrico.
Se desarrollaron mediciones satelitales geodésicas, utilizando receptores geodésicos, sobre los vértices de la red altimétrica, mediante el esquema de bases individuales colocando dos receptores en sus correspondientes vértices por un periodo de una hora. Las mediciones satelitales se ligaron al vértice geodésico CULC, perteneciente a la red geodésica nacional activa de operación continua. Mediciones similares se llevaron a cabo en la cortina de la presa hidroeléctrica de Sanalona, distante a 25 km de la ciudad de Culiacán.
CONCLUSIONES
Las redes geodésicas desempeñan un papel fundamental en nuestra comprensión y manejo del mundo que nos rodea. Estas redes proporcionan un sistema de referencia geoespacial preciso y consistente que es esencial para una amplia gama de aplicaciones en diversos campos. Ayudan a establecer una base sólida y coherente para la medición y la representación de la Tierra en su forma y dimensiones reales. Esto permite la creación de mapas precisos y la realización de mediciones confiables que son esenciales para la toma de decisiones informadas.
Ahora bien, los sistemas de referencia geoespaciales se pueden decir que proporcionan son de gran importancia, ya que gracias a esto se genera un marco fundamental para la captura, análisis e interpretación de datos geográficos, puesto que se establecen coordenadas y sistemas de coordenadas coherentes, permitiendo que diferentes conjuntos de datos geoespaciales se integren sin problemas, lo que es esencial para la planificación, la toma de decisiones y la colaboración efectiva.
Gomez Gomez Samuel, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Magnolia Botello Marquez, Instituto Tecnológico Superior de Tacámbaro
EXPLORACIóN GEOQUIMICA POR LITIO EN EL SUR DE MéXICO
EXPLORACIóN GEOQUIMICA POR LITIO EN EL SUR DE MéXICO
Gomez Gomez Samuel, Instituto Tecnológico Superior de Tacámbaro. Santos Rico Ismael, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Magnolia Botello Marquez, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
La extracción directa de litio ofrecen una promesa significativa de aumentar el suministro de litio, reducir la huella ambiental, social y de gobernanza de la industria, y disminuir los costos.
Actualmente en el país no se cuenta con ningún yacimiento de litio en explotación; no obstante, a la fecha se encuentran en etapa de exploración tres yacimientos que contienen este mineral en los estados de: Baja California, San Luis Potosí- Zacatecas y Sonora.
Los yacimientos económicos de Li se han caracterizado por la obtención del elemento ya con cierto grado de concentración como son los procesos naturales de alteración por intemperismo, lixiviación, transporte y depósito, generalmente en cuencas alcalinas.
Existen otros tipos de yacimientos en donde el Li se encuentra de manera importante en minerales formadores de rocas, en rocas pegmatíticas y en zonas de granito perturbado por procesos hidrotermales, se les conoce como yacimientos en roca.
METODOLOGÍA
1. Compilación bibliográfica de textos y mapas: (geologia, geoquimica, topografía), búsqueda web: SGM, INEGI.
2. Análisis del datos geológicos para tener una base de conocimiento previo en los marcos teóricos y cartográficos.
3. Determinar un marco teórico conceptual que permitan determinar zonas geológicamente favorables de estudio.
4. Interpretación a detalle geológico, estructural y minera de las zonas prospectivas.
5. Integrar información especializada del material cartográfico en el software ArcGIS y generar mapas preliminares de trabajo que se utilizaran en recorridos de verificación de campo.
6. Los mapas geológicos preliminares se interpolan con los mapas geoquímicos de anomalías geoquímicas y se identifican zonas potenciales.
CONCLUSIONES
La geoquimica es una técnica para reducir el area para una posible exploración a un margen más pequeño, es decir nos acerca a donde puede existir una anomalía geoquimica, utilizando los elementos a indicadores que son necesarios ya que estos nos hacen tener un análisis más cercano a lo que podríamos encontrar en esa zona. Así mismo estás anomalías geoquimicas nos acercaron para poder verificar en campo que dicha zona parece interesante para la exploración por Litio en rocas pegmatitas.
Gómez Martín Darío Román, Universidad de Guadalajara
Asesor:Dra. Maria Elena Tejeda Yeomans, Universidad de Colima
PARTICLE PHYSICS PLAYGROUND (P^3) COMO INTRODUCCIóN A LA FíSICA DE PARTíCULAS
PARTICLE PHYSICS PLAYGROUND (P^3) COMO INTRODUCCIóN A LA FíSICA DE PARTíCULAS
Gómez Martín Darío Román, Universidad de Guadalajara. Asesor: Dra. Maria Elena Tejeda Yeomans, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
Se planteó el objetivo de recolectar datos de una fuente confiable como Particle Data Group (PDG, 2023) y utilizarlos para graficar tanto las masas como los tiempos de vida media de las partículas del Modelo Estándar y algunos de sus productos de decaimiento. Se busca analizar la relación entre los tiempos de vida media, las masas y las interacciones electromagnéticas, de fuerza débil y de fuerza fuerte. Así como un ejemplo de recolección e interpretación de 100 mil datos recolectados del CMS.
METODOLOGÍA
Para llevar a cabo este proyecto, se comenzó por recopilar y editar algunas de las actividades que se encuentran en la página de Particle Physics Playground (P^3), donde se impulsa al estudiante a realizar diversas actividades para conseguir un mejor entendimiento de conceptos básicos de la Física de Partículas como sus masas, su relación con energías relativistas, sus tiempos de vida media y el decaimiento de partículas.
Se recopilaron, también, los datos necesarios del Particle Data Group, que contiene información detallada sobre las propiedades de las partículas subatómicas actualizadas al 31 de mayo de 2023. Se seleccionaron las partículas relevantes para el estudio y se extrajeron sus tiempos de vida media y masas correspondientes para su análisis.
Posteriormente, se procedió a realizar un análisis de los datos recolectados. Se utilizaron técnicas de visualización y gráficos para representar la relación entre los lifetimes, las masas y las interacciones electromagnéticas, la fuerza débil y la fuerza fuerte. Se exploraron posibles correlaciones y patrones significativos en los datos utilizando herramientas computacionales como Colab de Google y entornos de Python 3.8.3 como Spyder.
Se llevaron a cabo cálculos para cuantificar las relaciones observadas. Se utilizaron herramientas computacionales especializadas para obtener resultados precisos y confiables.
CONCLUSIONES
Como resultado de este proyecto, se observó una clara relación entre los tiempos de vida medios de las partículas y su tipo de decaimiento, lo que indica que existe una dependencia significativa entre estos dos factores. Además, se encontraron correlaciones entre la fecha de descubrimiento de las partículas del Modelo Estándar y las masas de dichas partículas.
Finalmente, se logró simular las cien mil colisiones del CMS con datos proporcionados de P3. Donde se pudo observar y señalar los picos de masa donde podemos encontrar los decaimientos exóticos de los muones a otras partículas más masivas.
Estos resultados contribuyen al entendimiento general de la física de partículas y pueden tener implicaciones importantes en otras áreas de investigación como astrofísica y física de materiales.
Los resultados obtenidos proporcionan un entendimiento más amplio sobre el Modelo Estándar y la manera en que sus partículas interaccionan en colisiones.
Gómez Orozco Daria Daniela, Universidad de Guadalajara
Asesor:Dr. Victor Hugo Márquez Ramírez, Universidad Nacional Autónoma de México
EVALUACIóN DEL AMBIENTE SíSMICO E INFRASóNICO EN UN ENTORNO URBANO: QUERéTARO COMO ESTUDIO DE CASO
EVALUACIóN DEL AMBIENTE SíSMICO E INFRASóNICO EN UN ENTORNO URBANO: QUERéTARO COMO ESTUDIO DE CASO
Gómez Orozco Daria Daniela, Universidad de Guadalajara. Asesor: Dr. Victor Hugo Márquez Ramírez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La sismología urbana es un campo de estudio que se enfoca en analizar los fenómenos sísmicos que ocurren en entornos urbanos. Estos lugares presentan desafíos particulares debido a la presencia de estructuras construidas, cambios en las propiedades del suelo y la misma interferencia del ruido ambiental. Para abordarles, se ha vuelto relevante el uso de sensores de infrasonido, que permiten detectar y analizar eventos con mayor precisión en áreas urbanas.
El estado de Querétaro, situado en una región de actividad sísmica moderada, cuenta con una red de sensores de infrasonido estratégicamente distribuidos en áreas urbanas. Estos sensores registran las ondas acústicas generadas por eventos sísmicos, lo que proporciona información valiosa sobre la actividad sísmica tanto a nivel local como regional. El presente trabajo tiene como objetivo principal utilizar esta red de detectores para analizar y procesar los datos obtenidos, con el fin de identificar y estudiar eventos relevantes de origen antropogénico.
METODOLOGÍA
Se llevó a cabo un estudio exhaustivo del ruido sísmico e infrasónico en la zona urbana de Querétaro utilizando dispositivos Raspberry-Shake distribuidos en diferentes estaciones. A continuación, se describe la metodología general utilizada en el análisis:
Preprocesamiento y Sensibilidad: Los datos de infrasonido y sísmico obtenidos de los dispositivos Raspberry-Shake fueron preprocesados para eliminar cualquier sensibilidad inherente y asegurar mediciones precisas. Para ello, se aplicó la función remove.sensitivity() en Python.
Obtención del Espectrograma: Se desarrolló un código en Python utilizando la librería ObsPy para obtener los espectrogramas correspondientes a las señales sísmicas e infrasónicas registradas por las estaciones sísmicas. El espectrograma proporcionó una representación visual de la distribución de energía en función del tiempo y la frecuencia.
Análisis por Día de la Semana y por Hora: Se analizaron los datos de infrasonido y sísmico para estudiar las variaciones temporales del ruido en la zona urbana. Se utilizó el formato npz y la librería PPSD de ObsPy para obtener mediciones promedio del ruido para cada día de la semana y cada hora del día en las diferentes estaciones sísmicas.
Caracterización de la Firma del Paso del Tren: Se llevó a cabo una caracterización de la firma del paso del tren en las señales sísmicas e infrasónicas. Mediante análisis espectral y espectrogramas, se cuantificó el impacto del tráfico ferroviario en el ruido ambiental de la zona de estudio.
CONCLUSIONES
El estudio del ruido sísmico e infrasónico en la zona urbana de Querétaro ha proporcionado resultados que se espera contribuyan a una mejor comprensión del comportamiento del ruido en este entorno. A continuación, se presentan los principales hallazgos y conclusiones del estudio:
Variación Temporal en Periodos Vacacionales:
Durante los meses de periodo vacacional, se observó una reducción considerable en los niveles de ruido infrasónico en las estaciones sísmicas. Esta disminución se atribuye directamente a la disminución de actividades urbanas y al menor tráfico vehicular durante las temporadas de vacaciones. Los resultados sugieren que los periodos vacacionales influyen en el ambiente acústico de la zona urbana, proporcionando intervalos de menor ruido infrasónico.
Variación Temporal por Día de la Semana:
Los análisis por día de la semana demostraron una disminución significativa en los niveles de ruido sísmico e infrasónico los días sábado y domingo. Se observó que el día domingo exhibe la mayor reducción de ruido en comparación con el resto de los días de la semana. Esto indica que los fines de semana presentan un ambiente acústico más tranquilo y con menor actividad sísmica en la zona urbana de estudio. Tales hallazgos pueden ser de relevancia para la planificación de actividades y estrategias de mitigación de ruido en días específicos de la semana.
Estudio de la Firma del Paso del Tren:
La caracterización detallada de la firma del paso del tren en las señales sísmicas e infrasónicas permitió identificar patrones específicos. Se encontró que la duración del evento del paso del tren está directamente relacionada con el número de vagones que componen el tren. Además, la amplitud de la señal sísmica muestra una correlación significativa con la proximidad del tren a las estaciones sísmicas. Estos resultados ofrecen una mayor comprensión de la influencia del tráfico ferroviario en el ruido ambiental, lo cual es relevante para el desarrollo de medidas de mitigación y el monitoreo de impactos acústicos asociados con el transporte ferroviario.
Ruido Infrasónico General de la Zona Urbana:
En cuanto al ruido infrasónico general en la zona urbana de Querétaro, los resultados indican que se mantiene dentro de los niveles considerados normales para un entorno urbano típico. Esto sugiere que, en términos generales, la zona urbana de estudio no experimenta niveles excesivos de ruido infrasónico que puedan considerarse atípicos o preocupantes desde una perspectiva ambiental.
En conclusión, continuar con el estudio del comportamiento del ruido sísmico e infrasónico es necesario para la gestión y planificación del ruido en áreas urbanas. El muestreo y análisis puede contribuir a construir base sólida para futuras investigaciones en lo que respecta a los factores sociales de las metrópolis y la implementación de políticas destinadas a mejorar la calidad del ambiente sonoro y el bienestar de los habitantes no solo en Querétaro, sino en otras ciudades.
Gomez Rangel German, Universidad de Guadalajara
Asesor:Dr. Gloria Yaneth Flórez Yepes, Universidad Católica de Manizales
RECOPILACION DE SISTEMAS DE MONITOREO PARTICIPATIVO EN COLOMBIA Y MéXICO.
RECOPILACION DE SISTEMAS DE MONITOREO PARTICIPATIVO EN COLOMBIA Y MéXICO.
Gomez Rangel German, Universidad de Guadalajara. Asesor: Dr. Gloria Yaneth Flórez Yepes, Universidad Católica de Manizales
PLANTEAMIENTO DEL PROBLEMA
Se plantea como problemática principal el hecho de que no existe un proceso permanente de monitoreo que permita conocer el impacto que han tenido las acciones que se han desarrollado sobre estos mismos, asi como la falta de algun mecanismo de estudio que permita hacer monitoreo de vigilancia.
En si, el l objetivo principal de esta propuesta es establecer un proyecto piloto para el monitoreo de humedales en la cuenca del río Chinchiná.
METODOLOGÍA
Metodológicamente se trato de una investigación mixta, asi como la escencia del projecto mismo. Teniendo como enfoque de busqueda alguna relacion o avance en el tema contemplando los paises Colombia y Mexico.
CONCLUSIONES
A decir verdad creo que es un proyecto que si bien ya tiene cierta simentacion a nivel internacional, tiene un gran potencial a futuro presisamente en la inmensa area de estudio. Ademas de que se logro recopilar una serie de documentos que serviran como antecedentes para solucionar los problemas que se plantearon al inicio del proyecto.
González Gaytán Bianca Yaneth, Instituto Tecnológico de Sonora
Asesor:Dr. Carlos Alberto Aguirre Gutierrez, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias
CáLCULO DE LA HUELLA HíDRICA VERDE DEL CULTIVO DE SORGO Y AVENA EN LOS ALTOS NORTE DEL ESTADO DE JALISCO
CáLCULO DE LA HUELLA HíDRICA VERDE DEL CULTIVO DE SORGO Y AVENA EN LOS ALTOS NORTE DEL ESTADO DE JALISCO
González Gaytán Bianca Yaneth, Instituto Tecnológico de Sonora. Asesor: Dr. Carlos Alberto Aguirre Gutierrez, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias
PLANTEAMIENTO DEL PROBLEMA
Debido a que la disponibilidad de agua dulce es limitada al mismo tiempo que la población aumenta y se hace frente a las consecuencias del cambio climático, la gestión sostenible
del recurso hídrico es fundamental. Esto convierte a la huella hídrica (HH) en un tema de gran relevancia para el bienestar humano tanto en la actualidad como a futuro. Ésta es el volumen total de agua dulce empleado para producir algo, ya sea que se haya incorporado al producto, evapotranspirado por algún cultivo, devuelto a otra cuenca, o empleado por algún cuerpo de agua para asimilar la carga contaminante (Vázquez, R. y Lambarri, J., 2017, p.13). Se distinguen tres tipos: verde (agua de lluvia), azul (agua superficial y subterránea) y gris (agua necesaria para asimilar la contaminación). Una estrategia para mitigar el estrés hídrico en los campos agrícolas la constituyen los cultivos de temporal, por lo tanto, el objetivo del presente estudio es determinar la HH verde de los cultivos de temporal del sorgo (forrajero en verde y en grano) y la avena (forrajera en verde) de los ocho municipios de la región Altos Norte del estado de Jalisco, México.
METODOLOGÍA
La región Altos Norte cuenta con una extensión territorial de 8,554.24 km2 (IIEG, 2022), pues se conforma de ocho municipios: Encarnación de Díaz, Lagos de Moreno, Ojuelos de Jalisco, San Diego de Alejandría, San Juan de los Lagos, Teocaltiche, Unión de San Antonio y Villa Hidalgo.
En cuanto al diseño experimental, en ArcGIS se creó un clip para extraer los municipios de interés adquiridos del INEGI, además de un buffer para identificar las estaciones meteorológicas de influencia en cada uno de ellos con información del Servicio Meteorológico Nacional (SMN), mismas de las cuales se obtuvieron los datos de precipitación, temperatura mínima, temperatura máxima y temperatura media desde 2014 hasta 2017. La velocidad del viento y la presión real de vapor para el mismo periodo se descargó del dataset TerraClimate en Google Earth Engine. Posteriormente se determinó la insolación y la humedad relativa siguiendo la metodología de la FAO (Allen et al., 2006) y también se realizó una consulta de los datos edafológicos de la zona de estudio en el geoportal de la CONABIO. La superficie sembrada y el volumen de producción de los cultivos se obtuvo del Servicio de Información Agroalimentaria y Pecuaria (SIAP).
CONCLUSIONES
Hubo un aumento de la HH verde del sorgo forrajero en verde del 2014 al 2015: el municipio de Encarnación de Díaz presentó la menor HH verde en 2014 (0.0838 m³/kg) mientras que en el 2015 Teocaltiche tuvo el valor más alto (0.1618 m³/kg). En los años posteriores, la HH verde decreció: en el 2016 el valor máximo fue 0.1299 m³/kg y en 2017 de 0.0881 m³/kg, ésto en Encarnación de Díaz y Lagos de Moreno, respectivamente. En cuanto a la HH verde de la avena forrajera en verde, Villa Hidalgo y Unión de San Antonio tuvieron los valores más altos en el 2014, pero para 2015 la HH verde se redujo y lo continuó haciendo hasta el 2017. Los valores máximos se obtuvieron en Villa Hidalgo con una HH verde de 0.2671 m³/kg para el sorgo forrajero en verde y de 0.1311 m³/kg en 2017, resultado también directamente influenciado por la disminución de la precipitación.
Los promedios para la región fueron los siguientes: 0.1008 m³/kg (sorgo forrajero en verde), 0.3581 m³/kg (sorgo en grano) y 0.2234 m³/kg (avena forrajera en verde).
Finalmente, como conclusión se observó un patrón de disminución anual de la HH verde en cada municipio, influenciada por los eventos de precipitación cada vez menos recurrentes y el efecto subsecuente de menos precipitación efectiva. Por lo tanto, se reconoció a la HH verde como una herramienta para la gestión del recurso hídrico.
González Jaimes Juan Manuel, Universidad de Guadalajara
Asesor:Mg. Mauricio Chaparro Parra, Universidad Católica de Colombia
DETERMINACIóN DE LA INCERTIDUMBRE DE UN ACELERóMETRO MEMS MEDIANTE LA FRECUENCIA DE PéNDULO SIMPLE Y FíSICO
DETERMINACIóN DE LA INCERTIDUMBRE DE UN ACELERóMETRO MEMS MEDIANTE LA FRECUENCIA DE PéNDULO SIMPLE Y FíSICO
González Jaimes Juan Manuel, Universidad de Guadalajara. Asesor: Mg. Mauricio Chaparro Parra, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
En este verano de investigación delfín se discutió el uso del acelerómetro tipo MEMS que se encuentra en los celulares, evaluando su eficiencia al compararlo con otro acelerómetro convencional de laboratorio para caracterizar el movimiento del péndulo simple y físico. Estos movimientos están caracterizados porque tanto su desplazamiento y aceleración son periódicos en el tiempo por lo que se puede definir una frecuencia angular ω como la rapidez de cambio de una onda sinusoidal, de la forma:
x(t)= Acos(ωt+ Φ)
Es de interés calcular la frecuencia angular de la oscilación porque es un valor constante en el tiempo, se puede contrastar facilmente con la teoría y que de él se desprenden variables como la aceleración de la gravedad g y el momento de inercia I_0. Si se logra demostrar que el sensor MEMS del celular tiene menos incertidumbre y otorga resultados más cercanos al modelo teórico supondría cambiar el enfoque de la práctica científica por uno más interactivo donde el estudiante además de interactuar con las variables experimentales del péndulo como variar la longitud de la cuerda, variar la masa del objeto u otorgarle una velocidad inicial, puede analizar los cambios en los valores característicos del movimiento para comprender el fenómeno físico.
METODOLOGÍA
Se proponen dos péndulos: el péndulo simple que se caracteriza por ser una masa puntual sujetada por una cuerda ideal, mientras que el péndulo físico toma en cuenta la distribución de masa de un cuerpo rígido con dimensiones que gira alrededor de un pivote.
Para ambos modelos se pueden deducir teóricamente sus frecuencias angulares de la ecuación diferencial (2), para el caso simple y (3) para el caso físico:
(2)
θ''+(g/l)θ=0
ω_s= sqrt(g/l)
(3)
θ''+(Mgl/I_0)θ=0
ω_f= sqrt(Mgl/I_0)
donde ω_s es la frecuencia angular simple, g es la aceleración de la gravedad, l la longitud del péndulo, ω_f es la frecuencia física, M la masa total, l la distancia entre el pivote y el centro de masa y I_0 el momento de inercia que cuantifica la inercia rotacional.
Ambos péndulos inician sus movimientos en las mismas condiciones iniciales del desplazamiento y velocidad (θ_0=5°. θ'_0= 0 rad/s) y se colocan ambos sensores de manera que registren el mismo movimiento durante 60 segundos. Mediante los datos se puede hacer un ajuste sinusoidal con la función "optimize.curve\_fit()" de Python.
Este proyecto toma en cuenta los 10 segundos de oscilación más estable habiendo realizado 10 pruebas por cada péndulo.
Posteriormente se obtienen los valores de ω que mejor representen los datos con su respectiva incertidumbre y se construye la ecuación (1).
CONCLUSIONES
Inicialmente cada prueba cuenta con 200 datos durante los 10 segundos de oscilación. Si bien cada prueba se remite al mismo fenómeno físico existen diferencias entre cada medida, es por eso que es necesario realizar un ajuste sinusoidal. Dicho ajuste se logra mediante la función "scipy.optimize.curve_fit" de Python que realiza un ajuste numérico por el método de mínimos cuadrados no lineales:
(4)
S=Σ (r_i)2
r_i= y_i - F(x_i, β)
donde r_i es el residual y F(x_i, β) la función que se quiereajustar, en este caso x_i=t_i, β_1=B y β_2=ω. El ajuste se logra cuando el gradiente de S es igual a cero tal que:
(5)
(∂S)/(∂β_j) = 2 Σ{ r_i (∂r_i)/(∂β_j)}=0
Esta ecuación se realiza con métodos iterativos dado un valor inicial para los parámetros de amplitud B y frecuencia angular ω, por lo que se usaron los parámetros ω≈4 y B ≈1. La función "scipy.optimize.curve_fit" retorna los parámetros A y ω que mejor representen al conjunto de datos, así como la matriz de covarianza:
(6)
Σ = (VAR(Y) COV(X,Y) )
(COV(Y,X) VAR(Y) )
por lo que se puede obtener la desviación estándar del conjunto de datos conociendo la varianza:
σ=sqrt(VAR(Y))
Conociendo estos parámetros se pueden expresar los resultados en forma de la ecuación (1) y su respectiva incertidumbre.
(7)
θ''= Bcos(ω t)
Δω = ± σ
Para el péndulo físico se obtuvieron los siguientes valores numéricos respecto a la aceleración A_C del celular y A_P del sensor PASCO, así como el valor teórico ω:
(8)
ω = 4.027 ± .0016/s
A_C=0.1934cos(4.0164t+ φ)
Δω_C= ± 0.02062236439
A_P= 0.3509cos(4.0084t+ φ)
Δω_P= ± 0.01297987957
Mientras que para el péndulo físico:
(9)
ω = 3.7612 ± 0.00623/s
A_C=0.0609cos(4.0027t+ φ)
Δω_C= ± 0.01667219954
A_P= 0.0149cos(3.9967t+ φ)
Δω_P= ± 0.01775323028
Con base en los datos podemos afirmar que si bien ambos sensores se acercan al modelo teórico, el sensor MEMS del celular se acerca más que sensor PASCO por aproximadamente 0.008/s en el caso simple sin ser tan relevante que presente una mayor incertidumbre. En el caso físico se puede observar que si bien ambos errores aumentan de manera casi equivalente, tanto el celular como el sensor PASCO tienen incertidumbres parecidas por lo que se le atribuye a defectos en las oscilaciones del propio péndulo. Dentro de los retos experimentales se puede mencionar la gran dificultad que representó restringir el movimiento a una dimensión, pues de lo contrario resultaría en un modelo teórico mucho más complicado escapando a las intenciones de este proyecto.
Durante la estancia del delfín se adquirieron distintas herramientas teóricas y prácticas en la creación de un proyecto de investigación sobre el funcionamiento del acelerómetro integrado al celular y herramientas de medición, por lo que para seguir fortaleciendo este aprendizaje se propone seguir trabajando en mejorar el arreglo experimental de manera que se puedan determinar con mayor precisión las frecuencias angulares ω, así como determinar la naturaleza de la amplitud B que resultó inconcluyente en la realización del proyecto.
González Magdaleno Roberto, Instituto Politécnico Nacional
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
DOS SOLUCIONES PARA EL PROBLEMA DE UNA PARTíCULA EN UN POZO DE POTENCIAL INFINITO EN UNA DIMENSIóN.
DOS SOLUCIONES PARA EL PROBLEMA DE UNA PARTíCULA EN UN POZO DE POTENCIAL INFINITO EN UNA DIMENSIóN.
González Magdaleno Roberto, Instituto Politécnico Nacional. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
A un nivel cuántico la materia se comporta de una manera diferente que a nivel macroscópico. A un nivel cuántico se requieren herramientas para poder predecir el comportamiento de la materia.
El problema por resolver da paso a una introducción a estas herramientas, un problema de mecánica cuántica llamado partícula en un pozo de potencial infinito (en una dimensión) o también conocido como partícula en una caja (en una dimensión). Sin embargo, en esta estancia se plantea la búsqueda a una solución de manera analítica y abordarlo de una manera distinta, a través de una solución numérica.
METODOLOGÍA
La metodología empleada fue la revisión de diversas fuentes bibliográficas para entender y aplicar las herramientas físicas, así como matemáticas y de programación que fuesen a ser necesarias para la resolución del pozo de potencial infinito en una dimensión de manera numérica.
Esta búsqueda partió del concepto de función de onda. Para poder entender lo que es una función de onda se requiere comprender las bases de los números complejos, así como de sus operaciones, una vez logrado ese punto fue necesario introducir la ecuación de Schrödinger independiente del tiempo, lo que implicó entender el concepto de Hamiltoniano y con ello bases de algebra lineal para ahora si poder aplicarlo al problema a tratar.
Primero con toda la información recolectada se llega a la solución analítica del problema, llevando a cabo con esto la búsqueda de herramientas matemáticas como lo son las ecuaciones diferenciales ordinarias de primer y segundo orden y sus soluciones analíticas, así como resoluciones numéricas para enfocar la resolución del problema a través de algunos métodos numéricos.
Finalmente se aplicó el método numérico de disparo o shooting al problema planteado para así conseguir una solución numérica, esto con la finalidad de poder contrastarla con la solución analítica que habíamos conseguido. Debido a lo extensos que resultan los cálculos de este método numérico, se optó por realizarlos a través de un código de programación en Python, por lo que esto también implicó aprender cosas básicas acerca del programa y de las librerías necesarias.
CONCLUSIONES
A lo largo de la estancia se logró obtener el conocimiento tanto en física como en matemáticas y programación necesario para resolver el problema. Todos estos conocimientos fueron aplicados y al haber obtenido una solución numérica como analítica tenemos dos principales conclusiones: la primera es que a pesar de que los métodos numéricos son bastante precisos tienen un margen de error respecto a la solución analítica esto debido a que trabajamos con funciones discretas y no continuas, la segunda es que a pesar de conocer los métodos numéricos fue necesario el razonamiento para saber el tipo de método a utilizar y cómo aplicarlo.
González Pérez Leonel Gerardo, Universidad de Guadalajara
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
SIMULACIóN DE COLISIONES P+P A LAS ENERGíAS DEL LHC CON EPOS 4
SIMULACIóN DE COLISIONES P+P A LAS ENERGíAS DEL LHC CON EPOS 4
González Pérez Leonel Gerardo, Universidad de Guadalajara. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Las experimentaciones llevadas en el LHC con colisiones de hadrones e iones pesados ayuda a poder entender mejor las interacciones al nivel mas fundamental de la física. En el caso de las colisiones a energías relativistas de iones como lo son de plomo (Pb+Pb) se comportan como un fluido en expansión con gran flujo transverso [1], de igual menara se ha podido observar este fenómeno en sistemas de baja energía para estos mismo iones.
Por otro lado observaciones recientes muestran que en colisiones p+p se encuentran al menos parcialmente este comportamiento. Al tratar de reproducir este fenómeno en simuladores tipo montecarlo se nota alejado de los datos experimentales debido a que no se tiene de igual manera en cuenta la geometría de la colisión en el caso de p+p como lo es en Pb+Pb ni en los evento causado considerando la hidrodinámica.
Por esto el objetivo de esta investigación es que con la ayuda de un nuevo simulador EPOS4[2] el cual tiene las consideraciones de las colisiones del efecto core-corona y la hidrodinámica poder simular colisiones de protones a las energías que trabaja el LHC[3], y comparar los datos obtenidos con los experimentales.
METODOLOGÍA
Primordialmente fue necesario la instalación del sistema operativo ubuntu 20.04 LTS, debido a que se tiene una mejor compatibilidad con los programas utilizados, seguidamente se necesito instalar el programa root desde la fuente con todas las dependencias necesarias[4]{Anexo1}), seguidamente el programa fastjet[5] y por ultimo se tuvo que instalar EPOS4[2]
Ya teniendo lo necesario para hacer las primeras simulaciones se tomo como base los ejemplos proporcionados por los desarrolladores para las colisiones de protones y así definir los parámetros necesarios que se necesitan para el objetivo.
EPOS4 para este tipo de colisiones tiene 4 comandos principales en los que se utilizaron para poder obtener resultados y cuenta con 3 configuraciones que dependen de estos comandos, la primera no cuenta con las consideraciones de hidrodinámica y cascada de hadrones, el segundo cuenta con una parametrización de expansión de fluido, la tercera cuenta con todas las características de hidrodinámica y cascada de hadrones activas.
Primeramente se definieron los parámetros a utilizar según el articulo de referencia, en donde mostraban datos para colisiones con una pseudorapidity entre -1 y 1 ($|eta|<1$) para la distribución de multiplicidad de partículas cargadas, las energías presentadas fueron de 900 GeV, 2.36 TeV y 7 TeV, debido a las limitaciones de EPOS4 no se pudieron hacer colisiones a 2.36 TeV. Dadas estos parámetros se hicieron 4 simulaciones; 1 simulación de 10,000 eventos con la primera configuración, 2 simulaciones de 1,000 y 10,000 con la segunda y 1 simulación de 100 eventos con la tercera.
Con esto se procede a seguir haciendo simulaciones con 20,000 incrementando la estadística, utilizando la parametrización de expansión de fluido y añadiendo la restricción del momento transversal de 0.3 MeV/c
Por ultimo se hizo 2 simulaciones de 20,000 datos esto para una relación de los datos experimentales con los datos obtenidos con EPOS4 con diferentes configuraciones de los comandos "core" e "hydro", tomando en cuenta la distribución del parámetro de impacto y dividiéndolo en partes para su mejor observación
CONCLUSIONES
A forma de conclusión se puede ver que al momento de considerar la simulación de colisiones considerando la parte de la hidrodinámica los datos obtenidos son mas cercanos a los que no se considera esta parte, de igual el análisis se puede extender con utilizando la configuración de EPOS4 que considera todos los parámetros de la hidrodinámica y las ecuaciones de estado, solo se podría realizar con un equipo mas potente que pueda estar en funcionamiento mucho tiempo.
González Quezada Daniel Uriel, Universidad Autónoma de Ciudad Juárez
Asesor:Dr. Roberto Alonso Saenz Casas, Universidad de Colima
MODELO SIR ESTOCáSTICO PARA LOS PROCESOS DE DERIVA Y SALTO ANTIGéNICO EN PATóGENOS CON INMUNIDAD CRUZADA PARCIAL
MODELO SIR ESTOCáSTICO PARA LOS PROCESOS DE DERIVA Y SALTO ANTIGéNICO EN PATóGENOS CON INMUNIDAD CRUZADA PARCIAL
González Quezada Daniel Uriel, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Roberto Alonso Saenz Casas, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
Uno de los principales retos en salud pública son las enfermedades infecciosas causadas por varias cepas de un mismo patógeno. Los dos procesos evolutivos principales para el surgimiento de nuevas cepas son la deriva y los saltos antigénicos, en los que se producen cambios sutiles y grandes, respectivamente, en las proteínas de la superficie de los virus, conocidas como antígenos. En ambos casos, el sistema inmune encuentra mayor dificultad en identificar las nuevas variantes, logrando así enfermar a una población que pudiera tener anticuerpos contra una cepa anterior. Por este motivo, año tras año hay nuevos brotes epidémicos de influenza y otros patógenos, debido a los cambios sutiles que son resultado de la deriva antigénica. Además, con una menor frecuencia, surgen nuevas variantes que tienen una gran ventaja antigénica contra las variantes circulantes, que generalmente son debido a la recombinación, un proceso que produce un salto antigénico que puede conllevar a una pandemia, como es el caso del COVID-19 y las pandemias de influenza.
Debido a esto, es de gran ayuda el desarrollo de modelos matemáticos que logren capturar los aspectos más importantes de una pandemia. El tipo de modelo más común sólo incluye la existencia de un patógeno, ignorando así el proceso esencial de la evolución de los patógenos. Por lo que, es necesario extender los modelos epidemiológicos fundamentales para incluir la existencia de varios patógenos. Sin embargo, una parte de los modelos con varias cepas, no incluyen un mecanismo para el surgimiento y extinción de las diversas variantes. De esta forma, es importante desarrollar un modelo matemático que 1) considere múltiples cepas que interactúan y compiten entre sí mediante algún mecanismo, como la inmunidad cruzada, 2) incluya un mecanismo de mutación que permita el surgimiento de nuevas variantes, y que 3) haya la posibilidad de que estas cepas se puedan extinguir, como se es observado en la realidad.
METODOLOGÍA
En el presente trabajo, se propone un modelo epidemiológico estocástico, propuesto como un proceso estocástico markoviano de tiempo continuo, en el que cada evento sólo depende del estado anterior del sistema. En particular, se propone como un modelo SIR con múltiples cepas y con inmunidad parcial cruzada. En este modelo epidemiológico, se implementa un mecanismo de mutación mediante saltos estocásticos, donde en cada momento existe la probabilidad de que una cepa i salte a una cepa i+d, en un espacio antigénico de una dimensión, logrando contagiar a la población susceptible a i+d. Además, se implementa una función de inmunidad parcial cruzada para reducir transmisibilidad, por lo que las cepas están en competencia por la población susceptible.
Una vez planteado el modelo, se implementa computacionalmente en Python. El cálculo de los tiempos entre eventos se hace con el uso del algoritmo de Gillespie, en el cual se demuestra que la distribución de tiempos de espera sigue una distribución exponencial y donde cada paso de tiempo es determinado a partir de la generación de un número aleatorio uniforme y el último estado del sistema. Los parámetros del modelo se ajustan para representar infecciones agudas, es decir, con una duración corta en comparación a la vida de los individuos. Esto, para que el modelo pueda mostrar dinámicas similares a las de enfermedades como la influenza, el COVID-19, entre otras.
CONCLUSIONES
Generando realizaciones estocásticas del modelo se analiza la frecuencia con la que emergen cepas a una distancia d y que logran producir un brote epidémico significativo. Además, se analiza el tamaño máximo del brote epidémico alcanzado por cada cepa, donde se observa que las mutaciones producidas por un salto antigénico mayor logran contagiar a una cantidad más grande de población que aquellas producidas por un salto menor. Un factor importante observado es que una pequeña ventaja temporal puede conllevar a que una cepa proveniente de un salto antigénico predomine sobre las cepas provenientes de la deriva antigénica, siendo esta una condición importante para el surgimiento de una nueva cepa predominante. Los resultados sugieren cómo se dan estos procesos evolutivos importantes en ciertos patógenos, y proponen un posible mecanismo para explicar la frecuencia con la que se observan estos cambios antigénicos.
Durante la realización de este proyecto, se profundizó en el estudio de procesos estocásticos como modelos en biología. En particular, como modelos matemáticos en epidemiología y como modelos adecuados para la mutación y evolución de los patógenos, los cuales son procesos puramente estocásticos. Este modelo logra recrear las dinámicas de un modelo con ecuaciones diferenciales previamente estudiado, lo cual sugiere que las dinámicas del modelo son correctas, además incluyendo una extensión que da paso a dinámicas más interesantes, que a la vez logran explicar un rango más amplio de fenómenos.
González Romero Paola Brigitte, Tecnológico de Estudios Superiores de Tianguistenco
Asesor:Dra. Adriana Nava Vega, Universidad Autónoma de Baja California
FABRICACIóN DE CELDAS SOLARES ORGáNICAS
FABRICACIóN DE CELDAS SOLARES ORGáNICAS
González Romero Paola Brigitte, Tecnológico de Estudios Superiores de Tianguistenco. Ramos Mercado Edith Alejandra, Universidad Vizcaya de las Américas. Asesor: Dra. Adriana Nava Vega, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Se fabrican celdas solares con base orgánica, empleando un procedimiento sencillo y de bajo costo (OPVs, por sus siglas en inglés). Se emplea el método de spin-coating para realizar el depósito del material activo y se caracterizan empleando un espectrómetro Infrarrojo. La eficiencia de las OPVs se realiza con mediciones directas de la emisión de luz.
METODOLOGÍA
Preparacion y fabricacion de una OPV en el laboratorio de fotónica- UABC
Las energías renovables son la nueva promesa a futuro del desarrollo humano y es por eso que en la actualidad el desarrollo e innovación de nuevas y viejas tecnologías se ven con más frecuencia, la energía solar, energía renovable obtenida directamente de los rayos de sol y su aprovechamiento conduce a la fabricación de celdas solares para la producción de energía eléctrica, su fabricación, preparación y costo depende de los materiales con los que son elaboradas, ejemplo; las celdas solares orgánicas pueden fabricarse bajo condiciones ambientales poco exigentes y eso presta su elaboración en laboratorios no tan especializados lo que supone un menor costo de fabricación.
Su principio de funcionamiento parte de un fotón incidiendo sobre un material orgánico y si la frecuencia de este es lo suficiente hará posible que esta energía sea absorbida por uno de los electrones del material alcanzando un nivel de excitación que permita que estos electrones cubran los huecos que hay dentro de la capa activa y pueda generar corriente, con esto podemos decir que una celda solar orgánica es el medio que absorbe lo más que puede de la radiación para generar cargas suficientes que puedan ser convertidas en electricidad.
Para generar el circuito adecuado y poder generar energía se utilizó el wood’s metal como cátodo, aleación de metales compuesta por bismuto, plomo, estaño y cadmio por mencionar algunos en diferentes porcentajes respectivamente, esta aleación de metales de fundición baja permite su fácil manipulación para lograr fundirse sobre la celda con ayuda de un encendedor de mecha larga y lograr una distribución uniforme con ayuda de un palito de madera y esperar la solidificación del metal.
Materiales, reactivos y equipo utilizado
La fabricación de las celdas requieren de un sustrato de vidrio cubierto de una película delgada de óxido de titanio (ITO), con una parte cubierta por tape para poder evitar cubrir una zona que tendrá función más adelante y una capa activa de una solución de solventes y polímeros aplicados sobre este por medio de un deposito de spin-coating a 3000 rpm y 10 gotas aplicadas estáticamente y 10 gotas en diferentes tiempos (4 veces), posteriormente el producto se dejaba secar para poder evaporar los alcoholes y solventes y de esta manera asegurar la adhesión de la capa activa sobre el sustrato.
Materiales y equipo
Reactivos:
Alcohol
Acetona
Tolueno
Polímero: MEH:PPV
Wood Metal
Agua Destilada
Cloroformo
Fullerenos: C60
Material:
Substrato de Vidrio con recubrimiento de óxido de Titanio (ITO)
Vasos de precipitado
Espátula
Pinzas
Encendedor
Viales
Pipetas
Qtips
Marcadores permanentes
Equipo:
Spinner
Campana de Extracción
Baño de Ultrasonido
Soporte universal
Pinzas
Limpieza y Preparación del espacio
Para la preparación de las OPVS fue necesario realizar una limpieza minuciosa de los sustratos en un vaso de precipitado con agua destilada en un baño de ultrasonido durante 10 minutos, posteriormente se colocaron las láminas dentro de una caja de petri sobre una placa de calentamiento para acelerar el secado, al terminar este procedimiento se colocó la caja de petri dentro de una bolsa ziploc para evitar el contacto con partículas que pudieran contaminarlos.
Para la elaboración de las soluciones fue necesario limpiar adecuadamente cada uno de los equipos y materiales que se utilizarían como por ejemplo, la limpieza de la balanza analitica para tener un peso más preciso de cada uno de los reactivos sólidos, para el uso de reactivos líquidos fue necesaria la limpieza de la pipeta que se utilizan, así como de las probetas para el correcto depósito de los líquidos en los viales.
Para la limpieza de los viales y moscas fue necesario lavarlos con agua y jabón y para el baño de ultrasonido colocar acetona con la tapa cerrada dentro de un vaso de precipitado con agua destilada y dejar por un tiempo de 60 minutos, con papel secante se eliminaron las gotas sobrantes.
Cálculo de proporciones de reactivos y productos a emplear
Para la fabricación de la capa activa de la celda se hizo una solución de suspensión con los reactivos MEH:PPV y C60, con una proporción de 98:2 (%p/p). Primero se realizaron soluciones individuales para cada reactivo con su respectivo solvente. En la primera solución se usó 29.4mg de MEH:PPV con 10ml de cloroformo (CHCl3). En la segunda solución se usó 1.8mg de C60 con 3ml de Tolueno(C6H5CH3). Por último, se agregó 1ml de la solución 2 en la primera y se mezclaron, obteniendo así la solución final. Después de preparar cada solución, se ponía durante 24h en un agitador magnético y después 20min en un baño de ultrasonido, de esta forma se garantiza que los reactivos quedarán dispersos en la solución de manera uniforme.
5. Método de fabricación
La preparación de la celda comienza desde su limpieza y delimitación de la zona en que se quiere este la solución, poniendo un margen de cinta sobre este para evitar que la solución entre en contacto con esa parte y poder tomar medidas más adelante.
Como último paso se deja secar el material fundido sobre la celda y se retira la cinta que cubre los extremos de la celda para poder ser expuesta al sol y poder tomar mediciones.
CONCLUSIONES
6. Análisis de funcionamiento de una OPV: espectro IR, morfología, generación de fotocorriente.
Como parte final del proyecto se llevó a cabo la medición de corriente de las celdas solares orgánicas, obteniendo años atrás hasta una cantidad de 5 mcA, actualmente los datos que se pudieron tomar rondaron 1 mmA después de su exposición al sol.
Gonzalez Sanchez Aide Belen, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla
MODELACIóN E IMPRESIóN 3D DE MICROCALCIFICACIONES
MODELACIóN E IMPRESIóN 3D DE MICROCALCIFICACIONES
Gonzalez Sanchez Aide Belen, Benemérita Universidad Autónoma de Puebla. Guerra Hernández Ariadna, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Asesor: Dr. Ricardo Agustín Serrano
En México, el cáncer de mama es una de las principales causas de muerte en las mujeres, donde el número de muertes ha aumentado de acuerdo con los datos del Globocan, cuyo valor para el 2020, fue de 29,929 casos nuevos y al menos 7,931 muertes. Una manera de disminuir estos números es la detección temprana de esta enfermedad en base a un diagnóstico certero.
La observación de las microcalcificaciones en mamografías y los fantomas mamarios son fundamentales para la detección del cáncer de mama y garantizar la veracidad de las imágenes obtenidas respectivamente.
En el área de la medicina han surgido muchos avances debido a las nuevas tecnologías en el área de hardware o de software, una de estas es la impresión tridimensional o 3D la cual ha tomado mucha relevancia en los últimos 5 años. Esto debido a su gran versatilidad con diferentes materiales para su mejor adaptabilidad dependiendo de lo que se desea modelar.
El objetivo principal de este proyecto de investigación es realizar la impresión de microcalcificaciones con resina fotosensible añadiéndole barita en polvo, para su implementación en fantomas y obtener su visualización en mamografías.
METODOLOGÍA
Se inicio con una investigación sobre la anatomía de la mama femenina y el cáncer de mama, para tener un mejor entendimiento de esta enfermedad. Posteriormente, se estudió la relación entre las microcalcificaciones y su detección en mamografías, utilizando el sistema de BI-RADS que para su clasificación considera el tamaño, forma y distribución de las microcalcificaciones en el interior del tejido mamario.
Para empezar con el proceso de impresión se llevó a cabo la visualización de diferentes mamografías con microcalcificaciones, donde tomando en cuenta la nitidez de la morfología de las microcalcificaciones y las medidas reportadas en la bibliografía, se seleccionaron las de tipo anillo, cutánea, pop corn, lineales gruesas, finas pleomorfas y heterogéneas, siendo las primeras cuatro benignas y las últimas dos sospechosas.
Después, se modelaron las microcalcificaciones con plastilina blanca a escala, con dimensiones de aproximadamente una pulgada, en total se construyeron 22 modelos; se realizaron 4 piezas para cada tipo de microcalcificaciones benignas y 3 piezas para cada una de las microcalcificaciones de tipo sospechosa. Estos modelos se escanearon con ayuda del scaner Revopoint mini, sin embargo, debido a algunas imperfecciones durante el escaneo, con ayuda del programa Meshmixer, se detallaron y se ajustó el tamaño de cada una. En el programa FreeCad se diseñó un soporte para unir los modelos y poder imprimir mejor los detalles de las microcalcificaciones.
Una vez obtenido lo anterior, en Ultimaker Cura, se reajustaron los parámetros del diseño para realizar la primera prueba de impresión donde se utilizó filamento de ácido poli láctico (PLA por sus siglas en inglés), usando la impresora Mono Price mini V2.
En la segunda, prueba con el programa Chitubox, se ajustaron los parámetros necesarios en el diseño para su impresión con resina fotosensible en la impresora Creality LD-002H. Sin embargo, debido a fallos en el desprendimiento de las impresiones del soporte, se realizaron cambios en las dimensiones de este. Una vez ajustado los parámetros del diseño y garantizar una impresión correcta, se realizó la impresión final de las microcalcificaciones donde su utilizó una combinación de resina con barita, en una concentración del 16.66 m/m%.
CONCLUSIONES
Durante el desarrollo del proyecto se adquirió conocimientos sobre las microcalcificaciones y su relación con el cáncer de mama. Así mismo, se logró el aprendizaje en el uso de programas para el diseño y la impresión 3D, al igual que el manejo de impresoras de filamento y de resina. Por otra parte, gracias a este conocimiento adquirido primero se imprimieron las microcalcificaciones con PLA, sin embargo, debido a la poca visualización de los detalles en su morfología y al exceso de rebaba, se procedió con la impresión de los modelos en resina. En la primera prueba de impresión con resina se observó mejor detalle en las impresiones, sin embargo, se tuvo dificultades para desprender los modelos del soporte. Debido a esto, se reajustaron las medidas, para finalmente imprimir las microcalcificaciones con resina y barita, donde se lograron obtener mejoras en el desprendimiento de las calcificaciones, para posteriormente implementarlos en fantomas mamarios. La ultima etapa del proyecto consiste en implementar estas microcalcificaciones en un fantoma anatómico completo, para finalmente realizarle estudios mamográficos.
Agradecimiento al Dr. Ricardo Agustín Serrano por la infraestructura para la realización de este proyecto.
Gonzalez Vazquez Axel Uriel, Universidad Autónoma del Estado de México
Asesor:Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
EVALUACIÓN DE LA VULNERABILIDAD ESTRUCTURAL ANTE PELIGRO SISMICO EN BAHÍA DE BANDERAS.
EVALUACIÓN DE LA VULNERABILIDAD ESTRUCTURAL ANTE PELIGRO SISMICO EN BAHÍA DE BANDERAS.
Gonzalez Vazquez Axel Uriel, Universidad Autónoma del Estado de México. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Debido a su situación geográfica, México ha sido históricamente afectado por un sinnúmero de desastres por efectos de los fenómenos naturales como por ejemplo huracanes, sismos, erupciones volcánicas, lluvias torrenciales, remociones en masa. Por su frecuencia y algunas veces por los desastres que han provocado en términos de pérdidas de vida e impactos socio-económicos, los sismos con epicentro a lo largo de la costa del Pacifico desde Jalisco hasta Chiapas tienen un lugar especial a lo largo de la historia del país. El area de estudio es el municipio de Bahía de Banderas. Ubicado en el occidente de México ha sido afectado por eventos sísmicos producidos por la subducción de placas entre la de Riviera y la Norteamericana. Estas características se suman a la vulnerabilidad producto de la densidad de población, vivienda y a otros factores ambientales presentes que dan origen a una situación de riesgo sísmico. Por lo tanto es necesario de evaluar dicha vulnerabilidad con el objetivo de brindar información para una adecuada gestión del riesgo.
METODOLOGÍA
Se llevo a cabo una metodología para obtener un modelo de exposición por medio de encuestas remotas, cartografía e información de libre acceso. Se hizo un inventario de edificaciones, donde se consideraron: sistema estructural de resistencia de cargas laterales, número exacto de pisos, material de construcción, ductilidad y uso de la edificación.
CONCLUSIONES
Como resultado se realizaron 2, 388 encuestas remotas, con el uso del visor 3D de Google Earth, Google Street view, y Inventory Data Captures Tools, generando información útil para realizar cartografía de daños por agebs urbanos.
Granillo Luna Eduardo, Universidad de Sonora
Asesor:Dra. Ma. Estela Calixto Rodríguez, Benemérita Universidad Autónoma de Puebla
PELíCULAS DELGADAS DE SELENIURO DE NíQUEL OBTENIDAS POR ELECTRODEPóSITO
PELíCULAS DELGADAS DE SELENIURO DE NíQUEL OBTENIDAS POR ELECTRODEPóSITO
Granillo Luna Eduardo, Universidad de Sonora. Medina Santos Milton, Universidad de Sonora. Asesor: Dra. Ma. Estela Calixto Rodríguez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El seleniuro de níquel, dependiendo de su estequiometría, puede llegar a ser un semiconductor tipo p que sea utilizado con un gran número de aplicaciones en celdas solares, un material bidimensional, o un superconductor. Por otro lado, el electrodepósito es un método para síntesis de películas delgadas con diversas ventajas como el llevarse a cabo a temperatura ambiente, en poco tiempo, a bajo costo y ser escalable. En el presente trabajo sintetizaremos una película delgada de seleniuro de níquel con este método así como también caracterizaremos sus propiedades a través de micro-Raman, microscopio óptico, difracción de rayos-X (XRD), perfilometría y espectrometría UV-Vis.
METODOLOGÍA
La película delgada de seleniuro de níquel se depositó potenciostáticamente sobre un sustrato de vidrio recubierto con óxido de estaño dopado con flúor (FTO) con una solución acuosa de NiSO4 y H2SeO3. Las condiciones de deposición controladas fueron tales como la concentración y pH de las soluciones, temperatura y tiempo de deposición.
Se preparó una solución madre (0.5 M) pesando 6.571g de NiSO4 y diluyendo con agua hasta 15 mL, luego se añade 1 mL de H2SeO3 (0.01 M), medimos que el pH es de 2.7 y finalmente aforamos la solución hasta 50 mL.
Para preparar el sustrato se tomó un sustrato de vidrio-FTO y se lavó con jabón alcalino en la parte conductora. Se enjuaga con agua desionizada para después introducirlo en un vaso de precipitado con más agua desionizada para meterlo por cinco minutos en el ultrasonido, después se introduce en un vaso de precipitado con acetona durante 5 min en el ultrasonido nuevamente. Se enjuaga nuevamente con agua desionizada y se introduce en un vaso de precipitado con alcohol isopropílico durante 5 min en el ultrasonido. Se enjuaga con agua desionizada y se seca con nitrógeno.
Par realizar el electrodepósito se vertió toda la solución madre en un matraz
con recirculador de agua que mantenga la reacción a 297.15 K. Dentro del matraz se colocan 3 electrodos: 1 ánodo (1 laminilla de Pt), 1 cátodo (1 sustrato de vidrio recubierto con FTO (500 nm de espesor y resistividad eléctrica de 10 /cuadro)) y un electrodo de referencia (Ag- AgCl) el cual medirá la corriente y el voltaje a lo largo de la reacción.
Se aplicó finalmente un voltaje de -0.7 V (potencial de reducción) que obtuvimos haciendo una voltimetría cíclica, esto durante 5 min y finalmente se retiró el sustrato para ser enjuagado con agua desionizada y secado con nitrógeno.
CONCLUSIONES
En el proceso de electrodepósito de nuestra película podemos observar dos potenciales de reducción en -0.7V y -0.54V, siendo el primero un pico más prominente.
En cuanto a la morfología, observada con el microscopio óptico, podemos ver una estructura homogénea, de un granulado muy fino. Se observan unos puntos negros que vendrían a ser el FTO, donde no se depositó material.
En la elipsometría obtuvimos que conforme más tiempo duraba el depósito más gruesa era la película, para la película de 3 minutos obtuvimos un grosor de 226nm.
En las mediciones arrojadas por el micro-Raman observamos picos en 150 y 200nm, los cuales corresponden al Níquel, pero se debe hacer una investigación más profunda.
En cuanto a la difracción de rayos-X, después de tratar los datos obtenidos la gráfica nos aporta una gráfica que corresponde al selenurio de Niquel.
La espectrometría UV-Vis nos permite calcular el ancho de la banda prohibida, pero se necesitar hacer un tratamiento para obtenerlo.
Como conclusiones finales podemos afirmar que se pueden obtener películas delgadas de seleniuro de níquel sobre sustratos de FTO mediante la técnica de electrodepósito, la cual es sencilla de realizar y escalable, como trabajo posterior se pueden seguir realizando más caracterizaciones para poder definir la estequiometría de nuestro compuesto, así como realizar procesos de selenización para aumentar la concentración de este elemento. Dependiendo de estos resultados podemos aplicar la película delgada a un panel solar para calcular su eficiencia.
Guerra Hernández Ariadna, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla
MODELACIóN E IMPRESIóN 3D DE MICROCALCIFICACIONES
MODELACIóN E IMPRESIóN 3D DE MICROCALCIFICACIONES
Gonzalez Sanchez Aide Belen, Benemérita Universidad Autónoma de Puebla. Guerra Hernández Ariadna, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Asesor: Dr. Ricardo Agustín Serrano
En México, el cáncer de mama es una de las principales causas de muerte en las mujeres, donde el número de muertes ha aumentado de acuerdo con los datos del Globocan, cuyo valor para el 2020, fue de 29,929 casos nuevos y al menos 7,931 muertes. Una manera de disminuir estos números es la detección temprana de esta enfermedad en base a un diagnóstico certero.
La observación de las microcalcificaciones en mamografías y los fantomas mamarios son fundamentales para la detección del cáncer de mama y garantizar la veracidad de las imágenes obtenidas respectivamente.
En el área de la medicina han surgido muchos avances debido a las nuevas tecnologías en el área de hardware o de software, una de estas es la impresión tridimensional o 3D la cual ha tomado mucha relevancia en los últimos 5 años. Esto debido a su gran versatilidad con diferentes materiales para su mejor adaptabilidad dependiendo de lo que se desea modelar.
El objetivo principal de este proyecto de investigación es realizar la impresión de microcalcificaciones con resina fotosensible añadiéndole barita en polvo, para su implementación en fantomas y obtener su visualización en mamografías.
METODOLOGÍA
Se inicio con una investigación sobre la anatomía de la mama femenina y el cáncer de mama, para tener un mejor entendimiento de esta enfermedad. Posteriormente, se estudió la relación entre las microcalcificaciones y su detección en mamografías, utilizando el sistema de BI-RADS que para su clasificación considera el tamaño, forma y distribución de las microcalcificaciones en el interior del tejido mamario.
Para empezar con el proceso de impresión se llevó a cabo la visualización de diferentes mamografías con microcalcificaciones, donde tomando en cuenta la nitidez de la morfología de las microcalcificaciones y las medidas reportadas en la bibliografía, se seleccionaron las de tipo anillo, cutánea, pop corn, lineales gruesas, finas pleomorfas y heterogéneas, siendo las primeras cuatro benignas y las últimas dos sospechosas.
Después, se modelaron las microcalcificaciones con plastilina blanca a escala, con dimensiones de aproximadamente una pulgada, en total se construyeron 22 modelos; se realizaron 4 piezas para cada tipo de microcalcificaciones benignas y 3 piezas para cada una de las microcalcificaciones de tipo sospechosa. Estos modelos se escanearon con ayuda del scaner Revopoint mini, sin embargo, debido a algunas imperfecciones durante el escaneo, con ayuda del programa Meshmixer, se detallaron y se ajustó el tamaño de cada una. En el programa FreeCad se diseñó un soporte para unir los modelos y poder imprimir mejor los detalles de las microcalcificaciones.
Una vez obtenido lo anterior, en Ultimaker Cura, se reajustaron los parámetros del diseño para realizar la primera prueba de impresión donde se utilizó filamento de ácido poli láctico (PLA por sus siglas en inglés), usando la impresora Mono Price mini V2.
En la segunda, prueba con el programa Chitubox, se ajustaron los parámetros necesarios en el diseño para su impresión con resina fotosensible en la impresora Creality LD-002H. Sin embargo, debido a fallos en el desprendimiento de las impresiones del soporte, se realizaron cambios en las dimensiones de este. Una vez ajustado los parámetros del diseño y garantizar una impresión correcta, se realizó la impresión final de las microcalcificaciones donde su utilizó una combinación de resina con barita, en una concentración del 16.66 m/m%.
CONCLUSIONES
Durante el desarrollo del proyecto se adquirió conocimientos sobre las microcalcificaciones y su relación con el cáncer de mama. Así mismo, se logró el aprendizaje en el uso de programas para el diseño y la impresión 3D, al igual que el manejo de impresoras de filamento y de resina. Por otra parte, gracias a este conocimiento adquirido primero se imprimieron las microcalcificaciones con PLA, sin embargo, debido a la poca visualización de los detalles en su morfología y al exceso de rebaba, se procedió con la impresión de los modelos en resina. En la primera prueba de impresión con resina se observó mejor detalle en las impresiones, sin embargo, se tuvo dificultades para desprender los modelos del soporte. Debido a esto, se reajustaron las medidas, para finalmente imprimir las microcalcificaciones con resina y barita, donde se lograron obtener mejoras en el desprendimiento de las calcificaciones, para posteriormente implementarlos en fantomas mamarios. La ultima etapa del proyecto consiste en implementar estas microcalcificaciones en un fantoma anatómico completo, para finalmente realizarle estudios mamográficos.
Agradecimiento al Dr. Ricardo Agustín Serrano por la infraestructura para la realización de este proyecto.
Guillen Cebrero Luis Angel, Universidad de Guadalajara
Asesor:Dra. Claudia Moreno González, Universidad de Guadalajara
LINEALIZACIóN DE LAS ECUACIONES DE EINSTEIN.
LINEALIZACIóN DE LAS ECUACIONES DE EINSTEIN.
Guillen Cebrero Luis Angel, Universidad de Guadalajara. Asesor: Dra. Claudia Moreno González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Las detecciones de ondas gravitacionales que se han logrado en los ultimos años en los programas LIGO, VIRGO y KAGRA refuerzan la existencia del espacio-tiempo descritó por Albert Einstein y otorgan nuevas maneras de investigar el presente y el pasado del universo. Mi objetivo en esta estancia era entender los mecanismos basicos de que rigen la propagación de las ondas gravitacionales, pero para ello era necesario entender la teoria que predecia dicho fenomeno, me refiero a la relatividad general.
METODOLOGÍA
Se estudiaron los aspectos más elementales de la geometría diferencial con él fin de entender conceptos como el transporte paralelo, el tensor de Riemann y los símbolos de Christoffel, los cuales forman las bases matemáticas del formalismo tensorial de la relatividad general. Con este formalismo se logró llegar a la ecuación de Einstein, la cuál describe el comportamiento del espacio-tiempo, así como el de la energía y la materia que se encuentra en él. Se introdujo al estudio también el modelo clásico del espacio-tiempo de Schwarzchild, que sale como solución a las ecuaciones ya antes presentada, con el fin de aplicar los conceptos aprendidos de la geometría diferencial.
Se linealizó la ecuación de Einstein mediante la suposición de que la gravedad proviene de una perturbación del espacio-tiempo de Minkowski, llegando así a una ecuación de onda no homogénea de la cual se deduce la existencia de las ondas gravitacionales, pudiendo estar tener una polarización cruzada o en forma de +, también se estudió un modelo básico de como medir los efectos de una onda de este tipo aprovechándonos del cambio que ocurre en la distancia propia entre dos objetos cuando sobre estos pasa una perturbación gravitacional. Por último, se introdujo a las perturbaciones cercanas a un agujero negro, mediante el estudio de las ecuaciones de Regge-Wheeler-Zerilli, así como los conceptos básicos del formalismo de tétradas para el estudio de agujeros negros rotantes.
CONCLUSIONES
El estudio analítico de las ondas gravitacionales nace de linealizar las ecuaciones de Einstein usando varios elementos de la teoría de perturbaciones, como lo son las transformaciones de norma infinitesimales. Bajo el formalismo tensorial podemos estudiar las perturbaciones gravitacionales que viajan en un espacio-tiempo casi plano, esto nos ha servido para diseñar instalaciones como LIGO que miden las ondas que pasan por el planeta, pero es insuficiente si queremos, por ejemplo, estudiar su comportamiento cercano a los agujeros negros, es por esto que es necesario el estudio de otros formalismos, como el de tétradas, que nos brindan más información que nos permiten seguir estudiando estos fenómenos.
Guzmán Arellano Marcos, Universidad de Guadalajara
Asesor:Mg. Angie Rocio Melo Casas, Universidad Católica de Colombia
LA FUNCIóN DE WIGNER EN UN ESPACIO DE FASE PARA 1 QUBIT
LA FUNCIóN DE WIGNER EN UN ESPACIO DE FASE PARA 1 QUBIT
Guzmán Arellano Marcos, Universidad de Guadalajara. Asesor: Mg. Angie Rocio Melo Casas, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
La Computación Cuántica es una rama de la Mecánica Cuántica, la cual fue producto de la necesidad de explicar los fenómenos microscópicos que involucran la dinámica de los átomos. En Computación Cuántica se busca utilizar los qubits, matemáticamente una combinación lineal de 2 vectores unitarios cuyos coeficientes están normalizados. Estos vectores unitarios viven en el Espacio de Hilbert, un espacio vectorial con un producto interno. En este espacio, los estados normalmente se representan como vectores y se usa la notación de Dirac para expresarlos.
Este proyecto buscó usar este formalismo para construir un Espacio de Fase de N × N, siendo n el número de qubits con los que se están trabajando, en el cual se construyo una distribución de probabilidad de los estados de la función de onda asociada al qubit, esto debido a la relación N = r^n. Para la construcción de nuestro espacio de fase de 2 × 2 se asocia al eje horizontal con la posición generalizada q y al eje vertical con el momento generalizado p. Estas coordenadas nos ayudan a tener una descripción del sistema que se analiza, en nuestro caso 1 qubit.
METODOLOGÍA
Trabajamos con un sistema discreto de puntos de 2 × 2 por lo que sería conveniente usar geometría. Asumiendo que nuestro espacio es euclidiano, o bien un espacio plano, podemos definir líneas como el conjunto de puntos unidos por un segmento de recta. En este espacio cada línea tendrá 2 puntos. Podemos definir a un par de líneas como paralelas si dichas líneas no comparten ningún punto en común. En un espacio N × N existen N(N+1) líneas, N+1 grupos de líneas paralelas, llamadas estriaciones, conteniendo N líneas. Nosotros tenemos 3 estriaciones con 2 líneas cada uno. Las estriaciones son las que continenen líneas verticales, horizontales y diagonales.
Ya con nuestras estriaciones definidas, es conveniente definir como rayo a aquella línea que parte del punto (0,0).
Se asigna un estado cuántico a cada línea usando un operador de proyección Q(λ) a un estado puro. La idea es definir operadores de traslación a nuestro espacio para poder usar los rayos de cada estriación para crear los demás. Este operador de traslación, en general, tiene la forma T= XZ , donde X, Z son las matrices de Pauli.
Estas matrices tienen la regla de conmutación ZX = exp(2πi/r) XZ. Debido a esto podemos formar una base nueva y asociarla a cada estriación. Ahora si escogemos una base, por ejemplo la estriación horizontal, y expresamos las otras 2 en términos de está base, lo que encontramos es que cada línea está descrita con un eigenvector de las matrices de Pauli. Esto nos permite a su vez no tener que trasladar cada rayo como inicialmente se proponía.
Sólo resta proyectar las líneas a nuestra base horizontal con el operador definido como Q(λ) = |a〉〈a| de donde a es el estado asociado a la línea que estemos revisando. La función de Wigner usa esta proyección en su definición
W_α = N1 [∑Tr[ρQ(λ)−I]]. λ∋α
Donde Tr es la operación traza, ρ es la matriz de densidad, asociada al estado del qubit, I es la matriz identidad y la notación λ ∋ α quiere decir, toda línea que contenga el punto α.
CONCLUSIONES
Después de haber hecho todo el procedimiento nos encontramos con las siguientes distribuciones de la función de Wigner en nuestro espacio de fase para distintos estados del Qubit
Para el estado |0〉:
W_(0,0) = 1/2
W_(1,0) = 1/2
W_(0,1) = 0
W_(1,1) = 0
Para el estado |1〉:
W_(0,0) = 0
W_(1,0) = 0
W_(0,1) = 1/2
W_(1,1) = 1/2
Este trabajo tuvo como misión introducir a quienes desconocen el concepto de Qubit, pasando desde el álgebra que se usa comúnmente en la Mecánica Cuántica. Además de usar estas herramientas algebraicas para demostrar cómo surge está función de probabilidad para la descripción de sistemas cuánticos. Como se dijo, esto es una introducción, hay otros recursos que pueden llegar a ser muy técnicos que servirán para expandir esta teoría y por lo tanto no es necesario cubrirlos todos en este momento.
Ham Peña Mey Hing, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dra. Martha Palacios Peñaranda, Universidad Autónoma de Occidente
EFECTOS DE LA CONTAMINACIÓN POR PLÁSTICOS Y MICROPLÁSTICOS SOBRE LOS SERVICIOS ECOSISTÉMICOS DE MANGLAR DENTRO DEL ÁREA NATURAL PROTEGIDA OLD POINT DEL ARCHIPIÉLAGO DE SAN ANDRÉS
EFECTOS DE LA CONTAMINACIÓN POR PLÁSTICOS Y MICROPLÁSTICOS SOBRE LOS SERVICIOS ECOSISTÉMICOS DE MANGLAR DENTRO DEL ÁREA NATURAL PROTEGIDA OLD POINT DEL ARCHIPIÉLAGO DE SAN ANDRÉS
Ham Peña Mey Hing, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Martha Palacios Peñaranda, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
Los manglares constituyen un importante recurso forestal en toda la banda intertropical del planeta. La contaminación ha alterado significativamente la biodiversidad de ecosistemas estratégicos como son los manglares de Old Point, en especial estos desechos de plástico, especialmente microplásticos (>5 mm), se ha confirmado que presentan una nueva serie de problemas, ya que son lo suficientemente pequeños como para ser absorbidos por organismos marinos y ser acumulados a través de la cadena alimentaria. El presente estudio tiene como propósito determinar la abundancia y realizar la caracterización de los microplásticos de los manglares del Caribe Colombiano junto con la caracterización fisicoquímica y del manglar nos permitirá evaluar la calidad ambiental del ecosistema.
METODOLOGÍA
El área de estudio se encuentra dentro del Parque Nacional Manglares de Old Point, San Andrés en el Caribe Insular Colombiano. Para la metodología de campo Los sitios de muestreo se determinaron por medio de una modificación de acuerdo a Kauffman et al. (2016). En seis parcelas, se tomaron 30 muestras colectadas entre 0 y 2 metros, específicamente en rangos de 0-15 cm, 15-30 cm, 30-50 cm, 50-100 cm, 100-200 cm y 200-300 cm. El muestreo se realizó en agosto del 2022. De acuerdo a Hidalgo-Ruz et al. (2012) para obtener fracciones de dos tamaños de micro plásticos Se aplico un pretratamiento para la extracción de plásticos en 2.5 gramos por muestra, para su posterior observación y caracterización por estereoscopio.
CONCLUSIONES
Se identifican distintos tipos de MPs. Donde del material filtrado, se observaron 616 partículas de MP. Las cuales en cuanto forma, predominan las fibras, siendo estas el 89% de MPs, a comparación del material esférico y los fragmentos encontrados en porcentajes más bajos. En color, abunda el material traslucido, siendo este un 42% del total de MPs analizados, seguido de partículas de color azul que representan el 34% identificado.La abundancia en los colores de MPs, puede llegar a dar una idea general de los tipos de plásticos que estén presentes, sin embargo, los pigmentos y los aditivos en los plásticos tienen varias aplicaciones, lo que hace difícil identificar a ciencia cierta el tipo de plástico solo bajo observación.
No se aprecia una diferencia significativa en la acumulación de micro plásticos a través las profundidades del sedimento. Este resultado da pauta a trabajar el área de estudio, como un receptor constante de plásticos, a lo largo de todas las estaciones. La presencia de micro plásticos en todas las parcelas no es algo que de momento sea alarmante o sorprendente, pero si una muestra de la facilidad que tienen estas partículas para esparcirse. Como también tiende a tener correlación con los asentamientos más cercanos, las fuentes de contaminación, las corrientes oceánicas y fenómenos climatológicos.
Hernández Aguilar Luis Enrique, Instituto Tecnológico Superior de Irapuato
Asesor:Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia
DESPACHO ECONóMICO CON RESTRICCIONES DE SEGURIDAD Y PARTICIPACIóN DE GENERACIóN EóLICA EN LA PROVISIóN DE RESERVA RODANTE
DESPACHO ECONóMICO CON RESTRICCIONES DE SEGURIDAD Y PARTICIPACIóN DE GENERACIóN EóLICA EN LA PROVISIóN DE RESERVA RODANTE
Hernández Aguilar Luis Enrique, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia
PLANTEAMIENTO DEL PROBLEMA
El cambio climático y el aumento de la demanda de energía han impulsado a los países industrializados a incrementar la generación de electricidad por medio de energías renovables. Además, las redes de transporte están en proceso de renovación según los códigos de red actuales. Esto fomenta el uso de enlaces para proporcionar acceso a las plantas renovables remotas, como los parques eólicos (WF).
En lo que respecta al despacho económico (ED), las investigaciones se han centrado en las incertidumbres de la energía eólica mediante marcos estadísticos. Aunque no se han abordado en el análisis de ED las respectivas restricciones de seguridad (SCED) con énfasis en el cumplimiento de la reserva rodante como del estatismo, dado que los códigos de red recientes exigen el cumplimento continuo de estos parámetros dentro los limites especificados.
Por lo tanto, durante el verano de investigación se desarrolló un modelo SCED con una representación lineal de flujos de CA mediante factores de sensibilidad para integrar los WF considerando el cumplimiento de la reserva rodante y el estatismo equivalente del WF. Se consideró que ambos requisitos dependen de la velocidad del viento y del esquema de descarga del aerogenerador.
METODOLOGÍA
El principal objetivo consiste en determinar el ajuste óptimo de potencia de las unidades de generación térmica convencional despachables para una demanda dada del sistema. Se minimiza el costo total de generación, los costos de reserva rodante abajo y arriba de las unidades térmicas convencionales despachables sujeto a un conjunto de restricciones. El modelo SCED propuesto que incluyen los requisitos de reserva rodante y el estatismo para el WF se presentan a continuación:
Minimizar costos de operación, costos de reserva arriba y abajo de las ng unidades despachables.
Sujeto a: Balance global del sistema.
Restricciones de reserva arriba y abajo de cada unidad despachable.
Restricciones de rampa arriba y abajo de cada unidad despachable.
Restricciones de reserva rodante de cada unidad de generación eólica y del WF.
Restricciones de cálculo del estatismo de cada unidad eólica considerando la descarga por medio de la variación del ángulo de pala.
Restricciones de flujos de potencia del sistema y capacidad máxima en cada elemento de transmisión.
Las variables de decisión son la reserva rodante , el estatismo y la constante de regulación . Mediante MATLAB se calcula la potencia del WG por medio de la variación de la velocidad del viento, así como la derivada parcial con respecto al ángulo de la pala.
CONCLUSIONES
Se realizó el análisis SCED para un sistema de PJM de 5 nodos, este cuenta con 5 generadores térmicos convencionales. Se considera una granja eólica de 100 MW a velocidad nominal, compuesta de 50 aerogeneradores. La granularidad del parque eólico se considera mediante grupos de 10 aerogeneradores mientras decae la velocidad del viento. Se consideraron 10 periodos de tiempo con una diferencia de 1 hora entre cada uno, con una velocidad del viento máxima a las 4 horas y una velocidad mínima a las 9 horas. Los resultados fueron los siguientes:
El parque eólico alcanzó una reserva de giro de 5% y un estatismo de 8%, por medio del esquema de descarga del aerogenerador de variación del ángulo de pala .
El viento alcanza una potencia mínima de 63,2 MW a las 9 horas y una potencia máxima de 69,5 MW a las 4 horas.
Se obtuvo una reserva rodante mínima del 5% para todos los intervalos de tiempo, lo cual es razonable porque la operación de un sistema más económico se obtiene mientras se genera mayor potencia de viento manteniendo al mínimo la reserva de giro.
El estatismo del parque eólico se mantiene entre 3% y 8% para todos los periodos de viento garantizando un estatismo dentro de los límites permitidos.
Ambos requerimientos para el parque eólico son satisfechos con un costo total de operación de $123,114.75.
Hernández Carrillo Anette Sofía, Universidad Autónoma de Ciudad Juárez
Asesor:Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
DOSIMETRíA EN FANTOMA Y USO DE MATERIALES CRISTALINOS EN DOSIMETRíA.
DOSIMETRíA EN FANTOMA Y USO DE MATERIALES CRISTALINOS EN DOSIMETRíA.
Hernández Carrillo Anette Sofía, Universidad Autónoma de Ciudad Juárez. Inzunza Lugo Alejandra, Universidad Autónoma de Sinaloa. Morelos Lozada Jesus, Instituto Politécnico Nacional. Ochoa Sánchez Daniela, Universidad de Guadalajara. Salgado Díaz America, Universidad Autónoma del Estado de México. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La radioterapia es un tratamiento esencial en la lucha contra el cáncer, pero es crucial garantizar que la dosis de radiación se administre con precisión en el área objetivo y se minimice la exposición en tejidos circundantes. Para ello, se utilizan dosímetros para medir la distribución de la radiación y evaluar la eficacia del tratamiento. Además, es relevante investigar y seleccionar los materiales cristalinos más adecuados para desempeñar esta función de dosimetría.
El objetivo de este estudio es analizar la distribución de la radiación en un fantoma durante la radioterapia y evaluar la eficacia de diferentes materiales cristalinos como dosímetros.
METODOLOGÍA
1. Se prepararon dosímetros, dispositivos diseñados para medir la dosis de radiación absorbida.
2. Se colocó el fantoma, que es una simulación de un paciente, en un acelerador lineal para simular un tratamiento de cáncer cervico-uterino.
3. Se distribuyeron los dosímetros en posiciones estratégicas dentro del fantoma.
4. Se programó el equipo del acelerador lineal para administrar la dosis de radiación de acuerdo con el tratamiento simulado.
5. Se realizaron mediciones y análisis de los resultados obtenidos por los dosímetros para evaluar la distribución de la radiación en el fantoma.
Materiales cristalinos:
1. Se seleccionaron compuestos químicos y se prepararon con sus respectivos dopantes para actuar como materiales cristalinos para dosimetría.
2. Se identificaron los cristales preparados y se los preparó para la lectura de sus respuestas a la radiación.
3. Se programó el equipo necesario para llevar a cabo la lectura de los cristales y obtener resultados de dosimetría.
4. Se analizaron los resultados obtenidos por los materiales cristalinos para evaluar su eficacia como dosímetros.
CONCLUSIONES
1. Distribución de la radiación en el paciente: Se observó que la dosis de radiación recibida por el paciente durante el tratamiento depende del tamaño del tumor y de la energía empleada. Es fundamental garantizar una distribución precisa de la radiación para evitar daños innecesarios en tejidos sanos circundantes.
2. Importancia de la precisión en las mediciones: Se recomienda tomar dosímetros del mismo lote para asegurar la precisión y consistencia en las medidas de dosimetría. La exactitud en la administración de la dosis es esencial para mejorar la efectividad del tratamiento y evitar posibles complicaciones.
3. Protocolos de radioterapia personalizados: Se sugiere la implementación de nuevos protocolos de radioterapia que se adapten a las características individuales de cada paciente. Un enfoque personalizado puede aumentar la efectividad del tratamiento y reducir los efectos secundarios.
4. Reducción de la radiación en zonas periféricas: Se propone desarrollar instrumentos y materiales superficiales para disminuir los niveles de radiación en las áreas circundantes del tumor. Esto puede ayudar a evitar el riesgo de desarrollar un segundo cáncer en tejidos cercanos a la zona tratada.
5. Eficacia de los materiales cristalinos: Los materiales cristalinos, en particular, los LaAl03 dopados con Dy o Pr, mostraron una alta respuesta termoluminiscente (TL). Estos materiales demostraron ser excelentes para capturar la energía absorbida en los centros de trampa, lo que los convierte en opciones prometedoras para su uso como dosímetros.
En conclusión, este estudio destaca la importancia de la dosimetría en fantoma y el uso de materiales cristalinos en dosimetría para garantizar la precisión y efectividad de los tratamientos de radioterapia. La investigación continua en este campo puede conducir a mejoras significativas en el cuidado y el tratamiento de pacientes con cáncer.
Hernandez Cruz Angel Gerardo, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
ESTIMACIóN DEL NúMERO DE FOTONES DE CENTELLEO PARA UN
PLáSTICO CENTELLADOR BC404
ESTIMACIóN DEL NúMERO DE FOTONES DE CENTELLEO PARA UN
PLáSTICO CENTELLADOR BC404
Hernandez Cruz Angel Gerardo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los plásticos centelladores son materiales que tienen la capacidad de emitir luz visible (centelleo) cuando son irradiados por partículas cargadas o radiación ionizante, como rayos X o rayos gamma. Estos materiales son utilizados en diversas aplicaciones en el campo de la detección de partículas y en la medicina, entre otras áreas.
La propiedad de centelleo se basa en la interacción de la radiación con los átomos del material, lo que resulta en la excitación de los electrones en los átomos y su posterior relajación, liberando fotones. La luz emitida es recogida por dispositivos fotosensibles, como fotomultiplicadores o fotodetectores, para su posterior análisis y detección de la radiación.
El plastico BC404 muestra una alta eficiencia de centelleo, lo que significa que convierte una gran cantidad de energía de las partículas incidentes en luz visible detectable, también es capaz de proporcionar información temporal sobre el momento de interacción de la partícula en el material. Asi mismo, el plastico BC404 se utiliza en detectores de partículas para la investigación en física de partículas, así como en experimentos de física nuclear.
METODOLOGÍA
El software utilizado para la obtención del número de fotones de centelleo para un plástico centellador BC404 es Geant4, una herramienta muy utilizada en la comunidad científica para simular el paso y la interacción de partículas a través de la materia. Su nombre "Geant" proviene del acrónimo "GEometry ANd Tracking", lo que refleja su enfoque en el modelado de geometrías complejas y el seguimiento detallado de las partículas.
Geant4 es un software de código abierto y gratuito, gracias a estas características se usa ampliamente durante esta estancia virtual para desarrollar la geometría de un arreglo de plásticos y calorímetros, así como también la estimación del número de fotones de centelleo que se emiten al interactuar con una lluvia de muones a distintas energías (0.5GeV, 1GeV, 1.5GeV).
COORDINACIÓN GENERAL
UNIVERSIDAD AUTÓNOMA DE NAYARIT / SECRETARÍA DE INVESTIGACIÓN Y POSGRADO
CIUDAD DE LA CULTURA S/N, COL. CENTRO, C.P. 63000, TEPIC, NAYARIT; MÉXICO
TEL: 311‐141‐94‐84 E‐mail: coordinacion.general@programadelfin.org.mx
Para describir la probabilidad de que un fotón de luz sea absorbido o dispersado en un material durante su trayectoria a través de él se ocupa la distribución de Poisson, utilizada para describir la probabilidad de ocurrencia de eventos discretos e independientes en un intervalo de tiempo o espacio determinado.
Por otro lado, se considera la atenuación de la luz, que se refiere a la disminución de la intensidad de la luz a medida que se propaga a través de un medio debido a la absorción, dispersión o reflexión., lo que significa que la cantidad de luz atenuada en un medio puede variar aleatoriamente debido a la naturaleza discreta de la interacción de los fotones con los átomos o moléculas del material.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la interacción de la radiación con la materia así como también se desarrollaron las habilidades para programar, construir y simular estos procesos de interacción con distintas geometrías y materiales en el software Geant4.
Sin embargo, como todo conocimiento teórico se tiene que corroborar de manera experimental, así como optimizar y reducir el error de los métodos ocupados. Debido a que es una labor gigantesca y para la cual se requiere mucho tiempo y un poder de cómputo superior, en este trabajo quedan sentadas las bases y una estimación del número de fotones de centelleo emitidos por un plástico centellador BC404 interactuando con una lluvia de muones a distintas energías.
Hernández de la Cruz Naomi Aislinn, Universidad Veracruzana
Asesor:Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
ENSO Y SU RELACIóN CON LOS CICLONES TROPICALES EN LA COSTA DEL ESTADO DE JALISCO EN EL PERIODO DE 1990-2022.
ENSO Y SU RELACIóN CON LOS CICLONES TROPICALES EN LA COSTA DEL ESTADO DE JALISCO EN EL PERIODO DE 1990-2022.
Hernández de la Cruz Naomi Aislinn, Universidad Veracruzana. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Sobre el Océano Pacífico se establece El Niño- Oscilación del Sur (ENOS) el cual es un patrón climático que consiste en las fluctuaciones interanuales del sistema Océano-Atmósfera en el que se encuentran involucradas diversas variables climáticas como la temperatura superficial del mar (TSM), corrientes oceánicas, nivel del mar, viento, presión atmosférica, precipitación, entre otra, por lo que las distintas fases como los periodos cálidos o fríos pueden estar relacionados con la intensificación de los ciclones tropicales.
México cuenta con gran incidencia y vulnerabilidad de impacto de ciclones tropicales debido a su localización en regiones de ciclogénesis del Atlántico Norte y el Pacífico Nororiental las cuales propician al desarrollo de circulaciones ciclónicas en niveles bajos de la atmósfera, por lo que diversos autores han señalado que las costas orientales cuentan con mayor incidencia de estos fenómenos debido a que las costas del océano Atlántico se ven favorecidas por la formación de diversas circulaciones atmosféricas-oceánicas, entre las que se encuentran la relación de las fases del ENOS con la intensidad de los ciclones tropicales, sin embargo, sobre el océano Pacífico no se han realizado estudios a cerca de la relación de ambos fenómenos atmosféricos- oceánicos, así como las afectaciones que han generado al impactar en las costas.
En el estado de Jalisco en los últimos años se han visto afectados por diversos sistemas hidrometeorológicos como inundaciones repentinas, sequias, ciclones tropicales, tornados, entre otros, siendo una causa principal el crecimiento en la zona urbana lo que genera susceptibilidad y vulnerabilidad en la población; la presencia de estos fenómenos atmosféricos y especialmente los ciclones tropicales han dejado a su paso pérdidas económicas, materiales, e incluso humanas, produciendo afectaciones en la seguridad alimentaria y daños en áreas naturales.
METODOLOGÍA
Para llevar a cabo la investigación y cumplir los objetivos planteados se realizaron una serie de procedimientos los cuales se mencionan a continuación:
Primeramente se realizó una revisión bibliográfica correspondiente a investigaciones previas a cerca del fenómeno de El Niño-Oscilación del Sur (ENSO) y los Ciclones Tropicales en distintas zonas de estudio tanto a nivel nacional como internacional.
Posteriormente se obtuvieron datos del Centro Nacional de Prevención de Desastres (CENAPRED) mediante el software de Busca Ciclones 3.0.x en la cual se descargaron las trayectorias de los ciclones tropicales que impactaron en la costa del estado de Jalisco así como su categoría de acuerdo con la escala de Saffir- Simpson en el periodo de 1990-2022, dichas trayectorias se obtuvieron en formato shapefile (shp), para posteriormente procesarlas en un sistema de información geográfica (SIG) llamado ArcGIS.
En el SIG y con los datos obtenidos en formato shp se realizaron mapas de las trayectorias de ciclones tropicales que impactaron en la costa del estado de Jalisco; además de conocer las trayectorias también se busca definir los municipios que fueron afectados al paso de los CT en los diferentes años.
Para la caracterización de los ciclones tropicales se comenzó describiendo la escala Saffir-Simpson por lo que se realizó una revisión bibliográfica del NHC en el que se clasificaron las diversas categorías que presentan los ciclones tropicales, así como su intensidad de vientos y posibles daños que puede generar.
Para establecer la correlación de El Niño-Oscilación del Sur con la intensidad de los Ciclones Tropicales se descargó el Oceanic Niño Index (ONI) el cual establece los periodos cálidos o fríos que se presentan en un umbral de +/- 0.5°C en la región del Niño 3.4 caracterizado por anomalías en la temperatura de la superficie del mar (TSM) de la media de 3 meses, obtenido del Climate Prediction Center (CPC) de la National Oceanic and Atmospheric Administration (NOAA), esta información fue analizada en el periodo de estudio de 1990-2022.
A partir de la obtención del ONI se definieron los años en que se presentaron las distintas etapas de El Niño (periodo cálido) o Niña (periodo frío) según sea el caso, además se estableció una relación de la categoría de los ciclones tropicales que impactaron en las costas de Jalisco con la etapa en que se presenta el ENSO.
Para complementar la relación entre el ENSO y los ciclones tropicales se descargaron datos de IRI/LDEO el cual es una biblioteca de datos climáticos que permiten visualizar, analizar y descargar datos de forma libre por lo que se buscaron datos de anomalías de temperatura y temperatura superficial del mar del año de 1950 al 2022, con ello se corrió un script en el software OpenGrADS el cual arrojó mapas de temperatura superficial del mar y de anomalías de temperatura del periodo de estudio establecido en formato JPG.
Finalmente se realizaron una serie de entrevistas a habitantes de los municipios de Ipala y El Tuito, teniendo como objetivo principal conocer las medidas preventivas que toman ante el aviso de un ciclón tropical.
CONCLUSIONES
Durante la estancia de investigación se han lograron establecer los periodos de la fase de El Niño, La Niña o Neutro del ENOS y los ciclones tropicales que impactaron en la costa de Jalisco de acuerdo con el periodo de estudio. Como parte del resultado se obtuvo que la fase cálida (El Niño) generó uno de los ciclones tropicales más importantes clasificado como huracán de categoría mayor, siendo ésta la categoría 5 de la escala Saffir-Simpson, el cual dejó afectaciones como inundaciones, desprendimiento de techos, oleaje elevado, entre otras. En el caso de la fase fría (La Niña) y la fase neutra no se presentaron ciclones tropicales significativos, sin embargo, en ambas fases alcanzaron huracán de categoría 2.
Al ser un trabajo extenso es importante continuar estudiando el comportamiento de ambos fenómenos para definir la relación que existe así como las afectaciones que deja a su paso.
Hernandez Guerrero Lenin, Instituto Tecnológico de Chilpancingo
Asesor:M.C. Yanet Evangelista Alcocer, Instituto Tecnológico de Chilpancingo
CONSTRUCCIóN DE UN VIDEOJUEGO PARA LA ENSEñANZA DE EDUCACIóN AMBIENTAL
CONSTRUCCIóN DE UN VIDEOJUEGO PARA LA ENSEñANZA DE EDUCACIóN AMBIENTAL
Hernandez Guerrero Lenin, Instituto Tecnológico de Chilpancingo. Asesor: M.C. Yanet Evangelista Alcocer, Instituto Tecnológico de Chilpancingo
PLANTEAMIENTO DEL PROBLEMA
"EarthExplorer" es un emocionante juego educativo en 2D dirigido a niños de 8 a 12 años, con el objetivo de fomentar la conciencia ambiental y el conocimiento ecológico. Integrando una poderosa inteligencia artificial basada en la API de ChatGPT, los jugadores explorarán cinco categorías clave: reciclaje, cambio climático, energías renovables, sostenibilidad, y contaminación del aire y agua. A través de notas informativas interactivas y preguntas al final de cada nivel, los niños aprenderán sobre la importancia de proteger el medio ambiente y tomar decisiones informadas para un futuro más sostenible.
METODOLOGÍA
1. Investigación Inicial: Investigar ecología, temas ambientales y la audiencia (niños de 8 a 12 años). Definir temas clave para las categorías: reciclaje, cambio climático, energías renovables, sostenibilidad, contaminación del aire y agua.
2. Diseño del Juego: Planificar estructura y mecánicas de "EarthExplorer". Crear 3 planos (jungla, cueva, desierto) con niveles desafiantes para cada categoría. Integrar inteligencia artificial para generar notas y preguntas.
3. Desarrollo de Contenido: Crear notas informativas sobre temas clave. Introducir interacción con las notas y convertirlas en audio mediante una petición a un servidor creado para el juego.
4. Integración de la IA: Implementar la API de ChatGPT para proporcionar información relevante y generativa en cada nivel y generar preguntas para el cuestionario final.
5. Integración de Bases de Datos: Crear y administrar bases de datos para almacenar registros de progreso y comprensión de los jugadores.
6. Desarrollo de Niveles y Rompecabezas: Crear niveles enfocados en cada categoría y diseñar rompecabezas relacionados con la ecología y el cuidado del medio ambiente.
7. Pruebas Piloto: Probar el juego con niños para evaluar la jugabilidad, comprensión de notas e interacción con la IA. Ajustar según comentarios.
8. Implementación y Lanzamiento: Realizar ajustes finales y lanzar "EarthExplorer" en una plataforma accesible y atractiva para dispositivos infantiles.
9. Evaluación y Retroalimentación: Monitorear el rendimiento del juego, recopilar datos sobre el progreso y comprensión de los niños. Evaluar el impacto educativo y la motivación hacia la conciencia ambiental. Mejorar futuras versiones del juego y optimizar su efectividad educativa.
CONCLUSIONES
"EarthExplorer" se encuentra en una etapa prometedora de desarrollo como una herramienta educativa para niños de 8 a 12 años, enfocada en concienciar sobre ecología y sostenibilidad. La implementación y lanzamiento del juego están en curso, asegurándonos de que sea accesible y atractivo para los niños. La fase de evaluación y retroalimentación será crucial para medir el impacto educativo y la motivación de los jugadores hacia el cuidado ambiental. Con resultados obtenidos, optimizaremos el juego para ofrecer una experiencia de aprendizaje más enriquecedora y personalizada. Nuestra esperanza es que "EarthExplorer" inspire a la nueva generación a proteger y preservar nuestro planeta para un futuro sostenible.
Hernández Méndez Luis Vicente, Universidad de Ciencias y Artes de Chiapas
Asesor:Dra. Paloma Gallegos Tejeda, Universidad de Guadalajara
PAISAJE AGROECOLóGICO PARA LA SOBERANíA ALIMENTARIA
PAISAJE AGROECOLóGICO PARA LA SOBERANíA ALIMENTARIA
Hernández Méndez Luis Vicente, Universidad de Ciencias y Artes de Chiapas. Martínez Galván Mariana Itzel, Universidad Autónoma de Nayarit. Asesor: Dra. Paloma Gallegos Tejeda, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Dada la especulación inmobiliaria con el crecimiento urbano y la intensificación de los monocultivos como el del agave, se observa una fragilidad hacía los sistemas alimentarios periurbanos con tendencia a desaparecer. Al respecto se vislumbra una pérdida del patrimonio agroalimentario que no es solo de superficie agrícola sino de semillas, alimentos y saberes campesinos que definen a toda una comunidad.
Así pues, aunque a la agricultura se le atribuye mucho del impacto ambiental que se está observando en la actualidad, la práctica de la agricultura regenerativa tiene tendencia a contribuir en recursos naturales de importancia tanto en el tema de agrobiodiversidad, como en el de servicios ambientales. Además de la contaminación de suelo por agroquímicos que presenta pérdida de la actividad microbiana, con alteraciones en las propiedades físico-químicas, también se observa contaminación de las fuentes de agua por la presencia de estos contaminantes.
En relación a lo anterior, Tlajomulco de Zúñiga municipio que no hace mucho tiempo era el proveedor de hortalizas del Área Metropolitana de Guadalajara ha sufrido cambios a partir de la conurbación.
METODOLOGÍA
Desde el enfoque de Investigación Acción Participativa los investigadores generamos conocimiento y procesos que transitan hacía una soberanía alimentaria ante un panorama de pérdida del patrimonio alimentario. Así se trabajó en los pueblos originarios y tradicionales de la zona Cajititlán-Cerro Viejo de Tlajomulco de Zúñiga. San Juan Evangelista, San Lucas Evangelista, San Miguel Cuyutlán, Cajititlán y Cuexcomatitlán todos pueblos rivereños de la laguna de Cajititlán, donde se promovió y trabajo la implementación de técnicas experimentales de siembra sustentable.
A manera de proceso se inició el trabajo con la revisión documental de los temas del proyecto. La técnica Keyline con la implementación de una parcela demostrativa para cosecha de agua y regeneración de suelo, a partir del levantamiento topográfico y el diseño de tratamientos de infiltración de agua, donde se mide, la humedad, la compactación del suelo y el comportamiento de la vegetación.
Asimismo las técnicas de agricultura urbana se desarrollaron con prácticas agroecológicas aplicadas en el huerto universitario del Centro Universitario de Tlajomulco (CUTLAJO). Aquí se aplicaron técnicas de alelopatía, germinación, acolchado, riego y manejo del huerto como la fertilización, colecta de semillas, podas y cosecha por mencionar algunas actividades. Este aprendizaje se aplicó durante los cursos de verano del centro universitario y al público de la feria agroecológica de la Red Ecológica de Autoabasto para la Soberanía Alimentaria (REALSA) en el pueblo de Cajititlán.
Asimismo, las actividades de arboricultura consistieron en el levantamiento de un inventario arbóreo de un área de CUTLAJO. Cada árbol fue evaluado con 12 variables para determinar las condiciones de 70 árboles urbanos y proponer un plan de manejo por individuo, además se elaboró un infograma sobre poda y forma correcta de sembrar un árbol.
Durante la investigación se tuvo comunicación con actores claves como el maestro Felipe Ignacio Iñiguez Pérez, encargado del Bosque Escuela de Agricultura Regenerativa (BEAR), quien facilitó el establecimiento del área experimental en su parcela. La aplicación de la técnica Keyline, se llevó a cabo a partir del levantamiento topográfico, las curvas de nivel se marcaron con estacas, en las curvas principales se establecieron canales camino donde se marcó una inclinación de 1.5% para ayudar al riego en lámina una vez que se satura el área de captación de agua. Cada canal camino cuenta con un cráter de infiltración de agua, donde se canaliza el excedente de agua para almacenarla y usarla para riego. Los caminos se formaron con una excavadora, teniendo una diferencia de 15 cm de altura, con una inclinación de 2.8°.
Finalmente se estableció el experimento con 9 tratamientos donde se evalúa el uso de dos implementos agrícolas. Se trata de evaluar la respuesta de la vegetación con un subsuelo convencional, el subsuelo modificado Yeomex y un área testigo para verificar los resultados. Además, se crearon réplicas de las curvas, con un tractor y el yeomex, con la finalidad de ayudar a la aireación del suelo y la infiltración del agua
Los tratamientos se cultivaron de forma mixta para ver el comportamiento de la vegetación, así se plantó vetiver, plantas aromáticas y árboles frutales y forestales en ese orden. El vetiver inyecta agua, plantas aromáticas fungen como control biológico de plagas y los árboles puedan expandir la red de sus raíces permitiendo la creación de un nuevo microclima y de microsistemas dentro del suelo.
CONCLUSIONES
En la estancia de investigación se adquirió conocimiento agroecológico teórico-práctico sobre la regeneración biológica de suelos, tanto el impacto social como climático de la agricultura y su relación con el paisaje agroecológico.
La importancia de la divulgación científica en el campo y el uso de herramientas para el diagnóstico y evaluación de suelos y especies de plantas regionales.
Aplicación de tratamientos para recuperar la salud del suelo, restaurando su microbiología y caminos hídricos.
Búsqueda de la participación con el fomento de la convivencia comunal de los pueblos involucrados.
A manera de discusión el impacto de este tipo de investigación contribuye a cuidar el patrimonio agrícola en la cuenca de Cajititlán. Pues al relacionarla con los Objetivos del Desarrollo Sostenible (ODS) ayuda a cumplir con las metas de Hambre Cero, ya que contribuye a la regeneración del suelo y la cosecha de agua, por consecuencia garantiza el crecimiento del bosque por un lado y la implementación de camas productivas sin agroquímicos. Así se apuesta a la salud y bienestar al optar por formas más sanas de producir cultivos y Acción por el clima al ser un marco referente para seguir ante la lucha contra el cambio climático.
Hernández Mendoza Giovani Josué, Universidad de Guadalajara
Asesor:Dra. Karla Paola Valdez Núñez, Universidad Politécnica de Sinaloa
OBTENCIóN DE VARIAS PROPIEDADES óPTICAS POR MEDIO DE REELS PARA TA Y TAN A DIVERSAS ENERGíAS INCIDENTES
OBTENCIóN DE VARIAS PROPIEDADES óPTICAS POR MEDIO DE REELS PARA TA Y TAN A DIVERSAS ENERGíAS INCIDENTES
Hernández Mendoza Giovani Josué, Universidad de Guadalajara. Asesor: Dra. Karla Paola Valdez Núñez, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La espectroscopia de pérdida de energía de electrones por reflexión (REELS) es un método de caracterización para materiales bastante peculiar, ya que este consiste en bombardear con un haz de electrones a la energía que se busque analizar con el fin de medir la distribución de energía de de los electrones reflejados.
La distribución de energía es lo que genera el espectro a analizar, en donde este por si solo contiene información correspondiente a las pérdidas de energía de los electrones reflejados debido a la excitación de estados vibracionales y los plasmones.
Con dicho espectro se pueden llegar a analizar diversas características del material, como lo es el índice de recorrido medio de los electrones (IMFP) o incluso algunas propiedades ópticas de este mismo, que es en lo que se basa esta investigación.
Las propiedades ópticas son aquellas que se relacionan con la interrelación entre un material y las radiaciones electromagnéticas en forma de ondas o partículas de energía y resultan de gran importancia para el posible desarrollo de nuevas aplicaciones para las tecnologías de la información.
METODOLOGÍA
Para el análisis fueron necesarias películas delgadas tanto de Tantalio (Ta) como Nitruro de Tantalio (TaN), donde estas fueron preparadas y posteriormente analizadas por la asesora de la investigación con espectroscopia de fotoelectrones emitidos por rayos X (XPS) y REELS para 3 diferentes energías, siendo estas 500, 1000 y 2000 eV para cada material.
Una vez ya obtenidos los espectros, se utilizó el software libre llamado OPREELS, el cual fue desarrollado por el Dr. Wencel de la Cruz y el Dr. Francisco Yubero. Con este programa, se importaron los espectros de energía para que posteriormente se limpien los datos y se trabaje solo con la sección de pérdida de energía inelástica (de 0 a 100 eV) para así ajustarles un modelo teórico encontrado en la literatura, siendo este el modelo en específico el de Drude, en donde este modelo simula el comportamiento de las pérdidas de energía debido a los plasmones del cuerpo para cada energía incidente y así obtener la parte real e imaginaria de la función dieléctrica, pudiendo encontrar el coeficiente de extinción k y el índice de refracción n, dos propiedades ópticas que son posibles de encontrar con este método.
En el software se establecen manualmente los osciladores deseados para así generar una envolvente que se empalme lo más posible con los datos experimentales, en donde, cada oscilador tiene una forma de función gaussiana para así manualmente poder modificar tanto su posición, largo y ancho en la región del espectro seleccionado; también fue necesario colocar el respectivo bandgap para cada material en específico, ya sea este Ta o TaN .
Una vez realizada la simulación para la energía incidente seleccionada y encontrando la cantidad ideal de osciladores generando una buena envolvente, el mismo programa con la parte real e imaginaria de la función dieléctrica te genera los gráficos de el coeficiente de extinción y el índice de refracción para el rango de 0 a 100 eV estudiado de pérdida de energía.
CONCLUSIONES
La investigación durante la estancia ha dejado ver resultados bastante óptimos, debido a que para cada nivel de energía incidente fueron analizados dos materiales, se generaron un total de 12 gráficos, donde 6 pertenecen al coeficiente de extinción k y los otros 6 restantes pertenecen al índice de refracción n.
Todas las figuras obtenidas por el programa OPREELS fueron comparados con datos de elipsometría encontrados en la literatura, en donde para el Ta [Edward D. Palik. (1998)] si se encuentra un amplia gamma de valores que alcanzan prácticamente todo el espectro con excepción de un pequeño rango de valores en los que no se encuentra determinado el índice de refracción.
Para el caso del TaN [F. Yubero, S. Tougaard (1992)], solamente se encuentran los valores de elipsometría para el rango del espectro visible mayormente, tanto para el coeficiente de extinción como el índice de refracción.
Todas las gráficas tienen una similitud bastante grande, siendo una muy buena aproximación a los datos encontrados en la literatura con los arrojados por OPREELS.
Es de mucha importancia esta aproximación entre ambas gráficas, ya que para los valores que no se encuentran determinados de n y k, se puede estimar su valor de todo un rango de energía mucho más amplio con los gráficos obtenidos, teniendo así su respectiva veracidad, como lo es para la evidente falta de información por medio de elipsometría para el TaN y la región indeterminada del Ta.
Hernández Parra Raquel Elisa, Universidad Veracruzana
Asesor:Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
ISLA DE CALOR URBANA CON DATOS DE TELEDETECCIóN Y OBSERVADOS EN LA ZONA METROPOLITANA INTERESTATAL DE PUERTO VALLARTA Y BAHíA DE BANDERAS PARA LA TEMPORADA SECA ENTRE LOS AñOS 2018 A 2021
ISLA DE CALOR URBANA CON DATOS DE TELEDETECCIóN Y OBSERVADOS EN LA ZONA METROPOLITANA INTERESTATAL DE PUERTO VALLARTA Y BAHíA DE BANDERAS PARA LA TEMPORADA SECA ENTRE LOS AñOS 2018 A 2021
Hernández Parra Raquel Elisa, Universidad Veracruzana. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La Isla de Calor Urbana (ICU) es un fenómeno en el cual se reporta un aumento de temperatura dentro de las ciudades o zonas con mayor desarrollo de actividades antropogénicas con respecto a las zonas rurales que aún conservan cobertura vegetal. El fenómeno ICU tiene una repercusión directa en el bienestar y confort de los habitantes de las ciudades. La principal causa de un aumento de la temperatura es el cambio en el uso de suelo, pues al elimina gran porcentaje de la cobertura vegetal se reemplaza por materiales cómo concreto o estructuras metálicas, lo cual cambia el patrón de temperaturas. Estas superficies tienen la capacidad de retener radiación que reciben del sol durante el día la cuál, posteriormente se emitirá elevando la temperatura dentro de las zonas urbanas.
México es un país en desarrollo, por lo que las ciudades y zonas urbanas han crecido, lo cual ha influido en la aparición e intensificación de la ICU perjudicando el bienestar y balance térmico, en ocasiones provocando eventos extremos peligrosos.
METODOLOGÍA
Con el fin de analizar Isla de Calor Urbana en la zona metropolitana interestatal de Puerto Vallarta- Bahía de Banderas entre los años 2018 a 2021. Se utilizaron dos tipos de datos: de teledetección y datos registrados en superficie. La imagen de satélite ofrece un dato de la temperatura de la superficie terrestre en cada pixel (30- 100m) y las estaciones meteorológicas un dato en su ubicación de la temperatura superficial del aire. Por lo que los datos de las estaciones servirán para calibrar los datos de las imágenes para esta área de estudio.
La información de teledetección se tomó la Temperatura Superficial Terrestre obtenida mediante el satélite Landsat 8, colección 1, banda B10, las cuales se procesaron en Google Earth Engine. Para que la imagen permitiera observar la temperatura superficial sin ningún obstáculo, se eligió el día en que existirá menor porcentaje de nubosidad, al término del procesamiento se obtuvieron las imágenes de las siguientes fechas pertenecientes a la temporada seca que abarca los meses de enero a mayo: Para 2018 los días 06/ene, 23/feb, 27/mar, 28/abr y 14/may; del 2019 las fechas 09/ene, 26/feb, 14/mar y 17/may; del 2020 los días 28/ene, 13/feb, 16/mar, 17/abr y 19/may y del 2021 los días 30/ene, 15/feb,03/feb,03/mar, 20/abr y 22/may.
Además de las imágenes de satélite, se obtuvieron datos para las fechas antes mencionadas, de cuatro Estaciones Meteorológicas Automáticas (marca Davis Vantage pro plus 2), tres de ellas ubicadas en el municipio de Puerto Vallarta y la cuarta en Bahía de Banderas. Debido a que las Estaciones Meteorológicas Automáticas miden la temperatura del aire, existiría una diferencia entre la temperatura observada por las imágenes de satélite y la temperatura media registrada por las estaciones por lo que, resultó conveniente saber la diferencia entre la temperatura superficial terrestre y la temperatura del aire. Se calculó la diferencia y correlación entre ambas series de datos de temperatura, para conocer el ajuste entre ambos parámetros de modo que se pueda utilizar el resto de la información de toda el área de la imagen de satélite.
Posteriormente, con el fin de identificar Islas de calor hacia espacios modificados por el humano, se tomaron distintos puntos que tuvieran superficies sin cobertura vegetal, por ejemplo, centros comerciales y aeropuerto, del mismo modo se tomaron puntos de áreas con mayor cobertura vegetal. Al tener la temperatura superficial terrestre dada por la imagen de satélite en cada una de las fechas antes mencionadas para los puntos deseados se realizó el promedio de los puntos de zonas modificadas y de las zonas con cobertura vegetal respectivamente. Finalmente, se obtuvo una diferencia entre ambos promedios para comprobar y conocer cuántos grados incrementa la temperatura hacia las zonas con menor cobertura vegetal.
CONCLUSIONES
Durante la estancia se logró obtener conocimientos acerca del fenómeno Isla de Calor Urbana, del manejo de datos de Estaciones Meteorológicas Automáticas y procesamiento de imágenes de satélite. Se obtuvieron las correlaciones para dos ubicaciones de las estaciones automáticas entre la temperatura del aire y la temperatura superficial terrestre, con una correlación de 0.6 para ambas ubicaciones, por lo que se espera que para las estaciones restantes se obtenga una correlación similar.
Con respecto al proceso realizado entre las zonas modificadas y las zonas con cobertura vegetal se lograron obtener las diferencias de temperatura superficial terrestre, confirmando que las zonas modificadas tienen una mayor temperatura, siendo la mayor diferencia encontrada para uno de los días observados de 9.5 grados más que las zonas que conservan la cobertura vegetal.
Hernandez Reyes Gerardo, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor:Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara
SÍNTESIS Y CARACTERIZACIÓN DE PELÍCULAS DELGADAS DE CDS CON ADICIÓN DE PUNTOS CUÁNTICOS DE CARBONO POR EL MÉTODO DE DEPOSITO POR BAÑO QUIMICO (DBQ)
SÍNTESIS Y CARACTERIZACIÓN DE PELÍCULAS DELGADAS DE CDS CON ADICIÓN DE PUNTOS CUÁNTICOS DE CARBONO POR EL MÉTODO DE DEPOSITO POR BAÑO QUIMICO (DBQ)
Hernandez Reyes Gerardo, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Como resultado de las actividades humanas en procesos industrializados se tiene la liberación de miles de toneladas de residuos orgánicos en el ambiente, por lo que la desintegración de estos residuos es un proceso que requiere altas cantidades de energía y en el caso de la incineración emite gases tóxicos y de efecto invernadero en la atmosfera; Por ende los esfuerzos e investigaciones en el sector de ciencia e ingeniería apuntan a buscar un aprovechamiento de susodichos residuos orgánicos. Uno de los elementos más comunes presentes en los residuos orgánicos es el carbono, que por sus propiedades a escala nanométrica resulta idóneo para la creación de nanoestructuras conocidas como puntos cuánticos (QDT), partículas que por su tamaño y confinamiento cuántico presenta llamativas propiedades electrónicas y ópticas que pueden utilizarse en dispositivos fotovoltaicos. Se ha demostrado que la adición de puntos cuánticos en películas semiconductoras optimiza la captación de energía solar, ya que el amplio rango de absorción de luz de estas nanoestructuras les permite captar fotones en longitudes de onda ultravioleta y emitir en el rango visible, por lo que su implementación en la ruta de síntesis por deposito en baño químico de películas semiconductoras de tercera y cuarta generación pretende ser beneficiosa para aplicaciones optoelectrónicas, puesto que las investigaciones actuales están centradas en obtener celdas solares a bajo costo, alta eficiencia y de fácil síntesis.
METODOLOGÍA
Para la creación de las nanoestructuras de carbono en el presente trabajo, se diluyeron 0,005 gr de polvo tamizado de cáscara de sandía deshidratada en 20ml de agua bidestilada, con 4 muestras diferentes de polvo: una sin tratamiento térmico y otras 3 con un tratamiento a 100, 200 y 400C durante 3 horas, se obtuvieron 4 disoluciones que posteriormente se dividieron en 8 disoluciones para aplicar un tratamiento de microondas a cuatro de ellas. Las propiedades de estas soluciones se analizaron mediante las espectroscopias UV-Vis y PL.
Como técnica de síntesis para la deposición de películas delgadas de sulfuro de cadmio, se eligió el método de deposito por baño químico debido a su fácil disponibilidad, partiendo de 10 ml de agua, ésta se mezcló con 2 ml de solución de cloruro de cadmio (CdCl2), 1 ml de hidróxido de amonio(NH₄OH), 2 ml de cloruro de amonio(NH4Cl) y 2 ml de tiourea(SC(NH2)2)bajo agitación constante durante 5 minutos para la deposición de 2 sustratos, uno con tratamiento de microondas y el otro con radiación ultravioleta durante 30 min. Este procedimiento se repitió sustituyendo el agua por la solución que contenía los puntos cuánticos con tratamiento a 200C debido a que demostró propiedades más óptimas en su proceso de caracterización. Finalmente, estas películas se caracterizaron utilizando también las espectroscopias UV-Vis y PL.
CONCLUSIONES
En cuanto a las soluciones de puntos cuánticos de carbono estas fueron caracterizadas haciendo uso del espectroscopio de fotoluminiscencia y el espectroscopio de luz ultravioleta observando que aquellas 2 soluciones sometidas a un tratamiento térmico de 400C no presentaban propiedades atractivas por lo que fue descartado su análisis; de tal manera que los resultados de las 6 muestras faltantes fueron procesados mediante graficas de fotolumiscencia y absorbancia en UV-VIS. En el aspecto de la fotoluminiscencia para las muestras con tratamiento a 100C fueron encontrados valores pico en un el rango de valores de 400 a 500nm que corresponden a una emisión del espectro visible de color azul y verde, en el caso de aquellas muestras sometidas a 200C estas poseen un rango más amplio de emisión con valores que van desde los 400 hasta los 550nm emitiendo luz azul y verde visible bajo la lámpara UV. Finalmente aquellas soluciones que no recibieron un tratamiento térmico presentan una emisión de 400 a 500nm pero con una intensidad de emisión menor, sin embargo cabe destacar que la muestra que recibió tratamiento MW presento una pequeña emisión entre 650-700nm correspondiente al color rojo
La adición de los puntos cuánticos de carbono en el sulfuro de cadmio (CdS) por el método de baño químico no demostró ser efectiva, por lo que únicamente se analizaron las dos películas de CdS con agua, encontrando que ambas emiten luz en longitudes de onda de 500 a 600nm, luz mayormente verde, y asimismo la película sometida a luz UV alcanza intensidades que superan las 4000 unidades con valores pico muy estables y similares.
Los datos analizados en el espectroscopio de UV visible encontraron un hombro en los puntos cuánticos cercano a los 200nm que según la literatura puede estar asociada al hombro n-π∗ que refleja la transición electrónica desde un orbital no enlazante a un orbital antienlazante en grupos funcionales con heteroatomos
Hernández Rodríguez Duviel, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla
DETECTORES DE CENTELLEO
DETECTORES DE CENTELLEO
García Hernández Danna Greeksaida, Universidad de Guadalajara. García Monroy Jorge Andrés, Benemérita Universidad Autónoma de Puebla. Hernández Rodríguez Duviel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Asesor: Dr. Lucio Fidel Rebolledo Herrera, Benemérita Universidad Autónoma de Puebla
Los plásticos centelladores son detectores de radiación que poseen la capacidad de transformar la radiación ionizante en fotones. Estos materiales centelladores se utilizan ampliamente en experimentos relacionados con el estudio de partículas y astro partículas, y también encuentran aplicación en el campo de la imagenología médica, desempeñando el papel de monitores de radiación en tecnologías como la Tomografía por Emisión de Positrones (PET). Por otro lado, estos materiales se combinan con dispositivos capaces de detectar los fotones emitidos y con la cualidad de generar corrientes eléctricas a partir de estos fotones, tales como los tubos fotomultiplicadores (PMT) o los fotomultiplicadores de silicio (SiPM).
Durante la estancia se caracterizó el voltaje de operación de dos fotomultiplicadores de silicio (SiPM) empleando un plástico centellador. Con el objetivo de que, al realizar nuevas mediciones, la señal detectada por ambos SiPM tengas amplitudes similares.
METODOLOGÍA
Preparación del plástico centellador
Inicialmente, se procedió a cortar cuidadosamente un fragmento de 38 cm de la barra de plástico centellador con una segueta, asegurando una velocidad de corte lenta para evitar un aumento significativo en la temperatura del material. Además, se prestó especial atención para lograr un corte recto y preciso, lo cual facilitaría los pasos posteriores de pulido y lijado en los extremos cortados del plástico.
Una vez extraída la barra más corta, se procedió a lijar los extremos de ésta, utilizando lijas de agua de diferentes granos, comenzando con la de grano 80 y progresando hasta la de grano 2000. Se tuvo un cuidado meticuloso durante el lijado, manteniendo un ritmo lento y asegurándose de que la cara de la barra de plástico que estaba siendo lijada no adquiriera curvatura, con el objetivo de lograr un acabado lo más recto posible en la superficie lijada.
En la etapa del pulido, se inició frotando suavemente cada extremo lijado con pasta de color rosa, empleando algodón y realizando movimientos circulares de manera lenta y cuidadosa. Posteriormente, según el criterio del responsable del pulido, se hizo uso de la pasta blanca, nuevamente aplicando algodón y realizando movimientos controlados. Este procedimiento se repitió hasta lograr un acabado óptimo y transparente en el plástico centellador.
A continuación, se utilizó un vernier digital para medir con exactitud la longitud de cada lado del SiPM, con el propósito de trazar en papel reflectante un marco que cubriera las caras pulidas del plástico, pero dejara al descubierto un cuadro con las dimensiones del SiPM. Una vez colocado y asegurado con cinta el marco en ambos extremos de la barra se procedió a forrar el cuerpo del plástico centellador con cartulina negra (con la intención de evitar el paso de luz visible por esta área y así evitar que ésta fuera detectada por el SiPM), excepto en el espacio previamente mencionado. Dicho espacio, al que denominamos "ventana", fue reservado para colocar posteriormente el SiPM.
Luego, se procedió a nombrar las tarjetas como "tarjeta 1" y "tarjeta 2", y se colocaron los detectores SiPM en cada extremo de la barra, asegurándolos con cinta de aislar. Acto seguido, se ubicó el arreglo sobre una base improvisada dentro de un espacio cerrado para evitar el paso de luz visible. Finalmente se conectaron los detectores a la fuente de alimentación y al osciloscopio.
Calibración de los detectores SiPM
Se inició la etapa de caracterización del voltaje de operación óptimo para los detectores SiPM. Para llevar a cabo esta fase, se emplearon dos fuentes radiactivas: Co60 y Sr90. La primera fue situada en las proximidades de la "tarjeta 1" sobre el plástico centellador y mediante la fuente de alimentación, se llevó a cabo un barrido de voltaje desde 30V (ya que es el voltaje máximo proporcionado por el fabricante) hasta 28V, disminuyendo en intervalos de 0.5V en cada paso. Simultáneamente, con el apoyo del osciloscopio y mediante un algoritmo realizado en Python 3.10, se adquirieron 10,000 pulsos para cada valor de voltaje. El mismo proceso se repitió para la "tarjeta 2" y para la fuente de Sr90.
Captura de datos
Tras la recopilación de los datos, se llevó a cabo la implementación de un algoritmo en Python haciendo uso de las bibliotecas os, glob, NumPy, scipy y matplotlib para procesar la información. Mediante este algoritmo, se determinaron tanto las amplitudes como las cargas de los 10,000 pulsos, y a partir de estos valores se calcularon los promedios. Estos promedios fueron empleados para realizar un ajuste lineal a través del método de mínimos cuadrados, el cual ayudaría para determinar el voltaje de operación de ambas tarjetas.
CONCLUSIONES
El propósito inicial era caracterizar la diferencia de tiempo entre los detectores SiPM, cuando la amplitud de la señal detectada por éstos superaba cierto valor dado, como función de la posición de la fuente radiactiva sobre la barra de plástico centellador. No obstante, al realizar pruebas con Sr90 y Co60, se observó que, debido a la gran longitud del plástico centellador, los fotones generados en su interior dejaban de ser detectados por los SiPM a una distancia aproximada de 3.7 cm para la tarjeta 1 y 4.5 cm para la tarjeta 2. Además, se encontró que los sensores SiPM presentaban diferentes sensibilidades, reflejadas en notables diferencias en los histogramas de amplitudes y cargas. Por esta razón, el objetivo del estudio se centró en la caracterización del voltaje de operación óptimo para los fotomultiplicadores de silicio. Tras realizar diversos análisis y procesamientos de las muestras capturadas con distintos voltajes, se seleccionaron los valores de 29.5V y 29.8V para las tarjetas 1 y 2, respectivamente, asegurando así, una sensibilidad similar para ambos SiPM. Así, al capturar nuevos pulsos, se obtendrán amplitudes y cargas consistentes sin importar la tarjeta empleada.
Agradecimientos al laboratorio de física médica de la Benemérita Universidad Autónoma de Puebla, por su constante apoyo y asesoría para la realización de este proyecto.
Hernández Torres Roberto Carlos, Universidad Autónoma de Zacatecas
Asesor:Dr. Francisco Joel Cervantes Lozano, Universidad de Guadalajara
CARACTERIZACIóN DE MODULADOR ELECTRO-óPTICO
CARACTERIZACIóN DE MODULADOR ELECTRO-óPTICO
Hernández Torres Roberto Carlos, Universidad Autónoma de Zacatecas. Asesor: Dr. Francisco Joel Cervantes Lozano, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
En este trabajo de investigación el objetivo principal será mostrar las propiedades físicas en un arreglo óptico donde se utilizará principalmente un modulador electro-óptico y un polarizador variable. Donde el modulador electro-óptico es herramienta que es capaz de cambiar o modular su índice de refracción mediante diferencia de potencial inducido. Esto hace que cambie la potencia de luz de salida según la diferencia de potencial inducida, y la orientación del polarizador. Mientras que el polarizador puede variar el ángulo de polarización, alterando la potencia de la luz ya modificada del modulador y mostrar en que región del ángulo de polarización la potencia puede ser modulada Ya que se hizo mediciones de la potencia de luz de salida respecto a fotogramas (4 fotos/segundo) a partir de grabaciones con duración de 1min para diferentes ángulos de polarización donde en cada medición se variaba la diferencia de potencial con el generador de funciones de manera senoidal. Se hizo un arreglo óptico con fibras ópticas, emisores de luz de longitud de onda de infrarrojo (1550nm), receptor de potencia lumínica a escala de nw y un generador de funciones, herramienta que tiene la capacidad de inducir una diferencia de potencial de diferentes maneras
METODOLOGÍA
o Introducción a Laser y Receptor
Empezar a desarrollar conocimientos y práctica utilizando el láser emisor de luz y el receptor, conocer sus diferentes funciones y el rango de funcionamiento más eficiente
o Introducción Fibras Ópticas
Empezar a desarrollar conocimientos y practica utilizando las fibras ópticas disponibles en el laboratorio y conectarlas al laser como al receptor de señales
o Introducción Osciloscopio y Generador de funciones
Empezar a desarrollar conocimientos y practica utilizando el osciloscopio y el generador de funciones, conocer las diferentes funciones y aplicaciones que tienen
o Montar laser en la estructura del polarizador
Empezar a colocar el emisor de luz con fibra óptica en la base plástica con el polarizador colocado el polarizador en la máxima transmisión de luz
o Montar arreglo anterior con receptor de luz
Montar el arreglo que hicimos con fibras ópticas al receptor de luz, y tratar de tener la máxima potencia posible, y así tener la máxima eficiencia posible
o Modulador electro-óptico
Empezaremos a montar el modulador electro-óptico a nuestro arreglo óptico mediante fibras ópticas, donde se utilizará adaptadores especiales para juntas las fibras ópticas
o Diferencia de potencial a modulador electro-óptico
Induciremos diferencia de potencial (voltaje) al modulador electro-óptico, lo que causara que el índice de refracción del cristal sea afectado y modifique las propiedades de la luz inducida y al mismo tiempo se conectara al osciloscopio
o Grabación y obtención de resultados
Con un dispositivo de grabar video empezaremos a filmar el arreglo óptico, específicamente el receptor de potencia de luz y el osciloscopio, para reproducirlos en cámara lenta y obtener los datos de subida y bajada de potencial según el voltaje inducido
CONCLUSIONES
Podemos concluir que el experimento fue satisfactoriamente concluido y analizado, se hicieron varias mediciones y cada representación grafica de los resultados se mostraba un comportamiento senoidal que podía ser ajustado y como no variaba la frecuencia en la toma de resultados, observando en la toma de datos máximos y mínimos aproximadamente en las mismas zonas de toma de datos. Podemos concluir que el experimento fue un éxito ya que se pudo caracterizar el modulador electroóptico para diferentes ángulos de polarización y analizar el comportamiento en términos de la potencia lumínica recibida
Hernandez Yep Jorge Nefi, Instituto Tecnológico de Morelia
Asesor:Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
AVANCES EN LA CONSTRUCCIóN Y LOS MATERIALES DE CONSTRUCCIóN: EXPLORANDO LA INFLUENCIA DEL ACERO EN EL MODULO ELáSTICO Y CARBONATACIóN DEL MORTERO
AVANCES EN LA CONSTRUCCIóN Y LOS MATERIALES DE CONSTRUCCIóN: EXPLORANDO LA INFLUENCIA DEL ACERO EN EL MODULO ELáSTICO Y CARBONATACIóN DEL MORTERO
Hernandez Yep Jorge Nefi, Instituto Tecnológico de Morelia. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Planteamiento del problema
El sector de la construcción evoluciona constantemente y los avances en los materiales de construcción desempeñan un papel clave. Un área de interés es la integración del acero, concretamente la escoria de acero, en las formulaciones de mortero para aumentar su propiedad de módulo elástico y conseguir estructuras más resistentes y duraderas. Sin embargo, variables como el tipo de acero y su composición pueden influir en los resultados. También debe tenerse en cuenta el proceso de carbonatación, ya que afecta a los niveles de pH del hormigón o el mortero debido a la reacción con el CO2 atmosférico.
Comprender la influencia del acero en la carbonatación del mortero es crucial para determinar su eficacia general y su longevidad como material de construcción. Sin embargo, a pesar de las investigaciones en curso, los conocimientos de las afectaciones del acero estan dispersos. Esto limita el uso eficaz del acero en los materiales de construcción dentro de la industria y dificulta el desarrollo de normas y reglamentos relacionados.
METODOLOGÍA
Metodología de la investigación:
Se realizará una exhaustiva revisión bibliográfica para investigar los efectos del acero en las propiedades del mortero, con especial atención al módulo elástico y al proceso de carbonatación. Se emplearán bases de datos académicas como Google Scholar, JSTOR y ScienceDirect, utilizando palabras clave como "acero en el mortero", "módulo elástico", "carbonatación" y "materiales de construcción".
Se procederá a la extracción de datos relevantes de cada estudio identificado, incluyendo el tipo de acero utilizado, la composición del mortero, el método de incorporación del acero al mortero, los efectos observados en el módulo elástico y el proceso de carbonatación, y cualquier otro hallazgo relevante.
Los datos extraídos serán analizados para identificar patrones, relaciones y tendencias, con el objetivo de comprender mejor cómo influye el acero en las propiedades del mortero.
Se llevará a cabo un estudio comparativo de los distintos tipos de acero y composiciones de mortero utilizados en los estudios revisados, con el fin de evaluar sus efectos sobre el módulo elástico y el proceso de carbonatación.
Los resultados de los distintos estudios serán sintetizados para crear una visión global de los conocimientos actuales sobre los efectos del acero en las propiedades del mortero.
Se identificarán lagunas de conocimiento a través de la síntesis, señalando posibles áreas que podrían ser abordadas en futuras investigaciones.
Se formularán recomendaciones para el uso eficaz del acero en el mortero, basándose en las conclusiones de la revisión bibliográfica, la extracción de datos, el análisis de datos y la síntesis. Se enfocarán en la optimización del módulo elástico y la minimización de la carbonatación.
Toda la información recopilada y las conclusiones obtenidas serán plasmadas en un informe exhaustivo, que proporcionará una visión detallada del estado actual de los conocimientos sobre el uso del acero en el mortero. Asimismo, se incluirán recomendaciones para futuras investigaciones y prácticas en la industria de la construcción.
Cabe destacar que esta metodología se enfoca en la recopilación, análisis y síntesis de la investigación existente, sin implicar una nueva investigación experimental. No obstante, se espera que contribuya al uso más eficaz del acero en el mortero, proporcionando directrices claras y señalando áreas para futuras investigaciones en el campo.
CONCLUSIONES
Conclusiones
La revisión bibliográfica y el análisis de los datos revelaron que el tipo de acero y la composición del mortero tienen una influencia significativa en el módulo elástico y la velocidad de carbonatación. Se encontraron variaciones en la composición de la escoria de acero, con porcentajes fluctuantes de CaO (20-60%), SiO2 (6-23%), Al2O3 (2-14%), MgO (3-15%) y FeO-Fe2O3 (15-30%) [1], lo que puede afectar de manera considerable las propiedades del mortero.
La temperatura se identificó como un factor crítico que afecta al proceso de carbonatación. Los estudios indicaron un aumento de la carbonatación al elevar la temperatura de 25 a 175 °C, pero una disminución cuando la temperatura superaba los 200 °C [2].
El estudio también reveló que el proceso de carbonatación no está exclusivamente controlado por la difusión de CO2, sino que se ven afectados por factores como la humedad, la temperatura y la estructura de los poros [3]. Se observó que la presencia de agua en la superficie de la escoria es crucial para el proceso de carbonatación, lo que sugiere que mantener niveles óptimos de humedad es vital cuando se utiliza acero en mortero.
Además, se encontró un punto de inflexión en el proceso de carbonatación del mortero, en el cual el aumento de masa por carbonatación supera la pérdida de masa por evaporación de agua [4]. Esto indica que el proceso de carbonatación evoluciona con el tiempo, lo que tiene implicaciones para la durabilidad a largo plazo y la integridad estructural.
A pesar de estos hallazgos, se identificaron varias lagunas en los conocimientos actuales, como la falta de comprensión global de los efectos a largo plazo de la carbonatación en el mortero reforzado con acero y la necesidad de seguir investigando sobre la composición óptima del mortero para los distintos tipos de acero.
Basándose en los hallazgos, se formularon recomendaciones para el uso eficaz del acero en el mortero con el objetivo de optimizar el módulo elástico y controlar el proceso de carbonatación. Las conclusiones de esta investigación, basadas en datos técnicos, tienen implicaciones significativas para la industria de la construcción y proporcionan una base sólida para futuras investigaciones sobre este tema.
Herrera Sánchez Daniela Aime, Universidad Autónoma de Guerrero
Asesor:Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
ESTIMACIóN DE LA VULNERABILIDAD A LA LICUEFACCIóN EN PUERTO VALLARTA.
ESTIMACIóN DE LA VULNERABILIDAD A LA LICUEFACCIóN EN PUERTO VALLARTA.
Herrera Sánchez Daniela Aime, Universidad Autónoma de Guerrero. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La licuefacción se describe como el comportamiento de suelos que, estando sujetos a la acción de una fuerza externa, en ciertas circunstancias pasan de un estado sólido a un estado líquido, o adquieren la consistencia de un líquido pesado. Por lo tanto, este fenómeno se presenta cuando ciertos tipos de suelos con características específicas son expuestos al movimiento por el paso de las ondas sísmicas. El área de estudio, la ciudad de Puerto Vallarta se encuentra en una zona con importante actividad sísmica, además la actividad de ríos, playas y esteros produce suelos que pueden comportarse de forma licuable.
METODOLOGÍA
Por lo tanto, en necesario medir la vulnerabilidad a la licuefacción. Para medir la probabilidad de licuefacción de el suelo, existen distintos métodos, en este caso nos basamos en el método de penetración estándar (SPT). Este consiste en medir la capacidad de carga del suelo a una cierta profundidad. El ensayo contabiliza el número de golpes necesarios para introducir una toma muestras tubular de acero hueco, mediante una maza de 63.5 kg que cae desde una altura de 76.2 centímetros.
CONCLUSIONES
Para conocer el porcentaje de probabilidad de licuación del suelo, aplicamos una metodología en la cual seguimos una serie de ecuaciones: la corrección de numero de golpes, la corrección de esfuerzo efectivo en la que utilizamos la ecuación de Terzaghi y Peck, la corrección de relación de esfuerzos cíclicos (CSR), la relación de resistencia cíclica (CRR), el potencial de licuación o factor de seguridad (FS) y finalmente la probabilidad de licuación (PL).
Huerta Espinoza Federico de Jesús, Universidad de Guadalajara
Asesor:Post-doc Jorge Andrés Ramírez Rincón, Fundación Universidad de América
SEGMENTACIóN SEMáNTICA Y ANáLISIS
COLORIMéTRICO PARA IMáGENES HSI-RGB
SEGMENTACIóN SEMáNTICA Y ANáLISIS
COLORIMéTRICO PARA IMáGENES HSI-RGB
Huerta Espinoza Federico de Jesús, Universidad de Guadalajara. Asesor: Post-doc Jorge Andrés Ramírez Rincón, Fundación Universidad de América
PLANTEAMIENTO DEL PROBLEMA
El CIE L*a*b* (CIELAB) es el modelo cromático usado normalmente para describir los colores que puede percibir el ojo humano. Los tres parámetros en el modelo representan la luminosidad de color (L*, L*=0 rendimientos negro y L*=100 indica blanca), su posición entre rojo y verde (a*, valores negativos indican verde mientras valores positivos indican rojo) y su posición entre amarillo y azul (b*, valores negativos indican azul y valores positivos indican amarillo).
El modelo de color Lab ha sido creado para servir como referencia, independiente del dispositivo utilizado. Matemáticamente se describe como un espacio tridimensional en el cual la posición de un punto representa un color, y la distancia entre dos o más puntos sus diferencias de color.
El sistema de definición cromática de Pantone es el más reconocido y utilizado en la industria para cuantificar las propiedades cromáticas de diferentes tipos de muestras. El sistema se basa en una paleta o gama de colores a partir de la cual es posible obtener mezclas de tintas para su uso a nivel comercial.
Matemáticamente se ha definido una estructura matricial pasar realizar representaciones del espacio sRGB (cámaras digitales) al CIELAB; sin embargo, para Pantone esto no es posible y es necesario deducir o construir su propia matriz de transformación. Esto nos permitiría obtener un color digital que replique un color físico de la galería Pantone. De esta manera, se tendría una forma eficaz para clasificar y visualizar colores en cualquier tipo de fotografía.
METODOLOGÍA
Se tomaron 19 paletas de Pantone TCX del año 2007, de las cuales se tomaron 9 tipos de colores de cada una como referencia. De estas 171 telas se sustrajeron los respectivos valores de sRGB (imagen RGB) y Lab (Imagen hiperespectral), con lo cuales dedujeron los valores para el espacio XYZ. Después, mediante un programa elaborado en Python, se usaron 4 matrices de transformación para determinar cuál de ellas realiza la mejor representación de los códigos Pantone. Estos valores de x, y y z se registraron para ver las diferencias con los valores teóricos de Pantone. Después de ello, se intentó deducir una matriz de transformación totalmente confiable para pasar de un espacio a otro, esto sin lograr éxito.
Por último, se tomaron fotos a las 19 paletas con una cámara hiperespectral y con un celular común; estas fotos se subieron a un repositorio para usarlas en un programa en python de segmentación, el cual, en base a un color blanco de referencia, nos otorga los valores de RGB y Lab de cada color. Estos datos se compararon entre sí y con los valores teóricos de Pantone.
CONCLUSIONES
Durante la estancia del verano de investigación delfín se logró adquirir conocimientos sobre la teoría del color y los espacios de color, además de sus aplicaciones en la ciencia y la industria. Al ser un extenso trabajo aún se encuentra en desarrollo gracias a los avances que se otorgaron al investigador. Se espera poder tener más información sobre las relaciones entre los espacios de color Pantone y Lab, así como la mejora y optimización del programa de segmentación de colores.
Iñiguez Gonzalez Eduardo Israel, Universidad de Guadalajara
Asesor:Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara
SIMULACIóN DE PHEVS EN UN ENFOQUE METAHEURíSTICO: CROW SEARCH ALGORITHM
SIMULACIóN DE PHEVS EN UN ENFOQUE METAHEURíSTICO: CROW SEARCH ALGORITHM
Iñiguez Gonzalez Eduardo Israel, Universidad de Guadalajara. Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El dióxido de carbono (CO2) es el principal gas contaminante emitido por la quema de combustible fósil. El uso del combustible fósil dentro del sector de transporte representa alrededor del 25% de las emisiones de CO2 en todo el mundo, al mismo tiempo que representa más del 55% del consumo mundial de petróleo. Sin embargo, se ha demostrado que los vehículos eléctricos son la clave para reducir de forma significativa tanto las emisiones de contaminantes del efecto invernadero como la dependencia del petróleo como combustible para el transporte. Como resultado, los PHEV (Plug-in Hybrid Electric Vehicles) han recibido una mayor atención relacionada con su baja emisión de contaminantes y bajo costo de energía en general. Como consecuencia, se espera una carga enorme en el mercado de los PHEV; sin embargo, un aumento drástico en el uso de los PHEV puede causar varios problemas técnicos que podrían comprometer la estabilidad de los sistemas de energía. Como resultado, se necesita una optimización en las infraestructuras de carga de los PHEVs.
Como posibles soluciones, se plantearon el usó de varios métodos de optimización de enjambre (como Gravitation Search Algorithm (GSA) o el método de Particle Swarm Optimization (PSO)) los cuales se han aplicado en la optimización del State of Charge (SoC), que es uno de los indicadores de rendimiento más importantes en la distribución inteligente de energía de los PHEVs.
Sin embargo, la mayor problemática que se presentan en este tipo de métodos de optimización es que están sujetos a varias fallas críticas, como la convergencia prematura y la falta de equilibrio entre la exploración global y la exploración de soluciones, este tipo de problemas está relacionado con los operadores evolutivos empleados por los métodos en la exploración global y la exploración de nuevas soluciones. Por lo que durante el verano de investigación científica se abordó la implementación de un algoritmo metaheurístico más reciente (Crow Search Algorithm o CSA) en el que se estudian sus resultados y se compara en relación a los anteriores algoritmos implementados.
METODOLOGÍA
Para poder abordar el problema de asignación de energía en los PHEV´s en los parques de cargado supongamos que hay una estación de carga con una capacidad de potencia total P diseñada específicamente para cargar Vehículos Híbridos enchufables (PHEV). El objetivo principal es asignar energía inteligentemente para cada PHEV individual que llega a la estación de carga. Para ello, es necesario considerar cada Estado de Carga (SoC) de PHEV. El SoC de cada vehículo cambia constantemente como resultado del proceso de carga, por lo tanto, es necesario realizar un seguimiento de dichos cambios para asignar el poder de manera efectiva. Por lo tanto, cada SoC actual del vehículo representa el parámetro principal que debe maximizarse para garantizar una adecuada asignación de energía. Para ello, una función objetivo que tiene en cuenta varias restricciones (como el tiempo de carga, el SoC actual y el precio de la energía) se considera para maximizar la de Estado de carga medio.
Para el proyecto, se decidió trabajar con el algoritmo Crow Search Algorithm (CSA) para maximizar el SoC promedio de los PHEV dentro de una estación de carga. En el experimento se consideraron diferentes escenarios que consistían en diferentes números de PHEV. Para probar la viabilidad del enfoque propuesto, se realizaron experimentos comparativos con los enfoques de maximización del estado de carga de otros PHEVs populares basados en métodos de optimización. El Crow Search Algorithm (CSA) es un nuevo método metaheurístico basado en la población. La idea detrás de este algoritmo es simular el comportamiento de un grupo de cuervos en busca de comida y aplicarlo para resolver problemas de optimización. El CSA es bastante simple con solo dos parámetros ajustables, lo que a su vez lo hace muy atractivo para aplicaciones en diferentes áreas de ingeniería. La principal motivación de usar el algoritmo CSA es que es una herramienta de optimización fácil de usar tanto para usuarios novatos como expertos.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la implementación de algoritmos metaheurísticos en problemas de ingeniería. el cual se logró poner en práctica en la optimización de parques de cargado para PHEVs para mejorar la asignación inteligente de energía para los PHEV.
Los resultados obtenidos en la configuración experimental muestran que el enfoque de maximización de SoC basado en el CSA propuesto, tiene un rendimiento óptimo en comparación con otros métodos.
Inzunza Bejarano Roberto Carlo, Universidad de Guadalajara
Asesor:Dra. Maria Elena Tejeda Yeomans, Universidad de Colima
CONOCIENDO EL EXPERIMENTO ICECUBE CON EL PARTICLE PHYSICS PLAYGROUND.
CONOCIENDO EL EXPERIMENTO ICECUBE CON EL PARTICLE PHYSICS PLAYGROUND.
Inzunza Bejarano Roberto Carlo, Universidad de Guadalajara. Asesor: Dra. Maria Elena Tejeda Yeomans, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
Con objetivo de conocer, entender y recrear eventos de detección de neutrinos en el experimento IceCube localizado en el Polo Sur, se utilizaron herramientas del Particle Physics Playground que permiten empezar y familiarizarse con el funcionamiento del proyecto IceCube, el cual consiste en miles de módulos ópticos digitales, que cuentan con fotomultiplicadores capaces de detectar luz emitida las colisiones de neutrinos con los protones y electrones del agua, cuyos datos son emitidos al ICL (IceCube Lab) para su análisis.
METODOLOGÍA
Se hizo uso de la actividad de Particle Physics Playground dedicada al experimento IceCube; dicha página permite una introducción a diversos conceptos básicos de la física de partículas, presentando simulaciones y actividades que ayudarán en dicho entendimiento.
El uso de Google Colab también fue llevado a cabo para poder obtener los análisis disponibles, así como el código se trabajó en lenguaje Python.
Se seleccionó uno de los eventos disponibles en los datos, para a raíz de esto, empezar a escribir un código que permitiese distintas visualizaciones de los datos proporcionados.
Uno de los principales objetivos es la visualización gráfica en 3 dimensiones de uno de los eventos, así como obtener gráficas de frecuencia de valores de cargas detectadas, y la cantidad de colisiones en cada momento del evento.
CONCLUSIONES
Fue posible obtener la visualización gráfica del evento, la cual permite obtener más información acerca de la detección del evento; como por ejemplo la trayectoria del neutrino, así como los valores de carga detectados por los fotomultiplicadores.
La modelación 3D de los eventos en el proyecto IceCube permite un entendimiento de cómo llega a funcionar, y cómo pueden trabajarse los datos que obtiene. Esto deja un mayor aprendizaje y obtención de experiencia al trabajar con Python.
La actividad es útil como introducción a la física de partículas, y puede despertar interés en sumarse a su estudio, así como al de la astrofísica. Esto debido a que, para su correcto entendimiento, se es necesario el estudio de conceptos que pueden no haberse escuchado antes.
Inzunza Lugo Alejandra, Universidad Autónoma de Sinaloa
Asesor:Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
DOSIMETRíA EN FANTOMA Y USO DE MATERIALES CRISTALINOS EN DOSIMETRíA.
DOSIMETRíA EN FANTOMA Y USO DE MATERIALES CRISTALINOS EN DOSIMETRíA.
Hernández Carrillo Anette Sofía, Universidad Autónoma de Ciudad Juárez. Inzunza Lugo Alejandra, Universidad Autónoma de Sinaloa. Morelos Lozada Jesus, Instituto Politécnico Nacional. Ochoa Sánchez Daniela, Universidad de Guadalajara. Salgado Díaz America, Universidad Autónoma del Estado de México. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La radioterapia es un tratamiento esencial en la lucha contra el cáncer, pero es crucial garantizar que la dosis de radiación se administre con precisión en el área objetivo y se minimice la exposición en tejidos circundantes. Para ello, se utilizan dosímetros para medir la distribución de la radiación y evaluar la eficacia del tratamiento. Además, es relevante investigar y seleccionar los materiales cristalinos más adecuados para desempeñar esta función de dosimetría.
El objetivo de este estudio es analizar la distribución de la radiación en un fantoma durante la radioterapia y evaluar la eficacia de diferentes materiales cristalinos como dosímetros.
METODOLOGÍA
1. Se prepararon dosímetros, dispositivos diseñados para medir la dosis de radiación absorbida.
2. Se colocó el fantoma, que es una simulación de un paciente, en un acelerador lineal para simular un tratamiento de cáncer cervico-uterino.
3. Se distribuyeron los dosímetros en posiciones estratégicas dentro del fantoma.
4. Se programó el equipo del acelerador lineal para administrar la dosis de radiación de acuerdo con el tratamiento simulado.
5. Se realizaron mediciones y análisis de los resultados obtenidos por los dosímetros para evaluar la distribución de la radiación en el fantoma.
Materiales cristalinos:
1. Se seleccionaron compuestos químicos y se prepararon con sus respectivos dopantes para actuar como materiales cristalinos para dosimetría.
2. Se identificaron los cristales preparados y se los preparó para la lectura de sus respuestas a la radiación.
3. Se programó el equipo necesario para llevar a cabo la lectura de los cristales y obtener resultados de dosimetría.
4. Se analizaron los resultados obtenidos por los materiales cristalinos para evaluar su eficacia como dosímetros.
CONCLUSIONES
1. Distribución de la radiación en el paciente: Se observó que la dosis de radiación recibida por el paciente durante el tratamiento depende del tamaño del tumor y de la energía empleada. Es fundamental garantizar una distribución precisa de la radiación para evitar daños innecesarios en tejidos sanos circundantes.
2. Importancia de la precisión en las mediciones: Se recomienda tomar dosímetros del mismo lote para asegurar la precisión y consistencia en las medidas de dosimetría. La exactitud en la administración de la dosis es esencial para mejorar la efectividad del tratamiento y evitar posibles complicaciones.
3. Protocolos de radioterapia personalizados: Se sugiere la implementación de nuevos protocolos de radioterapia que se adapten a las características individuales de cada paciente. Un enfoque personalizado puede aumentar la efectividad del tratamiento y reducir los efectos secundarios.
4. Reducción de la radiación en zonas periféricas: Se propone desarrollar instrumentos y materiales superficiales para disminuir los niveles de radiación en las áreas circundantes del tumor. Esto puede ayudar a evitar el riesgo de desarrollar un segundo cáncer en tejidos cercanos a la zona tratada.
5. Eficacia de los materiales cristalinos: Los materiales cristalinos, en particular, los LaAl03 dopados con Dy o Pr, mostraron una alta respuesta termoluminiscente (TL). Estos materiales demostraron ser excelentes para capturar la energía absorbida en los centros de trampa, lo que los convierte en opciones prometedoras para su uso como dosímetros.
En conclusión, este estudio destaca la importancia de la dosimetría en fantoma y el uso de materiales cristalinos en dosimetría para garantizar la precisión y efectividad de los tratamientos de radioterapia. La investigación continua en este campo puede conducir a mejoras significativas en el cuidado y el tratamiento de pacientes con cáncer.
Jacobo Márquez Helen Sharoni, Instituto Politécnico Nacional
Asesor:Dra. Diana Madelen Galindres Jiménez, Fundación Universidad de América
ELABORACIóN DE UNA GOMA DE MASCAR A PARTIR DE PROTEíNAS INSOLUBLES EXTRAíDAS DE HARINAS DE CEREALES
ELABORACIóN DE UNA GOMA DE MASCAR A PARTIR DE PROTEíNAS INSOLUBLES EXTRAíDAS DE HARINAS DE CEREALES
Jacobo Márquez Helen Sharoni, Instituto Politécnico Nacional. Asesor: Dra. Diana Madelen Galindres Jiménez, Fundación Universidad de América
PLANTEAMIENTO DEL PROBLEMA
Alrededor del mundo la goma de mascar es un producto muy popular además de comercial, en los últimos tiempos, la sociedad disfruta de la goma de mascar como dulce y como una alternativa al tabaco, además de ser utilizada como ayuda a la higiene oral.
Las materias primas utilizadas comúnmente, no sintéticas, se obtienen a partir de látex natural que proviene de la savia del tronco de los árboles. Por otro lado, las sintéticas, que se emplean en mayor medida, suelen ser elastómeros de origen petroquímico. Debido a la dificultad de la extracción del látex, el uso de gomas sintéticas se ha masificado. Además, se puede realizar la extracción de látex cada seis o siete años por árbol. Durante mucho tiempo, esta fase insoluble en agua no es biodegradable y permanece en el medio ambiente, siendo un factor de contaminación medioambiental. Para un chicle tradicional, la base de goma está compuesta principalmente por derivados del petróleo (acetato de polivinilo), estos derivados causan su descomposición en un periodo de 5 años, lo cual afecta al medio ambiente.
Por lo tanto, surge la necesidad de desarrollar una goma de mascar biodegradable, con el objetivo de reducir en gran medida el impacto ambiental, durante el periodo de la estancia de investigación se estudió una alternativa natural para el chicle tradicional, para lo cual se realizó la formulación de la goma, se estudiaron diversas variables como el uso de diferentes plastificantes, las proteínas obtenidas de harina de trigo y de centeno, uso de diferentes saborizantes, se estudió el efecto térmico y el tiempo de agitación en el proceso para la obtención de una goma de mascar.
METODOLOGÍA
Se realizaron 4 formulaciones distintas de gomas de mascar (cada una con un tipo diferente de plastificante y de harina).
Para la extracción de las prolaminas se realizó una mezcla proporción 3/1 (volumen de etanol 70%/peso de harina). La mezcla resultante se sometió a agitación durante 2 horas a 400 rpm en un agitador mecánico, posteriormente se realiza centrifugación con la solución obtenida para separar la fase liquida y la fase sólida. La fase liquida se coloca en un rotavaporador al vacío con rotación de 80 rpm y 50 °C, para que por medio de destilación se separe el solvente (etanol) de la muestra. La fase solida se somete a dos batch con las mismas condiciones (reutilizando el etanol obtenido de la fase liquida en el rotavaporador y posteriormente darle el mismo tratamiento a la fase liquida obtenida) esto con el fin de obtener todas las prolaminas de la harina de centeno.
Una vez que la fase líquida paso por el rotavaporador se deja precipitar 24 horas para posteriormente por decantación obtener un sólido con textura viscosa, el residuo obtenido se filtró pasando agua fría (esto para la precipitación de las prolaminas) y se secó a 50 °C en una cámara climática durante 48 horas. Finalmente, el producto obtenido se llevó a un tamaño de partícula menor con un mortero, una vez que la muestra se encontrara lo más reducida posible se somete a realizar la formulación con diferentes plastificaciones, siguiendo el procedimiento que se encuentra a continuación.
Para extraer la fracción proteica insoluble de la harina tanto de trigo como de centeno, se realizó una mezcla en proporción 1/5 (volumen de etanol 70%/peso de harina). La mezcla resultante se sometió a agitación durante 20 minutos a 1000 rpm en un agitador mecánico, una vez obtenida una mezcla homogénea se detenía la agitación para posteriormente meter la mezcla en el microondas por 20 segundos para precalentar el etanol y fuera más fácil su extracción. Una vez precalentada la mezcla se sometió nuevamente a agitación en las mismas condiciones de operación para la agitación, ajustando a una temperatura de 55°C.Durante el proceso se monitoreó la temperatura de la mezcla, de tal forma que la mezcla no sobrepasará los 60°C, durante el proceso se fueron añadiendo los siguientes ingredientes siguiendo el mismo orden durante todas las experimentaciones: Sorbitol, Glicerina o PEG, Saborizante, Colorante, Lecitina, Xilitol. Alcanzando los 55°C se adiciona la Margarina y se deja mezclando 30 minutos para que se integren todos los ingredientes y la goma de mascar empiece a tomar forma.
Finalmente, el producto obtenido se dividía en dos para posteriormente a una de ellas realizarle un lavado (esto en base al estudio realizado por McGowan, et al.) y mientras que a la otra parte de la muestra se dejaba sin lavados para posteriormente analizar ambas muestras, en el caso de la muestra a la que se le realiza el lavado, la muestra se vierte en un vaso de precipitado, que contenía 100 ml de agua purificada fría con una agitación constante durante 15 segundos.
CONCLUSIONES
Con este estudio se demostró la factibilidad de usar trigo y centeno para la goma base natural, la cual se espera que tenga una reducción en el tiempo de degradación posterior a su consumo (según los estudios realizados, aproximadamente 60 días), a nuestra percepción la que tiene mayor aceptabilidad es la goma hecha a base en su totalidad de trigo, esto debido a su sabor y su textura; mientras que la de centeno presento un sabor y textura no favorable.
Una vez que se decidió que la goma base fuera hecha en su totalidad de fracción proteica insoluble de trigo, se realizaron pruebas cambiando los plastificantes (Glicerina USP y Polietilenglicol) se determinó que la formulación que contenía propilenglicol tenia sabores desagradables, es decir, amargo. La formulación que contenía glicerina según nuestra percepción fue la que tuvo mejor sabor y textura. Con respecto a los lavados como anteriormente se menciona en la metodología, las muestras a las que se les realizo el lavado y a las que no presentaron una textura y color muy similar, sin embargo, la que no tuvo lavados guardaba más el saborizante, eso quiere decir que al realizar el lavado parte del saborizante se iba en el lavado. Por lo cual concluimos que se logró la elaboración de un prototipo de goma de mascar biodegradable a partir de harina de trigo y como plastificante glicerina, dando resultados muy favorables, se espera posteriormente realizar pruebas en SEM, Espectroscopia infrarroja y humedad para verificar que estamos dentro de las normas.
Jaime Esparza Claudia Gabriela, Universidad de Guadalajara
Asesor:Mg. Angie Rocio Melo Casas, Universidad Católica de Colombia
ANáLISIS DEL UNIVERSO COMO SISTEMA DINáMICO (MODELO SIMPLIFICADO).
ANáLISIS DEL UNIVERSO COMO SISTEMA DINáMICO (MODELO SIMPLIFICADO).
Jaime Esparza Claudia Gabriela, Universidad de Guadalajara. Asesor: Mg. Angie Rocio Melo Casas, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
Uno de los objetivos de la cosmología es estudiar la evolución del Universo y saber de qué está compuesto. Una de las soluciones más importantes de las ecuaciones de Einstein para la cosmología son las ecuaciones de Friedmann. Estas ecuaciones describen un universo homogéneo e isotrópico (es decir, con propiedades iguales en todas las direcciones) y en expansión. Las ecuaciones de Friedmann vinculan la tasa de expansión del universo con su contenido de masa y energía, permitiendo modelar la evolución del cosmos a lo largo del tiempo.
Al considerar el Universo como un sistema dinámico, es posible usar las ecuaciones de Friedmann y otros métodos matemáticos para entender cómo ha cambiado el universo desde su inicio y cómo se ha estructurado a lo largo del tiempo.
METODOLOGÍA
Para construir las ecuaciones que modelan al universo, se toman las ecuaciones de Einstein a las que se agrega la constante cosmológica Lambda, que corresponde físicamente a la densidad de energía del espacio vacío. Partiendo de esto, con el tensor energía momento y la métrica de Robertson-Walker, se llega a las ecuaciones de Friedmann. Analizaremos la solución de estas ecuaciones adaptándolas a un sistema de ecuaciones diferenciales donde se toman como variables 4 fluidos que se consideran que son los que conforman el Universo: materia relativista, materia bariónica, materia oscura y la constante cosmológica. A partir de esto, manipularemos el sistema mediante un proceso de linealización y así llegar fácilmente a la interpretación de la evolución en el tiempo de los fluidos.
CONCLUSIONES
Los resultados obtenidos nos muestran lo siguiente:
Un punto inestable: debido a que los signos de sus valores propios son positivo, el sistema tiende a alejarse de este punto. Representa un estado del pasado del Universo, descrito como una etapa con dominancia total de materia relativista (radiación). En la teoría de la
cronología de la evolución del universo, la era dominada por radiación sucedió despues del proceso de inflación y se constituía principalmente de fotones y neutrinos.
Tres puntos silla: las trayectorias inicialmente tienden a esos puntos
pero después divergen de él, son puntos inestables y se dan cuando los valores propios tienen signos distintos. Físicamente representan dominación de materia oscura, materia bariónica y ambas respectivamente. En los 3 casos, la densidad de materia no relativista excede la densidad de energía de radiación y de energía del vacío. En la cronología de la evolución del universo se dice que en esta era se da el proceso de recombinación cuando los electrones y protones comenzaron a formar átomos de hidrógeno y los fotones terminaron de formar la energía del fondo de microondas.
Un punto estable: el sistema tiende a este punto y ya no evoluciona al llegar. Representa una dominancia de la Constante Cosmológica, también se le llama la era dominada por Energía Oscura. Se caracteriza por una expansión acelerada del Universo dado
por el factor de escala a(t).
A partir de una solución conocida a la ecuación de Einstein, que son las ecuaciones de Friedmann, se obtuvo una representación de la evolución del Universo como sistema dinámico. Considerando 4 diferentes componentes del Universo se pudo ver cómo estos se relacionan, el tipo de materia que predomina y qué consecuencia tiene sobre todo el sistema, luego se observó la estabilidad del Universo comforme a sus componentes y por lo tanto la tendencia de su evolución.
Jaramillo Tepal Antonio Zaid, Instituto Tecnológico de Puebla
Asesor:Dr. David Ignacio Serrano García, Universidad de Guadalajara
CáMARA SENSIBLE A LA POLARIZACIóN DE LA LUZ.
CáMARA SENSIBLE A LA POLARIZACIóN DE LA LUZ.
Jaramillo Tepal Antonio Zaid, Instituto Tecnológico de Puebla. Lares de la Torre Roberto Alejandro, Universidad de Guadalajara. Villalobos Hernandez Diana Sofia, Universidad de Guadalajara. Asesor: Dr. David Ignacio Serrano García, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Las ondas electromagnéticas, o comúnmente llamados rayos de luz, naturalmente viajan a través del espacio oscilando de manera aleatoria en todos los planos perpendiculares a la dirección de propagación. En ciertas ocasiones, cuando estos entran en contacto con objetos que restringen a que parte de los rayos oscilen en un solo plano, se dice que la luz esta polarizada.
Existen tres tipos diferentes de polarización. La lineal, que ocurre cuando el campo eléctrico de la onda oscila en una sola dirección. Circular, que se da cuando la onda electromagnética oscila circularmente a medida que esta se propaga, este caso ocurre cuando los componentes del campo eléctrico están desfasados por 90 grados. Y elíptica, que se da cuando la luz oscila elípticamente y ocurre cuando los componentes del campo eléctrico no tienen las mismas magnitudes o no están desfazados por 90 grados.
Puede decirse que el caso ideal de la polarización electromagnética se obtiene cuando esta pasa por un polarizador que la orienta a oscilar en un solo plano, pero como siempre sucede, la mayor parte de los sucesos que ocurren no son casos ideales. Particularmente, la polarización de la luz se da en casi todos lados de manera natural, lo que se conoce como Luz Naturalmente Polarizada, pero somos tan ajenos a ella por un simple inconveniente: no podemos verla.
METODOLOGÍA
La cámara consta de tres componentes esenciales: raspberry pi 4 como ordenador, cámara (en este caso se utilizó una cámara web Logitech Modelo C920) y una celda retardadora de cristal líquido; todos conectados y ensamblados dentro de un cuerpo diseñado e impreso en 3D por nuestro equipo.
Se comenzó por caracterizar la celda retardadora de cristal líquido con dos polarizadores utilizando un láser verde de 520 nm y un fotodetector, esto para poder conocer los valores de voltaje que se necesitaran variar al realizar las tomas. Se descubrió que los valores en los que la celda tiene una mejor respuesta son de 1.2 a 3.2 volts.
Posteriormente se conectaron tanto la celda de cristal líquido con dos polarizadores a los pines PWM como la cámara web al puerto USB en la raspberry. Se realizó un código de Python, el cual es el lenguaje que utiliza raspberry, para hacer un barrido de voltaje con los valores mencionados anteriormente y a la vez capturar 100 frames con la cámara web. A partir de ello se desarrolló un programa que variaba de manera controlada el estado de polarización en la celda y realizaba las capturas de imágenes de manera sincronizada.
El análisis de los datos capturados se realizó siguiendo lo que nos indica la Ley de Malus, la cual describe cómo la intensidad de una luz polarizada se reduce al pasar a través de un polarizador. Está dada por:
I = I0 (cosθ)
Y muestra que la intensidad de la luz transmitida es máxima cuando el ángulo entre la dirección de polarización de la luz incidente y la dirección de transmisión del polarizador es cero. Por otro lado, la intensidad es mínima (cero) cuando el ángulo es de 90 grados, lo que significa que la luz está completamente polarizada en una dirección perpendicular a la dirección de transmisión del polarizador.
Una vez se obtuvieron las capturas, al vector los datos de la variación de un píxel en las tomas de uno de los 3 canales (RGB) se le aplicó una transformada de Fourier para obtener la parte real e imaginaria de la imagen y posteriormente calcular el valor absoluto y el ángulo de la parte imaginaria. El valor absoluto (amplitud) nos indica cuanta diferencia de amplitud hay en la imagen con respecto a la dada por la ley de Malus (I0). Por su parte, el ángulo (fase) nos indica el desfase de la imagen (θ). Se graficaron estos resultados para poder observar el valor en el que tenemos una buena respuesta en las capturas, esto está dado por el pico de valor espectral más pronunciado en la gráfica, el valor del eje x que nos arroja es la toma capturada. Así entonces se obtuvo cual era el frame con mejor respuesta.
Se volvió a aplicar una transformada de Fourier, pero esta vez a todos los pixeles de la toma con mejor respuesta. La parte real de la transformada de Fourier de los datos muestra el desplazamiento vertical que tiene la imagen, una especie de ruido que contiene la toma original y que afectan a los valores de la amplitud y la fase que son los valores que nos permiten ver el nivel de polarización de las tomas. Este ruido es eliminado por medio de operaciones en el programa para así obtener los valores finales.
Finalmente, se procedió a mostrar la imagen completa, es decir todos los pixeles, de los valores de la amplitud y fase de cada uno de los tres canales (RGB) por separado, obteniendo así seis imágenes, dos imágenes por canal con sus respectivos valores de amplitud y fase. Al mismo tiempo se mostro junto con estas, la imagen real a color capturada.
CONCLUSIONES
Cabe señalar que para la detección de luz naturalmente polarizada es necesario removerle uno de los dos polarizadores a la celda retardadora. Una vez se le removió este, se ensambló la cámara en el diseño impreso por el equipo y se comenzaron a realizar tomas exteriores dentro del campus obteniendo resultados y un funcionamiento satisfactorio cumpliendo así con las expectativas del proyecto y del verano de investigación delfín.
Jiménez Coria Nicolas, Universidad Michoacana de San Nicolás de Hidalgo
Asesor:Dr. Fredy Ruben Cejudo Ruiz, Universidad Nacional Autónoma de México
PROPIEDADES MAGNéTICAS DEL POLVO URBANO: UN ESTUDIO DE CASO DE LA ZONA METROPOLITANA DE PACHUCA, MéXICO
PROPIEDADES MAGNéTICAS DEL POLVO URBANO: UN ESTUDIO DE CASO DE LA ZONA METROPOLITANA DE PACHUCA, MéXICO
Jiménez Coria Nicolas, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Fredy Ruben Cejudo Ruiz, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
El incremento constante de la urbanización y la industrialización ha llevado a una creciente preocupación por la calidad del aire y del suelo en áreas urbanas. La ciudad de Pachuca, en su pasado, ha sido reconocida como una importante zona minera que contribuyó significativamente al desarrollo económico y social de la región. Sin embargo, la larga historia de actividad minera y el actual incremento de la urbanización e industrialización ha planteado una preocupación por la situación actual del medio ambiente en la Zona Metropolitana de Pachuca (ZMP).
Esta investigación se concentra en los polvos urbanos (partículas finas que se acumulan en superficies y suelos) que pueden contener metales pesados, como el plomo, que representan un riesgo potencial para la salud pública y el medio ambiente.
El objetivo de este estudio fue identificar las áreas que presentan una mayor acumulación de material ferromagnético en el polvo urbano de la Zona Metropolitana de Pachuca por medio de parámetros magnéticos, con el fin de establecer zonas prioritarias para un estudio elemental que permita evaluar los niveles de contaminación. Para lograrlo, se estudió la susceptibilidad magnética de los polvos urbanos, que pueden usarse para estimar la concentración de metales potencialmente tóxicos presentes en el ambiente urbano. Esta técnica se basa en la respuesta que presentan los materiales frente a un campo magnético externo aplicado. La susceptibilidad magnética tiene una relación directa con la concentración de material ferrimagnético del polvo urbano, el cual suele exhibir una correlación con el contenido de metales pesados. Además, de que esta técnica se ha demostrado como una alternativa eficaz y económica para analizar la composición mineral de las partículas.
METODOLOGÍA
Se realizó el muestreo de polvos urbanos en múltiples áreas representativas de Pachuca para obtener una visión completa de la distribución espacial. Las muestras fueron etiquetadas y empaquetadas en contenedores limpios y marcados adecuadamente para evitar la contaminación cruzada (cabe resaltar que yo no participé hasta en esta parte de la metodología, pues se realizó antes del lapso que abarca el programa Delfín). En el laboratorio, se tamizaron las muestras con el fin de eliminar partículas gruesas y asegurar una homogeneidad e isotropía adecuada. Posteriormente, el material se colocó dentro de cubos de plástico de 8 cm3.
La susceptibilidad magnética del polvo urbano se midió con un equipo Bartington MS2B en dos frecuencias (una alta y otra baja).
Después, a las mismas muestras, se le aplicó un proceso conocido como magnetización remanente anhisterética con un desmagnetizador LDA 5 AF, que consiste en conseguir una magnetización que permanece en las muestras después de retirarles un campo magnético externo. Lo anterior, con el propósito de medir la magnetización remanente resultante de cada muestra con un magnetómetro dual speed spinner JR-6 y determinar la susceptibilidad magnética anhisterética.
Se hizo un análisis estadístico y de varianza (ANOVA) para determinar la variabilidad de las concentraciones de susceptibilidad magnética en las diferentes áreas muestreadas. Por otra parte, se hizo un análisis espacial para detectar patrones de agrupamiento o dispersión de las concentraciones de minerales magnéticos.
Finalmente, se obtuvieron representaciones cartográficas que muestran las áreas de mayor acumulación de material ferrimagnético en la ZMP, las cuales podrían requerir de un análisis elemental para identificar los niveles de concentración de metales pesados, dándoles una atención especial en términos de políticas ambientales y de salud pública.
CONCLUSIONES
La presente investigación sobre el magnetismo ambiental y la concentración de minerales contaminantes en polvos urbanos de Pachuca ha proporcionado hallazgos significativos sobre la calidad del polvo urbano en la ciudad. Uno de los hallazgos más sobresalientes fue la detección de una concentración considerablemente alta de minerales ferrimagnéticos en zonas residenciales, especialmente en áreas cercanas a jales mineros (depósitos de desechos mineros o material estéril). La presencia de altas concentraciones de minerales ferrimagnéticos en polvos urbanos en áreas residenciales destaca la necesidad de una evaluación exhaustiva del contenido de elementos potencialmente tóxicos para determinar posibles medidas de mitigación adecuadas para proteger la salud de los residentes y promover un ambiente sostenible. Por falta de tiempo no fue posible profundizar más en las mediciones y el análisis estadístico de las propiedades magnéticas y la determinación de metales pesados.
Jiménez Schulz Leslie Mariana, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)
PROPIEDADES óPTICAS DE SEMICONDUCTORES
PROPIEDADES óPTICAS DE SEMICONDUCTORES
Jiménez Schulz Leslie Mariana, Benemérita Universidad Autónoma de Puebla. Toledo Vega Caleb, Universidad de Guadalajara. Asesor: Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Los semiconductores son utilizados en diversos campos de la ingeniería de dispositivos electrónicos. Muchas de sus aplicaciones están en la creación de dispositivos ópticos como celdas solares, diodos emisores de luz (LED), láseres de estado sólido etc. Particularmente los semiconductores compuestos que consisten en aleaciones semiconductoras entre los grupos III-V o II-VI de la tabla periódica son los más utilizados, porque poseen la flexibilidad de adaptar sus propiedades ópticas y electrónicas a las necesidades de la aplicación específica que se requiere.
Es por esto que desde hace varias décadas se han estudiado los materiales semiconductores, pues esta versatilidad resulta sumamente útil en la fabricación de dispositivos optoelectrónicos, por lo que el estudio del comportamiento de estos materiales frente a diversos estímulos y procesos que pueden ocurrir de manera natural, como la compresión y expansión isotrópica, resulta fundamental para tener un mayor conocimiento sobre las propiedades de los materiales de diversos semiconductores y sobre la mejor manera de manipularlos para hacer más eficiente su uso en diversos proyectos de ingeniería, según el propósito del mismo.
METODOLOGÍA
Para la realización de este proyecto se utilizaron los softwares de dominio público ABINIT y TINIBA, mediante los cuales se ejecutaron los procesos necesarios para calcular el índice de refracción; considerando tanto su parte real (n) como su parte compleja (k), también conocida como índice de absorción, para los semiconductores arseniuro de galio (GaAs) y antimoniuro de indio (InSb), formados por la unión de elementos del grupo III y V de la tabla periódica. Para ello fue necesario conocer la magnitud de la susceptibilidad eléctrica; que establece la relación tensorial entre el campo eléctrico aplicado y la polarización inducida del material, ya que guarda relación con el de la constante dieléctrica del material, misma que resulta indispensable para obtener el valor adimensional del índice de refracción.
Estos cálculos se hicieron por medio de la supercomputadora MEDUSA, ubicada en el Centro de Investigaciones en Óptica (CIO), a través de una conexión remota entre ella y nuestro servidor local, lo que nos permitió obtener una serie de gráficas que relacionaran el valor de la parte real y compleja del índice de refracción con el de la energía expresada en electronvolts (eV) y modelar la respuesta que se obtendría al expandir o comprimir isotrópicamente la celda unitaria del material. Se modelaron 10 posibles casos para la expansión y compresión respectivamente, incrementando el porcentaje de deformación en un 1% para cada caso, obteniendo como porcentaje máximo de incremento o decremento del volumen de la celda unitaria un valor del 10%.
El resultado teórico obtenido para el caso en el que no había deformación se contrastó con el resultado obtenido de forma experimental también para este caso, lo que fue útil para conocer que tan certeras podían resultar las predicciones teóricas que se habían obtenido para los demás casos evaluados. Los valores experimentales tuvieron que ser reajustados con el fin de poder llevar a cabo dicha comparación, pues de forma experimental fue posible medir de manera directa el valor de la constante dieléctrica del material, mientras que los resultados teóricos que se pudieron obtener nos daban en primera instancia el valor del tensor de susceptibilidad eléctrica, a partir del cual se obtuvo a la constante dieléctrica y posteriormente las gráficas del índice de refracción correspondientes a la parte real e imaginaria.
Para llevar a cabo todos estos procesos de manera eficiente se elaboró un código en lenguaje de programación bash que era capaz de obtener de forma automática las gráficas correspondientes a cada porcentaje de deformación. Para ejecutarse el programa requería de los archivos setUpAbinit_insb.in, setUpAbinit_gaas.in, insb.xyz, gaas.xyz y .ex-machina. Los archivos .xyz contenían la información sobre las coordenadas de la celda unitaria, mientras que los .in albergaban los datos necesarios para ejecutar el programa abinit.sh, el cual proveía información sobre la cantidad de ondas planas para representar corectamente la función de onda de los electrones y sobre la cantidad de puntos de interés que resultaban necesarios para la elaboración de las gráficas. El archivo .ex-machina, resultaba por su parte importante para que el programa se ejecutara de manera correcta dentro de la computadora y los procesos no se vieran interrumpidos.
CONCLUSIONES
Las predicciones teóricas obtenidas resultaron ser viables en cuanto al comportamiento que se esperaría del material si se llevara a cabo el experimento. La gráfica obtenida a partir de los datos experimentales, tanto de la parte real como de la parte imaginaria del índice de refracción, para el caso en el que no existía deformación en la celda unitaria, resultó ser bastante similar al comportamiento teórico predicho por nuestro modelo para los dos semiconductores analizados.
Bajo los efectos de la compresión y la expansión ambos materiales presentaron comportamientos muy parecidos. En el caso del GaAs a medida que la expansión aumentaba el valor del índice de refracción disminuía y se recorría hacia valores de energía cada vez más bajos, lo que ocurría tanto para su parte real como su parte compleja. Bajo compresión el índice de refracción del GaAs aumentaba y se desplazaba hacia valores de energía cada vez mayores, comportamiento que también se observaba para sus dos componentes. Por su parte el InSb para la expansión tambien se fue moviendo hacia niveles más bajos de energía conforme la parte real e imaginaria del índice de refracción disminuían y se trasladó hacia valores mayores de la energía conforme aumentaba el valor del índice de refracción.
Jose Maria Cayetano Maycol, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dr. Alejandro Guerrero Caicedo, Universidad del Valle
MAPEO DE ESPECIES MOLECULARES ORGáNICAS EN CUERPOS DEL SISTEMA SOLAR
MAPEO DE ESPECIES MOLECULARES ORGáNICAS EN CUERPOS DEL SISTEMA SOLAR
Jose Maria Cayetano Maycol, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Alejandro Guerrero Caicedo, Universidad del Valle
PLANTEAMIENTO DEL PROBLEMA
El origen de la vida en el universo todavía es un misterio para el ser humano. De allí la importancia por conocer desde una perspectiva química, el origen de cada molécula orgánica actualmente encontrada en cuerpos perteneciente a nuestro sistema solar como son: planetas, asteroides, cometas y meteoritos (condritas carbonáceas).
Conocer el tipo de especies moleculares que predominan en nuestra galaxia (Vía Láctea): simples como el agua, orgánicas como el etanol o bioquímicas como la glicina, y en que cuerpos se encuentran estas moléculas, permitiría relacionarlas con las posibilidades de Vida en esa región de la galaxia. Además, tal información sería de mucha utilidad para en un futuro vislumbrar los mecanismos de reacción y formación involucrados en la generación de estas moléculas, desde una perspectiva química. Finalmente, las compresiones de estos ciclos de reactividad química terminaran conectándose con otro tema de mucho interés como lo es el origen de la vida en la tierra.
Lo anterior podría lograrse mediante un análisis de datos de la literatura reciente, a través de la elaboración de una matriz de cada especie molecular, destacando sus características estructurales.
METODOLOGÍA
La metodología de investigación se fundamenta en una matriz para el análisis de moléculas en su mayoría orgánicas, encontradas en cuerpos que forman parte de nuestro sistema solar, como lo son: planetas, asteroides, cometas y meteoritos (condritas carbonáceas).
Todos los ítems mencionados a continuación están asociados con una investigación de tipo cualitativa, la cual se fundamenta en una revisión exhaustiva de la literatura reciente.
En el proyecto completo, se emplea el siguiente esquema general:
1. Definir la zona (Sistema solar).
2. Identificar los cuerpos celestes dentro de la zona definida.
3. Enlistar las especies moleculares orgánicas presentes en los cuerpos celestes pertenecientes al Sistema solar.
4. Identificar los grupos funcionales o fragmentos estructurales representativos de las especies moleculares orgánicas seleccionadas. Tipo 1: como el agua, tipo 2: como el metanol y tipo 3: como la glicina.
CONCLUSIONES
La mayoría de las moléculas analizadas en los cuerpos pertenecientes a nuestro sistema solar como asteroides Ryugu, Condritas carbonáceas: Murchison y Orgueil se encuentran clasificadas por sus características como biomoléculas (tipo 3) que están relacionadas con procesos de la vida, como los aminoácidos (cisteína) que son precursores de las proteínas. También, está el uracilo componente relevante en el ARN, molécula relacionada con el código genético que lleva el mensaje para la síntesis de proteínas.
Hasta el momento se han detectado 236 especies moleculares en los cuerpos que se han revisado en la literatura actual en la matriz se han clasificado y encontrado unas 9 moléculas simples como lo es el carbono, nitrógeno e hidrogeno. 55 moléculas orgánicas las cuales se destacan: butilaminas, acido fórmico, ácido acético. 172 moléculas bioquímicas en su mayoría aminoácidos involucrados: acido aspártico, glicina, serina, norvalina, acido butírico, con ello podemos deducir que las moléculas orgánicas pudieron formarse y existir fuera del planeta tierra y haber llegado a formar parte del planeta cuando este estaba en proceso de ser un embrión planetario.
Referencias.
Naraoka, H., Takano, Y., Dworkin, J. P., Oba, Y., Hamase, K., Furusho, A., Ogawa, N. O., Hashiguchi, M., Fukushima, K., Aoki, D., Schmitt-Kopplin, P., Aponte, J. C., Parker, E. T., Glavin, D. P., McLain, H. L., Elsila, J. E., Graham, H. V., Eiler, J. M., Orthous-Daunay, F., . . . Yamamoto, Y. (2023). Soluble organic molecules in samples of the carbonaceous asteroid (162173) Ryugu. Science, 379(6634). https://doi.org/10.1126/science.abn9033
Oba, Y., Koga, T., Takano, Y., Ogawa, N. O., Ohkouchi, N., Sasaki, K., Sato, H., Glavin, D. P., Dworkin, J. P., Naraoka, H., Tachibana, S., Yurimoto, H., Nakamura, T., Noguchi, T., Okazaki, R., Yabuta, H., Sakamoto, K., Yada, T., Nishimura, M., . . . Tsuda, Y. (2023). Uracil in the carbonaceous asteroid (162173) Ryugu. Nature Communications, 14(1). https://doi.org/10.1038/s41467-023-36904-3
Glavin, D. P., Burton, A. S., Elsila, J. E., Aponte, J. C., & Dworkin, J. P. (2019). The Search for Chiral Asymmetry as a Potential Biosignature in our Solar System. Chemical Reviews, 120(11), 4660-4689. https://doi.org/10.1021/acs.chemrev.9b00474
Nguyen, A. N., Mane, P., Keller, L. P., Piani, L., Abe, Y., Aléon, J., Alexander, C. M. O., Amari, S., Amelin, Y., Bajo, K. I., Bizzarro, M., Bouvier, A., Carlson, R. W., Chaussidon, M., Choi, B., Dauphas, N., Davis, A. M., Di Rocco, T., Fujiya, W., . . . Yurimoto, H. (2023). Abundant presolar grains and primordial organics preserved in carbon-rich exogenous clasts in asteroid Ryugu. Science Advances, 9(28). https://doi.org/10.1126/sciadv.adh1003
Kahana, A., Schmitt-Kopplin, P., & Lancet, D. (2019). Enceladus: first observed primordial soup could arbitrate Origin-of-Life debate. Astrobiology, 19(10), 1263-1278. https://doi.org/10.1089/ast.2019.2029
Pasek, M. A. (2019). Phosphorus volatility in the early solar nebula. Icarus, 317, 59-65. https://doi.org/10.1016/j.icarus.2018.07.011
Juárez Cabello Javier, Universidad de Guadalajara
Asesor:Dra. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)
ESTUDIO DE GUíAS DE ONDA FABRICADAS EN VIDRIO POR ESCRITURA LáSER
ESTUDIO DE GUíAS DE ONDA FABRICADAS EN VIDRIO POR ESCRITURA LáSER
Juárez Cabello Javier, Universidad de Guadalajara. Palacios Chimeo Pedro Luis, Universidad de Guadalajara. Tepetla Garcia Abigail, Universidad Veracruzana. Asesor: Dra. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La mayoría de las tareas que se realizan actualmente involucran de una manera u otra la utilización de circuitos electrónicos. Estos forman parte de todos los dispositivos modernos que se utilizan en una gran variedad de áreas. Sin embargo, estos circuitos presentan ciertas fallas que afectan a su utilización en algunos campos.
Cada día se crean grandes cantidades de información en todos los ámbitos, y la cantidad de información diaria aumenta constantemente. La necesidad de que esta información pueda ser transmitida eficientemente y con seguridad es uno de los mayores problemas de la tecnología actual. Cada vez nos acercamos más al límite posible de información que puede ser utilizada por los circuitos electrónicos.
Una guía de onda es una estructura en la cual se confina la luz dentro de una zona de un sustrato. Existen tres tipos principales de guía de ondas: las guías de onda planas, donde la luz se encuentra encerrada en un plano con el sustrato arriba y abajo. Las guías de onda canales, donde la luz está en un sustrato, con una cara expuesta al medio, y por último las fibras ópticas, donde la guía es un cilindro rodeado por el sustrato.
El uso principal de las guías de onda es su utilización en los circuitos ópticos. Un circuito óptico funciona de manera similar a un circuito electrónico, la diferencia principal es el uso de fotones como transmisores de la información. Debido a que los circuitos ópticos se limitan a la velocidad de los fotones, tienen la ventaja de ser entre 10 y 100 veces más rápidos que los circuitos electrónicos. Además, que no se ven afectados por variables como el campo magnético o temperatura en el trayecto. Podemos, en concreto, confinar un haz de luz en pequeñas cavidades (por ejemplo, fibra óptica) y usarlo a modo de interruptores que bloquea o permite el flujo de luz, tal como podría funcionar un transistor, con la ventaja de una velocidad, estabilidad y eficiencia de energía mucho mayor.
METODOLOGÍA
La muestra por medir fue proporcionada por el CIO. Esta muestra consiste en un sustrato de vidrio sódico-cálcico de 25mm de largo, 8mm de ancho y 1mm de profundidad. En este vidrio se crearon guías de onda a través de la técnica de escritura láser directa de femtosegundos (FDWL). Estas guías fueron creadas en una matriz de 4X6, donde las columnas 1 y 2 se realizaron con una energía de láser de 1µJ y la columna 3 y 4 con una energía de 2 µJ. Las filas se dividen por una distancia de 100 µm entre sí, empezando en los 100 µm de profundidad y terminando la fila 6 en los 600µm.
Para realizar las mediciones se utiliza un láser de He-Ne rojo con una potencia de 10 mW a una longitud de onda de 633 nm. Este láser se acopla a la muestra utilizando un objetivo de microscopio 10X a 3 mm de distancia de la muestra. El haz resultante de la guía de onda se amplifica utilizando un objetivo 20X. Para asegurar un correcto acoplamiento en ambos casos se utilizan 3 microposicionadores, dos de ellos son en 3 ejes para los objetivos y el último es en 2 ejes para la muestra. Por último se coloca una cámara CCD a 16 cm (la longitud de tubo específica para nuestros objetivos de microscopio).
Para realizar las mediciones de los tamaños de modos de cada guía se utilizó el programa Thorlabs Beam en conjunto con la cámara CCD. La cámara fue adaptada con un filtro de atenuación de 40dB. Con la aplicación se obtenían los valores de potencia. Se filtraba en Excel todos los valores menores al 13.53% de la potencia máxima y se obtuvo su posición en la cámara de estas potencias, se obtuvo la distancia entre estas posiciones y se dividió entre 20 (la amplificación del objetivo), esto nos da el tamaño del modo.
Los cálculos de pérdidas de las guías se obtienen con la ecuación:
αp=(10/L)•log(Tg/(nac•Tf))
donde αp es la pérdida de potencia en dB/cm, L la longitud de la guía de onda, TG la transmitancia de la guía, nac siendo la eficiencia de acoplamiento entre el láser y la guía, y un parámetro que definimos como:
Tf=(4nz•ng)/(nz+ng)
donde ng es el índice de refracción de la guía y nz el índice de refracción entre el lente y la guía.
Para conocer la pérdida por propagación también ocupamos la eficiencia por acoplamiento , la cual se estima con la siguiente ecuación:
nac=ndes•nfres•nmodos
donde ndes es la eficiencia dada por la desalineación, nfres la eficiencia debido a las reflexiones de Fresnel en el extremo de entrada de la guía y nmodos la eficiencia por el acoplamiento de los modos transversales.
Todas estas ecuaciones se realizan con la ayuda de Excel para obtener los resultados de las pérdidas de nuestras guías de ondas.
CONCLUSIONES
En esta estancia de verano se adquirieron conocimientos teóricos acerca de las guías de onda, así como, la forma de caracterizarlas. También, podemos observar cuáles son las variables que afectan a las guías de onda a través de la escritura láser. Observamos que mientras mayor sea la profundidad de grabado en la muestra, se incrementa el tamaño de la guía, si esta profundidad es grande también se empiezan a presentar aberraciones en el grabado. Otro punto importante de la técnica es la potencia, ya que observamos que, con una potencia mayor, las guías resultantes tienen diámetros mayores, pero pérdidas energéticas menores.
Labandera Rodríguez José Julián, Universidad de Sonora
Asesor:Dr. Miguel Mora González, Universidad de Guadalajara
DESARROLLO DE ALGORITMOS DE PROCESAMIENTO DIGITAL DE IMáGENES E INTELIGENCIA ARTIFICIAL PARA SU APLICACIóN EN EL RECONOCIMIENTO Y CLASIFICACIóN DE ABERRACIONES óPTICAS
DESARROLLO DE ALGORITMOS DE PROCESAMIENTO DIGITAL DE IMáGENES E INTELIGENCIA ARTIFICIAL PARA SU APLICACIóN EN EL RECONOCIMIENTO Y CLASIFICACIóN DE ABERRACIONES óPTICAS
Duarte Lopez Miguel Angel, Universidad de Sonora. Labandera Rodríguez José Julián, Universidad de Sonora. Tirado López Isaul, Universidad de Sonora. Asesor: Dr. Miguel Mora González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Nuestro objetivo principal fue abordar el desafío de la detección y clasificación de aberraciones ópticas en imágenes sintéticas. Las aberraciones ópticas pueden tener un impacto significativo en la calidad de las imágenes, afectando la nitidez, el contraste, forma y otros aspectos visuales. El desarrollo de algoritmos efectivos y eficientes para identificar y clasificar estas aberraciones es de gran importancia en aplicaciones que requieren imágenes de alta calidad, como la fotografía digital, la medicina, la industria o la vida cotidiana.
METODOLOGÍA
Nuestro plan de trabajo se dividió en diferentes etapas a lo largo de las siete semanas de la estancia. Durante las primeras tres semanas, nos enfocamos en conceptos fundamentales del procesamiento digital de imágenes, incluyendo definición de imagen, resolución, cuantificación, descomposición de colores y niveles de gris, así como operaciones lógicas y aritméticas.
En la siguiente semana, nos adentramos en el análisis del histograma y su expansión, así como en técnicas de filtrado espacial. La semana tres estuvo dedicada al filtrado de frecuencia, analizando los distintos tipos de máscaras para generar filtros pasa altas, pasa bajas, pasa banda, así como supresores de banda. En esta semana también exploramos otros tipos de filtros, como: Canny, Roberts, Prewitt y GplusC.
La cuarta semana trabajamos el reconocimiento de patrones, donde nos familiarizamos con las definiciones y aplicaciones de esta área. En esta semana, también comenzamos a trabajar en los algoritmos de simulación de aberraciones ópticas (interferogramas sintéticos), realizando en forma continua una base de datos de imágenes con mezclas de aberraciones para entrenar los algoritmos.
Durante la quinta y sexta semana, nos centramos en el reconocimiento estadístico de patrones, estudiando el Teorema de Bayes y los clasificadores de distancia mínima (Euclidiana y Mahalanobis). También exploramos conceptos como la función de densidad de probabilidad (PDF por sus siglas en inglés), el parámetro de máxima verosimilitud, modelos mixtos y el perceptrón.
Finalmente, en la última semana, abordaremos otros modelos de reconocimiento de patrones, como K-means, KNN (vecinos más cercanos) y PCA (análisis de componentes principales). Además, examinaremos diversas aplicaciones de estos modelos en el contexto del reconocimiento de patrones.
Durante todo el proceso, consultamos una amplia variedad de fuentes bibliográficas, incluyendo los libros "Digital Image Processing" de Gonzales & Woods, "Visión por Computador" de Velez et al, Pattern Recognition and Image Processing, de Bow, entre otros. También revisamos varios artículos relevantes relacionados con nuestro proyecto. Cabe destacar que cada algoritmo estudiado fue implementado en Python, presentado y evaluado por el investigador, quien proporcionó asesoramiento y retroalimentación para mejorar nuestro trabajo.
CONCLUSIONES
Nuestra estancia se centró en la aplicación de IA para el desarrollo de algoritmos de procesamiento digital de imágenes, con un enfoque en la detección y clasificación de aberraciones ópticas. A través de la metodología propuesta, adquirimos conocimientos fundamentales en el procesamiento digital de imágenes y el reconocimiento de patrones y desarrollamos habilidades prácticas en la implementación de algoritmos utilizando las plataformas Colab y Jupiter de Python.
Hasta el momento, nuestros avances nos han permitido construir una base de datos que cuenta con una cantidad significativa de interferogramas sintéticos de aberraciones ópticas, lo que permitirá contar con datos suficientes para entrenar nuestros algoritmos y con ello detectar cada tipo de aberración, así como combinaciones de estas.
La experiencia adquirida durante esta estancia nos brindó una base sólida para continuar explorando y desarrollando nuevas aplicaciones de IA en el campo del procesamiento digital de imágenes y el reconocimiento de patrones, así como sus posibles aplicaciones en la óptica física (interferencia y difracción).
Ladino Cañas Tatiana, Universidad de Caldas
Asesor:Dr. Victor Hugo Márquez Ramírez, Universidad Nacional Autónoma de México
ANáLISIS DEL RUIDO SíSMICO EN LA BARRANCA MONTEGRANDE (VOLCáN COLIMA) DURANTE LA TEMPORADA DE LLUVIAS DEL 2019.
ANáLISIS DEL RUIDO SíSMICO EN LA BARRANCA MONTEGRANDE (VOLCáN COLIMA) DURANTE LA TEMPORADA DE LLUVIAS DEL 2019.
Ladino Cañas Tatiana, Universidad de Caldas. Asesor: Dr. Victor Hugo Márquez Ramírez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La barranca Montegrande del Volcán Colima se ha destacado por ser una de las barrancas por la que constante y principalemente hay formación de lahares que, como bien se sabe, han representado un riesgo natural y social por su imprevisibilidad en todo el mundo, pero que con un buen programa de prevención, pueden ser evitados algunos casos que conllevan a algún tipo de afectación. El siguiente trabajo presentará brevemente algunos datos sísmicos obtenidos a partir de la red del CGEO en los cuales se tienen los registros del ruido sísmico en la barranca Montegrande en la temporada de lluvias del año 2019 con la finalidad de pretender, o al menos llegar a un aproximado , del tipo de flujo del lahar que ha bajado por la barranca a partir de la amplitud y frecuencia arrojada y así, probablemente estos datos ser de utilidad para estar más cerca de definir qué tipo de flujo representa más riesgo y, a partir de comparaciones (no hechas en este informe) , definir en qué fechas se esperan dichos eventos.
METODOLOGÍA
Para esto, se descargaron en la computadora los datos del sismógrafo localizado en la barranca Montegrande a fin de procesarlos en el lenguaje de programación python a través de la interfaz de JupyterLab y analizar cuáles fueron los eventos que más fuerte se mostraron durante la temporada de lluvias. Una vez se generaron las trazas y los diagramas de frecuencias, se procedió a interpretar el significado de cada evento para luego ajustarlo a la clasificación de Martínez-Valdés (2021).
CONCLUSIONES
Después de haber hecho un breve análisis de la amplitud y frecuencia presentada en la traza sísmica, se obtuvieron 16 considerables eventos sísmicos en total de los cuales, seis fueron clasificados como tipo 1 ( frente seco), ocho como un flujo tipo 2 (diluído) y los dos restantes se han clasificado como tipo 3 (complejos).
En los primeros dos meses de la temporada de lluvias (julio y agosto), aunque se registró un alto nivel de precipitación, la mayoría de los lahares ocurridos fueron de tipo diluido. Esto sugiere que, aunque hubo una cantidad considerable de flujo que generó registros sísmicos, la corriente no fue lo suficientemente potente para arrastrar partículas de gran tamaño.
Entre agosto y septiembre, se presentaron 5 de los 6 eventos de frente seco. Esto indica que la corriente fue lo suficientemente poderosa para arrastrar sedimentos de gran tamaño, lo que sugiere que las precipitaciones durante estos meses pudieron haber sido más intensas en comparación con los meses anteriores.
Después del mes de septiembre, parece que las lluvias intensas que causaron los lahares en la Barranca disminuyeron , pues el registro sísmico carece de eventos significativos.
En resumen, los resultados del análisis sugieren que las precipitaciones y la potencia de la corriente varían a lo largo de la temporada de lluvias, con un aumento en la intensidad de las lluvias entre agosto y septiembre, seguido de una disminución considerable para el fin de la temporada.
Como nota final, desde el año 2015, los resultados de trabajos tales como el de Bravo-Carvajal (201) han arrojado que durante la temporada de lluvias, los meses con menor frecuencia pero con mayor magnitud de lluvias y generación de lahares son septiembre y octubre pudiendo respaldar así la interpretación obtenida en este trabajo.
Como conclusión general, el ruido sísmico obtenido en la Barranca Montegrande puede ser clave para hacer una breve generalización de cuales son los meses en los cuales se espera más precipitaciones en la zona y así, a partir de los análisis, ser usado para desarrollar grandes y valiosas medidas preventivas ante los desastres que estos lahares pueden causar. Además, la clasificación del flujo en el tiempo puede dar indicios de cómo es la evolución morfológica en la Barranca y qué eventos, o bajo qué condiciones, la Barranca puede cambiar su dirección.
Landa Pio Nancy Sthefany, Universidad Veracruzana
Asesor:Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
ANáLISIS DE íNDICES CLIMáTICOS DE TEMPERATURA EN PUERTO VALLARTA
ANáLISIS DE íNDICES CLIMáTICOS DE TEMPERATURA EN PUERTO VALLARTA
Landa Pio Nancy Sthefany, Universidad Veracruzana. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Las variaciones del sistema climático deben ser estudiadas rigurosamente debido a la conexión que existe con diferentes áreas de estudio como lo es la salud, la economía, el turismo, las energías, entre otras; por ello es necesario analizar los cambios y las tendencias de los índices de cambio climático. El presente trabajo realiza un análisis de 6 índices climáticos de temperatura para la ciudad de Puerto Vallarta, Jalisco, utilizando datos de tres estaciones climatológicas del Servicio Meteorológico Nacional (SMN). La estación 14081 con datos de 1949-2021, estación 14339 de 1980-2022 y la estación 14116 de 1926-1988.
METODOLOGÍA
Se utilizaron los índices climáticos específicos por sector SU (días de verano), TNn (temperatura mínima extrema), TNx (temperatura mínima más alta), TR (noches tropicales), TXn (temperatura máxima más baja), TXx (temperatura máxima extrema) propuestos por el Grupo de Expertos en Índices Climáticos Específicos por Sector (ET-SCI por sus siglas en inglés) haciendo uso del software Climpact, el cual lee datos meteorológicos y ofrece frecuencia, duración y magnitud de fenómenos climáticos extremos relevantes para cada sector (agricultura, salud, recurso hídrico, etc.).
CONCLUSIONES
Para la estación de La Desembocada se presenta una situación de pérdida significativa de datos, por lo que el software utilizado no fue capaz de encontrar las tendencias para los índices de interés. Para las dos estaciones restantes se obtuvieron tendencias positivas en los índices TR, TNx y TNn, lo cual indica que la temperatura mínima diaria mayor a 20° C, el valor máximo de la temperatura mínima diaria y el valor mínimo de la temperatura mínima diaria van en ascenso. Después de analizar esto, se concluye que en la ciudad de Puerto Vallarta la temperatura mínima es una variable que presenta un comportamiento creciente.
Lares de la Torre Roberto Alejandro, Universidad de Guadalajara
Asesor:Dr. David Ignacio Serrano García, Universidad de Guadalajara
CáMARA SENSIBLE A LA POLARIZACIóN DE LA LUZ.
CáMARA SENSIBLE A LA POLARIZACIóN DE LA LUZ.
Jaramillo Tepal Antonio Zaid, Instituto Tecnológico de Puebla. Lares de la Torre Roberto Alejandro, Universidad de Guadalajara. Villalobos Hernandez Diana Sofia, Universidad de Guadalajara. Asesor: Dr. David Ignacio Serrano García, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Las ondas electromagnéticas, o comúnmente llamados rayos de luz, naturalmente viajan a través del espacio oscilando de manera aleatoria en todos los planos perpendiculares a la dirección de propagación. En ciertas ocasiones, cuando estos entran en contacto con objetos que restringen a que parte de los rayos oscilen en un solo plano, se dice que la luz esta polarizada.
Existen tres tipos diferentes de polarización. La lineal, que ocurre cuando el campo eléctrico de la onda oscila en una sola dirección. Circular, que se da cuando la onda electromagnética oscila circularmente a medida que esta se propaga, este caso ocurre cuando los componentes del campo eléctrico están desfasados por 90 grados. Y elíptica, que se da cuando la luz oscila elípticamente y ocurre cuando los componentes del campo eléctrico no tienen las mismas magnitudes o no están desfazados por 90 grados.
Puede decirse que el caso ideal de la polarización electromagnética se obtiene cuando esta pasa por un polarizador que la orienta a oscilar en un solo plano, pero como siempre sucede, la mayor parte de los sucesos que ocurren no son casos ideales. Particularmente, la polarización de la luz se da en casi todos lados de manera natural, lo que se conoce como Luz Naturalmente Polarizada, pero somos tan ajenos a ella por un simple inconveniente: no podemos verla.
METODOLOGÍA
La cámara consta de tres componentes esenciales: raspberry pi 4 como ordenador, cámara (en este caso se utilizó una cámara web Logitech Modelo C920) y una celda retardadora de cristal líquido; todos conectados y ensamblados dentro de un cuerpo diseñado e impreso en 3D por nuestro equipo.
Se comenzó por caracterizar la celda retardadora de cristal líquido con dos polarizadores utilizando un láser verde de 520 nm y un fotodetector, esto para poder conocer los valores de voltaje que se necesitaran variar al realizar las tomas. Se descubrió que los valores en los que la celda tiene una mejor respuesta son de 1.2 a 3.2 volts.
Posteriormente se conectaron tanto la celda de cristal líquido con dos polarizadores a los pines PWM como la cámara web al puerto USB en la raspberry. Se realizó un código de Python, el cual es el lenguaje que utiliza raspberry, para hacer un barrido de voltaje con los valores mencionados anteriormente y a la vez capturar 100 frames con la cámara web. A partir de ello se desarrolló un programa que variaba de manera controlada el estado de polarización en la celda y realizaba las capturas de imágenes de manera sincronizada.
El análisis de los datos capturados se realizó siguiendo lo que nos indica la Ley de Malus, la cual describe cómo la intensidad de una luz polarizada se reduce al pasar a través de un polarizador. Está dada por:
I = I0 (cosθ)
Y muestra que la intensidad de la luz transmitida es máxima cuando el ángulo entre la dirección de polarización de la luz incidente y la dirección de transmisión del polarizador es cero. Por otro lado, la intensidad es mínima (cero) cuando el ángulo es de 90 grados, lo que significa que la luz está completamente polarizada en una dirección perpendicular a la dirección de transmisión del polarizador.
Una vez se obtuvieron las capturas, al vector los datos de la variación de un píxel en las tomas de uno de los 3 canales (RGB) se le aplicó una transformada de Fourier para obtener la parte real e imaginaria de la imagen y posteriormente calcular el valor absoluto y el ángulo de la parte imaginaria. El valor absoluto (amplitud) nos indica cuanta diferencia de amplitud hay en la imagen con respecto a la dada por la ley de Malus (I0). Por su parte, el ángulo (fase) nos indica el desfase de la imagen (θ). Se graficaron estos resultados para poder observar el valor en el que tenemos una buena respuesta en las capturas, esto está dado por el pico de valor espectral más pronunciado en la gráfica, el valor del eje x que nos arroja es la toma capturada. Así entonces se obtuvo cual era el frame con mejor respuesta.
Se volvió a aplicar una transformada de Fourier, pero esta vez a todos los pixeles de la toma con mejor respuesta. La parte real de la transformada de Fourier de los datos muestra el desplazamiento vertical que tiene la imagen, una especie de ruido que contiene la toma original y que afectan a los valores de la amplitud y la fase que son los valores que nos permiten ver el nivel de polarización de las tomas. Este ruido es eliminado por medio de operaciones en el programa para así obtener los valores finales.
Finalmente, se procedió a mostrar la imagen completa, es decir todos los pixeles, de los valores de la amplitud y fase de cada uno de los tres canales (RGB) por separado, obteniendo así seis imágenes, dos imágenes por canal con sus respectivos valores de amplitud y fase. Al mismo tiempo se mostro junto con estas, la imagen real a color capturada.
CONCLUSIONES
Cabe señalar que para la detección de luz naturalmente polarizada es necesario removerle uno de los dos polarizadores a la celda retardadora. Una vez se le removió este, se ensambló la cámara en el diseño impreso por el equipo y se comenzaron a realizar tomas exteriores dentro del campus obteniendo resultados y un funcionamiento satisfactorio cumpliendo así con las expectativas del proyecto y del verano de investigación delfín.
Lazo Ascencio Joel Ivan, Universidad de Guadalajara
Asesor:Dra. Areli Montes Pérez, Benemérita Universidad Autónoma de Puebla
ELABORACIóN DE EXPERIMENTOS DIDáCTICOS DE DIVULGACIóN CIENTíFICA Y ALGORITMO DE TOMOGRAFíA óPTICA
ELABORACIóN DE EXPERIMENTOS DIDáCTICOS DE DIVULGACIóN CIENTíFICA Y ALGORITMO DE TOMOGRAFíA óPTICA
Lazo Ascencio Joel Ivan, Universidad de Guadalajara. Vega Lirios Omar, Universidad de Guadalajara. Asesor: Dra. Areli Montes Pérez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La educación científica juega un papel fundamental en el desarrollo y progreso de una sociedad. En México, como en muchos otros países, es esencial fomentar el interés y la comprensión de las ciencias desde edades tempranas para formar ciudadanos críticos y competentes en campos científicos y tecnológicos. Sin embargo, el acceso a la ciencia en las comunidades más marginadas del país presenta un gran rezago con respecto a la población en las grandes metrópolis, los bajos índices de escolaridad, así como el difícil acceso a materiales de laboratorio para llevar a cabo ciencia experimental son una gran barrera que limita significativamente la calidad de la enseñanza en estas áreas. Por lo que durante el verano de investigación se proponen experimentos con material de fácil acceso, y con un lenguaje científico básico, carente de excesivos tecnicismos que puedan resultar complicados de entender en diversos estratos o niveles del público receptor.
La tomografía óptica es una técnica de diagnóstico que usa la transformada de Radón para obtener imágenes detalladas de los datos de proyección de una función de rebanada. Sin embargo, estas imágenes pueden carecer de nitidez en los bordes. Se propone el realce de bordes con la transformada de Hilbert para mejorar la calidad. Ambas transformaciones son complejas y requieren mucho costo computacional. Durante la investigación se hace uso de un algoritmo numérico desarrollado en el programa Mathematica V. 6.0, para simular distintas funciones donde se reconstruye la rebanada del objeto y se hace realce de borde direccional, siempre dentro del contexto de tomografía óptica y sus conceptos clave, de forma tanto teórica como numérica, para objetos de fase (que afecta la fase de la luz que lo atraviesa).
METODOLOGÍA
Se seleccionaron los conceptos físicos clave que se abordarán en los experimentos. Estos conceptos incluyen la descomposición de la luz, la magnificación de objetos, la interacción de la luz con superficies delgadas y la medición del tiempo mediante un reloj de sol. Se procedió a realizar el diseño detallado de cada experimento, y se establece una lista de materiales necesarios para cada uno, priorizando aquellos que son económicos y fáciles de conseguir en tiendas locales.
Se reúnen todos los materiales requeridos para cada experimento. Se verifican y prueban para asegurarse de que sean adecuados para ilustrar los conceptos físicos de manera efectiva, siendo seguros y manipulables dentro de una gran variedad de entornos. Una vez seguros de su funcionalidad, se llevaron a cabo las pruebas de los experimentos, para asegurarse de su fácil realización y comprensibilidad en una gran variedad de niveles de público.
Finalmente se elaboró material visual, en este caso reportes o una guía, como las utilizadas en un laboratorio, intentando exponer de forma clara y sencilla toda la información necesaria para comprender los conceptos físicos, y los pasos para llevar a cabo el pequeño experimento, que en conjunto se complementan para una comprensión del tema efectiva y didáctica.
Adicionalmente a la serie de experimentos de bajo costo diseñados para divulgar conceptos físicos en un enfoque didáctico y accesible, se llevó a cabo una investigación paralela en el ámbito de la tomografía óptica. Este proyecto utilizó un algoritmo avanzado para realizar la reconstrucción tomográfica con realce de bordes de la rebanada de un objeto.
La tomografía óptica, una técnica no invasiva que utiliza la interacción de la luz con los tejidos biológicos para generar imágenes tridimensionales, es un campo en rápido desarrollo. En este proyecto, se aplicaron principios matemáticos fundamentales para lograr la reconstrucción precisa, como las transformada de Radón, el teorema de la rebanada central de Fourier, y la transformada de Hilbert.
Primero se tuvo que estudiar la parte física, con estos conceptos y la tomografía óptica en general como enfoques principales, y cómo la aplicación de estos conceptos está implementada en el algoritmo, por pasos, para proceder a manipularlo para llegar a nuevos resultados.
En el algoritmo funciona bajo las especificaciones generales:
• La luz se comporta como línea recta que no se desvían con el objeto o se dispersan
• La difracción, refracción y posibles cambios en la polaridad de la luz son descartados o despreciados
• La rebanada del objeto es continua y 0 fuera de la rebanada misma
Se define la rebanada del objeto como una función f(x,y), donde la rebanada representa una fracción del cuerpo del objeto que se está estudiando. Se obtienen entonces el senograma de la transformada de Radón, la transformada de Fourier de las proyecciones en los nuevos ejes rotados, se coloca el filtro signo o escalón de fase para obtener la transformada de Hilbert en el plano, un senograma de la transformada de Hilbert, y con ello la retroproyección filtrada, y la reconstrucción de la rebanada, tanto en un plano 2D como en 3D.
CONCLUSIONES
Mediante la realización de los experimentos, se logró demostrar de manera efectiva cómo los conceptos físicos pueden ser fácilmente comprendidos y experimentados por cualquier persona, independientemente de su nivel de conocimiento previo. La divulgación se logró a través de la experiencia directa y visual, lo que permitió a los participantes no solo absorber los conceptos teóricos, sino también apreciar su aplicación práctica en situaciones cotidianas.
La aplicación del algoritmo para tomografía óptica brindó una herramienta poderosa para visualizar estructuras internas de objetos con alta resolución y realce de bordes, lo que tiene aplicaciones potenciales en campos como la investigación biomédica y la inspección industrial. Y la ejecución exitosa de este proyecto paralelo resalta la versatilidad del enfoque de investigación de verano, donde tanto la divulgación de conceptos físicos a través de experimentos accesibles como la exploración de tecnologías avanzadas pueden coexistir en una sinergia educativa y científica.
León Altamirano Faustino Zarif Carlos, Universidad Michoacana de San Nicolás de Hidalgo
Asesor:Dr. Moisés Cywiak Garbarcewicz, Centro de Investigaciones en Óptica (CONACYT)
PROGRAMACIÓN MULTIPLATAFORMA EN AMBIENTE VISUAL EN LA PLATAFORMA DE PYTHON
PROGRAMACIÓN MULTIPLATAFORMA EN AMBIENTE VISUAL EN LA PLATAFORMA DE PYTHON
León Altamirano Faustino Zarif Carlos, Universidad Michoacana de San Nicolás de Hidalgo. Zicatl García José Alfredo, Universidad Autónoma de Guerrero. Asesor: Dr. Moisés Cywiak Garbarcewicz, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El estudio de figuras geométricas es demandado en diferentes áreas de las ciencias exactas donde tener un buen dibujo ayuda a que el análisis de estas sea más preciso y entendible para los estudiantes, por ello cada vez más la tecnología nos pone a disposición programas y aplicaciones que nos permiten graficar y dibujar figuras geométricas de una manera más precisa de la que comúnmente podríamos hacer en un ambiente de papel y lápiz, sin embargo, con la creciente demanda que tienen estas aplicaciones cada vez son menos las que nos permiten trabajar de manera gratuita o sin interrupciones, es por ello, que aprender cómo realizar graficas o polígonos de manera autónoma es muy importante para alumnos que estudian carreras afines.
METODOLOGÍA
Se instaló el idle de Python, las librerías necesarias para ejecutar de manera correcta la librería kivy y se hicieron las pruebas preliminares para comprobar su funcionamiento. Después se procedió a la comprensión del sistema de programación, dado el grado de dificultad, comenzamos a realizar algunos programas básicos, comenzando por graficar la función senoidal seno, esta práctica nos ayudó a comprender como funcionaba nuestra ventana de trabajo la cual ajustábamos a el más adecuado número de pixeles y cada alternancia de nuestra función la graduamos a la unidad de medida micras (0.0001 centímetros). Siguiendo la misma teoría graficamos una función gaussiana, obteniendo así nuestras primeras graficas en R2.
Tomando de base el código de la función gaussiana en R2 agregamos un nuevo eje y pasamos a generar una red de todos los puntos de la función dada con un arreglo (mesh), este arreglo nos permite visualizar nuestra función gaussiana en R3.
Una vez estudiada y comprendida la teoría matemática de como graficar los polígonos en R2 y R3 pasamos a introducir elementos de programación para posicionar y rotar elementos en una pantalla, para esto implementamos el uso de la librería kivy y creamos un nuevo archivo con extensión .kv, en nuestro archivo de Python definimos una clase Form1 y una función Initialize que al ejecutar el código van a crear una pantalla flotante (FloatLayout), de dimensiones determinadas y desde nuestro archivo kv comenzamos con el diseño de esta pantalla agregando dos botones.
Una vez creada esta ventana se proyecta un primer polígono dentro de la pantalla el cual construimos a través de la función DrawEdges que une vértices formando un cuadrado y se dibuja al presionar el primer botón, ahora bien, para poder rotar esta imagen primero se define la función Rotate que mueve las posiciones de los vértices haciendo girar el polígono respecto a un eje. Después se procede a hacer un arreglo a la función Initialize para que cada vez que estas se ejecuten, en la ventana flotante se dibuje automáticamente el polígono.
Lo siguiente es definir las funciones de los botones y desde el archivo kv configuramos el botón 1 para que ejecute dos acciones; con la primera (Button1_Click) el polígono cambia de posición una sola vez, mientras que con la segunda acción (Button1_Release) siempre que este se mantenga presionado no dejara de girar nuestro polígono. Como se proyectó en R2, la función del botón 2 es realizar estas mismas acciones, pero en sentido contrario.
Habiendo realizado esta proyección de polígonos en R2 se sigue modificando el código para lograr generar ahora un polígono en 3D, creamos una copia de los archivos anteriores y ahora se define el polígono cubo para esto agregamos nuevos vértices para así formar una cara frontal y una trasera. Definidos los puntos usamos de nuevo la función DrawEdges para dibujar el polígono en nuestro FloatLayout. De esta manera al ejecutar el código la función Initialize automáticamente va a dibujar nuestro cubo en la ventana flotante. Dibujado el polígono buscamos la manera de poder rotarlo solo que esta vez es mucha más compleja la teoría de cómo lograr mover el cubo respecto un eje, es por ello que se comienza por modificar la función Rotate para lograr mover a ambas caras del cubo sin que el polígono se deforme o altere su estructura.
Una vez modificado el código y comprendida la teoría de cómo funcionan las rotaciones en R3, pasamos a automatizar estas rotaciones con la creación de botones que al igual que en R2 cumplen las dos acciones. Al existir 3 ejes sobre los cuales girar, es necesaria la creación de 6 botones los cuales realizan las siguientes acciones:
Button1 gira el polígono en la dirección de los ejes x-y mientras que el Button2 invierte esta acción.
Button3 gira el polígono en la dirección de los ejes x-z mientras que el Button4 invierte esta acción.
Button5 gira el polígono en la dirección de los ejes y-z mientras que el Button6 invierte esta acción.
Teniendo estos botones en correcto funcionamiento, se agrega el Button7 el cual realiza la acción de guardar nuestro polígono dibujado en nuestro ordenador en formato PNG.
CONCLUSIONES
Durante esta estancia de investigación se logró estudiar y comprender la teoría matemática que existe de tras de cada línea de código que se programa para lograr proyectar polígonos en un ambiente virtual, el llevar las ideas de un lenguaje matemático a un código de programación en ocasiones resulta complejo, sin embargo, Python nos ha permitido llevar estas ideas a una nueva faceta donde logramos manipular los polígonos que dibujamos para así lograr ver sus diferentes perspectivas, ya sea que este proyectado en R2 o bien en R3. Se espera que con el seguimiento de estas prácticas se logren visualizar estos y otros polígonos en una imagen estereográfica o imagen 3D. Al final hemos logrado nuestros objetivos planteados con la generación de este tipo de figuras y entendido las múltiples aplicaciones que podrían tener en diferentes áreas de la ciencia.
León García Amairani, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Sindy Mirella Chamorro Solano, Universidad Simón Bolivar
SIMULACIÓN DE LA DINÁMICA CUÁNTICA DE LA TRANSFERENCIA DE ENERGÍA EXCITÓNICA (EET) EN LA FOTOSÍNTESIS.
SIMULACIÓN DE LA DINÁMICA CUÁNTICA DE LA TRANSFERENCIA DE ENERGÍA EXCITÓNICA (EET) EN LA FOTOSÍNTESIS.
León García Amairani, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Sindy Mirella Chamorro Solano, Universidad Simón Bolivar
PLANTEAMIENTO DEL PROBLEMA
La fotosíntesis es un proceso natural que transforma los fotones solares en productos ricos en energía necesarios para impulsar la bioquímica de la vida. Dos procesos ultrarrápidos, la transferencia de energía de excitación y la separación de carga, son fundamentales en este proceso. En condiciones óptimas, cada fotón absorbido es utilizado por el organismo fotosintético. Recientemente, se han logrado demostrar experimentalmente efectos coherentes cuánticos, gracias a los rápidos avances en técnicas experimentales.
Para comprender y describir estos efectos en la fotosíntesis, se requiere recurrir a teorías coherentes, como la teoría de Redfield, que se enfoca en la transferencia de energía excitónica en la fotosíntesis natural. Dicha teoría es beneficiosa para la simulación cuántica y el diseño de dispositivos artificiales de captación de luz. Esto es especialmente relevante dado que, como especie, no generamos suficiente energía en comparación con la que consumimos. Por lo tanto, es crucial encontrar soluciones sostenibles que ayuden a combatir estas circunstancias y mejoren el entorno urbano y nuestra calidad de vida. En este sentido, la investigación en este ámbito forma parte de las bases necesarias para lograr dicho objetivo.
METODOLOGÍA
Para abordar esta investigación se aplicó la siguiente metodología:\
Revisión bibliográfica: Se realizaró una revisión exhaustiva de la literatura científica actualizada en el campo de la Eficiencia en la EET y simulación de espectros de absorción 2D, con el objetivo de comprender las teorías, métodos y avances más recientes en esta área.
Diseño experimental: Se diseñó un código adecuado para obtener la simualción de espectros de absorción 2D de la Eficiencia en la EET a través de códigos fuente y modificaciones, esto implicó la selección de los metódos, paramétros y condiciones ideales para la librería que incluye Teorías Coherentes Cuánticas.
Adquisición de datos: Se realizaron las aproximaciones necesarias para los paramétros en el código de la simulación de espectros de absorción 2D de la EET. Es posible que se requieran adaptaciones o mejoras en los parametros existentes para garantizar que la simulaición sea adecuada.
Análisis de datos: Se aplicaron técnicas avanzadas de análisis de datos y procesamiento de señales en Python para proporcionar la información requerida de los espectros de absorción 2D obtenidos.
Simulación: Se reprodujeron espectros de absorción 2D obtenidos a partir de librerías y técnicas de modelado. Estos resultados serán comparados con los datos existentes para validar la precisión y la confiabilidad de los resultados obtenidos.
Interpretación de resultados: Dentro de lo que se encuetra en los resultados del código tenemos un sistema cuántico de dos moléculas (dímero) interactuando con su entorno térmico; arrojando gráficos de la evolución temporal del sistema cuántico, además la matriz del Hamiltoniano, posteriormente, generá el acomplamiento de resonancia y la dinámica de transferencia de energía que tiene el dímero. Esto permitirá comprender mejor la teoría que involucra su investigación y sus implicaciones en la eficiencia de la EET.
CONCLUSIONES
Confirmamos que la inclusión de efectos cuánticos coherentes en la simulación de la EET en la fotosíntesis, pues se obtuvo una película del espectro de absorción del dímero respecto al tiempo mostrando cómo pasa del estado fundamental al estado excitado; esto es fundamental para obtener resultados precisos y realistas de este fenómeno natural. En la etapa de interpretación de resultados podremos proporcionar una comprensión más profunda de la dinámica cuántica en la fotosíntesis pues esta investigación se deja abierta para un seguimiento y futuros diseños de dispositivos de captación de luz artificial más eficientes. Además, validamos la utilidad de las teorías coherentes en la simulación de sistemas cuánticos, lo que respaldará futuras investigaciones.
León López Manuel Alexis, Instituto Politécnico Nacional
Asesor:Dra. Vianney Muñoz Jimenez, Universidad Autónoma del Estado de México
REVISIóN BIBLIOGRáFICA DE ALGORITMOS DE SEGMENTACIóN PARA CLASIFICACIóN DE CáNCER EN GLáNDULA MAMARIA
REVISIóN BIBLIOGRáFICA DE ALGORITMOS DE SEGMENTACIóN PARA CLASIFICACIóN DE CáNCER EN GLáNDULA MAMARIA
León López Manuel Alexis, Instituto Politécnico Nacional. Rios X Christian, Instituto Tecnológico de Querétaro. Asesor: Dra. Vianney Muñoz Jimenez, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
El cáncer de mama es una enfermedad maligna originada en las células del tejido mamario. Esta patología afecta principalmente a mujeres, pero también puede manifestarse en hombres en menor proporción. La incidencia del cáncer de mama ha ido en aumento en los últimos años, causando un impacto significativo en la vida de las pacientes afectando tanto en su bienestar físico como emocional, por lo tanto, la detección temprana y precisa del cáncer mamario es fundamental para aumentar las tasas de supervivencia y mejorar la calidad de vida de las pacientes.
Dentro de este contexto, los algoritmos de segmentación han demostrado ser herramientas muy valiosas en la identificación, caracterización y clasificación de tumores en imágenes de glándulas mamarias. Sin embargo, a pesar de los avances en el desarrollo de algoritmos de segmentación, aún existen desafíos que obstaculizan su eficacia y precisión. Problemas como la complejidad morfológica de las glándulas mamarias, la variabilidad en la apariencia de los tumores y la presencia de ruido e imperfecciones en las imágenes dificultan la obtención de resultados consistentes y confiables.
De esta forma dentro de la presente estancia de investigación se tuvo como principal objetivo realizar una revisión bibliográfica detallada de los algoritmos de segmentación utilizados en la clasificación de cáncer de mama, analizando posibles fortalezas y limitaciones con el fin de implementar alguno de estos para poder desarrollar una clasificación de un conjunto de imágenes de glándula mamaria.
METODOLOGÍA
Se seleccionaron artículos y trabajos previos, los cuales sirven como guía para el desarrollo del trabajo de investigación. Definiendo la siguiente metología:
Entrada de imagen.
Preprocesamiento.
Segmentación.
Extracción de características.
Selección de características.
Clasificación.
Evaluación.
La etapa de evaluación es importante, pues permitió conocer áreas de oportunidad incluso desde la fase de segmentación y así realizar un reajuste para obtener mejores resultados en la base de reconocimiento.
El conjunto de datos elegido fue CBIS-DDMS que es un dataset disponible en el sitio web Kaggle, que contiene una base de datos de 5GB de almacenamiento.
En este dataset se puede observar una carpeta de imágenes y algunos documentos en formato .csv, los cuales tienen un identificador para cada masa sospechosa y una etiqueta indicando la patología.
Con estas imágenes se buscó reducir la complejidad y el tiempo de ejecución mediante una segmentación previa de las imágenes con la finalidad de obtener únicamente la glándula de las imágenes y posteriormente trabajar sobre esta.
Posterior a la segmentacion, se necesitaba binarizar las mismas con el fin de poder observar las posibles regiones que no pertenecieran al tejido normal de la glándula mamaria; para una correcta binarización se obtuvo en cada imagen su histograma de frecuencias en niveles de grises con el fin de visualizar de forma gráfica el contraste, la luminosidad y la presencia de detalles en diferentes partes de cada imagen para encontrar un patrón y binarizar la imagen para obtener posibles regiones de interés.
Con el histograma se identificó que la tonalidad con mayor frecuencia en nuestra imagen podría representar a una región de interés, además se decidió añadir un porcentaje de error del 15% para definir nuestro umbral de binarización.
Tras haber obtenido la imagen binarizada con nuestras regiones de interés fue posible realizar operaciones morfológicas, así como encontrar todas las posibles agrupaciones de pixeles mediante la búsqueda de contornos cerrados.
Una vez encontrados los contornos de la imagen se procedió a filtrar cada uno de ellos, el proceso de filtrado tuvo como finalidad eliminar aquellos contornos que se encontraran al borde de la imagen ya que estos en su mayoría no pertenecían a la glándula mamaria; consecuentemente, los contornos restantes y pertenecientes a la glándula tendrían diferentes áreas por lo que aquel con mayor área será la agrupación de pixeles con las que buscaremos quedarnos.
Una vez completada la segmentación se extrajeron características de las regiones de intéres de los siguientes tipos:
Morfológicas.
De textura.
Distribución espacial.
Calcificaciones.
Estas características se obtuvieron de las imágenes segmentadas, y fueron almacenadas en un documento .csv.Con ayuda de la librería Pandas de Python se hizo una correcta limpieza y procesamiento de este documento. Finalmente se obtuvo una tabla de 1003 registros de 18 columnas, incluyendo el tipo de patología.
Se ingresó a una red neuronal generada con Keras, la cuál se definió modelo secuencial, con dos capas de 64 y 32 nodos. Adicionalmente una capa final para la clasificación, con una función de activación softmax.
Se realizaron distintas pruebas, pero en la validación del modelo se solo obtener solo 0.57 de exactiud, incluso cuando los datos de entrenamiento mostraban valores de exactitud mayores a 0.7.
CONCLUSIONES
En la estancia de verano se logró tener una introducción al sector de la investigación, permitiéndonos conocer las distintas etapas para un proyecto de investigación, en específico para la segmentación y extracción de características de masas. Fue un proyecto enriquecedor con distintos retos que fuimos tomando.
Al no contar con información que nos indique la posición de la anomalía validar las características de la región de interés podría demandar mayor tiempo. Por lo que para obtener mejores resultados sería necesario comparar algunos ejemplos y verificar rigurosamente la segmentación de masas. Así mismo, evaluar el modelo de clasificación y ajustar los parámetros de la red neuronal.
Lima Salas Saúl Armando, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Alfredo Aranda Fernández, Universidad de Colima
BREMSSTRAHLUNG IN NEUTRINO SCATTERING
BREMSSTRAHLUNG IN NEUTRINO SCATTERING
Lima Salas Saúl Armando, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
Se estudia el scattering de nertrinos con acomplamiento a fotones mediante una lagrangiana efectiva. Particularmente se consideran procesos entre neutrinos del Comsmic Neutrino Background (CNB) y neutrinos solares. El objetivo de este trabajo es realizar el cálculo de la amplitud para este proceso, así como obtener un espectro de energía para el fotón emitido.
METODOLOGÍA
Considerando neutrino de Dirac, los diagramas de Feynman del scattering neutrino-antineutrino son estudiados desde los canales S y T. A partir de la lagrangiana efectiva se determina el valor del vértice con acomplamiento a fotones, y, junto con las reglas de Feynman para QED, se calcula la amplitud para cada posible diagrama.
CONCLUSIONES
Con el calculo de la amplitud para este proceso, se prentende determinar la sección eficaz del mismo. De la misma forma, esto permitirá calcular una distribución de energía para el fotón emitido por bremsstrahlung, lo que da pie a una detección indirecta de neutrinos del CNB.
Lisjuan Palacios Daniela, Instituto Politécnico Nacional
Asesor:Dr. Francisco Eduardo Hernandez Sandoval, Centro de Investigaciones Biológicas del Noroeste (CONACYT)
CONTENIDO DE TOXINAS PARALIZANTES PRESENTES EN MEGAPITARIA SQUALIDA Y CRASSOSTREA GIGAS EN LA BAHÍA DE LA PAZ, BCS, MÉXICO.
CONTENIDO DE TOXINAS PARALIZANTES PRESENTES EN MEGAPITARIA SQUALIDA Y CRASSOSTREA GIGAS EN LA BAHÍA DE LA PAZ, BCS, MÉXICO.
Lisjuan Palacios Daniela, Instituto Politécnico Nacional. Asesor: Dr. Francisco Eduardo Hernandez Sandoval, Centro de Investigaciones Biológicas del Noroeste (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Las toxinas paralizantes (TPs) son producidas por ciertos organismos marinos, como los dinoflagelados de los géneros Alexandrium, Pyrodinium bahamense y Gymnodinium catenatum. Las TP pueden ser acumuladas en los tejidos de los moluscos que se alimentan por filtración, como los moluscos bivalvos. Estas toxinas producen el síndrome de envenenamiento paralizante por consumo de moluscos (Paralytic Shellfish Poisoning, PSP por sus siglas en inglés) y pueden causar intoxicación alimentaria si se ingieren. Las TPs son un grupo de tetrahidropurinas neurotóxicas derivados de la saxitoxina, que tienen potentes efectos neurotóxicos en el humano, mamíferos, sin embargo, las especies de moluscos bivalvos generalmente exhiben diversos grados o nula sensibilidad a las toxinas paralizantes y su capacidad para acumular altas concentraciones de toxinas.
Las toxinas paralizantes, se dividen en tres grupos principales de acuerdo a su potencia y hasta la fecha se han descrito más de 50 análogos: Carbamoil, decarbamoil y sulfocarbamoil. Cada una de estas toxinas con diferente potencial tóxico actúan sobre el sistema nervioso central, dirigiéndose específicamente a los canales de sodio activados por voltaje y bloqueando la transmisión de los impulsos nerviosos. Esta interferencia con el funcionamiento normal del sistema nervioso puede provocar una serie de síntomas y, en casos graves, la muerte por paro respiratorio.
METODOLOGÍA
Para la colecta de los moluscos se realizaron 2 muestreos en cinco estaciones de Bahía de la Paz, Baja California Sur (Punta León, Primera brecha, La mezcalera, Las casitas y Laboratorio), en tres fechas distintas. Las muestras de Megapitaria squalida y Crassostrea gigas, se colectaron por buceo libre y Scuba obteniendo dos organismos por estación. Los moluscos se mantuvieron en bolsas ziploc y en hielo. Una vez en el laboratorio se congelaron, hasta su posterior análisis de toxinas paralizantes.
Para el análisis de las TPs en los tejidos de los bivalvos, los moluscos se desconcharon y fueron licuadas hasta obtener una mezcla homogénea.
Se pesaron 2g de cada muestra y se transfirieron a tubos de ensayo de 15 mL, posteriormente se adicionaron 4mL de ácido Acético 0.03 N, a cada tubo; ya que esto permite que se tenga una mejor extracción, debido a que las toxinas son hidrosolubles y el medio ácido favorece este proceso.
Se mezclaron los tubos, haciendo uso de un vortex durante 5 min aproximadamente; y después se llevaron a un sonicador Cole-Parmer, donde se sonicaron por tres tiempos, durante cinco minutos y con un minuto de descanso entre cada tiempo.
Las muestras se transfirieron las muestras a tubos eppendorf de 2mL y estos se centrifugaron durante 25 minutos, a una temperatura de 15°C a 12,000 rpm.
El sobrenadante se colecto con una jeringa y se filtró haciendo uso de un acrodisco de 0.2 μm para ser depositados en viales de vidrio de 2 mL para su posterior análisis por cromatografía de líquidos de alta precisión (HPLC). Posteriormente, las muestras se refrigeraron durante 24 a 48 horas.
Las muestras inyectadas en el HPLC y detectadas como positivas se le realizó una hidrólisis; donde se transfirieron 300 µL de cada muestra positiva, a un nuevo vial; posteriormente se le adicionaron 74 µL de Ácido Clorhídrico 1 N, se homogenizó posteriormente haciendo uso de un vortex, durante 30 segundos y estas se llevaron a incubar en un termoblock durante 15 minutos en una temperatura de 90°C, transcurrido el tiempo, se dejó enfriar y se volvió a homogenizar por 30 segundos, para adicionarle 150 µL de Acetato de sodio y finalmente se homogenizó por 30 segundos.
CONCLUSIONES
Debido a ciertas condiciones, la molécula de saxitoxina puede transformarse de una molécula a otra, sin menoscabo de su estabilidad. Estas transformaciones pueden ser llevadas a cabo por los dinoflagelados que la producen y/o por el molusco mismo, que adquieren la saxitoxina vía consumo del dinoflagelado. Los cambios en el perfil de toxinas en dinoflagelados pueden estar asociados a factores extrínsecos como la temperatura y la disponibilidad de algunos macro y micronutrientes (Gárate-Lizárraga et al., 2004b, 2005,2006; Band-Schmidt et al., 2005).
En términos del porcentaje molar de cada grupo almejas analizadas, el perfil estuvo compuesto de un total de 8 análogos formados por GTX2, GTX3, (carbamato), dcSTX, dcGTX2, dcGTX3 (Decarbamato), B1, C1 y C2 (N-sulfocarbamato).
El perfil de toxinas está compuesto en un 0.60% del grupo carbamato, 2.21% de decarbamato y 97.19% de N-sulfocarbamato.
Los resultados del perfil de toxinas en M. squalida presentaron dominancia de las toxinas tipo C, seguidas del grupo decarbamoil (dcSTX, dcGTX2, dcGTX3).
Los resultados obtenidos muestran diferencias en los perfiles de toxinas, estas son expresadas como porcentaje molar. En la mayoría de las estaciones dominan las toxinas de menor toxicidad (C1 y C2). En las estaciones Punta León, Las Casitas y Primera brecha, se presenta la mayor concentración de toxinas paralizantes (97.38%). La diferencia de los diversos niveles de toxinas presentes en cada una de las estaciones, se puede explicar por un posible desfasamiento en el desarrollo del florecimiento en las diferentes zonas muestreadas o por el tiempo de depuración de la M. squalida.
Igualmente, de los resultados positivos obtenidos durante el análisis, se obtuvo una menor concentración de TPs (94. 6461 µgSTXeq/100g) y una concentración máxima de 139.2498 µgSTXeq/100g.
Con lo expresado en la NOM-EM-SSA1-2001 se conoce que el límite máximo permisible de saxitoxinas presentes en moluscos bivalvos es de 80 µgSTXeq/100g; dando así que 8 muestras de 16 analizadas en este trabajo, exceden dicha normatividad. Se identificó la estación de Primera brecha, como la localidad con mayor concentración de TPs.
Se identificaron 8 análogos de saxitoxinas en el perfil de Megapitaria squalida del presente estudio (GTX2, GTX3, dcSTX, dcGTX2, dcGTX3, B1, C1 y C2), toxinas reportadas para la misma zona de estudio (Hernández-Sandoval et. al., 2009).
Se obtuvieron valores fuera del límite permisible de µg STXeq/100g de molusco presentes en moluscos bivalvos; dando así que en las estaciones Punta León y Primera brecha, se tuvieron dos muestreos positivos para cada uno.
Lomeli Felix Angel Yamil, Universidad de Guadalajara
Asesor:Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara
SíNTESIS Y CARACTERIZACIóN DE PELíCULAS DELGADAS POR SOL-GEL PARA APLICACIONES EN CELDAS SOLARES.
SíNTESIS Y CARACTERIZACIóN DE PELíCULAS DELGADAS POR SOL-GEL PARA APLICACIONES EN CELDAS SOLARES.
Lomeli Felix Angel Yamil, Universidad de Guadalajara. Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Esta investigación se enfoca en la síntesis y caracterización de películas delgadas de ZnO que incorporan puntos cuánticos de carbono obtenidos a partir de ajo negro. El objetivo principal es desarrollar películas delgadas que puedan ser utilizadas en celdas solares, aprovechando la luz ultravioleta absorbida por los puntos cuánticos y su capacidad de emitir luz blanca. Además, se busca observar los efectos de absorbancia y fotoluminiscencia en las películas resultantes.
METODOLOGÍA
El proceso de síntesis involucró dos soluciones de 10 ml de metanol, cada una conteniendo 0.05 g y 0.015 g de polvo de ajo negro, respectivamente, junto con 0.5 g de acetato de zinc. Las películas delgadas se depositaron sobre sustratos de vidrio utilizando el método sol-gel. Los sustratos se sumergieron en la solución de puntos cuánticos en metanol durante unos segundos y luego se sometieron a una temperatura de 120°C durante 2 minutos. Este proceso se repitió cinco veces para cada película. Se prepararon dos películas para cada concentración de puntos cuánticos que fueron sometidas a tratamientos térmicos a 200°C y 400°C, obteniendo un total de cuatro películas. En la fase de caracterización, las diferentes soluciones de QDs fueron sometidas a espectroscopia de UV-vis y a técnicas de fotoluminiscencia para comparar la absorbancia y espectro emitido de las diferentes concentraciones, enseguida las películas también fueron caracterizadas con las mismas técnicas para observar si los QDs fueron adheridos a las películas y las propiedades que adquirieron.
CONCLUSIONES
El estudio logró sintetizar y caracterizar películas delgadas de ZnO que incorporan puntos cuánticos de carbono obtenidos a partir de ajo negro. La metodología de deposición mediante el método sol-gel demostró ser versátil para fabricar películas con propiedades personalizadas. Las técnicas de caracterización utilizadas, como la espectroscopía UV-visible y fotoluminiscencia, proporcionaron información valiosa sobre las propiedades ópticas y el rendimiento de las películas.
Lomeli Ponce Geraldine, Benemérita Universidad Autónoma de Puebla
Asesor:M.C. Alba Maribel Sánchez Galvez, Benemérita Universidad Autónoma de Puebla
DISEñO E IMPLEMENTACIóN DE UNA RED NEURONAL CONVOLUCIONAL PARA LA CLASIFICACIóN DE IMáGENES UTILIZANDO LA BASE DE DATOS CIFAR-100
DISEñO E IMPLEMENTACIóN DE UNA RED NEURONAL CONVOLUCIONAL PARA LA CLASIFICACIóN DE IMáGENES UTILIZANDO LA BASE DE DATOS CIFAR-100
Alvarez Sanchez Ricardo, Benemérita Universidad Autónoma de Puebla. Lomeli Ponce Geraldine, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Alba Maribel Sánchez Galvez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En el campo de la visión por computadora, la clasificación precisa de imágenes es un desafío significativo debido a la complejidad y diversidad de los datos visuales. Para abordar este problema, una herramienta poderosa es el uso de Redes Neuronales Convolucionales (RNC), que es una clase de modelos de aprendizaje profundo. Las RNC se inspiran en la organización visual del cerebro y han demostrado resultados prometedores en una amplia gama de aplicaciones, desde el reconocimiento facial hasta la detección de objetos en tiempo real.
La importancia de las Redes Neuronales Convolucionales radica en su capacidad para realizar un aprendizaje jerárquico de características, lo que les permite aprender automáticamente a reconocer patrones y representaciones complejas a partir de datos visuales.
En el contexto del aprendizaje supervisado, las RNC requieren conjuntos de datos etiquetados para entrenarse adecuadamente. El aprendizaje supervisado implica proporcionar ejemplos de entrada junto con las salidas correctas asociadas para que el modelo aprenda a mapear las características de entrada a las etiquetas correctas. En este enfoque, es esencial contar con un conjunto de datos que contenga imágenes y sus correspondientes etiquetas de clase, lo que permite que la RNC se entrene para realizar tareas de clasificación de manera efectiva.
Para el desarrollo de nuestro trabajo de investigación, nos enfocamos en el dataset CIFAR-100, que es ampliamente utilizado en el ámbito de las RNC y la visión por computadora. El CIFAR-100 es un conjunto de datos que contiene 100 clases de objetos diferentes, con cada clase compuesta por 600 imágenes de 32x32 píxeles. La presencia de múltiples clases y la diversidad de objetos en el CIFAR-100 presentan un desafío interesante para evaluar la capacidad y eficacia de las RNC en tareas de clasificación de imágenes a gran escala.
De este modo nos proponemos diseñar y desarrollar una Red Neuronal Convolucional utilizando el aprendizaje supervisado en el dataset CIFAR-100. Nuestro objetivo es explorar la capacidad de la RNC para lograr una alta precisión en la clasificación de imágenes de este dataset, así como analizar su rendimiento en comparación con otros enfoques de clasificación. Así esperamos contribuir al avance de la visión por computadora y al uso efectivo de las RNC en aplicaciones del mundo real.
METODOLOGÍA
Para el diseño del algoritmo se siguieron los siguientes pasos:
Carga y preparación del conjunto de datos:
Se importa TensorFlow y se utilizan las funciones necesarias para cargar el conjunto de datos CIFAR-100.
Se divide el conjunto de datos en dos partes: datos de entrenamiento y datos de prueba.
Normalización de datos:
Los valores de los píxeles de las imágenes se normalizan dividiéndolos para asegurar que estén en el rango de 0 a 1.
Definición de la arquitectura de la RNC:
Se crea un modelo secuencial, una pila lineal de capas, para construir la RNC.
Se definen las capas de la RNC, que incluyen:
Dos capas de convolución (Conv2D) con función de activación ReLU para extraer características significativas.
Dos capas de MaxPooling2D para reducir la dimensión espacial de la representación.
Dos capas de Dropout para prevenir el sobreajuste.
Una capa Flatten para convertir la salida en un vector 1D.
Dos capas Dense (totalmente conectadas) con función de activación ReLU y softmax, respectivamente, para obtener las probabilidades de pertenencia a cada clase.
Compilación del modelo:
Se compila el modelo utilizando el optimizador Adam y la función de pérdida.
La precisión se define como la métrica a evaluar durante el entrenamiento.
Entrenamiento del modelo:
Se define el tamaño del lote utilizado en el proceso de entrenamiento.
Se establece el número de épocas para iterar sobre el conjunto de entrenamiento.
Se inicia el proceso de entrenamiento utilizando el método "fit", pasando los datos de entrenamiento y prueba para la validación.
Durante el entrenamiento, el modelo ajustará sus parámetros para minimizar la pérdida y mejorar la precisión en la clasificación de imágenes.
Al seguir esta metodología, se espera obtener un modelo de RNC capaz de clasificar imágenes en una de las 100 categorías del conjunto de datos CIFAR-100.
CONCLUSIONES
Al entrenar el modelo durante 200 épocas, se alcanzó una precisión del 84% en la clasificación de imágenes. Esta precisión es un indicador sólido de la efectividad del modelo en la tarea de clasificación. Para futuras investigaciones, la precisión se puede mejorar con ajustes finos en la arquitectura de la RNC como otra selección de hiperparámetros y la experimentación con combinaciones de funciones de activación distintas a las usadas.
López Aceves Cecilia Geraldine, Universidad de Guadalajara
Asesor:Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
SOLUCIóN DE LA ECUACIóN DE ONDA CON APRENDIZAJE AUTOMáTICO BASADO EN LA FíSICA.
SOLUCIóN DE LA ECUACIóN DE ONDA CON APRENDIZAJE AUTOMáTICO BASADO EN LA FíSICA.
Camacho López Jesús José, Universidad Autónoma de Occidente. López Aceves Cecilia Geraldine, Universidad de Guadalajara. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La física busca comprender los mecanismos detrás del comportamiento que observamos del mundo que nos rodea. Para ello hace uso de modelos matemáticos, cuyo propósito es describir, explicar y predecir el comportamiento de diversos sistemas. Estos se diseñan a partir del conocimiento de las leyes físicas que gobiernan al sistema y el análisis de los datos recopilados en experimentos.
Los modelos matemáticos suelen ser ecuaciones diferenciales que se buscan resolver para conocer la evolución de alguna variable de interés. En algunos casos es posible resolverlas de forma analítica, encontrando la expresión exacta que describe al sistema. En otros casos se utilizan métodos numéricos como el método de diferencias finitas que pueden resolver la ecuación con cierto margen de error. Recientemente se cuenta con una nueva herramienta: las redes neuronales.
Las redes neuronales son estructuras que forman parte del aprendizaje automático. Con estas, se busca aproximar el comportamiento de una función y su entrenamiento se basa en minimizar una función de pérdida, que mide qué tan lejos está el valor estimado por la red del valor real dentro de un conjunto de datos de entrenamiento. Por ello suelen tener un pobre desempeño fuera del dominio de los datos de entrenamiento. Es por esto que han surgido las redes neuronales informadas por la física (PINNs por sus siglas en inglés), en las cuales se añade la ecuación diferencial junto con las condiciones iniciales y de frontera como términos adicionales a la función de pérdida, y con esto logra aproximar la función fuera del dominio de datos de entrenamiento con una mayor exactitud.
Para entender cómo funcionan este tipo de redes neuronales durante el Verano de Investigación buscamos solucionar la ecuación de onda en 1D y 2D.
METODOLOGÍA
Con el objetivo de contar con un conjunto de datos para entrenar la red neuronal se utilizó el método de diferencias finitas para resolver de antemano la ecuación de onda en una y dos dimensiones con condiciones de frontera de Dirichlet y Neumann. Se consideraron los siguientes casos en una dimensión:
Un medio de velocidad homogénea y una fuente en un extremo, con condiciones de Neumann iguales a cero.
Un medio compuesto de dos capas de velocidades distintas y una fuente en un extremo, con condiciones de Neumann iguales a cero.
Y se consideraron casos similares en dos dimensiones:
Un medio de velocidad homogénea y una fuente en el centro, con condiciones de Dirichlet iguales a cero.
Un medio con capas de distintas velocidades y una fuente cerca de la superficie, con condiciones de frontera de Dirichlet iguales a cero.
Una vez contamos con la solución de estos cuatro casos por el método de diferencias finitas procedimos a estudiar la biblioteca de funciones DeepXDE. Examinamos las demostraciones de la solución de problemas directos (como la ecuación de calor) contenidos en la guía de usuario y nos basamos en estas para diseñar el algoritmo de la red neuronal.
CONCLUSIONES
Durante la estancia de verano hemos aprendido a utilizar la biblioteca de funciones DeepXDE para la creación de redes neuronales basadas en la física con el objetivo de resolver la ecuación de onda en una y dos dimensiones. Sin embargo, aún se necesita diseñar el algoritmo definitivo de la red neuronal que se utilizará para resolver la ecuación para luego comparar sus resultados con los obtenidos por el método de diferencias finitas.
Además adquirimos los conocimientos teóricos necesarios para poder resolver ecuaciones diferenciales por el método de diferencias finitas y como aplicar distintas condiciones de frontera en este método mediante una implementación en Python.
López Collazo Ana Laura, Universidad Autónoma de Chiapas
Asesor:Dr. José Reyes Gasga, Universidad Nacional Autónoma de México
ESTRUCTURA Y CARACTERIZACIóN QUíMICA DEL DIENTE HUMANO.
ESTRUCTURA Y CARACTERIZACIóN QUíMICA DEL DIENTE HUMANO.
López Collazo Ana Laura, Universidad Autónoma de Chiapas. López Rendón Maria del Mar, Universidad Tecnológica de Pereira. Molina Gómez Aneth de Jesús, Universidad Autónoma de Chiapas. Olguin Plomares Uriel, Instituto Politécnico Nacional. Asesor: Dr. José Reyes Gasga, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Para estudios microscópicos del diente humano, se emplea con frecuencia el ácido orto fosfórico. Esta es una sustancia corrosiva que tiene la capacidad de debilitar y desmineralizar el barro dentinario. Se aplica en la superficie del diente y disuelve la componente orgánica e inorgánica del diente, exponiendo la estrctura interna de la dentina y el esmalte. Por otro lado, el refresco de cola contiene ácido fosfórico, agua, azúcares, cafeína y colorantes, que tienen la capacidad de atacar los componentes inorgánicos de las muestras dentales, facilitando la descomposición de proteínas que están en la matriz dental. El uso del refresco de cola como agente de ataque, es una alternativa menos corrosiva en comparación con otros ácidos altamente concentrados. Al revelar de forma diferencial los componentes inorgánicos y orgánicos, se obtiene información valiosa sobre la estructura, composición y posibles alteraciones dentales, lo que contribuye al avance del conocimiento en odontología y a la mejora de los tratamientos y diagnósticos relacionados con la salud bucal.
METODOLOGÍA
1. Se utilizó un diente molar de una persona adulta y se observó la muestra en un estéreo microscopio Zeiss para un reconocimiento estructural.
2.Para realizar el corte transversal y longitudinal en el diente y eliminar la raíz, se utilizó un cortador de disco de diamante Buehler-IsoMet 1000. De allí, se obtuvieron 6 muestras de diente con 0.5 mm de espesor, dejando a simple viste el esmalte y la dentina.
3.Se desbastaron las muestras con lijas No.2000 y No.4000, empleando abundante agua. Seguidamente se hizo un pulido hasta lograr un acabado espejo, empleando un paño de microcloth y polvo de alúmina en tamaños de 5, 1.0, 0.3 y 0.05 micras . Lo anterior, con el fin de aplanar las superficies, reducir el espesor y eliminar defectos en la superficie del diente. Después de pulir, se lavaron las muestras con agua durante un minuto, para eliminar cualquier rastro de impureza. Seguidamente, se colocaron en un vaso de precipitado con isopropanol al 60% y se hizo un baño ultrasónico con un equipo Branson modelo 1510 durante quince minutos. Finalmente, las muestras se secaron con aire comprimido
4.Para revelar la estructura microscópica de la dentina y el esmalte, las muestras se colocaron en una caja de Petri y se cubrieron completamente con las sustancias atacantes. La muestras fueron atacadas primero con ácido ortofosfórico al 32 % durante 2 min. Luego se atacaron con refresco de cola durante 30 min, 1 hora y 1hora 45 min. Pasado este tiempo, se lavaron las muestras con agua durante un minuto y se secaron con aire comprimido.
5.Las 6 muestras atacadas se observaron mediante 3 técnicas de microscopía: microscopio óptico, SEM 5600LV y SEM 7800F.
CONCLUSIONES
-De acuerdo con las estadísticas de los diámetros de los túbulos dentinarios y los prismas del esmalte, las muestras que fueron atacadas con refresco de cola obtuvieron un efecto similar a las muestras atacadas con ácido orto fosfórico. Sin embargo, la morfología de los túbulos dentinarios y los primas de las muestras atacadas con ácido orto fosfórico revelaron una mayor remoción de la matriz inorgánico de la dentina y el esmalte.
-De las posibles variables que impidieron un mayor revelado de las estrructuras del esmalte, se encuentra el tiempo de exposición del refresco de cola.
-El estudio elemental químico de las muestras atacadas, reveló la presencia de los elementos que componen la Hidroxiapatita. A pesar del alto contenido en azúcares del refresco, no se evidenciaron cambios significativos en la composición química de las muestras atacadas con este compuesto.
-La hipótesis planteada es verdadera, el ácido ortofosfórico y el refresco de cola atacan el material orgánico del diente.
López Espinoza Sabina, Universidad Autónoma de Baja California
Asesor:Dr. Eri Atahualpa Mena Barboza, Universidad de Guadalajara
EL AGUJERO NEGRO DE KERR
EL AGUJERO NEGRO DE KERR
López Espinoza Sabina, Universidad Autónoma de Baja California. Asesor: Dr. Eri Atahualpa Mena Barboza, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
A lo largo de la historia de la Física han habido grandes avances y descubrimientos, pero no fue hasta el siglo XIX que nos dimos cuenta que la Física Newtoniana no describía con precisión algunos fenómenos naturales, por lo que A. Einstein construyó, alrededor de 1905-1915 entre otros temas de física, la teoría de la relatividad, con la cual presentó un acercamiento detallado del comportamiento del universo con ayuda de sus ecuaciones de campo. Una de las soluciones más interesantes y misteriosas a estas ecuaciones son los agujeros negros, los cuales fueron predichos por esta teoría y al paso de los años se detectó su presencia, confirmando su existencia física. El estudio de estos objetos ha llevado al descubrimiento de sus distintas propiedades, en el caso de que esté rotando y sin carga se conoce como agujero negro de Kerr, por la solución a las ecuaciones de campo de Einstein a la que llegó Roy Kerr en 1963.
Se cree que los agujeros negros en rotación deben ser los más comunes en la naturaleza, por lo que su estudio es de suma importancia. El espacio-tiempo que rodea a estos cuerpos curva el espacio-tiempo, cuestión que es descrita por la teoría de la relatividad. Esto afecta el comportamiento de cualquier objeto que esté a su alrededor y es descrito por las ecuaciones de campo de Einstein. Para profundizar el conocimiento que tenemos de este fenómeno es esencial el estudio partiendo de lo que ya se conoce sobre éste y la comprensión de cada elemento de las ecuaciones de Einstein. Con el objetivo de promover el avance del conocimiento del área y una educación de calidad para el público en general, en esta estancia de verano 2023 de investigación se redactó un artículo para la divulgación de lo desarrollado a lo largo de los años sobre lo que corresponde a este fenómeno, incluyendo un desglose de cómo se llega a las ecuaciones de campo de Einstein.
METODOLOGÍA
Por una parte, las ecuaciones de campo de Einstein describen la geometría del espacio-tiempo, mientras que por la otra está descrita la distribución de masa y energía en él. Para tener todos los elementos que las componen se parte de una métrica, la cual puede ser representada por medio de un tensor métrico y es la forma en la que se miden distancias alrededor de algún cuerpo masivo debido a la curvatura que éste ocasiona en el espacio-tiempo. Para lograr una familiarización con el procedimiento, primeramente se realizaron los cálculos algebraicos a mano partiendo de la métrica de Schwarzschild, la cual describe al espacio que rodea a un agujero negro estático.
Primeramente hicimos un estudio bibliográfico acerca de relatividad, después se calcularon los símbolos de Christoffel, los cuales fueron desarrollados por Elwin Bruno Christoffel, que indican cómo cambia el sistema de coordenadas en cada dirección y consisten en las derivadas parciales de los términos del tensor métrico. Posteriormente, se calcularon los 256 términos del tensor de curvatura de Riemann, los cuales parten de los símbolos de Christoffel y permiten que el tensor describa la curvatura del espacio en todas las direcciones posibles. Después, por medio de una contracción del tensor de Riemann se llegó al tensor de Ricci, el cual es útil para la optimización de los cálculos y aparece directamente en las ecuaciones de campo de Einstein. Seguido a esto se calculó el escalar de Ricci, el cual también aparece en las ecuaciones, se obtiene por medio de una contracción del tensor de Ricci y representa la curvatura promedio en todas las direcciones. Con estos elementos se conforma la parte que describe a la geometría del espacio-tiempo.
La parte que presenta la distribución de masa y energía consiste en constantes y el tensor de energía-momento, el cual es proporcional al tensor de curvatura de Einstein, consistente en la parte derecha de las ecuaciones de campo de Einstein. Con esto tenemos todos los elementos necesarios para conformar y comprender las ecuaciones de Einstein para un agujero negro estático. Todos estos cálculos se hicieron con una fuerte base en la teoría presentada en el libro Introducing Einstein’s Relativity de Ray d’Inverno.
Después de realizar a mano lo descrito anteriormente, dada la complejidad de la métrica de Kerr, se realizaron los cálculos con la ayuda del Software Maple y la librería GR-Tensor, los cuales han sido desarrollados para facilitar los cálculos que competen a lo estudiado por la teoría de la relatividad general. Con la ayuda de estas herramientas se llegó a las ecuaciones de campo de Einstein para el agujero negro de Kerr.
Para el desarrollo profundo y la adaptación al artículo redactado se realizó un estudio a través de diversas fuentes de la teoría de relatividad general y de las propiedades y características del comportamiento de tanto los agujeros negros en general como de específicamente los agujeros negros de Kerr.
CONCLUSIONES
Durante la estancia de verano 2023 se adquirieron conocimientos teóricos de los agujeros negros de Kerr y se comprendió con profundidad la forma en la que la teoría de la relatividad describe al espacio-tiempo. Se lograron plasmar las bases dentro de un artículo para el acercamiento de la población al tema y la promoción del estudio del área y de los objetos asombrantes que son los agujeros negros, en específico el de Kerr.
Lopez Muñoz Erick Emiliano, Universidad de Guadalajara
Asesor:Mg. Cesar Augusto Tovio Gracia, Fundación Universitaria Colombo Internacional
ESTIMACIóN DE LA ENERGíA DE GRADIENTE SALINO EN DESEMBOCADURAS POR MEDIO DE AUTOAPRENDIZAJE
ESTIMACIóN DE LA ENERGíA DE GRADIENTE SALINO EN DESEMBOCADURAS POR MEDIO DE AUTOAPRENDIZAJE
Lopez Muñoz Erick Emiliano, Universidad de Guadalajara. Reyna Ortega Edgar Eduardo, Universidad de Guadalajara. Asesor: Mg. Cesar Augusto Tovio Gracia, Fundación Universitaria Colombo Internacional
PLANTEAMIENTO DEL PROBLEMA
A día de hoy, existe una emergencia global debido al aumento de temperatura promedio, que ha traído consigo graves consecuencias como la pérdida de biodiversidad hasta el aumento de desastres naturales. Es preciso responder a esta crisis, Afortunadamente la Organización de la Naciones Unidas (ONU) a tomado cartas en el asunto proponiendo los objetivos de desarrollo sostenible (ODS).
Estos objetivos son un conjunto de objetivos globales para erradicar la pobreza, proteger el planeta y asegurar la prosperidad para todos como parte de una nueva agenda de desarrollo sostenible, estos fueron propuestos por la ONU en el año 2015 con la meta de alcanzarlos para el año 2030.
Bajo el marco del IX Encuentro Internacional de Pasantías de Investigación Delfín 2023, se ha buscado contribuir con los ODS ya mencionados. Más propiamente, este trabajo se centra en el objetivo número siete: Energía Asequible y No Contaminante, el cual busca garantizar que todos los habitantes del mundo tengan acceso a servicios energéticos, duplicar la tasa mundial de eficiencia energética, ayudar con infraestructura y tecnologías mejoradas a países menos desarrollados para su acceso a fuentes de energía modernos y sostenibles, entre otras metas.
Es conocido que entre las fuentes de energía renovables disponibles, se encuentran por ejemplo la eólica, geotérmica, solar y oceánica, entre otras. La energía oceánica, puede obtenerse de distintas formas: por marea, corrientes marinas, oleaje, gradiente de temperatura o gradiente de salinidad.
Desde mediados de la década de los 50´s Pattle demostró por primera vez, que es posible aprovechar este último fenómeno para generar energía, conocido como energía por gradiente salino [1] (EGS por sus siglas en español). Dicha energía se obtiene al mezclar dos soluciones de distinta salinidad, como puede ser agua de río y agua de mar, la cuantificación de esta energía se encuentra en la física de la energía libre de Gibbs. Este tipo de energía limpia y renovable, puede ser extraída en desembocaduras de ríos a lo largo de todo el mundo, siendo una opción viable para cerca del 40 por ciento de la población que vive relativamente cerca de las playas. [2]
Existen diversas técnicas para extraer la energía como lo son ósmosis por presión retardada (PRO), electrodiálisis inversa (RED), entre otras. Siendo estas dos las que más fama e investigación han provocado. [1,3]
Bajo este concepto, este trabajo busca evidenciar el posible uso y aprovechamiento de la energía por gradiente salino que es posible encontrar en desembocaduras de ríos en todo el mundo, no solo de manera cualitativa sino también cuantitativa a través de un modelo de autoaprendizaje.
METODOLOGÍA
Para mostrar los resultados de la siguiente sección, se trabajó con el dataset data_rios.xlsx, el cual es una recopilación de distintas desembocaduras de ríos, las cuales se encargan de observar y medir propiedades de estos, como su morfología (ancho y profundidad relativamente cerca de las desembocaduras), y sus ubicaciones geográficas. El trabajo puede ser dividido en 4 partes: caracterizaron las desembocaduras de los ríos en base a su caudal, estimación de una muestra para la construcción de un modelo de autoaprendizaje, determinaron los hiperpárametros del modelo estadístico y por último la validación del modelo.
La caracterización de las desembocaduras de los ríos fué posible debido a un filtro aplicado a los datos y, dado que una cantidad significativa de ellos no contenían toda la información en cuanto a morfología, de un total de 690 ríos, resultaron 280 ríos: cerca de un 41 por ciento solo poseía los datos completos. De manera siguiente, se realizó un gráfico de correlación entre las longitud y ancho de las desembocaduras buscando comportamientos matemáticos conocidos. Con los mismos datos se obtuvo un gráfico de tipo Raincloud, el cual ayudó a visualizar y filtrar ciertos grupos o clústers de datos de aquellos que se mostraban atípicos, como fué el caso del río Amazonas, dado que contenía el máximo caudal.
Posteriormente, se probó con distintas muestras aleatorias de cierto porcentaje de los ríos filtrados. Como muestra final se utilizó un 70% para la construcción del modelo, y un 30% como datos para validación, como parte de preprocesamiento de los datos, se normalizaron y estandarizaron para que la variabilidad de los datos sea comparable entre las diferentes variables. Utilizando el modelo de autoaprendizaje basado en la regresión de Krigin (DiceKrigin) se obtuvieron los hiperparametros. Para la obtención de estos últimos, se utilizó una función tal, que el modelo brinde el mejor resultado de un total de n iteraciones con la misma muestra. Se utilizaron desde una, luego de diez en diez hasta llegar a cien iteraciones para visualizar el avance del modelo según las iteraciones, guardando los hiperparámetros de cada paso en la iteración.
Los hiperparámetros fueron ingresados a otra función llamada predict que, como su nombre indica, predijo el comportamiento de los datos de los ríos de dicha muestra aleatoria de validación. Finalmente para visualizar la calidad del modelo se obtuvo el coeficiente de correlación Q cuadrado, dando un resultado por encima de 0.9 en todos los pasos, indicando un buen modelo.
En última instancia, únicamente habría que cambiar la variable caudal, que es entrada y salida en el algoritmo utilizado, por la energía de gradiente salino de los ríos de cierta muestra aleatoria y repetir la metodología implementada.
CONCLUSIONES
Durante el desarrollo de este proyecto, se adquirieron conocimientos sobre la energía de gradiente salino. Aplicando técnicas de machine learning y análisis de datos se realizaron pruebas de entrenamiento para un modelo de autoaprendizaje con el objetivo de predecir el caudal de ríos teniendo en cuenta su morfología y caudal. Se espera completar este trabajo cambiando la variable caudal por energía de gradiente salino teórico y obtener un modelo entrenado confiable.
López Páez María Fernanda, Universidad de Ciencias y Artes de Chiapas
Asesor:Dr. Norberto Hernández Como, Instituto Politécnico Nacional
DISEñO, FABRICACIóN Y CARACTERIZACIóN DE SEMICONDUCTORES
DISEñO, FABRICACIóN Y CARACTERIZACIóN DE SEMICONDUCTORES
López Páez María Fernanda, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Los Transistores de Película Delgada (TFT) consisten en finas capas de materiales que crean un transistor de efecto de campo. Entre las principales aplicaciones de este tipo de transistores se encuentran sensores, displays, electrónica flexible, entre otros. Los TFT hechos con IGZO como material semiconductor poseen limitaciones, entre ellas se encuentra el uso de circuitos como apoyo, esto es por las limitantes en su uso en circuitos digitales, es por esto que se analizaron diferentes técnicas de lógica para el diseño y fabricación de compuertas lógicas haciendo uso de este tipo de transistores, para esto se compararán los resultados de las mediciones para explicar el porqué del comportamiento de los transistores y compuertas fabricadas.
METODOLOGÍA
Se llevó a cabo una investigación teórica, esto es con el fin de recopilar datos sobre los diseños desarrollados en otros trabajos, con esto logramos obtener valores típicos para las compuertas a diseñar. Posteriormente, se simuló el comportamiento de estos circuitos en tecnología de transistores de silicio, probando diferentes parámetros tomando nota de los resultados observados.
Una vez determinados los parámetros de L, W y β, se comenzó a realizar el layout de los transistores utilizando el programa L-Edit 16, con lo que se diseñó cada uno de los circuitos utilizando como base el diseño básico de un transistor creado en el Centro de Nanociencias y Micro y Nanotecnologías. Se diseñaron configuraciones con distintos parámetros de compuertas tipo NOT, NAND, NOR, XOR Flip-flop, Pseudo CMOS y oscilador.
Posteriormente, se realizó la fabricación con el diseño de las compuertas, para lo cual se unieron todos los diseños en un solo layout. Como sustratos se utilizaron un vidrio Corner Eagle XG y Kapton HN PI. Se hizo una previa limpieza para preparar los sustratos con acetona, IPA y agua sin ultrasonido durante un minuto cada uno. Para el depósito de la compuerta se utilizó cromo y posteriormente oro mediante evaporación e-beam. Se realizó la fotolitografía con S1813, durante 30 s, a 3915 rpm y recocido 115°C. Se reveló con MF-319 por 1:30 min, también recocido a 115°C. Se hizo un ataque húmedo con Au y Cr. Por último se hizo una limpieza durante un min con acetona, IPA y agua cada uno sin ultrasonido, obteniendo un espesor total promedio de 55 nm. Se realizó una limpieza con ácido sulfúrico (H2SO4) y peróxido de hidrógeno (H2O2) en ambos sustratos, pero el ataque en el de Kapton fue más agresivo y se deshizo parte del depósito, por lo que se detuvo el proceso, continuando únicamente con el de vidrio.
Para realizar el depósito del dieléctrico fue utilizado óxido de aluminio (Al2O3) con un depósito atómico en capas (ALD), utilizando como precursor TMA y H2O. Se realizó una fotolitografía para la siguiente capa de S1813, durante 30 s a 3915 rpm y recocido durante un minuto a 115°C. El revelado fue durante un minuto con MF-319. Se realizó un ataque y nuevamente la misma limpieza. Esta etapa se concluyó con un espesor de 25 nm.
Se procedió a hacer la fotolitografía con el procedimiento anterior. El semiconductor utilizado fue IGZO aplicado con sputtering. El ataque fue hecho con cloruro de hidrógeno (HCl) y H2O, quedando un espesor promedio de 11.5 nm. Se hizo la limpieza con acetona, IPA y agua sin ultrasonido durante un minuto cada uno. Y se recoció a 150°C durante una hora.
Para la capa de fuente y drenador se realizó la misma fotolitografía. Estos fueron hechos de molibdeno (Mo) mediante sputtering y se realizó el lift-off y la limpieza con acetona, IPA y agua con ultrasonido durante un minuto cada uno. Como resultado se obtuvo un espesor de 215 nm. Por último, se aplicó la capa pasivante de PMMA A6 con spinner, se realizó la fotolitografía y un ataque seco, quedando una capa de 900 nm.
Se llevaron a cabo mediciones en las estaciones de caracterización eléctrica, se extrajeron los datos haciendo uso de un osciloscopio, además se pusieron a prueba los diferentes circuitos desarrollados bajo diferentes casos para así poder observar las variaciones en su funcionamiento.
Se procedió a utilizar un programa para procesar los datos, este fue Origin, posteriormente se clasificaron los datos obtenidos anteriormente y se limpiaron las señales con los conocimientos enseñados anteriormente, durante esta etapa además se prosiguió con la toma de fotografías con microscopio de los distintos circuitos fabricados, esto es con el fin de poder realizar informes de cada circuito junto con evidencia fotográficas y con gráficas de su funcionamiento.
CONCLUSIONES
Durante esta estancia de verano, logramos adquirir conocimientos teóricos y prácticos en el área de transistores de película delgada, teniendo además la oportunidad de estudiar y aprender sobre todas las etapas relacionadas a la fabricación de circuitos electrónicos, durante esta estancia además tuvimos la oportunidad de estudiar y analizar distintos tipos de lógica y de poner a prueba diferentes tamaños de transistores, pudiendo así observar las diferentes ventajas y desventajas de nuestros circuitos y sirviendo además como retroalimentación para futuros diseños.
Algunos de los conocimientos obtenidos fue el rendimiento respecto a caídas de voltajes obtenidos al trabajar con diferentes lógicas, así como el incremento en los tiempos de operación al trabajar con circuitos que requieren de más de una fuente y los desplazamientos verticales que observamos en las gráficas al aumentar o disminuir la diferencia entre los voltajes.
Esta experiencia fue un gran primer acercamiento a un entorno de investigación que nos permitió conocer de primera mano la rutina que lleva un investigador y nos permitió conocer uno de los temas con los que podríamos llegar a trabajar.
López Ramos Angel Andrés, Universidad Autónoma de Baja California
Asesor:Dr. Sair Enrique Arquez Mendoza, Universidad Simón Bolivar
DISEñO DE UN LáSER PULSADO EN FEMTOSEGUNDOS
DISEñO DE UN LáSER PULSADO EN FEMTOSEGUNDOS
López Ramos Angel Andrés, Universidad Autónoma de Baja California. Asesor: Dr. Sair Enrique Arquez Mendoza, Universidad Simón Bolivar
PLANTEAMIENTO DEL PROBLEMA
Desde el surgimiento de la teoría cuántica a principios del siglo pasado, los descubrimientos y postulados científicos han estado avanzando de una forma como nunca antes se había visto. Es por ello que la tecnología no puede permitirse quedarse estancada usando solamente los principios de la física clásica; la innovación tecnológica debe ir a la par que la teoría para seguir desarrollándonos como humanidad y que todos los grandes avances que nuestros científicos logran, no se queden solamente en cálculos y papel.
Aléjandonos un poco de la necesidad de reducir la brecha ciencia-tecnología, es muy importante mencionar que a medida que los fundamentos teóricos de la ciencia avanzan, se vuelve cada vez más necesaria la implementación de mecanismos y sistemas que permitan sustentar estos conceptos mediante la experimentación. Hablando de sistemas cuánticos, la capacidad y características requeridas que un equipo de experimentos debe tener es sumamente específica. De ahí la necesidad de diseñar un láser pulsado en femtosegundos capaz de irradiar energía en forma de pulsos ultra cortos con alta potencia; los cuales tienen diversas aplicaciones en el campo científico, en nuestro caso: la biología cuántica.
METODOLOGÍA
Para lograr el objetivo, se plantean diversas formas de abordar este proyecto, las cuales se dividen según los métodos a utilizar o el propósito que tiene cada una. Se enlistan a continuación:
1. Recopilación de Bibliografía. Se investiga toda la información posible con respecto a las capacidades de los láseres de femtosegundo disponibles en el mercado, así como las aplicaciones más comunes y los casos en los que se hayan construido exitosamente en proyectos previos.
2. Comprensión de la física general de un láser. Se recopilan los artículos necesarios para entender de dónde viene la tecnología láser y cómo es que ésta funciona a nivel físico, tomando en cuenta los conceptos de la Óptica que sean indispensables para este propósito.
3. Planteamiento de las Fases del Diseño. Se emplearán las fases utilizadas en el sector aeroespacial, las cuales pueden ser aplicadas a diversos trabajos de ingeniería, como es el caso de este proyecto. La metodoología a usar en esta etapa es la propuesta por Daniel Reynmar con los ciclos circulares del diseño.
4. Análisis de componentes. Es de extrema importancia una exhaustiva búsqueda de información con respecto a los elementos que conforman el mecanismo de un láser pulsado en femtosegundos, ya que existen muchas marcas en el mercado con capacidades distintas, por lo que depende del investigador encontrar las mejores opciones según el propósito que se desea cumplir.
5. Análisis de componentes. Es de extrema importancia una exhaustiva búsqueda de información con respecto a los elementos que conforman el mecanismo de un láser pulsado en femtosegundos, ya que existen muchas marcas en el mercado con capacidades distintas, por lo que depende del investigador encontrar las mejores opciones según el propósito que se desea cumplir.
6. Simulación. Idealmente se espera lograr una simulación del funcionamiento del láser pulsado con la ayuda del software Proteus principalmente, y ThinkerCad como elemento de ayuda.
CONCLUSIONES
Siguiendo nuestra metodología, se consiguió un dibujo CAD en el software CATIA donde se reunen los componentes ensamblados dentro de una cavidad que permite un grado de 100 femtosegundos. Se diseñaron también los planos de cada uno de estos elementos, así como el del acomodo resultante.
El desarrollo de este trabajo fue un reto debido a las grandes diferencias que existen entre el campo aeroespacial y el óptico. Existían numerosos conceptos ajenos al plan de estudios ofrecido en el programa educativo de Ingeniería Aeroespacial que resultaron complejos de entender pero que son necesarios para lograr obtener un trabajo de calidad.
En cuanto a la investigación de componentes, fue un proceso de aprendizaje muy enriquecedor, ya que el sector de los lentes, láseres y demás elementos ópticos es un área que ofrece mucha versatilidad en cuanto a sus posibles aplicaciones, por lo que estar informado sobre los diferentes fabricantes encargados de maquinar estas piezas es una remarcable ventaja que me permitirá obtener cada vez resultados más eficientes y competitivos en futuros procesos de investigación.
Este proyecto se mueve en los límites de la innovación tecnológica, ya que aunque existen diversas opciones de compra de láseres pulsados en el mercado, el medio activo en el que se desarrolla la emisión de luz (Titanio-Zafiro) presenta características que involucran los conocimientos en ciencias de los materiales aplicado a nivel cuántico, ya que se logra una duración de pulso tan corta gracias a las mismas propiedades de excitación de las partículas.
López Rendón Maria del Mar, Universidad Tecnológica de Pereira
Asesor:Dr. José Reyes Gasga, Universidad Nacional Autónoma de México
ESTRUCTURA Y CARACTERIZACIóN QUíMICA DEL DIENTE HUMANO.
ESTRUCTURA Y CARACTERIZACIóN QUíMICA DEL DIENTE HUMANO.
López Collazo Ana Laura, Universidad Autónoma de Chiapas. López Rendón Maria del Mar, Universidad Tecnológica de Pereira. Molina Gómez Aneth de Jesús, Universidad Autónoma de Chiapas. Olguin Plomares Uriel, Instituto Politécnico Nacional. Asesor: Dr. José Reyes Gasga, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Para estudios microscópicos del diente humano, se emplea con frecuencia el ácido orto fosfórico. Esta es una sustancia corrosiva que tiene la capacidad de debilitar y desmineralizar el barro dentinario. Se aplica en la superficie del diente y disuelve la componente orgánica e inorgánica del diente, exponiendo la estrctura interna de la dentina y el esmalte. Por otro lado, el refresco de cola contiene ácido fosfórico, agua, azúcares, cafeína y colorantes, que tienen la capacidad de atacar los componentes inorgánicos de las muestras dentales, facilitando la descomposición de proteínas que están en la matriz dental. El uso del refresco de cola como agente de ataque, es una alternativa menos corrosiva en comparación con otros ácidos altamente concentrados. Al revelar de forma diferencial los componentes inorgánicos y orgánicos, se obtiene información valiosa sobre la estructura, composición y posibles alteraciones dentales, lo que contribuye al avance del conocimiento en odontología y a la mejora de los tratamientos y diagnósticos relacionados con la salud bucal.
METODOLOGÍA
1. Se utilizó un diente molar de una persona adulta y se observó la muestra en un estéreo microscopio Zeiss para un reconocimiento estructural.
2.Para realizar el corte transversal y longitudinal en el diente y eliminar la raíz, se utilizó un cortador de disco de diamante Buehler-IsoMet 1000. De allí, se obtuvieron 6 muestras de diente con 0.5 mm de espesor, dejando a simple viste el esmalte y la dentina.
3.Se desbastaron las muestras con lijas No.2000 y No.4000, empleando abundante agua. Seguidamente se hizo un pulido hasta lograr un acabado espejo, empleando un paño de microcloth y polvo de alúmina en tamaños de 5, 1.0, 0.3 y 0.05 micras . Lo anterior, con el fin de aplanar las superficies, reducir el espesor y eliminar defectos en la superficie del diente. Después de pulir, se lavaron las muestras con agua durante un minuto, para eliminar cualquier rastro de impureza. Seguidamente, se colocaron en un vaso de precipitado con isopropanol al 60% y se hizo un baño ultrasónico con un equipo Branson modelo 1510 durante quince minutos. Finalmente, las muestras se secaron con aire comprimido
4.Para revelar la estructura microscópica de la dentina y el esmalte, las muestras se colocaron en una caja de Petri y se cubrieron completamente con las sustancias atacantes. La muestras fueron atacadas primero con ácido ortofosfórico al 32 % durante 2 min. Luego se atacaron con refresco de cola durante 30 min, 1 hora y 1hora 45 min. Pasado este tiempo, se lavaron las muestras con agua durante un minuto y se secaron con aire comprimido.
5.Las 6 muestras atacadas se observaron mediante 3 técnicas de microscopía: microscopio óptico, SEM 5600LV y SEM 7800F.
CONCLUSIONES
-De acuerdo con las estadísticas de los diámetros de los túbulos dentinarios y los prismas del esmalte, las muestras que fueron atacadas con refresco de cola obtuvieron un efecto similar a las muestras atacadas con ácido orto fosfórico. Sin embargo, la morfología de los túbulos dentinarios y los primas de las muestras atacadas con ácido orto fosfórico revelaron una mayor remoción de la matriz inorgánico de la dentina y el esmalte.
-De las posibles variables que impidieron un mayor revelado de las estrructuras del esmalte, se encuentra el tiempo de exposición del refresco de cola.
-El estudio elemental químico de las muestras atacadas, reveló la presencia de los elementos que componen la Hidroxiapatita. A pesar del alto contenido en azúcares del refresco, no se evidenciaron cambios significativos en la composición química de las muestras atacadas con este compuesto.
-La hipótesis planteada es verdadera, el ácido ortofosfórico y el refresco de cola atacan el material orgánico del diente.
Lopez Renteria Keren Happuch, Universidad de Sonora
Asesor:Mg. Angie Rocio Melo Casas, Universidad Católica de Colombia
MODELO MATEMáTICO EPIDEMIOLóGICO DE LA INFLUENZA EN COLOMBIA.
MODELO MATEMáTICO EPIDEMIOLóGICO DE LA INFLUENZA EN COLOMBIA.
Lopez Renteria Keren Happuch, Universidad de Sonora. Asesor: Mg. Angie Rocio Melo Casas, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
La influenza es una enfermedad infecciosa respiratoria que afecta a millones de personas en todo el mundo cada año. En Colombia, la influenza es una de las principales causas de enfermedad respiratoria y es responsable de un número significativo de hospitalizaciones y muertes cada temporada de invierno. A pesar de la importancia de esta enfermedad, aún no se entienden completamente los factores que influyen en su propagación y la efectividad de las medidas de prevención y control.
En este contexto, surge la necesidad de desarrollar un modelo matemático epidemiológico que permita predecir la propagación del virus en la población y evaluar la efectividad de las medidas de prevención y control. Este modelo podría ayudar a los responsables de la salud pública a tomar decisiones informadas sobre la mejor manera de prevenir y controlar la influenza en el país.
Sin embargo, el desarrollo presenta varios desafíos. Por ejemplo, se requiere una gran cantidad de datos epidemiológicos precisos y confiables para alimentar el modelo y validar sus resultados. Además, se ve afectado por los factores culturales, sociales y ambientales que pueden influir en la propagación del virus en la población colombiana.
METODOLOGÍA
Recopilación de datos: Se recopilarían datos sobre la propagación de la influenza en Colombia, como el número de casos confirmados, el número de muertes, la tasa de infección y la tasa de mortalidad. Estos datos se obtendrían de fuentes como el Ministerio de Salud y Protección Social de Colombia.
Selección del modelo matemático: Se seleccionaría un modelo matemático apropiado para el análisis de la propagación de enfermedad.
Validación del modelo: Se validaría el modelo seleccionado utilizando datos históricos de la propagación.
Estimación de parámetros: Se estimarían los parámetros del modelo, como la tasa de transmisión de la enfermedad y la tasa de recuperación, utilizando técnicas estadísticas y matemáticas.
Simulación de la propagación de la influenza: Se simularía la propagación de la influenza en Colombia utilizando el modelo matemático y los parámetros estimados. Esto permitiría predecir la propagación futura de la influenza en Colombia y evaluar la efectividad de diferentes estrategias de prevención y control.
Interpretación de los resultados: Se interpretarían los resultados de la simulación para determinar las tendencias de la propagación y las implicaciones para la prevención y el control de la enfermedad.
CONCLUSIONES
El modelo matemático epidemiológico de la influenza en Colombia presentado en este artículo es una herramienta útil para entender la propagación de la enfermedad en la población. El uso de un diagrama compartimental SEIR, que divide la población en susceptibles, expuestos, infectados y recuperados, permite modelar la propagación de la enfermedad y prever su impacto en la población.
El modelo matemático también incorpora la división de la población infectada en asintomáticos y sintomáticos, lo que permite tener una mejor comprensión de la dinámica de la enfermedad y la importancia de los casos asintomáticos en la propagación de la influenza.
El valor de R0 obtenido en el modelo (R_0= βS_0 (σ/α+δ(1-σ)/η)) es una medida importante de la capacidad de la influenza de propagarse en la población y depende de varios factores, como la tasa de transmisión (β), la tasa de transición de la etapa de exposición a la etapa de infección (σ) y la tasa de recuperación (α, δ y η).
López Rodríguez José Julián, Universidad Autónoma de Sinaloa
Asesor:Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez
APROXIMACIóN NUMéRICA DE LA MáXIMA CAPACIDAD DE ABSORCIóN DE LA SOLUCIóN MEA-H2O PARA UN PROCESO DE CAPTURA DE CO2 POST-COMBUSTIóN
APROXIMACIóN NUMéRICA DE LA MáXIMA CAPACIDAD DE ABSORCIóN DE LA SOLUCIóN MEA-H2O PARA UN PROCESO DE CAPTURA DE CO2 POST-COMBUSTIóN
López Rodríguez José Julián, Universidad Autónoma de Sinaloa. Asesor: Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
El objetivo principal de este estudio es aplicar técnicas de análisis numérico, como regresiones lineales y polinómicas, así como el empleo de técnicas de aprendizaje profundo. Estas técnicas serán utilizadas para encontrar una función que relacione los parámetros de interés, PORCENTAJE DE MEA, CANTIDAD DE SOLUCIÓN, PORCENTAJE DE GAS y FLUJO DE GAS, con la temperatura máxima alcanzada durante el proceso de absorción.
La función objetivo se expresa como:
f(MEA,SOLUCION,GAS,CO2)=MAX_TEMPERATURA
Donde:
MEA representa el porcentaje de Monoetanolamina en la solución (%).
SOLUCIÓN indica la cantidad de solución en la columna de absorción (mL).
hace referencia al porcentaje de dióxido de carbono presente en el gas (%).
GAS denota el flujo de gas que atraviesa MEA en el tubo de absorción(mL/S)
Indica la mayor diferencia de temperatura observada al comparar el gas antes de ingresar a la MEA y el gas una vez que la atravesó.
Mediante este análisis, se busca obtener una herramienta que permita predecir la temperatura máxima alcanzada en el proceso de captura de , lo que será de gran utilidad para el desarrollo y optimización de futuros sistemas de absorción y reducción de emisiones de gases contaminantes.
METODOLOGÍA
Antes de comenzar con el análisis multivariable, se utilizó la biblioteca Seaborn de Python para realizar un análisis de correlación entre las variables que se buscaban. De esta manera, nos aseguramos de que existiera una relación fuerte entre ellas y que fuera factible llevar a cabo la tarea que teníamos entre manos.
Una vez concluido el análisis de correlación, procedimos a utilizar la biblioteca Scikit-learn (sklearn) para realizar una regresión lineal y una regresión polinómica de segundo grado. Estos métodos nos permitieron ajustar los datos mediante el uso de mínimos cuadrados.
Posteriormente, empleamos Keras de TensorFlow en Python para crear un total de 36 redes neuronales con diversas topologías elegidas aleatoriamente. De estas, 18 redes utilizaron la función de activación ReLU, la cual es ampliamente utilizada debido a su bajo costo computacional y su demostrada superioridad en muchas tareas . Para las restantes topologías de redes neuronales, se utilizó la función de activación Tanh, la cual ha mostrado resultados superiores en trabajos de regresión en comparación con la función ReLU. Cabe mencionar que las 18 topologías con ReLU eran idénticas a las 18 topologías con Tanh, con la única diferencia siendo la función de activación empleada. En ambos casos, se realizaron 20,000 iteraciones y se utilizó el optimizador "adam".
Cada una de las topologías se entrenó en 4 veces, debido a que los pesos y bias iniciales se seleccionaron de forma aleatoria. Esta estrategia se implementó para evitar cualquier sesgo que pudiera surgir debido a la aleatoriedad en la inicialización de los parámetros. Entonces, al entrenar las topologías en múltiples ocasiones, se buscaba promediar el error cuadrático medio de las 4 ejecuciones para así seleccionar las mejores topologías.
Después de entrenar las topologías con la función de activación ReLU, se eligieron aquellas que obtuvieron un error cuadrático medio más bajo. A partir de este grupo de topologías seleccionadas, se crearon 7 topologías adicionales. Estas nuevas topologías eran exactamente iguales a las anteriores en cuanto a su arquitectura, pero en lugar de usar la función de activación ReLU, se aplicó la variante conocida como "Leaky ReLU" (con ). Dicha variante ha demostrado ser más efectiva que la ReLU estándar en casi todas las tareas, ya que soluciona los problemas de "neuronas muertas" y el desvanecimiento del gradiente que a veces están asociados con la función ReLU.
Con esto, se completó el proceso de construcción y selección de las redes neuronales para el estudio en cuestión.
CONCLUSIONES
La red neuronal superó al modelo lineal y polinómico en ajustarse a los datos, siendo más precisa para el análisis. Sin embargo, carece de una ecuación explícita para representar las relaciones entre variables, lo que dificulta su interpretación. Además, su complejidad implica mayor costo computacional para predicciones.
La falta de datos impidió validar los modelos completamente, y la frecuencia de medición cada 5 minutos generó ruido en las muestras, afectando la precisión del modelo. Es probable que el máximo registrado no coincida con el real debido a esta limitación temporal.
Reducir el ruido permitiría obtener una ecuación para el modelo, pero debido a la limitación de datos y el ruido presente en las mediciones, no es posible obtener una representación precisa de las relaciones entre variables mediante una ecuación.
López Torres Emiliano, Instituto Politécnico Nacional
Asesor:Dr. Matías Alvarado Mentado, Instituto Politécnico Nacional
MODELO DE SIMULACIóN DE CRECIMIENTO DE CANCER Y RESPUESTA INMUNE EN C++.
MODELO DE SIMULACIóN DE CRECIMIENTO DE CANCER Y RESPUESTA INMUNE EN C++.
López Torres Emiliano, Instituto Politécnico Nacional. Asesor: Dr. Matías Alvarado Mentado, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
A lo largo de nuestra vida desarrollamos distintos padecimientos que nos van afectando de distinta manera, poco a poco deterioran nuestra salud; a lo largo de la existencia humana, se ha luchado constantemente contra un enemigo que parece invisible, el cáncer. Cada vez más personas llegan a ser detectadas con esta enfermedad, comprender como inicia, como se desarrolla y como en ocasiones es erradicada es fundamental para prevenir la mayor cantidad de muertes posibles que se generen por este padecimiento.
El problema que se plantea en esta investigación es la implementación de un modelo de simulación del crecimiento del cáncer y respuesta inmune, modelo que justo nos permite comprender como es el desarrollo de este y las distintas etapas en las cuales lo podemos encontrar.
METODOLOGÍA
El modelo pretende ser implementado en el lenguaje de programación de C++, el modelo original desarrollado por el Dr. Matías Alvarado Mentado y su equipo de trabajo fue implementado en el programa Net Logo, software que permite la simulación de sistemas basado en la programación de agentes que interactúan entre sí en el sistema.
El primer paso es desarrollar un marco similar al que presenta el software NetLogo, en el cual se puedan programar las opciones de interacciones, de igual modo se desarrolla un agente para cada una de las células presentes en nuestro modelo, estas son la base fundamental para las interacciones.
Se codifican cada interacción según una probabilidad entre cada uno de los agentes, de igual modo se codifica el mecanismo de polarización para los agentes que lo requieran, y un mecanismo de autodestrucción.
Sumado a lo anterior es importante codificar un mecanismo por el cual todos los datos de la simulación se vayan almacenando, para posteriormente poderlos graficar y analizar el comportamiento del modelo.
Se codifica un mecanismo para calcular la energía del sistema según el modelo de Ising, el modelo se divide en pasos, cada paso es una interacción de cada célula con todos sus vecinos acorde a una probabilidad establecidas y a reglas predefinidas, terminando ese paso se calcula la energía del sistema en ese momento. Después se continua con el siguiente paso.
Los parámetros del sistema son generados por 4 hiperparámetros, según los valores de estos dependerá el comportamiento de todo nuestro sistema. Se generar una distribución normal con los hiperparámetros.
Finalmente se ejecuta el modelo las veces que se propongan para observar su desarrollo a lo largo del tiempo, generando gráficas comparativas con los datos que se logran obtener.
CONCLUSIONES
Durante la estancia de este verano se logró adquirir los conocimientos teóricos básicos sobre el desarrollo del cáncer y su interacción con el sistema inmune de modo que se pudo implementar un modelo que simulaba justo lo descrito.
Se logró adquirir conocimientos aplicados sobre el desarrollo de aplicaciones con esquema orientado a objetos en el lenguaje C++, utilizando conceptos como clases, clases abstractas, herencia y polimorfismo.
El trabajo no se encuentra aún terminado ya que el desarrollo del modelo conlleva un proceso de prueba y error, por lo mismo no se pueden mostrar los datos generados.
López Vega Montserrat Guadalupe, Universidad de Guadalajara
Asesor:Dra. Astrid Lorena Giraldo Betancur, Instituto Politécnico Nacional
ESTUDIO DE LAS PROPIEDADES ELECTROQUíMICAS DE RECUBRIMIENTOS PROTECTORES Y BIOACTIVOS PARA APLICACIONES BIOMéDICAS.
ESTUDIO DE LAS PROPIEDADES ELECTROQUíMICAS DE RECUBRIMIENTOS PROTECTORES Y BIOACTIVOS PARA APLICACIONES BIOMéDICAS.
López Vega Montserrat Guadalupe, Universidad de Guadalajara. Trinidad Casarrubias Lorena, Universidad de Guadalajara. Asesor: Dra. Astrid Lorena Giraldo Betancur, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En México, según la Dirección General de Información en Salud de la Secretaría de Salud se registró un total de 16,829 pacientes con fractura de cadera en el período entre 2013 y 2018. El número de casos en promedio por año fue de 2,804 ± 388.98 (IC 95%: 5.87). Del total, 11,689 fueron mujeres (69%) y 5,140 hombres (31%). En estas estadísticas solo se incluyeron los casos cuyo paciente fuese mayor de 60 años1. Ahora bien, el tratamiento quirúrgico de las fracturas de cadera es obligatorio en personas mayores, excepto en pacientes cuyo estado general es crítico, es decir, que tienen padecimientos pre-existentes y que implican un riesgo para la salud. De lo contrario, se fuerza la inmovilización a largo plazo, lo que tiene consecuencias desastrosas y una serie de complicaciones que pueden terminar fácilmente en la muerte2. Estos números y las implicaciones mencionadas, dan cuenta de la incidencia que tiene este tipo de padecimientos en el gasto público en salud y la carga económica que puede representar para los pacientes.
Por lo mencionado anteriormente, dentro de las líneas de investigación en las que estuvimos vinculadas, se establecen metodologías para diseñar y fabricar implantes y la funcionalización de su superficie. En torno a esta línea de investigación, una vertiente importante es el establecimiento de cómo los recubrimientos fabricados interaccionan con ambientes fisiológicos actuando como recubrimiento protector o como recubrimiento anclaje. Para estudiar este efecto, nuestro proyecto se enfocó en realizar estudios de corrosión y pruebas electroquímicas en fluidos fisiológicos simulados (SBF) en sustratos de titanio con recubrimientos de hidroxiapatita usados en el reemplazo total de cadera; el objetivo principal es minimizar los efectos de la corrosión dentro de dichos sistemas para potencializar sus propiedades y adaptarse mejor desde el punto de vista biológico y mecánico, buscando minimizar el rechazo después de llevar a cabo un reemplazo articular, y a su vez, prevenir las cirugías de reemplazo (con una tasa de mortalidad que va desde el 2-7%), postoperatorias (con tasa de mortalidad 6-12%) e incrementar la vida útil de la prótesis, lo que contribuye a mejorar la calidad de vida del paciente2.
METODOLOGÍA
Se trabajó con recubrimientos de hidroxiapatita (HAp) que previamente fueron fabricados por el titular usando técnicas de proyección térmica.
Para el caso de los recubrimientos de HAp, se comenzó cortando los sustratos de titanio con un disco de diamante, buscando obtener cuadrados de 2cm x 2cm, para después hacer una guía de corte de estos sustratos en cuadrados de 1cm x 1cm.
Para darle rugosidad y mejor adherencia al sustrato, se granalló sobre una de las caras para, posteriormente, depositar el recubrimiento de hidroxiapatita mediante técnicas de rociado térmico, en este caso se utilizó HVOF y flama, con los parámetros establecidos dentro de la línea de investigación.
Para llevar a cabo las pruebas mencionadas, se preparó 1 litro de solución SBF. Algunas de las condiciones importantes a tener en cuenta al momento de prepararla es el controlar y mantener la temperatura en 36.5 °C (esto con un grado de error de ±0.5), y el pH entre 7.40-7.45.
Cada muestra se soldó de lado del sustrato libre con un alambre de cobre mediante la técnica de soldadura por arco y, posteriormente, se encapsuló con resina cuidando que quedara descubierta la parte del recubrimiento; fue necesario dejar secando al aire libre las muestras con resina durante 24 horas. Transcurrido ese tiempo, se esterilizaron las muestras, una barra magnética y el recipiente dónde se realizaría el proceso, usando luz UV durante 1 hora.
Terminado este proceso, se llevaron a cabo las pruebas electroquímicas y de corrosión en un medio fisiológico simulado; es necesario seguir este proceso debido a que se pretende analizar el comportamiento de los recubrimientos en un medio similar a las condiciones del cuerpo (plasma).
La primera prueba realizada fue la de EIS por sus siglas en inglés (Electrochemical Impedance Spectroscopy), se montó el sistema, el equipo necesario para medir, el software se programó con los parámetros establecidos (respecto a la frecuencia y corriente), y se adecuo el ambiente; esta medición duró aproximadamente de 20-30 minutos por muestra, tomando en cuenta que primero se debe esperar a que finalice el análisis del circuito abierto con una duración de 1 h. Después se continuó con la evaluación Tafel, la cual duró aproximadamente de 10-15 minutos; esta última prueba es destructiva, por lo que no se puede reutilizar la muestra para futuras mediciones, únicamente puede ser usada para caracterización.
Durante la estancia también se pulieron unas muestras que estaban previamente tratadas y encapsuladas, esto con la finalidad de después analizarlas en SEM.
CONCLUSIONES
Después de realizar todas las mediciones, se llevó a cabo el análisis de los resultados obtenidos, esto con la finalidad de comparar los distintos depósitos de HAp para relacionar su funcionalidad y comportamiento (ante la corrosión en el medio fisiológico), de esta manera se puedo comprobar que la hipótesis planteada se cumplió. Derivado de la buena adherencia de los recubrimientos de HAp, se validó que si bien el sustrato no es tan susceptible a la corrosión, el recubrimiento tiene un efecto protector que, además de tener buena interacción con el fluido corporal simulado (bioactividad), actúa como barrera contra el ataque de fluidos fisiológicos simulados. Estos resultados son prometedores, ya que no solo la técnica de fabricación es de mayor acceso, sino que la calidad de los recubrimientos obtenidos tiene alto potencial para probarse en ambientes reales.
Referencias
1.Pech-Ciau BA, Lima-Martínez EA, Espinosa-Cruz GA, Pacho-Aguilar CR, Huchim-Lara O, Alejos-Gómez RA. Fractura de cadera en el adulto mayor: epidemiología y costos de la atención. Acta Ortop Mex. 2021; 35(4): 341-347. https://dx.doi.org/10.35366/103314.
2.Negrete-Corona J, Alvarado-Soriano JC, Reyes-Santiago LA. Fractura de cadera como factor de riesgo en la mortalidad en pacientes mayores de 65 años. Estudio de casos y controles. Acta Ortop Mex. 2014; 28(6): 352-362.
Losoya Sifuentes Diego de Jesús, Instituto Tecnológico de Piedras Negras
Asesor:Dr. Félix Raymundo Saucedo Zendejo, Universidad Autónoma de Coahuila
IMPLEMENTACIóN DE UN MéTODO SIN MALLA PARA APROXIMAR FUNCIONES Y RESOLVER EDPS.
IMPLEMENTACIóN DE UN MéTODO SIN MALLA PARA APROXIMAR FUNCIONES Y RESOLVER EDPS.
Escobar Candelaria Francisco Damián, Universidad Autónoma de Chiapas. Losoya Sifuentes Diego de Jesús, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Félix Raymundo Saucedo Zendejo, Universidad Autónoma de Coahuila
PLANTEAMIENTO DEL PROBLEMA
La resolución de ecuaciones en derivadas parciales (EDPs) es de gran importancia en diversas áreas científicas y de ingeniería. Los métodos numéricos tradicionales para aproximar soluciones de EDPs se basan en la discretización del dominio mediante una malla, lo que puede resultar en limitaciones en términos de adaptabilidad a dominios irregulares y complejidad computacional.
El método sin malla (meshless method) surge como una alternativa a estos enfoques basados en mallas. En lugar de utilizar una malla, este método se basa en la interpolación de datos utilizando funciones de base radial (RBF) para aproximar las soluciones de las EDPs. Sin embargo, aunque el método sin malla ofrece varias ventajas teóricas y prácticas, su implementación plantea desafíos significativos.
El objetivo de este proyecto y estudio es investigar y desarrollar una implementación eficiente y precisa de un método sin malla para aproximar funciones y resolver EDPs. Se busca explorar las ventajas del método sin malla en términos de adaptabilidad a dominios irregulares y reducción de la complejidad computacional. Además, se pretende evaluar y comparar la precisión y eficacia del método sin malla con respecto a los métodos tradicionales basados en mallas.
METODOLOGÍA
En general, la metodología utilizada puede incluir la formulación del problema de valores límite mixtos, la obtención de la solución analítica, la implementación de métodos numéricos para obtener una solución numérica, y la comparación de los resultados obtenidos mediante ambas soluciones.
Recopilación de información:
Realizar una revisión exhaustiva de la literatura científica y técnica relacionada con los métodos sin malla y su aplicación en la resolución de EDPs.
Familiarizarse con los conceptos teóricos y fundamentos matemáticos detrás del método sin malla y las funciones de base radial.
Selección de problemas de EDPs:
Identificar una serie de problemas de EDPs adecuados que permitan evaluar la eficacia y precisión del método sin malla.
Generación de nodos:
Diseñar un algoritmo para la generación de nodos en el dominio de interés, considerando la distribución adecuada de los mismos para una buena aproximación de la solución.
Explorar diferentes estrategias de generación de nodos, como la distribución uniforme o la adaptativa.
Construcción de funciones de base radial:
Implementar algoritmos para construir las funciones de base radial y ajustar sus parámetros según las características del problema.
Evaluación de la precisión y rendimiento:
Aplicar el método sin malla a los problemas de EDPs seleccionados y obtener soluciones numéricas.
Comparar las soluciones numéricas con soluciones analíticas conocidas o soluciones obtenidas mediante métodos tradicionales basados en mallas.
Análisis de resultados:
Interpretar y analizar los resultados obtenidos en términos de precisión, eficacia y adaptabilidad a dominios irregulares.
Conclusiones y recomendaciones:
Resumir las conclusiones clave obtenidas del estudio de implementación del método sin malla.
Ofrecer recomendaciones para futuros investigadores interesados en aplicar o mejorar el método sin malla en la resolución de EDPs.
CONCLUSIONES
Para el análisis del método se consideraron tres probelmas diferentes con con condiciones de frontera distitntos, de Dirchlet, Neumman y otro mas en donde las condicones son mixtas.
Condición de Dirchlet
Para la primera función se obtuvieron muy buenos resultados a priori, pues desde que se concluyó su programación con el método, mostró un error menor al 5%, sin embargo, luego de tantear con las condiciones iniciales y de frontera, se consiguieron mejores aproximaciones tanto visuales como analíticas pues se consiguió reducir el error porcentual a menos del 0.5%. Lo anterior en parte podría deberse que es el que es el que menos modificaciones se hacen en la matriz M.
Condición de Neumman
Con la segunda función sucedió algo un tanto diferente, pues si bien las gráficas mostraban que se tenía la forma de la solución analítica, las escalas diferían en al menos dos órdenes de magnitud; y sin importar cuanto se tratara de modificar las condiciones iniciales, de frontera o de la función de pesos, no había una mejora significativa en los resultados. Por lo que al final se optó por multiplicar los valores obtenidos por un escalar a forma de compensar lo diminuto de los resultados. Dicha estrategia funcionó a la perfección y de empezar con un error cercano a al 200%, se pudo disminuir hasta cerca del 1%. Para éste ejemplo se tuvieron que agregar modificaciones a la obtención de la matriz M, teniendo tres condionales más en comparación con el ejmeplo 1.
Condiciones mixtas
Para el tercer y último caso, no se pudo llegar a estar cerca de algo parecido tanto en forma como en magnitud a la solución analítica (SA). A pesar de tener la experiencia de los otros dos casos previos, no se pudo encontrar la fuente que originara tanta disparidad entre los valores de la SA y la aproximación, pues por más iteraciones del programa o ajustes dentro del mismo no se conseguía que las gráficas empalmaran como anteriormente se logró. Nuestras conclusiones apuntan que al tener que mezclar las distintas condiciones de frontera que involucra tanto a la función U, como suderivada parcial respecto de n.
Finalmente, aunque no se obtuvieron los resultados como se tenía planeado al inicio, no quita mérito al método. Pues hay que recordar que estamos aproximando funciones muy complejas a partir de condiciones de frontera, que, dependiendo del método a elegir, pueden llegar a ser difíciles de implementar.
Además, gran parte del código es reciclable, en el ámbito que, basta con cambiar ciertos parámetros para adecuarla a otra función, lo que le otorga gran versatilidad y ahorro de tiempo al momento de trabajar con EDPs.
Loy Barron Ana Guadalupe, Universidad de Guadalajara
Asesor:Dr. Oscar Ceballos Sanchez, Universidad de Guadalajara
SíNTESIS HIDROTERMAL DE LA HETEROUNIóN DE ZNO/TIO2.
SíNTESIS HIDROTERMAL DE LA HETEROUNIóN DE ZNO/TIO2.
Loy Barron Ana Guadalupe, Universidad de Guadalajara. Asesor: Dr. Oscar Ceballos Sanchez, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La contaminación de los mantos acuíferos debido al vertido industrial de colorantes representa un problema significativo en nuestra sociedad, ya que puede tener graves repercusiones en la salud humana y en el ecosistema que depende de estos recursos hídricos debido al carácter tóxico de estos compuestos.
Actualmente, se emplean diversos métodos para abordar esta problemática, tales como la adsorción con carbón activado, ultrafiltración, osmosis inversa, y coagulación por agentes químico, entre otros. Sin embargo, estos métodos presentan una desventaja importante: solo transfieren los compuestos orgánicos del agua a otra fase, lo que requiere tratamientos secundarios adicionales. Esto hace que el proceso sea complicado y costoso. En contraste, la fotocatálisis emerge como una alternativa prometedora. A través de diversas investigaciones, se ha demostrado su habilidad para degradar distintos colorantes con éxito, lo que la convierte en una opción más eficiente y efectiva para el tratamiento de aguas contaminadas.
METODOLOGÍA
Para la síntesis del material, se emplearon los siguientes reactivos: óxido de zinc y dióxido de titanio como agentes precursores, e hidróxido de sodio como agente mineralizador. El proceso de síntesis comenzó con la preparación de las heterouniones ZnO/TiO2. Establecida ya la relación en peso de 1:1, se trabajó con un total de dos gramos de material para cada síntesis; los cuales se homogeneizaron en un mortero tras combinar los reactivos. Posteriormente, se prepararon tres soluciones de hidróxido de sodio con diferentes concentraciones (3M, 7M y 10M) para cada muestra.
El proceso de síntesis continuó al colocar una solución de óxido de zinc y dióxido de titanio en un vial de teflón dentro del autoclave. El procedimiento se programó para una duración de doce horas, manteniendo una temperatura constante de 150 °C. Una vez finalizada la síntesis hidrotermal, los productos obtenidos se sometieron a lavados hasta alcanzar un pH neutro. Posteriormente, las muestras se secaron en un horno durante seis horas a 120 °C para asegurar una completa desecación.
Los polvos resultantes fueron homogeneizados nuevamente mediante el uso del mortero y posteriormente almacenados para su posterior análisis y caracterización. Adicionalmente, se llevó a cabo un proceso similar con muestras por separado de óxido de zinc y dióxido de titanio, esta vez sintetizadas con una concentración siete molar de hidróxido de sodio, siguiendo los mismos pasos descritos anteriormente.
CONCLUSIONES
Durante la estancia Delfín 2023 se obtuvo conocimiento de los semiconductores aplicados en la fotocatálisis, y su prometedor papel en la disminución de los mantos acuíferos contaminados por colorantes. Además, se obtuvo una valiosa experiencia práctica en el laboratorio, particularmente en el método de síntesis hidrotermal. Se tiene la firme intención de darle una debida continuación al proyecto, con la finalidad de proseguir con experimentos y caracterizaciones en el futuro.
Lugo Fragozo Jesus David, Servicio Nacional de Aprendizaje SENA - Regional Atlántico
Asesor:Dr. Xavier Mathew, Universidad Nacional Autónoma de México
CIENCIA Y TECNOLOGÍA FOTOVOLTAICA
CIENCIA Y TECNOLOGÍA FOTOVOLTAICA
Almazan Ramírez José Abraham, Universidad de Sonora. Lugo Fragozo Jesus David, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Rodriguez Gomez Danilo Jose, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Asesor: Dr. Xavier Mathew, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La radiación solar puede convertirse en electricidad mediante la tecnología fotovoltaica, que ha demostrado ser una fuente de energía fiable y limpia. Sin embargo, aumentar la eficiencia de conversión y reducir los costos asociados es uno de los obstáculos fundamentales para la adopción generalizada de esta tecnología. Las células solares más populares en el mercado hoy en día están hechas de silicio cristalino, que es eficiente, pero tiene restricciones en su flexibilidad de aplicación. Por lo tanto, existe la necesidad de una amplia investigación y desarrollo de nuevos materiales que puedan sortear estas limitaciones y maximizar la producción de energía solar.
METODOLOGÍA
En este proyecto, se desarrollo en el estudio de la ciencia y la tecnología fotovoltaica, abarcando desde los fundamentos más básicos hasta las más complicados de este campo. La exploración de materiales ideales y apropiados para la tecnología fotovoltaica, con un enfoque principal en el silicio, recibió especial atención durante el curso, ya que tenía como objetivo comprender en profundidad la aplicación del conocimiento en esta área. Como resultado de su papel crucial en la eficacia y estabilidad del sistema fotovoltaico, también se examinó la importancia de los diodos en el proceso de absorción de la radiación solar y además de cómo se debe colocar el panel solar dependiendo de nuestra ubicación en el planeta.
Se realizo diversos estudios sobre los mejores materiales para la tecnología fotovoltaica. Debido a sus cualidades semiconductoras y abundancia en la corteza terrestre, el silicio se ha convertido en uno de los materiales más esenciales en la producción de las celdas solares. La composición cristalina del silicio y su capacidad para producir electricidad cuando se expone a la luz solar se examinaron minuciosamente durante el curso. Los resultados de numerosos estudios científicos respaldan la idea de que el silicio es fundamental para la eficacia y la estabilidad de las células fotovoltaicas; Por lo tanto, unos de componentes más importantes son los diodos pues cumple con la función absorber la radiación solar porque realiza la conversión de la radiación solar en electricidad mediante la absorción, que son esenciales para el funcionamiento de los sistemas fotovoltaicos. Con base en lo anterior, se estudiaron diversos cálculos matemáticos, físicos y químicos para afirmar que la tecnología fotovoltaica tiene mucha ciencia y si se ejecuta de la mejor manera correcta se aprovechara toda la radiación solar posible para tener una excelente eficiencia en las celdas fotovoltaicas.
CONCLUSIONES
En este proyecto de verano del programa DELFÍN, aprendimos muchas cosas que nos parecía que la tecnología fotovoltaica no tenía a simple vista pues detrás de él tiene mucha ciencia aplicada y ejecutada.
Hemos adquirido conocimiento sobre la importancia que juega los cristales de silicio y los semiconductores en las celdas solares. Con los cálculos matemáticos, graficas e incluso con ensayos en un laboratorio, que en un futuro cuando se nos dé la posibilidad en nuestra carrera profesional ya tengamos ciertos conocientos mucho más claros al momento de hacer esos cálculos matemáticos, físicos y químicos, buscando siempre la eficiencia al momento de trabajar con la tecnología fotovoltaica.
Madrigal Ojeda Jesús Adrián, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor:Dra. Araceli Sánchez Martínez, Universidad de Guadalajara
SíNTESIS Y CARACTERIZACIóN DE NANOPARTíCULAS DE FERRITAS MAGNéTICAS DE COBALTO (COFE2O4) DOPADAS CON ZINC Y CADMIO.
SíNTESIS Y CARACTERIZACIóN DE NANOPARTíCULAS DE FERRITAS MAGNéTICAS DE COBALTO (COFE2O4) DOPADAS CON ZINC Y CADMIO.
Madrigal Ojeda Jesús Adrián, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dra. Araceli Sánchez Martínez, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Se realizó la síntesis de nanopartículas de ferritas de cobalto (CoFe204) y se doparon con zinc y cadmio para analizar sus diferencias.
METODOLOGÍA
Utilizando el método de coprecipitación el cual permite controlar los parámetros de temperatura y agitación con el fin de modificar el tamaño y crecimiento de las ferritas de cobalto.
CONCLUSIONES
Para esta investigación se realizaron una serie de síntesis de diferentes dopajes de las ferritas de cobalto con Zinc (5%-10%) y cadmio (5%-10%) y otras dos sin dopajes. Todas las síntesis fueron caracterizadas por UV-Vis, Voltamperometria cíclica (VC) y difracción de rayos X (XRD).
Magaña Tovar Leonardo Guadalupe, Universidad de Colima
Asesor:Mtro. Adrian López Hernández, Instituto Tecnológico Superior de Apatzingán
ANÁLISIS GEOESPACIAL EN LOS ESTUDIOS Y DISEÑOS URBANOS E HIDROLÓGICOS POR MEDIO DEL USO DE DRONES
ANÁLISIS GEOESPACIAL EN LOS ESTUDIOS Y DISEÑOS URBANOS E HIDROLÓGICOS POR MEDIO DEL USO DE DRONES
Cano Morfin Ryan Hsan, Instituto Tecnológico Superior de Apatzingán. Magaña Tovar Leonardo Guadalupe, Universidad de Colima. Patricio Alemán Jonathan, Instituto Tecnológico Superior de Apatzingán. Asesor: Mtro. Adrian López Hernández, Instituto Tecnológico Superior de Apatzingán
PLANTEAMIENTO DEL PROBLEMA
Dentro de los últimos años , la población de la región del Municipio de Apatzingán ha crecido espontáneamente ocasionando que el aumento a su vez la demanda exige que la población deba extenderse hacia regiones bastante alejadas, de una manera repentina y sin precedentes, a causa de esta situación las zonas más alejadas de la ciudad se encuentran establecidas en terreno sin estudios ni precedentes previos para determinar la calidad del uso de suelo lo que significa un alto riesgo de sufrir algún daño colateral en toda vivienda que sea construida en dicha zona, la cual se encuentra ubicada en las colonias de nombre Lomas del pedregal y Adolfo López mateos, ubicadas alrededor de una cordillera, exponiendo a las viviendas a sufrir deslaves y derrumbes por el movimiento de ésta.
METODOLOGÍA
El tipo de metodología implementada para la investigación fue mixto, ya que implica un conjunto de procesos de recolección, análisis y vinculación de datos cuantitativos y cualitativos en un mismo estudio o una serie de investigaciones para responder a un planteamiento del problema. Para la investigación cualitativa fue basada por medio de consultas bibliografías de metodologías aplicadas a los deslizamientos de tierra, así como de cuestionarios elaborados para poder dar noción del conocimiento que se tiene acerca de los factores de riesgo de alguna zona en cuestión. Por otra parte la investigación cuantitativa, en la cual a partir de la recolección de datos geoespaciales identificar las zonas susceptibles a deslizamientos y analizar las afectaciones las cuales pudieran pasar. La implementación de la investigación cuantitativa podemos lograr resultados aplicando metodologías de las cuales son para determinar, analizar e identificar las zonas vulnerables en el área de estudio.
CONCLUSIONES
Gracias a las nuevas tecnologías que hoy en día se puede aplicar ciento de metodologías, obtener resultados óptimos y de manera eficaz. La utilización de drones en esta investigación son una herramienta prometedora para el estudio y diseño urbano e hidrológico para la prevención de desastres, los cuales ofrecen una serie de ventajas sobre los métodos tradicionales, incluyendo una mayor precisión, eficiencia y nivel de detalle. Los drones pueden capturar imágenes y datos en alta resolución que pueden utilizarse para identificar áreas de riesgo, monitorear el movimiento de la tierra y evaluar el impacto de los deslizamientos de tierra, así como planificar y diseñar proyectos de prevención de desastres. Por ejemplo, los drones se pueden utilizar para mapear áreas que son propensas a inundaciones, identificar áreas que necesitan ser reforestadas y evaluar el impacto de las obras de infraestructura.
El uso de drones para el estudio y diseño urbano e hidrológico para la prevención de desastres, teniendo optimas mejoraras de precisión, eficiencia y nivel de detalle de la recopilación de datos geoespaciales, con los drones se recopilan datos que pueden utilizarse para salvar vidas y proteger la infraestructura.
Gracias a el equipo GNSS (Sistema Global por Navegación por Satélite) y a la implementación de los Sistemas de información geográfica son parte fundamental para la recolección y producción de datos geoespaciales.
La zona evaluada presentó un ligero desplazamiento en algunas mojoneras, el movimiento que se tuvo fue de 5 mm a 3 cm, determinados estos movimientos son por la influencia de él margen de error de los equipos empleados. En base al estudio obtenido se elaboró una predicción con métodos geoestadísticos de interpolaciones correspondiente al desplazamiento de los puntos de control, el cual sigue un patrón que presentan los puntos de control, aunque no son del todo preciso pues falta información fundamental para poder lograr que funcione con más precisión, pero por otro lado también es válido, puede servir de referencia sobre cómo se está comportando todo el área de interés y así poder dar información a las personas que habitan en sus alrededores, como a las autoridades pertinentes y puedan tener un plan de acción ante un suceso.
En base a la investigación realizada, se recomienda lo siguiente; continuar investigando el uso de drones para el estudio y diseño urbano e hidrológico para la prevención de desastres, desarrollar marcos metodológicos para el análisis de la información recopilada por drones, identificar las principales fuentes de datos proporcionadas por los drones y analizar su relevancia para la identificación de zonas de riesgo, aplicar técnicas de análisis de datos para extraer información útil de los conjuntos de datos y por ultimo evaluar la eficacia del análisis de información mediante la comparación de casos de estudio y la medición de los resultados obtenidos.
Maldonado Santiago Karen Yazmin, Universidad Autónoma Benito Juárez de Oaxaca
Asesor:Dra. Yuridia Arellano García, Universidad Autónoma de Guerrero
SECUENCIA DIDáCTICA PARA DESARROLLAR LAS IDEAS FUNDAMENTALES DE ESPACIO MUESTRAL Y VARIABLE ALEATORIA EN ESTUDIANTES DE SEXTO GRADO DE PRIMARIA.
SECUENCIA DIDáCTICA PARA DESARROLLAR LAS IDEAS FUNDAMENTALES DE ESPACIO MUESTRAL Y VARIABLE ALEATORIA EN ESTUDIANTES DE SEXTO GRADO DE PRIMARIA.
Maldonado Santiago Karen Yazmin, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dra. Yuridia Arellano García, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
Con base en la revisión del programa de estudios SEP (2022) se identifica pocas situaciones de aprendizaje enfocado en el desarrollo del pensamiento probabilístico. Mientras que, según Heitele (1979) las ideas fundamentales de los estocásticos deben desarrollarse desde niveles intuitivos en un curriculum en espiral. Esto significa que es importante desarrollar las ideas fundamentales desde niveles elementales de la educación para que permitan la solución de problemas de problemas de la vida cotidiana de los niños y las niñas.
METODOLOGÍA
Para lograrlo, se rediseñó una secuencia del libro de texto desafíos matemáticos sexto grado de primaria, ese rediseño está basado en la teoría de las situaciones didácticas, las ideas fundamentales de los estocásticos. La investigación siguió como metodología la ingeniería didáctica.
CONCLUSIONES
Se espera que con la implementación de la secuencia los estudiantes desarrollen una idea mas elaborada de espacio muestral y variable aleatoria.Todo esto busca la evidencia de la importancia del desarrollo del pensamiento estocástico desde la educación primaria.
Mancera Cuevas Maria del Carmen, Universidad Autónoma del Estado de México
Asesor:Dr. Octavio Elizalde Solis, Instituto Politécnico Nacional
EVALUACIóN DE LA DENSIDAD DE MEZCLAS DIéSEL – BIODIESEL
EVALUACIóN DE LA DENSIDAD DE MEZCLAS DIéSEL – BIODIESEL
Mancera Cuevas Maria del Carmen, Universidad Autónoma del Estado de México. Martinez Cortés Estefanía, Instituto Tecnológico de Morelia. Asesor: Dr. Octavio Elizalde Solis, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Entre los principales problemas que enfrenta el medio ambiente es el uso excesivo de combustibles fósiles derivados del petróleo, este consumo es el responsable de las grandes cantidades de gases de efecto invernadero que se generan en la actualidad.
Sin embargo, existen otras alternativas en la producción de combustibles que ofrecen soluciones a problemas ambientales, por ejemplo, el biodiesel a partir de aceite quemado (FAME).
El desperdicio e inadecuado tratamiento que tiene el aceite quemado en la industria alimenticia lo convierte en un potencial componente de un biocombustible.
METODOLOGÍA
Para la determinación de las densidades se utilizó un densímetro Anton Paar modelo 4500 M de tubo vibrante. La celda de medición consta de un tubo en forma de "U", el cual está hecho de boro silicato, dicha celda se llena con la mezcla FAME (biodiesel) más diésel. Previamente se realiza una calibración a partir de agua bidestilada y aire seco.
Para preparar la mezcla sintética de FAME más diésel a diferentes composiciones, se necesitó de la masa y peso molecular de cada componente para reportar valores en fracción mol del diésel + biodiesel, la mezcla se agita para homogenizar la mezcla.
El densímetro produce una vibración transversal que provoca una resonancia que se detecta para determinar el periodo de vibración con el que se obtiene la densidad en un rango de 20 °C a 90 °C de temperatura.
Adicionalmente, para una obtención completa de datos de la mezcla de biocombustibles sintetizados fue necesario realizar experimentalmente la medición de viscosidad de FAME a diferentes composiciones y temperatura.
Para la determinación de las viscosidades se utilizaron dos viscosímetros Cannon-Fenske (número 75 y 100) calibrados. Los viscosímetroa fueron expuestos a baño térmico controlado por un baño de circulación en un rango de 20 °C a 70 °C de temperatura.
Los datos se obtuvieron en periodos de tiempo; minutos, segundos y milésimas de segundo, en donde la mezcla FAME recorre dos marcas que forman parte del viscosímetro.
CONCLUSIONES
Durante la estancia científica se observó el comportamiento que tiene una mezcla de diésel y biodiesel a diferentes composiciones, las cuales fueron expuestas a un rango de temperatura de 20 °C a 90 °C. Se identificó que la densidad y viscosidad de los compuestos disminuyen conforme se incrementa la temperatura. Concluyendo que, a mayor cantidad de biodiesel en una mezcla, mayor es su viscosidad y densidad, en comparación con una mezcla con mayor cantidad de diésel.
Adicionalmente se sugiere el estudio de propiedades fisicoquímicas las mezclas estudiadas, como: punto de fusión, porcentaje de humedad, poder calorífico e índice de acidez, esto con el fin de obtener más características de los mismos y analizar la alternativa de su uso como combustible.
Martinez Arizmendi Ana Maria, Universidad Autónoma de Sinaloa
Asesor:Dr. Carlos Isidro Huerta Lopez, Universidad Autónoma de Baja California
PROGRAMA DE CARACTERIZACIóN DE LA RESPUESTA DEL SITIO Y LA RED SíSMICA DE MOVIMIENTO FUERTE DE TIJUANA
PROGRAMA DE CARACTERIZACIóN DE LA RESPUESTA DEL SITIO Y LA RED SíSMICA DE MOVIMIENTO FUERTE DE TIJUANA
Martinez Arizmendi Ana Maria, Universidad Autónoma de Sinaloa. Asesor: Dr. Carlos Isidro Huerta Lopez, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
La sismología está definida como una rama de la geofísica encargada del estudio de los sismos y la propagación de ondas tanto en el interior como en la superficie de la Tierra. Es de gran importancia establecer el concepto debido a que el estudio se encuentra enfocado en la realización y el establecimiento de una red sísmica en la zona de Tijuana, Baja California, lo cual incluiría estaciones sismológicas en diversos puntos del área.
Tener una red sísmica sería de gran beneficio para la población debido al gran impacto que tienen los fenómenos naturales y sobre todo el impacto de los terremotos, los cuales no son fácilmente predecibles.
A lo largo de la historia se ha observado que la ocurrencia de los sismos conlleva efectos geológicos y el impacto en las estructuras de los edificios, así como un daño en los hogares y la interrupción o pérdida de los principales servicios vitales, por ello, durante el verano científico se estará realizando el análisis de datos, estudio introductorio y actividades de visita para obtener conocimientos relacionados a la sismología aplicada a ingeniería civil.
METODOLOGÍA
La estancia del verano científico se llevó a cabo por etapas, comprendiendo diversos temas de estudio para establecer los conocimientos básicos y enfocándose cada vez más en el objetivo inicial.
Se obtuvieron conocimientos generales de sismología, en los cuales se comprendieron temas diversos, comenzando desde la historia de la sismología en donde se vieron los avances y aportaciones de diversos científicos en todo el mundo, así como las bases físicas y geológicas para llegar al punto de estudio de hoy en día. Avanzando en los temas también se encuentran definiciones de gran importancia como las ondas, los tipos de ondas, la manera en que se propagan, el concepto de los sismos, los instrumentos de medición de ondas sísmicas, las capas de la Tierra, los fenómenos que se dan en su interior, las placas tectónicas y sus tipos, entre otros conocimientos adquiridos como introducción para la siguiente etapa, en la que se observarían más específicamente métodos de análisis de ondas sísmicas.
La necesidad de conocer cuantitativamente las frecuencias de las ondas representa una utilidad para la transformada de Fourier que consiste, a grandes rasgos, en pasar del dominio del tiempo al dominio de las frecuencias, lo cual generará un cambio en los esquemas iniciales y presentará amplitudes espectrales, así como frecuencias. Mediante un esquema numérico, la transformada de Fourier es capaz de integrar los datos del dominio del tiempo, descomponer la señal y obtener el dominio de las frecuencias.
El método de Nakamura consiste en aplicar la transformada de Fourier a los datos de registro, llevar el dominio del tiempo al dominio de la frecuencia y después realizar la división del promedio de las componentes horizontales sobre la componente vertical, lo que se conoce como cociente espectral.
Mediante la utilización del programa MATLAB se realizaron diversos ejercicios de comprobación de los métodos mencionados, comenzando por utilizar un conjunto de datos para pasar del dominio del tiempo al dominio de frecuencias, tal como se explicó teóricamente.
Una vez que se tiene el conocimiento de la teoría y práctica de los métodos mencionados, es posible llevar a la práctica el modelado numérico, el cual se explicará a grandes rasgos.
Es necesario utilizar la herramienta de command prompt y el programa MATLAB. Primeramente, se copia el directorio de la carpeta en la que se trabajará, donde se encuentran los archivos para introducir al programa, así como el ejecutable gomsite2.exe y la información programada.
En la ventana de command prompt se ejecuta gomsite2, el cual generará algunos archivos con terminación .out, en donde se alojan una gran cantidad de datos resultantes. Mediante MATLAB se utiliza un código el cual realizará un gráfico final, en el que se observarán la línea trazada con los datos observados y una línea teórica a la cual se deberá ajustar para conocer los parámetros y características con las que se presentará un fenómeno de ese tipo.
Los modelos dependen del número de capas que se tenga en el suelo, pero el proceso seguiría siendo el mismo. La manera en que se modela es mediante prueba y error, utilizando el archivo inicial de entrada, el cual contiene datos geométricos, de espesor, velocidad y densidades de las capas, para la modelación se perturban las capas en cada característica, comenzando por perturbar las capas superiores, después intermedias e inferiores, buscando cambios para asemejar cada vez más la curva de datos a la curva teórica.
Pasando la etapa teórica y de datos, como una de las actividades principales se llevó a cabo la visita a dos estaciones sismológicas para un conocimiento general y dar mantenimiento a las mismas.
Al realizar la visita se encontró que la primera estación, ubicada en la Universidad Autónoma de Baja California, Unidad Otay, estaba en un estado de inundación. Por otro lado, la estación ubicada en el Tecnológico de Baja California tenía daños debido a la humedad, causando que el equipo sufriera debido a los minerales del ambiente.
CONCLUSIONES
Durante la estancia de verano se adquirieron valiosos conocimientos sobre la sismología, sus bases teóricas y la relación que tienen con la ingeniería civil, además de la importancia de tomarla en cuenta para la construcción de estructuras sismo-resistentes, ya que los terremotos son un fenómeno que puede generar grandes daños en las ciudades, sus edificios, los hogares y las personas que los habitan.
También se conocieron aspectos relacionados al desarrollo y análisis de datos, así como la manera en que se adquieren a través de las estaciones sismológicas, lo cual presenta la importancia de tener una red sísmica en la ciudad de Tijuana, para utilizar los datos de manera beneficiosa para la sociedad. Lo antes mencionado es una parte del extenso estudio que se está desarrollando, pero al ser tan amplio aún no se pueden mostrar los resultados por medio de datos, sin embargo, los conocimientos obtenidos serán de gran ayuda para su seguimiento.
Martínez Castiblanco Ana Sofia, Universidad Católica de Manizales
Asesor:Dra. Martha Palacios Peñaranda, Universidad Autónoma de Occidente
EFECTOS DE LA CONTAMINACIóN POR PLáSTICOS Y MICROPLáSTICOS SOBRE LOS
SERVICIOS ECOSISTéMICOS DEL MANGLAR PUNTA SOLDADO-BUENAVENTURA
EFECTOS DE LA CONTAMINACIóN POR PLáSTICOS Y MICROPLáSTICOS SOBRE LOS
SERVICIOS ECOSISTéMICOS DEL MANGLAR PUNTA SOLDADO-BUENAVENTURA
Martínez Castiblanco Ana Sofia, Universidad Católica de Manizales. Asesor: Dra. Martha Palacios Peñaranda, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
Los ecosistemas de manglar son de vital importancia para el equilibrio ambiental, ya que actúan como barreras naturales contra inundaciones y tormentas, refugio sólido y alimentación para diversas especies marinas y aves, y contribuyen a la captura de carbono. Sin embargo, valiosos ecosistemas están enfrentando amenazas crecientes debido a la contaminación por microplásticos.
Los microplásticos son pequeñas partículas de plástico, generalmente menores a 5 mm de diámetro, que se originan a partir de la fragmentación de objetos plásticos más grandes o son liberados directamente en forma de fibras, fragmentos o pellets en productos de cuidado personal y cosméticos. Estas partículas pueden acumularse en el sedimento del manglar y afectar la salud de los organismos que viven en este hábitat, así como propagarse a través de la cadena alimentaria, incluyendo a los seres humanos.
METODOLOGÍA
En Punta soldado, (Pacifico colombiano) se establecieron 6 parcelas en las cuales se extrajeron muestras de sedimento hasta los 300 cm de profundidad. Estas se secaron en horno y se tamizaron, se pesaron 10gr de cada muestra y se agregó peróxido de hidrógeno al 30% durante 24horas. Luego, se agregó una solución de cloruro de zinc y se dispuso en embudo de separación durante 24 horas. Posteriormente, se filtró la muestra con un equipo de filtración al vacío usando filtro de membrana de nitrato de celulosa, luego se lavaron con agua destilada y el filtro se dispuso en una caja Petri. La identificación visual se realizó con un estereomicroscopio con cámara acoplada, capturando imágenes de microplásticos para su posterior caracterización por forma, color, y tamaño.
CONCLUSIONES
Hubo un total de 1138 partículas (época seca y lluviosa) de microplásticos esféricos, fragmentos y fibras a diferentes profundidades entre los 0 cm hasta los 300 cm en Punta Soldado.
Época lluviosa (agosto) hubo más MP con 590 partículas, donde abundan las partículas translúcidas con 368, seguido de azul con 190, verde con 17 y rojo con 15 partículas. La Parcela 1 (139 particulas) y Parcela 3 (129 particulas) tuvo mayor cantidad de fibras. La Parcela4 fragmentos (4 particulas) y la Parcela 1 tuvo MP´s esféricos (1 particula). La Parcela 1 y 3 obtuvieron mayor cantidad de MP´s y se encontró mayor cantidad de MP´s a profundidades de 100-200 cm con un 40%, seguido por profundidades de 200-300 cm con un 23%
Época seca (marzo) hubo 548 partículas, donde abundan las partículas translúcidas con 268, azul con 239, rojo con 31, verde con 6 partículas. La Parcela 2 tuvo mayor cantidad de fibras (182 particulas). La Parcela 5 fragmentos (6 particulas) y tuvo MP´s esféricos (3 particulas). La Parcela 2 tuvo mayor cantidad de MP´s en cada profundidad y la Parcela 5 la que menor MP´s tenía. Hubo mayor cantidad de MP´s a profundidades de 200-300 cm con un 32%, seguido por profundidades de 0-15 cm con un 19%
La localidad de San Pedro fue la que reportó mayor abundancia de MP’s en este estudio, a pesar de no ser un área cercana al área urbana de la bahía de Buenaventura, la ausencia de turbulencias y oleaje en esta localidad, conlleva a que el agua carezca de la energía necesaria para mover las partículas suspendidas en el agua, de modo que suelen depositarse y acumularse en el suelo del lecho marino. La profundidad entre 0 a 50 cm en el bosque de manglar de la bahía de Buenaventura presenta el mayor número de MP’s con un tamaño menor a <1 mm.
Martinez Cortés Estefanía, Instituto Tecnológico de Morelia
Asesor:Dr. Octavio Elizalde Solis, Instituto Politécnico Nacional
EVALUACIóN DE LA DENSIDAD DE MEZCLAS DIéSEL – BIODIESEL
EVALUACIóN DE LA DENSIDAD DE MEZCLAS DIéSEL – BIODIESEL
Mancera Cuevas Maria del Carmen, Universidad Autónoma del Estado de México. Martinez Cortés Estefanía, Instituto Tecnológico de Morelia. Asesor: Dr. Octavio Elizalde Solis, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Entre los principales problemas que enfrenta el medio ambiente es el uso excesivo de combustibles fósiles derivados del petróleo, este consumo es el responsable de las grandes cantidades de gases de efecto invernadero que se generan en la actualidad.
Sin embargo, existen otras alternativas en la producción de combustibles que ofrecen soluciones a problemas ambientales, por ejemplo, el biodiesel a partir de aceite quemado (FAME).
El desperdicio e inadecuado tratamiento que tiene el aceite quemado en la industria alimenticia lo convierte en un potencial componente de un biocombustible.
METODOLOGÍA
Para la determinación de las densidades se utilizó un densímetro Anton Paar modelo 4500 M de tubo vibrante. La celda de medición consta de un tubo en forma de "U", el cual está hecho de boro silicato, dicha celda se llena con la mezcla FAME (biodiesel) más diésel. Previamente se realiza una calibración a partir de agua bidestilada y aire seco.
Para preparar la mezcla sintética de FAME más diésel a diferentes composiciones, se necesitó de la masa y peso molecular de cada componente para reportar valores en fracción mol del diésel + biodiesel, la mezcla se agita para homogenizar la mezcla.
El densímetro produce una vibración transversal que provoca una resonancia que se detecta para determinar el periodo de vibración con el que se obtiene la densidad en un rango de 20 °C a 90 °C de temperatura.
Adicionalmente, para una obtención completa de datos de la mezcla de biocombustibles sintetizados fue necesario realizar experimentalmente la medición de viscosidad de FAME a diferentes composiciones y temperatura.
Para la determinación de las viscosidades se utilizaron dos viscosímetros Cannon-Fenske (número 75 y 100) calibrados. Los viscosímetroa fueron expuestos a baño térmico controlado por un baño de circulación en un rango de 20 °C a 70 °C de temperatura.
Los datos se obtuvieron en periodos de tiempo; minutos, segundos y milésimas de segundo, en donde la mezcla FAME recorre dos marcas que forman parte del viscosímetro.
CONCLUSIONES
Durante la estancia científica se observó el comportamiento que tiene una mezcla de diésel y biodiesel a diferentes composiciones, las cuales fueron expuestas a un rango de temperatura de 20 °C a 90 °C. Se identificó que la densidad y viscosidad de los compuestos disminuyen conforme se incrementa la temperatura. Concluyendo que, a mayor cantidad de biodiesel en una mezcla, mayor es su viscosidad y densidad, en comparación con una mezcla con mayor cantidad de diésel.
Adicionalmente se sugiere el estudio de propiedades fisicoquímicas las mezclas estudiadas, como: punto de fusión, porcentaje de humedad, poder calorífico e índice de acidez, esto con el fin de obtener más características de los mismos y analizar la alternativa de su uso como combustible.
Martínez Galván Mariana Itzel, Universidad Autónoma de Nayarit
Asesor:Dra. Paloma Gallegos Tejeda, Universidad de Guadalajara
PAISAJE AGROECOLóGICO PARA LA SOBERANíA ALIMENTARIA
PAISAJE AGROECOLóGICO PARA LA SOBERANíA ALIMENTARIA
Hernández Méndez Luis Vicente, Universidad de Ciencias y Artes de Chiapas. Martínez Galván Mariana Itzel, Universidad Autónoma de Nayarit. Asesor: Dra. Paloma Gallegos Tejeda, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Dada la especulación inmobiliaria con el crecimiento urbano y la intensificación de los monocultivos como el del agave, se observa una fragilidad hacía los sistemas alimentarios periurbanos con tendencia a desaparecer. Al respecto se vislumbra una pérdida del patrimonio agroalimentario que no es solo de superficie agrícola sino de semillas, alimentos y saberes campesinos que definen a toda una comunidad.
Así pues, aunque a la agricultura se le atribuye mucho del impacto ambiental que se está observando en la actualidad, la práctica de la agricultura regenerativa tiene tendencia a contribuir en recursos naturales de importancia tanto en el tema de agrobiodiversidad, como en el de servicios ambientales. Además de la contaminación de suelo por agroquímicos que presenta pérdida de la actividad microbiana, con alteraciones en las propiedades físico-químicas, también se observa contaminación de las fuentes de agua por la presencia de estos contaminantes.
En relación a lo anterior, Tlajomulco de Zúñiga municipio que no hace mucho tiempo era el proveedor de hortalizas del Área Metropolitana de Guadalajara ha sufrido cambios a partir de la conurbación.
METODOLOGÍA
Desde el enfoque de Investigación Acción Participativa los investigadores generamos conocimiento y procesos que transitan hacía una soberanía alimentaria ante un panorama de pérdida del patrimonio alimentario. Así se trabajó en los pueblos originarios y tradicionales de la zona Cajititlán-Cerro Viejo de Tlajomulco de Zúñiga. San Juan Evangelista, San Lucas Evangelista, San Miguel Cuyutlán, Cajititlán y Cuexcomatitlán todos pueblos rivereños de la laguna de Cajititlán, donde se promovió y trabajo la implementación de técnicas experimentales de siembra sustentable.
A manera de proceso se inició el trabajo con la revisión documental de los temas del proyecto. La técnica Keyline con la implementación de una parcela demostrativa para cosecha de agua y regeneración de suelo, a partir del levantamiento topográfico y el diseño de tratamientos de infiltración de agua, donde se mide, la humedad, la compactación del suelo y el comportamiento de la vegetación.
Asimismo las técnicas de agricultura urbana se desarrollaron con prácticas agroecológicas aplicadas en el huerto universitario del Centro Universitario de Tlajomulco (CUTLAJO). Aquí se aplicaron técnicas de alelopatía, germinación, acolchado, riego y manejo del huerto como la fertilización, colecta de semillas, podas y cosecha por mencionar algunas actividades. Este aprendizaje se aplicó durante los cursos de verano del centro universitario y al público de la feria agroecológica de la Red Ecológica de Autoabasto para la Soberanía Alimentaria (REALSA) en el pueblo de Cajititlán.
Asimismo, las actividades de arboricultura consistieron en el levantamiento de un inventario arbóreo de un área de CUTLAJO. Cada árbol fue evaluado con 12 variables para determinar las condiciones de 70 árboles urbanos y proponer un plan de manejo por individuo, además se elaboró un infograma sobre poda y forma correcta de sembrar un árbol.
Durante la investigación se tuvo comunicación con actores claves como el maestro Felipe Ignacio Iñiguez Pérez, encargado del Bosque Escuela de Agricultura Regenerativa (BEAR), quien facilitó el establecimiento del área experimental en su parcela. La aplicación de la técnica Keyline, se llevó a cabo a partir del levantamiento topográfico, las curvas de nivel se marcaron con estacas, en las curvas principales se establecieron canales camino donde se marcó una inclinación de 1.5% para ayudar al riego en lámina una vez que se satura el área de captación de agua. Cada canal camino cuenta con un cráter de infiltración de agua, donde se canaliza el excedente de agua para almacenarla y usarla para riego. Los caminos se formaron con una excavadora, teniendo una diferencia de 15 cm de altura, con una inclinación de 2.8°.
Finalmente se estableció el experimento con 9 tratamientos donde se evalúa el uso de dos implementos agrícolas. Se trata de evaluar la respuesta de la vegetación con un subsuelo convencional, el subsuelo modificado Yeomex y un área testigo para verificar los resultados. Además, se crearon réplicas de las curvas, con un tractor y el yeomex, con la finalidad de ayudar a la aireación del suelo y la infiltración del agua
Los tratamientos se cultivaron de forma mixta para ver el comportamiento de la vegetación, así se plantó vetiver, plantas aromáticas y árboles frutales y forestales en ese orden. El vetiver inyecta agua, plantas aromáticas fungen como control biológico de plagas y los árboles puedan expandir la red de sus raíces permitiendo la creación de un nuevo microclima y de microsistemas dentro del suelo.
CONCLUSIONES
En la estancia de investigación se adquirió conocimiento agroecológico teórico-práctico sobre la regeneración biológica de suelos, tanto el impacto social como climático de la agricultura y su relación con el paisaje agroecológico.
La importancia de la divulgación científica en el campo y el uso de herramientas para el diagnóstico y evaluación de suelos y especies de plantas regionales.
Aplicación de tratamientos para recuperar la salud del suelo, restaurando su microbiología y caminos hídricos.
Búsqueda de la participación con el fomento de la convivencia comunal de los pueblos involucrados.
A manera de discusión el impacto de este tipo de investigación contribuye a cuidar el patrimonio agrícola en la cuenca de Cajititlán. Pues al relacionarla con los Objetivos del Desarrollo Sostenible (ODS) ayuda a cumplir con las metas de Hambre Cero, ya que contribuye a la regeneración del suelo y la cosecha de agua, por consecuencia garantiza el crecimiento del bosque por un lado y la implementación de camas productivas sin agroquímicos. Así se apuesta a la salud y bienestar al optar por formas más sanas de producir cultivos y Acción por el clima al ser un marco referente para seguir ante la lucha contra el cambio climático.
Martinez Moreno Estefany Yoselin, Universidad Estatal de Sonora
Asesor:Esp. Jesus Francisco Guerra Diaz, Instituto Nacional de Formación Técnica Profesional - INFOTEP
ANáLISIS PARA LA ESTABILIDAD DEL TALUD EN LA VíA QUE COMUNICA A CARACOLí SABANAS DE JOAQUINA Y SAN JUAN DEL CESAR, DEPARTAMENTO DE LA GUAJIRA
ANáLISIS PARA LA ESTABILIDAD DEL TALUD EN LA VíA QUE COMUNICA A CARACOLí SABANAS DE JOAQUINA Y SAN JUAN DEL CESAR, DEPARTAMENTO DE LA GUAJIRA
Martinez Moreno Estefany Yoselin, Universidad Estatal de Sonora. Asesor: Esp. Jesus Francisco Guerra Diaz, Instituto Nacional de Formación Técnica Profesional - INFOTEP
PLANTEAMIENTO DEL PROBLEMA
Los inicios del Proyecto represa Ranchería (RODRIGUEZ, 2004) despliega el desarrollo de la nueva ruta de transporte que comunicara al corregimiento de Caracolí, en estribaciones de las sabanas de manuela; el desarrollo de estas nuevas vías se llevó a cabo a través de procesos de perforación y voladura lo cual afecto de distintas formas a los taludes que se encuentran en dicha área. Lo anterior, despertó el interés por conocer las condiciones de estabilidad en dicho talud, el cual presenta una constante inestabilidad, considerando que es una vía de comunicación permanente que afecta a la población del mismo corregimiento.
METODOLOGÍA
Comenzamos nuestro proyecto con una ardua consulta bibliográfica, desde cómo se lleva a cabo un proyecto de investigación hasta la búsqueda del área ideal para emplear el tema a desarrollar.
Posterior a la selección del tema y con ello el área de estudio, se llevó a cabo la investigación de la geología de la zona de estudio, los antecedentes y condición del mismo para analizar de qué forma íbamos a abordar el análisis del talud.
Después de tener ese conocimiento nos dispusimos a poner un plan de trabajo para llevar todo ese conocimiento teórico a práctico.
Estas consultas bibliográficas fueron de gran ayuda para que se desarrollara una segunda etapa y que, al ponerla en acción, ésta fuera sencilla de producir y la investigación en general, se agilizara en cuestión de tiempo.
En esta etapa se implementó a partir del inicio de la cuarta semana de la estancia de investigación. Con el conocimiento teórico y con la planeación de las actividades a realizar en campo.
Ahí, hicimos un muestreo para llevarlo a laboratorio y así poder identificar a que litología pertenece el talud estudiado. De esa zona fue tomada una muestra de mano para su posterior análisis en laboratorio.
Para la selección de nuestra área de estudio, tomamos una cinta métrica y delimitamos los 30 m analizados en la presente.
Posteriormente, con ayuda de unas hojas de control para datos tomados en campo y una brújula tipo Brunton azimutal, se tomaron alrededor de 123 mediciones del buzamiento y dirección de buzamiento de distintos planos presentes a lo largo de 30 m del talud estudiado.
Para agilizar el trabajo en cuestión, hicimos la toma de fotografías metro por metro con su respectiva escala para concluir con las observaciones en gabinete pertenecientes al análisis RQD.
El proyecto aún se encuentra en procesamiento de datos.
CONCLUSIONES
Según lo visto en campo el talud presenta una inestabilidad en gran proporción y a medida que esta inestabilidad siga aumentando este talud podría proyectar en un futuro un taponamiento en la vía.
Martinez Peralta Roberto Emiliano, Benemérita Universidad Autónoma de Puebla
Asesor:Mg. Antonio Ramos Murillo, Universidad La Gran Colombia
APLICACIÓN DE LA METODOLOGÍA JUMP MATH EN LA ENSEÑANZA DE LA FÍSICA A ALUMNOS DE 10 Y 11 GRADO EN EL COLEGIO LAURA VICUÑA
APLICACIÓN DE LA METODOLOGÍA JUMP MATH EN LA ENSEÑANZA DE LA FÍSICA A ALUMNOS DE 10 Y 11 GRADO EN EL COLEGIO LAURA VICUÑA
Martinez Peralta Roberto Emiliano, Benemérita Universidad Autónoma de Puebla. Saavedra Carbajal Cynthia, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Antonio Ramos Murillo, Universidad La Gran Colombia
PLANTEAMIENTO DEL PROBLEMA
La metodología JUMP Math es un modelo de enseñanza-aprendizaje, propone un aprendizaje fluido pero pautado, da tiempo para reflexionar, compartir y conectar; evita el estrés y las lagunas de aprendizaje pues le da mucha importancia a la atención individualizada que busca aumentar la confianza y la habilidad matemática de los estudiantes. Su propósito es que todo el alumnado adquiera la base matemática suficiente para poder desenvolverse ante los retos sociales y profesionales de la sociedad contemporánea. JUMP Math proporciona un itinerario de aprendizaje desde Educación Infantil hasta Secundaria.
Con esta metodología se busca atacar el problema que presentan los estudiantes en sus clases de física ya que para algunos se vuelve aburrido o complicada. En esta investigación se busca determinar si la aplicación y adaptación de esta metodología puede ser favorable para enseñar otras áreas de la enseñanza relacionadas con la matemática. Además de comparar si los conocimientos adquiridos corresponden a un aprendizaje significativo para los estudiantes
METODOLOGÍA
Utilizando los recursos metódicos de JUMP Math se planearon 2 semanas de clases de física para alumnos de 10 y 11 grado de bachillerato, sin embargo, por problemas externos sólo se pudo realizar una semana de clases, por lo que se acortaron los temas por ver. Para observar si los alumnos aprendieron, se realizará una evaluación tomando en cuenta los temas que se trataron. A continuación, se presentará la metodología para cada grado.
Para decimo grado se abordó el tema de las Leyes de Newton, enfocándolo más en la Primera y Segunda Ley de Newton. Para poder realizar las clases se basó en el formato de planeación que ofrece JUMP Math; el objetivo general de estas clases era que los alumnos pudieran comprender los temas y cómo los pueden relacionar en la vida cotidiana. Al comienzo de cada clase se les presentó una “Evaluación de Conocimientos” sin valor para evaluación, su propósito es ver qué conocimientos tienen los alumnos del tema y esta misma la contestaron al final de cada tema para poder llevar un registro de su aprendizaje, y si algún punto no quedó claro retomarlo en la siguiente clase.
En la primera clase se explicó la Primera Ley de Newton, dando tiempo al inicio y final de la clase para que contestaran sus hojas; analizando las respuestas de las hojas se pudo ver que lograron comprender el tema. En la segunda clase se abordó la Segunda Ley de Newton, se presentaron los conceptos de forma resumida y presentando ejemplos para mejor comprensión; se presentaron diversos ejercicios con diferentes dificultades que se fueron adaptando dependiendo del avance de los alumnos. En la tercera clase se repasó lo visto en la clase pasada y se explicó qué es un diagrama de cuerpo libre. Los objetivos de las clases de la Segunda Ley de Newton era que entendieran la relación entre la fuerza, aceleración y masa; cómo se relacionan las fuerzas entre sí y cómo usar un diagrama de cuerpo libre.
Al finalizar todas las clases, se presentó una evaluación de todos los temas que se trataron. Esto ayudó a comparar si mantuvieron los conocimientos; se ven sus respuestas de la evaluación de conocimiento que eran inmediatamente después de presentar el tema, y la última evaluación que ya había pasado tiempo, esta ayudó a observar si existió algún cambio.
Por otro lado, para onceavo grado, los temas abordados en el curso fueron la refracción y reflexión de la luz. Al comenzar la primera clase, se evaluó el nivel de conocimientos previos de los alumnos mediante una hoja de ejercicios que abordaba diferentes demostraciones sobre el comportamiento de la luz al incidir en un espejo o atravesar materiales como el vidrio. Esta actividad nos proporcionó un punto de partida para medir el aprendizaje de los alumnos.
Durante la primera clase, se llevaron a cabo una serie de ejercicios sobre la ley de reflexión, donde se fomentó la participación de todos los alumnos. El enfoque principal fue permitir que cada uno construyera su propio conocimiento, utilizando preguntas estimulantes para reflexionar sobre diversos casos que ocurren cuando un haz de luz incide en la superficie de un espejo. El objetivo de esta clase fue que los alumnos adquirieran una comprensión sólida de la ley de reflexión de la luz y la forma de calcular el índice de refracción de un material.
En la segunda clase, se abordaron diversas situaciones que exploraban qué sucede con diferentes ángulos de incidencia cuando un medio tiene un índice de refracción mayor o menor que el medio por el cual la luz se transmite. También se analizó la relación entre el índice de refracción y la velocidad de la luz. Estos conceptos se ilustraron mediante una demostración práctica utilizando un láser y una lente óptica rectangular.
En la tercera clase, se realizó una recapitulación de todo lo visto en las clases anteriores y se introdujo el concepto de reflexión total interna, utilizando una analogía con las lámparas de fibra óptica.
Finalmente, para evaluar el progreso de los alumnos, se les aplicó un cuestionario al final de la semana de clases para comparar sus conocimientos previos con lo aprendido durante el curso. Esta evaluación nos permitió medir el éxito del proceso de enseñanza y asegurarnos de que los alumnos alcanzaran los objetivos de aprendizaje establecidos
CONCLUSIONES
Esta metodología se centró en la participación de los alumnos a través de ejercicios prácticos y preguntas reflexivas. Se buscó que los estudiantes construyeran su propio conocimiento y los aplicaran en diversas situaciones. La evaluación final permitió medir el progreso alcanzado durante la semana de clases; para décimo se comparó la evaluación final con las evaluaciones realizadas en clases y muestra que un 76% comprendió completamente los temas mostrados, mientras que el 14% comprendió pero necesitan reforzarlo, y el porcentaje restante mejoró pero faltó comprensión de los temas; para décimo se mostró que un 82% mejoraron la comprensión de los conceptos vistos en clase comparado con los conocimientos previos que tenían. Además, un 78% relacionó de buena manera el concepto abstracto con el fenómeno físico.
JUMP Math ayudó a que los alumnos comprendieran temas laboriosos en un corto periodo de tiempo, mostró que realizar las programaciones basándose en su formato ayuda a los docentes a tener mejor control del progreso de la clase y de los estudiantes. Sin embargo, se hubiera observado un mejor resultado si se implementara a lo largo de todo el ciclo escolar. Dado a el corto tiempo, un área de oportunidad observada fue que los alumnos les costaba adaptarse a esta metodología, ya que el conocimiento guiado requiere de mayor atención y presencia dentro del salón de clases. Por lo que, teniendo en consideración esas observaciones, sí se puede implementar esta metodología en otras áreas de las ciencias que estén relacionadas con la matemática
Martinez Sigala Jose Misael, Universidad de Guadalajara
Asesor:Mg. Mauricio Chaparro Parra, Universidad Católica de Colombia
CARACTERIZACIóN DEL MOVIMIENTO DE UN REBOTE DE UN BALóN PERDIENDO ENERGIA
CARACTERIZACIóN DEL MOVIMIENTO DE UN REBOTE DE UN BALóN PERDIENDO ENERGIA
Martinez Sigala Jose Misael, Universidad de Guadalajara. Asesor: Mg. Mauricio Chaparro Parra, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
La fisica puede explicar un sinfín de fenómenos, desde los más básicos como la velocidad de un carro hasta los más complicados como el caos de un péndulo acoplado. En la fisica existe la opción de estudiar problemas a través de la energía y esta es de las más importantes ya que brinda la forma de analizar un problema fácilmente.
Si se escucha la palabra energía, viene a la mente la frase la energía no se crea ni se destruye, solo se transforma gracias a el teorema de la conservación de la energía y con ese trabajo´ en este verano de investigación Delfin. Se verá como un balón rebotando pierde energía mecánica hasta quedar en reposo, este fenómeno se va a analizar usando sensores de dispositivos móviles, en especial el sensor de sonido, ya que, cuando el balo ´n rebota con el suelo produce un sonido y la función del sensor es captar estos sonidos para darnos el intervalo entre estos mismos.
METODOLOGÍA
La metodología se basó en usar la sección Cronometro acústico de la aplicación Phyphox, la cual usa el micrófono del teléfono para detectar sonidos a partir de un umbral que le coloquemos para evitar sonidos que no queramos que sean detectados. Se usará´ esta aplicación para poder medir el tiempo que tarda el balo ‘n en tocar el suelo entre sus rebotes ya que cada vez que pasa esto se produce un sonido el cual, la aplicación nos dice el tiempo entre.
Con esto se obtendrán los tiempos entre rebotes y usando las ecuaciones de movimiento y haciendo que la velocidad inicial y la posición final de cada rebote sean cero obtenemos la siguiente ecuación para una caída libre:
y0=1/2 gt2
donde y0 es la posición inicial de la que se avienta el balón, g es la aceleración de la gravedad y t es el tiempo de caída.
Como se tienen los tiempos de caída entre cada rebote se puede obtener una ecuación para saber el coeficiente de restitución de cada rebote la cual está definida por:
α=((tn(g)1/2)/(2(2H)1/2))(n-1)
Donde H es la altura inicial del balón en el experimento y tn es el tiempo del n-esimo rebote. Con esta ecuación se puede obtener el coeficiente del n-´esimo rebote.
Simultáneamente se grabó el procedimiento y despues se analizó con el programa Tracker para obtener los datos de los rebotes de cada experimento realizado. Una vez realizado esto se obtuvo una gráfica para cada rebote y con estas se obtiene tambien la ecuación que describe ese movimiento, de ahi calcular la velocidad inicial y final de cada caída.
Una vez que se obtenga la velocidades antes y despues de cada rebote se obtiene el coeficiente de restitución (α) el cual se define de la siguiente forma:
α=-(Vf/V0) *
y con ese coeficiente se puede obtener la perdida de energía del balón en cada rebote hasta que quede sin movimiento la cual se puede obtener de la siguiente forma:
^E(1→n) = MgH(α2(n-1)-1)
donde M es la masa del balón, H la altura inicial del balón y n es el número de la caída que está pasando, por ejemplo, en n=3 (es decir, la segunda caída) obtendremos el cambio de energía de la primera caída hasta la tercera.
Tambien se pueden hacer las pérdidas de energía de la caída n a la n + 1 según la siguiente ecuación
E(n→n+1) = MgHα2(n-1) (α2 -1)
Donde los significados de las variables con las mismas que en la anterior ecuación, la única diferencia es que aqui se obtiene el cambio de energía de cualquier caída y la siguiente.
*Formula obtenida de Garrido Victor (2023)
Garrido C. Victor (2023) Determinación del Coeficiente de Restitución (e) de una pelota de ping-pong. Universidad de Viña del Mar.
CONCLUSIONES
Despues de obtener los datos y analizarlos, se puede observar que efectivamente, el balón pierde energía mecánica porque las alturas alcanzadas van disminuyendo despues de cada rebote.
Una vez que se tienen los cambios de energía se obtiene el error porcentual de cada medición, de forma independiente para el teléfono y de Tracker.
Lo más notable es que los errores porcentuales en los cambios de energía de la primera caída a la n-esima va en decrecimiento porque conforme se va deteniendo el balón las distancias van siendo más cortas, esto hace que las diferencias de energía sean más cercanas a las teóricas. Mientras que el error porcentual en los cambios de energía de dos caídas seguidas va en aumento por la misma razón, como son distancias más cortas es más difícil obtener las distancias más precisas y por lo tanto el error aumentara´.
Asi mismo se puede decir que si queremos analizar los primeros 3 rebotes de un balón la mejor opción será usar el teléfono, porque el error porcentual de ambos tipos de cambio de energía es menor, mientras que con el programa Tracker superan esta cantidad.
Finalmente se puede concluir que las mediciones realizadas por la aplicación Phyphox tienen menor error porcentual que el programa Tracker, que es comúnmente utilizado en ciencias e ingenierías para realizar mediciones o análisis de experimentos, por lo tanto, utilizar los sensores del teléfono resulta ser una buena alternativa a la hora de recrear y analizar experimentos de este tipo.
Mata Hernandez Ricardo Yael, Universidad de Guadalajara
Asesor:Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara
SÍNTESIS DE PELÍCULAS DE SULFURO DE CADMIO DELGADAS POR BAÑO QUÍMICO
SÍNTESIS DE PELÍCULAS DE SULFURO DE CADMIO DELGADAS POR BAÑO QUÍMICO
Mata Hernandez Ricardo Yael, Universidad de Guadalajara. Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, la investigación en el campo de materiales semiconductores ha experimentado un crecimiento significativo debido a su potencial aplicación en diversas áreas tecnológicas, como la electrónica, la fotónica y la energía solar. Entre estos materiales, el sulfuro de cadmio (CdS) se destaca por sus propiedades semiconductoras y ópticas únicas, lo que lo convierte en un candidato atractivo para aplicaciones en dispositivos optoelectrónicos.
Uno de los principales desafíos en la utilización del CdS en dispositivos es la necesidad de fabricar películas delgadas altamente eficientes y de alta calidad. Estas películas delgadas son esenciales para mejorar el rendimiento de dispositivos como celdas solares, sensores y transistores.
Por lo tanto, el presente estudio tiene como objetivo investigar la viabilidad y el potencial de utilizar puntos cuánticos de carbono como solución para la creación de películas delgadas de sulfuro de cadmio, analizando las ventajas que su implementación aportaría frente a los métodos comunes. La resolución de estos desafíos puede abrir nuevas perspectivas en la fabricación de dispositivos optoelectrónicos más eficientes y avanzados, y así impulsar el desarrollo de tecnologías sostenibles y de alto rendimiento en diversas áreas de la ciencia y la industria.
Actualmente, los métodos comunes para la producción de películas delgadas de CdS implican técnicas de deposición física y química, como la pulverización catódica o la deposición química de vapor. Sin embargo, estos métodos convencionales a menudo presentan ciertas limitaciones, como la necesidad de altas temperaturas, la complejidad del proceso, la formación de defectos en la película y la dificultad para controlar el grosor de la película en una escala nanométrica.
Por otro lado, los puntos cuánticos de carbono (CQDs) han surgido como una prometedora alternativa para la fabricación de películas delgadas de CdS. Los CQDs son nanomateriales con propiedades ópticas y electrónicas únicas, como su capacidad para emitir luz a longitudes de onda específicas y su alta conductividad. La utilización de CQDs como solución para la creación de películas delgadas de CdS ofrece varias ventajas como lo es la facilidad de síntesis, alta estabilidad, bajo costo, y mayor margen de control.
METODOLOGÍA
Para el presente trabajo, se lleva a cabo la síntesis de sulfuro de cadmio para implementarse como capa de películas delgadas utilizando puntos cuánticos de carbono del ajo como solución por medio del método de baño químico.
La solución de puntos cuánticos de carbono del ajo fue obtenida gracias a la pulverización de cáscara de ajo previamente calentada a 200°C, posteriormente se utilizaron 5 mg en 20 ml de agua bidestilada y se sometió a procesos de agitación y ultrasonido.
Para las películas delgadas se utilizaron sustratos de vidrio con medidas de aproximadamente 1.3x2.3 cm, para obtener la capa de sulfuro de cadmio (CdS) se empleó el método de baño químico utilizando cloruro de cadmio (CdCl2), hidróxido de amonio (NH4OH) y cloruro de amonio (NH4Cl) en una solución total de 17ml de puntos cuánticos de carbono, siendo sometida agitación. Una vez terminada la agitación, se colocaron los sustratos de vidrio con la solución final dentro de dos frascos de vidrio.
Un frasco de vidrio fue sometido a calentamiento en horno de microondas por 5 segundos, mientras que el otro se aisló durante 30 minutos a luz ultravioleta, para posteriormente dejar ambos frascos en un lugar oscuro durante 5 días. Todas las películas fueron analizadas mediante fotoluminiscencia.
CONCLUSIONES
Durante la estancia de verano se lograron adquirir diversos concimientos tanto prácticos como teóricos acerca de la elaboración de puntos cuánticos de carbono a partir de la cáscara del ajo, al igual que diversos métodos de caracterización para el análisis tanto de las películas delgadas como de dichos puntos cuánticos.
Se ha investigado la viabilidad y el potencial de utilizar puntos cuánticos de carbono (CQDs) como solución para la creación de películas delgadas de sulfuro de cadmio (CdS). En primer lugar, tenemos los resultados obtenidos:
Síntesis exitosa de CQDs: Se logró sintetizar con éxito puntos cuánticos de carbono mediante métodos químicos, obteniendo CQDs de tamaño controlado y con propiedades ópticas deseables.
Deposición de películas delgadas de CdS: Se desarrolló un proceso optimizado para la deposición de películas delgadas de sulfuro de cadmio utilizando CQDs como material.
En segundo lugar, los resultados a obtener:
1. Mejora significativa en la eficiencia cuántica de los CQDs en comparación con los métodos tradicionales, lo que sugiere un mayor aprovechamiento de la luz incidente y una mejor respuesta óptica.
2. Estabilidad y durabilidad.
Se espera además que el uso de puntos cuánticos de carbono como solución para la creación de películas delgadas de sulfuro de cadmio muestre un potencial significativo para mejorar la eficiencia y rendimiento de dispositivos optoelectrónicos.
Los resultados obtenidos hasta el momento son alentadores, pero es imperativo continuar con la investigación y abordar los resultados por obtener para desbloquear completamente las ventajas y aplicaciones prácticas de esta tecnología. En última instancia, la implementación exitosa de estas películas delgadas podría impulsar el desarrollo de tecnologías avanzadas y sostenibles con un impacto positivo en diversas áreas de la ciencia y la industria.
Mata Olay María José, Instituto Tecnológico de Colima
Asesor:Dr. Jesus Lopez de la Cruz, Universidad de Colima
ANáLISIS MULTITEMPORAL DEL CAMBIO DEL USO DEL SUELO EN EL ESTADO DE COLIMA.
ANáLISIS MULTITEMPORAL DEL CAMBIO DEL USO DEL SUELO EN EL ESTADO DE COLIMA.
Mata Olay María José, Instituto Tecnológico de Colima. Asesor: Dr. Jesus Lopez de la Cruz, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
La forma en la que se utiliza el suelo y la cobertura de la tierra esta experimentando un desarrollo significativo en el Estado de Colima. Entender como cambio la cobertura del suelo es una forma eficaz de determinar la huella humana actual en el planeta. La mayor parte de estos cambios recaen en los seres humanos y el medio ambiente en el que viven. Si la situación continua de esta manera en el futuro habrá efectos perjudiciales no solo para la salud humana sino también para los ecosistemas. Algunos de estos cambios son: erosión, aumento de la escorrentía, inundaciones, agotamiento de los recursos hídricos y disminución de la calidad del agua. El término cobertura del suelo se refiere a la cobertura natural que está presente en la superficie de la tierra, mientras que el término uso del suelo se refiere a las actividades que llevan a cabo los seres humanos en la tierra (GarcÍa-Álvarez & Olmedo, 2022). Se debe hacer una distinción precisa entre estos dos términos.
METODOLOGÍA
Se han desarrollado diferentes metodologías para la elaboración de cartografía en el cambio de uso de suelo que se enmarcan en el análisis espacial y combinan las técnicas de Teledetección y SIG.
El INEGI tiene la Información de Uso de Suelo y Vegetación a escala 1:250 000 serie VII con los 58 tipos de vegetación reconocida por la institución y las zonas de agricultura y urbanas a lo largo del tiempo con cobertura nacional. Esta se generó tomando como base los datos del mismo tema (serie V) actualizados a partir de la interpretación de imágenes de satélite Landsat del año 2018, recorridos y observaciones de campo (INEGI, 2019).
Mientras que Google Earth Engine (GEE) se está posicionando a nivel global como una opción importante para el monitoreo de grandes superficies, debido a que permite acceder de forma gratuita a las grandes bases de datos de imágenes satelitales y ofrece una gran capacidad de procesamiento para el análisis de datos masivos de observación terrestre (Moore & Hansen, 2011).
Para poder obtener el cambio de uso del suelo se requiere de una base de datos geográfica consistente y homogénea para que pueda ser posible la representación de la configuración espacial con la mayor exactitud y lograr una buena superposición de cartografía de los diferentes años.
Para la selección y procesamiento de imágenes digitales se utilizaron las imágenes de satélite de Dynamic World, que es un conjunto de datos de uso de cobertura de la tierra en tiempo casi real de 10 m que incluye probabilidades de clase e información de etiquetas para nueve clases. La información se encuentra en la colección Sentinel-2 L1C desde el 27 de junio de 2015 hasta el día de hoy. La frecuencia de revisión de Sentinel-2 es de 2 a 5 días dependiendo de la latitud (Brown, Brumby, & Guzder, 2022).
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos acerca del uso de Google Earth Engine y los diferentes usos que se le puede dar. Para este proyecto en específicio nos enfocamos en el cambio de uso de suelo en el Estado de Colima, desde 2015 a los primeros meses del 2023. Encontrando varios cambios en la utilización del suelo en el Estado.
Matus Fuentes Naomi Elisheba, Universidad de Ciencias y Artes de Chiapas
Asesor:Mg. Milagros Yinez Oñate Maury, Instituto Nacional de Formación Técnica Profesional - INFOTEP
ANALISIS DE FACTIBILIDAD DEL USO DEL PASTO VETIVER (CHRYSOPOGON ZIZANIOIDES) PARA ESTABILIZACIÓN Y CONSERVACIÓN DE SUELOS EROSIONADOS EN EL CORREGIMIENTO DE ZAMBRANO, SAN JUAN DEL CESAR- LA GUAJIRA, COLOMBIA.
ANALISIS DE FACTIBILIDAD DEL USO DEL PASTO VETIVER (CHRYSOPOGON ZIZANIOIDES) PARA ESTABILIZACIÓN Y CONSERVACIÓN DE SUELOS EROSIONADOS EN EL CORREGIMIENTO DE ZAMBRANO, SAN JUAN DEL CESAR- LA GUAJIRA, COLOMBIA.
Matus Fuentes Naomi Elisheba, Universidad de Ciencias y Artes de Chiapas. Asesor: Mg. Milagros Yinez Oñate Maury, Instituto Nacional de Formación Técnica Profesional - INFOTEP
PLANTEAMIENTO DEL PROBLEMA
Debido a procesos naturales el suelo va perdiendo esas propiedades que lo distinguen, se va transformando y disminuyendo esa capacidad de brindar servicios ecosistémicos. En edafología, a este proceso se le conoce como erosión y se va agudizando cada vez más debido a las acciones antropogénicas insostenibles. Es uno de los principales problemas ambientales a nivel mundial, sus efectos negativos se perciben no sólo en los ecosistemas que se desarrolla, ya que la pérdida progresiva de suelo y nutrientes constituyen un foco de contaminación difusa para otros sistemas, el ambiente y potencial biológico del suelo (Agriculture and Economic Development Analysis Division, 1997).
En el contexto colombiano, según los datos del Instituto de Hidrología, Meteorología y Estudios Ambientales (IDEAM), Ministerio de Ambiente y Desarrollo Sostenible y la Universidad de Ciencias Aplicadas y Ambientales (U.D.C.A.) se estimó que en el año 2015 el 40% de la superficie continental de Colombia presenta algún grado de degradación de suelos por erosión. De acuerdo con los resultados por departamento los que presentan mayor magnitud, es decir, con algún grado de erosión, superior al 70% respecto a su área, son: Cesar, Caldas, Córdoba, Cundinamarca, Santander, La Guajira, Atlántico, Magdalena, Sucre, Tolima, Quindío, Huila y Boyacá.
Las tasas alarmantes de degradación han sido reconocidas y se les ha estado otorgado esfuerzos internacionales para ayudar a revertir la degradación del suelo y combatir la desertificación.
En este sentido, el uso del pasto vetiver se ha convertido en una alternativa de recuperación natural, que se ha extendido por diversas partes del mundo debido a su efectividad para la estabilización de los suelos y de sus propiedades físicas y químicas (Grimshaw, 1996).
Por consecuencia, el siguiente proyecto tiene como objetivo principal el analizar la factibilidad del uso de pasto vetiver (Chrysopogon zizanioides) para la estabilización y conservación de suelos erosionados a un margen del río cesar, en el corregimiento de Zambrano, San Juan del Cesar, La Guajira, de tal forma que se logre disminuir el impacto ambiental generado por las malas prácticas de las actividades ganaderas y agrícolas, y contribuir a la adición de fuentes de conservación biológica en la región.
METODOLOGÍA
Tipo de investigación: La presente investigación es de tipo analítica según Hurtado (2008).
Diseño de la investigación: De acuerdo a las características de este estudio, se puede decir que corresponde a un diseño de fuente mixta ya que los datos son obtenidos de fuentes directas y documentales. Según la perspectiva temporal, la investigación emplea un diseño transeccional contemporáneo, porque los datos se recogen en un solo momento del tiempo en el presente.
Se definieron 3 objetivos específicos:
1. Describir la características físico-químicas del suelo presente en el corregimiento de Zambrano, San Juan del Cesar- Guajira, Colombia.
El proceso se dividió en 3 etapas:
Se realizó una visita al área de estudio y se tomaron muestras del suelo; con un muestreo aleatorio simple en un área de aproximadamente 9430 m2 se tomaron 2 muestras compuestas, de alrededor de 6 submuestras cada una, con una profundidad de 20 cm. Las submuestras se depositaron en un balde de plástico, se mezclaron y se eliminaron terrones grandes, troncos, piedras, entre otros. La mezcla se vacío en 2 bolsas plásticas bien identificadas y etiquetadas.
Durante este proceso se realizó una lista de cotejo, en donde se observó cada detalle de todas las características físicas del entorno y del suelo, tales como: color, materia orgánica, especies endémicas de flora y fauna, porosidad, textura, etc. Con ayuda de la guía para evaluación de la calidad y salud del suelo de (USDA, 1999) y de la percepción al tacto, se logró definir la textura (tipo de suelo muestreado) y porosidad.
Se procedió a realizar análisis químicos de pH, nutrientes como fósforo, potasio y nitrógeno y conductividad con ayuda de material de laboratorio.
2. Identificar la factibilidad del uso del pasto vetiver en el corregimiento de Zambrano, San Juan del Cesar- Guajira, Colombia.
Se procedió a realizar una búsqueda de información sobre el pasto vetiver (Chrysopogon zizanioides) y del tipo de suelo encontrado en el muestreo, la información recabada fue de fuentes académicas y científicas, en su mayoría artículos de investigación. Se resumió la información y se colocó en una matriz de análisis donde se logró definir si es o no factible utilizar el pasto vetiver en el área muestreada.
3. Elaborar una propuesta para la utilización del pasto vetiver en el corregimiento de Zambrano, San Juan del Cesar- Guajira, Colombia.
La propuesta se realizó partiendo de los resultados, técnicas e instrumentos aplicados en los objetivos 1 y 2 y con la literatura expresada por (Miranda, 2016) y (Truong et al., 2009).
CONCLUSIONES
Se encontró que el tipo de suelo muestreado es Franco Arcilloso Limoso. Los resultados obtenidos son: nutrientes presentes (el indicador mostró que no hay rastro de fósforo (P), al potasio (K) en nivel bajo y nitrógeno (N) en nivel medio), un Ph ácido de 5.71 y conductividad estimada de 6 mS/cm; la matriz de análisis ayudó a definir que sí es factible usar el pasto vetiver en el área muestreada. Estos resultados expresan que el suelo se encuentra en una etapa de degradación por erosión y que las propiedades de brindar servicios ecosistémicos han disminuido conforme al tiempo, teniendo esto en cuenta, se procedió a diseñar la propuesta para el uso del pasto vetiver y así contribuir a la estabilización y conservación de los suelos en el corregimiento de Zambrano, la literatura de (Truong et al., 2009) y (Miranda, 2016) fueron la base principal.
Se espera redactar la forma de cultivo para el pasto vetiver y los requerimientos necesarios para su crecimiento.
Medina Ferrer Gustavo Alberto, Universidad de Sonora
Asesor:Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla
DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE ADQUISICIóN DE DATOS PARA LA CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS DE CENTELLEO CON TUBO FOTOMULTIPLICADOR.
DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE ADQUISICIóN DE DATOS PARA LA CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS DE CENTELLEO CON TUBO FOTOMULTIPLICADOR.
Díaz Gutiérrez Luis Carlos, Universidad de Sonora. Garcia Gutierrez Alejandro Ivan, Benemérita Universidad Autónoma de Puebla. Medina Ferrer Gustavo Alberto, Universidad de Sonora. Navarro Lopez Iveth Rocio, Universidad de Sonora. Pérez Morán Federico Santiago, Universidad de Guadalajara. Asesor: Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los distintos experimentos y búsqueda de fenómenos exóticos relacionados con la física de altas energías requieren de instrumentos que cuenten con una alta precisión en la toma de datos.
Por ello el diseño y desarrollo de detectores de partículas cada vez más precisos es importante pues debe de haber una mejora en los mecanismos de detección además de la optimización en la toma de señales para que estas sean procesadas, discriminadas y tratadas, con el fin de evitar perdida de información y cuellos de botella.
Debido a esto, en este trabajo se analizará la arquitectura de dos chips (NINO y HPTDC) diseñados para su uso especifico en física de altas energías, donde es fundamental, alta frecuencia de detección, gran precisión en la resolución temporal y una alta cantidad de densidad de canales para la medición de la carga depositada en sensores de plástico centellador y de placas resistivas
METODOLOGÍA
En primera instancia se preparó un sistema básico de trigger, el cual sirve para la detección de un evento/ partícula incidente en un arreglo de tres o más detectores, dos de los cuales fungen como trigger; el evento se confirma al registrarse de forma simultánea por este arreglo.
Los detectores de disparo (trigger) se caracterizan y se determina el voltaje de alimentación para el cual el par registra un número similar de señales. Para esto se realizó una sincronización sobre un par detectores de plástico centelleador y tubos fotomultiplicadores de dimensiones 9.7 9.7 3.4 cm. Se aplicó para cada detector una variación del voltaje de alimentación en un intervalo de 1 a 1.7 kV con pasos de 0.5 kV, para cada valor se llevó a cabo el conteo de eventos/señales registradas para cada detector, el conteo se realizó utilizando la patente de la contadora de eventos para pruebas rápidas de parte de la Benemérita Universidad Autónoma de Puebla. Para cada valor de voltaje se realizaron tres mediciones de 1 minuto de duración, con un voltaje de discriminación de 15 mV. Se determinaron los voltajes para el cual se presenta una diferencia de conteos menor al 10% entre los detectores.
Posteriormente, se usó un arreglo experimental en el cual el sistema de trigger se localizó por encima y por debajo del detector a caracterizar (L1), de forma que la proyección de su área transversal coincida para ambos detectores del sistema. Se aplicó una variación del voltaje de alimentación únicamente para L1 (en este caso se da una alimentación con un voltaje negativo) en un intervalo de 0.9 a 1.45 kV con pasos de 0.5 kV, para el trigger se da el voltaje de alimentación previamente obtenido. Se realizó igualmente el registro del número de eventos para cada valor de voltaje con la contadora, se efectuaron 3 mediciones de 4 minutos cada una; se registraron los eventos para L1, los del trigger y las coincidencias entre los tres. Se determinó la eficiencia del detector L1 y se escogió el voltaje de alimentación óptimo para este mismo.
En un posterior arreglo se da lugar a la digitalización de la señal obtenida de L1. Se usa el sistema anterior compuesto por el detector y el trigger. La señal de salida de L1 es procesada por la tarjeta NINO 2468 del experimento ALICE, que devuelve un pulso cuadrado cuyo ancho se ve relacionado con la amplitud de la señal de entrada y a su vez con la carga de la partícula incidente. Posteriormente, este pulso es direccionado a otra tarjeta que realiza una conversión de señal LVDS (low voltage differential signal) a salida TTL, posteriormente esta señal es recibida por un módulo traductor CAEN para la conversión a NIM, con el objetivo de conectar la señal a un TDC (time to digital converter) para la digitalización y obtención de los flancos de subida y bajada del pulso cuadrado, realizar el cálculo de su ancho en el eje temporal y así conocer la amplitud de la señal del detector. La precisión de la medición de los flacos de subida y bajada de estas señales es de 25 ps.
La señal de ambos detectores del trigger es direccionada a un módulo discriminador, posteriormente a un módulo de coincidencias que devuelve una única señal TTL. Después, se utiliza el mismo módulo traductor a NIM para finalmente llegar al TDC para poder efectuar la obtención del tiempo de la señal. El trigger en el TDC realiza la confirmación de un evento de L1 por medio de un método de medición que consiste en la aplicación de una ventana de tiempo de búsqueda previamente definida, donde a los pulsos registrados dentro de dicha ventana se les toma el tiempo del flanco de subida y de bajada.
Finalmente, se realizó un código para la lectura de los datos recabados y el posterior cálculo de los anchos de las señales obtenidas y así conocer la resolución temporal del detector.
CONCLUSIONES
Durante la estancia se hizo uso de instrumentos que son comunes para hacer pruebas con los distintos detectores esto con el fin de comprobar su correcto funcionamiento, adquiriendo conocimiento de cómo usar estos instrumentos, igualmente se aprendió a utilizar un software con el que se obtienen datos, además al recoger estos datos se llevó a cabo un análisis de estos, buscando la resolución temporal, tiempo de llegada de señales respecto al trigger, la estadística de veces que cierta resolución llego y la medición de la carga de cada evento detectado. Sin embargo, los últimos datos aún se encuentran en proceso de ser analizados, pero se espera que estos datos nos indiquen un funcionamiento correcto y bastante preciso de los detectores caracterizados.
Medina Gomez Belen Guadalupe, Universidad de Guadalajara
Asesor:Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa
DETERMINACIóN DE DESPLAZAMIENTOS SEMI-ESTáTICOS DEL PUENTE "EL CARRIZO" MEDIANTE RECEPTORES GNSS CONVENCIONALES Y DE BAJO COSTO.
DETERMINACIóN DE DESPLAZAMIENTOS SEMI-ESTáTICOS DEL PUENTE "EL CARRIZO" MEDIANTE RECEPTORES GNSS CONVENCIONALES Y DE BAJO COSTO.
Medina Gomez Belen Guadalupe, Universidad de Guadalajara. Valdez Gutierrez Maria Fernanda, Universidad Autónoma de Sinaloa. Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Los puentes son estructuras de ingeniería civil clave en cualquier ciudad o carretera por lo cual es necesario un monitoreo permanente y confiable de éstos. En México los puentes han sido factores fundamentales para el desarrollo tanto económico como social del país, sobre todo en los últimos 50 años. Uno de sus principales aportes es favorecer la comunicación de distintas ciudades para la articulación de actividades cotidianas (comerciales, recreativas, etc.). Existen diversos métodos para llevar a cabo mediciones que muestran el comportamiento en los puentes. Es por ello, que nuestro objeto de estudio es el puente El Carrizo ubicado en la carretera Durango-Mazatlán, vía que representa el enlace interoceánico entre el Golfo de México y la Costa del Pacífico. Su estructura principal es la de un puente atirantado con su tablero ejecutado por el método de voladizos incrementales y un pilono central. Debido a que este tipo de estructuras son expuestas a diferentes tipos de cargas, éstas presentan una especie de vibraciones; por lo que requieren de un monitoreo continuo. Para ello, se requiere evaluar el uso de tecnologías que mejor se adapten a las necesidades del caso específico. Los receptores geodésicos que realizan mediciones a los Sistemas Globales de Navegación por Satélite (GNSS, por sus siglas en inglés) es una alternativa viable en la medición de desplazamientos semi-estáticos, estáticos y dinámicos de puentes debido a su desempeño y relativa facilidad de instalación. Tal que, para nuestro caso de estudio, se eligió utilizar receptores GNSS convencionales y de bajo costo, con el propósito de cuantificar los desplazamientos semi-estáticos.
METODOLOGÍA
Se llevó a cabo un experimento, donde la primera etapa fue la selección de estaciones GNSS, siendo así un receptor GPS convencional (Geomax) y uno de bajo costo, realizando mediciones con el propósito de cuantificar los desplazamientos semi-estáticos, sobre el segundo puente atirantado más importante en la carretera Durango-Mazatlán (Puente El Carrizo).
La siguiente etapa fue colocar ambos receptores en un lado del puente para comenzar a realizar las mediciones conforme un determinado lapso de tiempo.
Posteriormente se realizó la descarga de archivos de observación y efemérides precisas de las correspondientes sesiones de medición. La técnica de medición que se utilizó en el puente El Carrizo fue la denominada relativo cinemático. El procesamiento de datos por el método cinemático relativo fue llevado a cabo en el software de código abierto RTKLIB para las mediciones con los equipos de bajo costo, y el software científico TRACK para procesar las mediciones de los equipos de orden geodésico: Geomax Zenith 25. Las coordenadas de salida fueron topocéntricas y posteriormente se rotaron a coordenadas locales del puente.
En la penúltima etapa se obtuvieron coeficientes como la media, desviación estándar, error medio cuadrático, máximo y mínimo de los resultados arrojados a la hora del procesamiento.
Finalmente se comparan de manera visual y estadística los datos generados entre ambos receptores, GPS convencional y de bajo costo mediante unas gráficas en sus tres componentes transversal, longitudinal y vertical.
CONCLUSIONES
Se realizaron mediciones con receptores GNSS convencionales (geodésicos) y de bajo costo donde se procesaron los datos coleccionados y se realizó una comparación mediante una gráfica entre ambos receptores, donde se puede visualizar 3 componentes de los desplazamientos semi-estáticos, los cuales son, transversal, longitudinal y vertical; se muestra una diferencia de aproximadamente de 2-3 mm en cada una de las gráficas, lo que nos indica que es una buen margen.
Contar hoy en día con equipos GNSS es mucho más sencillo. Y es que incluso hoy contamos con equipos con tecnología GNSS que usamos a diario: los teléfonos inteligentes son un ejemplo de ello.
La tecnología GNSS es una red compuesta por tres segmentos: un sistema satelital, un sistema de control terrestre y un sistema de usuario. Gracias a este tipo de tecnología podemos ver nuestra posición en el mapa en tiempo real, fijar las coordenadas de un punto geográfico, facilitar la georreferenciación de lugares, generar mapas, etc.
El GNSS es una alternativa viable de medición para monitorear las condiciones de una estructura (obra civil) debido a su desempeño y facilidad de instalación. Además, se concluyó que incluir el mayor número de satélites, puede mejorar la fiabilidad del monitoreo estructural.
Por otro lado, la tecnología alternativa GNSS convencional y de bajo costo para el monitoreo de obras de ingeniería, ha sido demostrado que es precisa, eficiente, y económica en el caso del receptor de bajo costo.
Medina Languren Alison Lisbeth, Universidad de Guadalajara
Asesor:Dr. Víctor José Sosa Villanueva, Instituto Politécnico Nacional
MAPEO DE CAMPOS MAGNéTICOS RETENIDOS EN MATERIALES SUPERCONDUCTORES
MAPEO DE CAMPOS MAGNéTICOS RETENIDOS EN MATERIALES SUPERCONDUCTORES
Medina Languren Alison Lisbeth, Universidad de Guadalajara. Tapia Armenta Jesús Daniel, Universidad Autónoma de Sinaloa. Asesor: Dr. Víctor José Sosa Villanueva, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Los materiales superconductores pierden resistencia eléctrica y retienen campos magnéticos. Al llegar a su temperatura crítica, expulsan campos magnéticos (efecto Meissner). Un imán cercano es repelido y levita sobre superconductor (altura de levitación). En superconductores de alta temperatura, hay un "estado mixto". Esta investigación aborda la hipótesis que los superconductores se magnetizan como un imán permanente.
METODOLOGÍA
En esta investigación se midieron campos magnéticos en un material superconductor YBCO. Se utilizaron imanes de neodimio con diferentes geometrías y espaciadores para variar el campo aplicado. Luego se midió el campo magnético del superconductor a diferentes alturas y se comparó con el imán. El procedimiento incluyó colocar el superconductor en hielo seco, utilizar un separador para lograr diferentes distancias, se vertió nitrógeno líquido para reducir la temperatura y medir el campo retenido en el cilindro. Repitiendo 3 veces para cada separador con 3 alturas. Se emplearon ecuaciones de Sosa, 2013 y un ajuste lineal para analizar datos y obtener la magnetización (μ0M).
Ecuaciones para distintas geometrías:
Cilindro:
B(z) = ((μ0M)/2)*(z/√(z2+R2 )-(z-L)/√((z-L)2+R2))
R: radio
h: altura de la medición a partir de la superficie del imán
L: espesor del material
z: h+L
CONCLUSIONES
Imán Cilíndrico:
Imán cilíndrico con superconductor cilíndrico, cálculos suponiendo se magnetizaba con una geometría cilíndrica.
Ajuste lineal Superconductor
m b
1220.689542 9.162518107
Incert 77.97037854 11.14801657
r2 0.972233729
Resultados del comportamiento magnético de un imán cilíndrico:
Ajuste Lineal Imán
m b
3714.604083 54.10068082
incert 27.34800989 5.826920952
r2 0.99945826
Se observó una magnetización en superconductor similar a imán cilíndrico. Altura de medición y fuerza del imán influyen. Extrapolación indica campo magnético se acerca a cero con mayor altura.
Imán Rectangular:
Imán rectangular con superconductor cilíndrico, cálculos suponiendo que se magnetizaba con una geometría rectangular.
Ajuste lineal Superconductor
m b
29.98270208 25.46436841
Incert 2.179999003 15.45985587
r2 0.964314817
Resultados del comportamiento magnético de un imán rectangular:
Ajuste lineal Imán
m b
138.8995403 100.1740862
incert 8.212517508 50.90666794
r2 0.97611367
Se realizó un segundo ajuste con imán rectangular y superconductor cilíndrico. Suponiendo un superconductor magnetizado cilíndricamente, luego se comparan comportamientos y determinar concordancia con propiedades reales del imán.
Para el imán rectangular, suponiendo geometría cilíndrica tiene mayor incertidumbre y cercanía al origen. Suponer geometría similar al imán es mejor y los resultados respaldan influencia de geometría y magnetización del imán en la magnetización del superconductor.
Imán Anillo:
Imán de anillo con superconductor cilíndrico, cálculos suponiendo que se magnetizaba con una geometría de anillo.
Ajuste Lineal Superconductor
m b
878.5670385 21.28260484
Incert 1012.33223 24.37856013
r2 0.038129971
Resultados del comportamiento magnético de un imán anillo:
Ajuste lineal Imán
m b
3794.134957 24.70141797
incert 41.14743191 1.548111019
r2 0.99741916
Se realizó un segundo ajuste con imán de anillo y superconductor cilíndrico. Suponiendo un superconductor magnetizado cilíndricamente.
Donde se observó mayor incertidumbre al suponer geometría de anillo en comparación con suponer geometría cilíndrica. El superconductor no se magnetiza como sombra del imán, sino que toma la geometría similar al campo que la magnetiza.
Imán Esférico:
Imán esférico con superconductor cilíndrico, suponiendo magnetización cilíndrica del diámetro de esfera, infiriendo un tipo de campo retenido a modo de sombra en el superconductor.
Ajuste lineal Superconductor
m b
2069.034708 -40.41798112
incert 201.9990851 26.0395532
r2 0.937452418
Resultados del comportamiento magnético de un imán esférico:
Ajuste lineal Imán Esfera
m b
5314.866985 6.9589911
incert 99.48950811 11.47607732
r2 0.99650819
Se observó mayor variación en incertidumbres y gráficos. Entendible por la diferencia entre geometría del imán y supuesta en superconductor. Resultados respaldan influencia de geometría y fuerza magnética del imán en la magnetización del superconductor.
CONCLUSIONES
Durante la estancia de verano, adquirimos conocimientos relacionados a los superconductores y su comportamiento como imanes cuando se inducen a su estado superconductor, utilizando nitrógeno líquido y aplicando un campo magnético con un imán permanente de neodimio.
Los conceptos teóricos, herramientas de medición y softwares digitales de la mano de los conocimientos del asesor Dr. Víctor Sosa permitieron un estudio más completo de los superconductores de YBCO, donde mediante gráficos se logró corroborar la hipótesis que indicaba que el superconductor adopta un comportamiento semejante al imán permanente cuando se induce en su estado superconductor.
Medina Lozano Ángela Monserrat, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Nazario Bautista Elivar, Instituto Tecnológico de Pachuca
SECADO DE CERáMICA UTILIZANDO ENERGíA RENOVABLE (SOLAR)
SECADO DE CERáMICA UTILIZANDO ENERGíA RENOVABLE (SOLAR)
Medina Lozano Ángela Monserrat, Benemérita Universidad Autónoma de Puebla. Nuñez Peralta Yareli, Benemérita Universidad Autónoma de Puebla. Ramos Martínez Axel Shalom, Universidad Autónoma del Estado de México. Asesor: Dr. Nazario Bautista Elivar, Instituto Tecnológico de Pachuca
PLANTEAMIENTO DEL PROBLEMA
El proceso de secado de cerámicos es de vital importancia para la obtención de productos de calidad, sin embargo los tiempos de secado pueden llegar a ser muy tardados, provocando problemas en la producción, así mismo si el secado no es lo suficientemente lento existe peligro de la pérdida de piezas, pues si la velocidad de evaporación del agua no es adecuada pueden formarse grietas en los productos. En ambos casos existe la necesidad de controlar el ambiente para tener condiciones ideales que permitan que la fase se lleve a cabo correctamente. Actualmente, se realiza este proceso en condiciones ambientales, dando una duración de aproximadamente veinte días, sin embargo se busca acelerar la producción al tiempo que se cuida la calidad en cada pieza creando condiciones controladas de secado con los requerimientos energéticos mínimos posibles.
METODOLOGÍA
En México, los sistemas colectores de calor han sido de gran consideración para capturar la radiación solar y pasarla a energía térmica. Su avance y desarrollo dependerá de distintos factores como la disponibilidad total de la tecnología.
El sol es la principal fuente de energía para todos los procesos naturales que tienen lugar en el planeta, sin embargo para procesos industriales y comerciales es usado como una fuente de energía renovable, limpia, abundante y gratuita.
Para aprovechar la radiación solar, se emplean colectores solares térmicos para captar y transferir el calor a un fluido, como agua o aire. Este calor se utiliza directamente en el proceso de secado, por lo que es un punto a tomar en consideración para poder reducir el tiempo de secado de cerámicos. El secado de cerámicos con energía solar ofrece varios beneficios, como reducir los costos de energía al aprovechar una fuente renovable y gratuita, disminuye la dependencia de combustibles fósiles y reduce las emisiones de gases de efecto invernadero.
Un prototipo de un sistema de captación de radiación solar ya estaba en marcha en el Departamento de Ingeniería Eléctrica y Electrónica del Instituto Tecnológico de Pachuca que se utilizará para el secado con muestras de piezas cerámicas de la empresa ANFORA, por lo que nuestra aportación fue de mejora y refinamiento del sistema actual.
Este prototipo cuenta con tres partes principales: un colector de aire caliente, un calentador solar y una cabina de secado, se pretende que el sistema trabaje constantemente, aproximadamente 6 horas en el día y con la energía acumulada, otro par de horas durante la noche.
El colector solar se encarga recolectar y calentar el aire durante el día, el sistema es semi cerrado, contando con ventanas de acrílico que a su vez cuentan con lentes de fresnel para aumentar la temperatura del aire en el mismo, la cuál por medio de mangueras especiales se distribuye a la cabina de secado, esta sección del sistema se encuentra equipada con sistemas de control que miden la temperatura del aire constantemente para no rebasar las condiciones ideales que se buscan. El calentador solar contendrá un líquido que irradiará calor en la cabina de secado; este líquido se distribuirá por medio de tubos y un radiador, haciendo que el líquido frío pueda regresar al calentador por medio de un sistema de control. Finalmente la cabina cuenta con un diseño cilíndrico horizontal, esto con el objetivo de que tanto el calor irradiado como el aire que entra tenga un comportamiento envolvente, mientras las piezas se encuentran justamente en medio sobre una plataforma de metal con hoyos distribuidos por toda la superficie para hacer la circulación del calor más uniforme.
Durante la estancia se desarrollaron actividades como el mejoramiento de la extracción de calor en el colector solar y la instalación de un sistema de control usando Arduino para la cabina de secado, donde se pretendía que el líquido frío del radiador fuera extraído y regresado hacia el calentador solar cuando alcanza cierto nivel, se utilizaron sensores, un relé, una bomba de agua de 12V, etc. El sensor ultrasónico tenía el siguiente principio: el sensor emite una onda ultrasónica que se propaga a través del agua hasta que alcanza la superficie. La onda ultrasónica se refleja en la superficie del líquido y vuelve al sensor. El tiempo que tarda la onda ultrasónica en viajar desde el sensor a la superficie del líquido y volver al sensor se utiliza para calcular la distancia entre el sensor y la superficie del agua, presentamos algunas dificultades para programar e instalar este sistema en donde reforzamos nuestros conocimientos de electrónica y coding, fue una buena tarea en la que nosotros aplicamos lo aprendido y aportamos al proyecto.
Además, nos encargamos de conectar los tres elementos del sistema a través de tubos y cables, colocamos la placa de metal e hicimos algunas pruebas de funcionamiento con respecto al movimiento del fluido del calentador solar a la cabina de secado.
CONCLUSIONES
Durante la estancia de verano se obtuvieron conocimientos sobre las aplicaciones de las energías renovables en el secado de cerámicos, así como, aprendizajes teóricos sobre propiedades y la importancia del secado en el proceso. Además de conocimientos prácticos para completar el prototipo ya establecido. Podemos decir que fue posible aplicar y reforzar diversos conocimientos del área del estudio de la carrera en cuestión,que permitieron contribuir con el proyecto, se espera que el prototipo en funcionamiento reduzca al menos el 40% del tiempo de secado en condiciones ambientales, finalmente, este proyecto se alinea con el ODS7 de desarrollo sostenible y energía asequible, debido a su contribución al uso de energías renovables.
Medina Santos Milton, Universidad de Sonora
Asesor:Dra. Ma. Estela Calixto Rodríguez, Benemérita Universidad Autónoma de Puebla
PELíCULAS DELGADAS DE SELENIURO DE NíQUEL OBTENIDAS POR ELECTRODEPóSITO
PELíCULAS DELGADAS DE SELENIURO DE NíQUEL OBTENIDAS POR ELECTRODEPóSITO
Granillo Luna Eduardo, Universidad de Sonora. Medina Santos Milton, Universidad de Sonora. Asesor: Dra. Ma. Estela Calixto Rodríguez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El seleniuro de níquel, dependiendo de su estequiometría, puede llegar a ser un semiconductor tipo p que sea utilizado con un gran número de aplicaciones en celdas solares, un material bidimensional, o un superconductor. Por otro lado, el electrodepósito es un método para síntesis de películas delgadas con diversas ventajas como el llevarse a cabo a temperatura ambiente, en poco tiempo, a bajo costo y ser escalable. En el presente trabajo sintetizaremos una película delgada de seleniuro de níquel con este método así como también caracterizaremos sus propiedades a través de micro-Raman, microscopio óptico, difracción de rayos-X (XRD), perfilometría y espectrometría UV-Vis.
METODOLOGÍA
La película delgada de seleniuro de níquel se depositó potenciostáticamente sobre un sustrato de vidrio recubierto con óxido de estaño dopado con flúor (FTO) con una solución acuosa de NiSO4 y H2SeO3. Las condiciones de deposición controladas fueron tales como la concentración y pH de las soluciones, temperatura y tiempo de deposición.
Se preparó una solución madre (0.5 M) pesando 6.571g de NiSO4 y diluyendo con agua hasta 15 mL, luego se añade 1 mL de H2SeO3 (0.01 M), medimos que el pH es de 2.7 y finalmente aforamos la solución hasta 50 mL.
Para preparar el sustrato se tomó un sustrato de vidrio-FTO y se lavó con jabón alcalino en la parte conductora. Se enjuaga con agua desionizada para después introducirlo en un vaso de precipitado con más agua desionizada para meterlo por cinco minutos en el ultrasonido, después se introduce en un vaso de precipitado con acetona durante 5 min en el ultrasonido nuevamente. Se enjuaga nuevamente con agua desionizada y se introduce en un vaso de precipitado con alcohol isopropílico durante 5 min en el ultrasonido. Se enjuaga con agua desionizada y se seca con nitrógeno.
Par realizar el electrodepósito se vertió toda la solución madre en un matraz
con recirculador de agua que mantenga la reacción a 297.15 K. Dentro del matraz se colocan 3 electrodos: 1 ánodo (1 laminilla de Pt), 1 cátodo (1 sustrato de vidrio recubierto con FTO (500 nm de espesor y resistividad eléctrica de 10 /cuadro)) y un electrodo de referencia (Ag- AgCl) el cual medirá la corriente y el voltaje a lo largo de la reacción.
Se aplicó finalmente un voltaje de -0.7 V (potencial de reducción) que obtuvimos haciendo una voltimetría cíclica, esto durante 5 min y finalmente se retiró el sustrato para ser enjuagado con agua desionizada y secado con nitrógeno.
CONCLUSIONES
En el proceso de electrodepósito de nuestra película podemos observar dos potenciales de reducción en -0.7V y -0.54V, siendo el primero un pico más prominente.
En cuanto a la morfología, observada con el microscopio óptico, podemos ver una estructura homogénea, de un granulado muy fino. Se observan unos puntos negros que vendrían a ser el FTO, donde no se depositó material.
En la elipsometría obtuvimos que conforme más tiempo duraba el depósito más gruesa era la película, para la película de 3 minutos obtuvimos un grosor de 226nm.
En las mediciones arrojadas por el micro-Raman observamos picos en 150 y 200nm, los cuales corresponden al Níquel, pero se debe hacer una investigación más profunda.
En cuanto a la difracción de rayos-X, después de tratar los datos obtenidos la gráfica nos aporta una gráfica que corresponde al selenurio de Niquel.
La espectrometría UV-Vis nos permite calcular el ancho de la banda prohibida, pero se necesitar hacer un tratamiento para obtenerlo.
Como conclusiones finales podemos afirmar que se pueden obtener películas delgadas de seleniuro de níquel sobre sustratos de FTO mediante la técnica de electrodepósito, la cual es sencilla de realizar y escalable, como trabajo posterior se pueden seguir realizando más caracterizaciones para poder definir la estequiometría de nuestro compuesto, así como realizar procesos de selenización para aumentar la concentración de este elemento. Dependiendo de estos resultados podemos aplicar la película delgada a un panel solar para calcular su eficiencia.
Mejia Arredondo Leslie, Instituto Tecnológico de Querétaro
Asesor:Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo
MURO DE BAHAREQUE EMPLEANDO COMPLEMENTOS DE MUCÍLAGO DE NOPAL, CENIZA Y NEJAYOTE.
MURO DE BAHAREQUE EMPLEANDO COMPLEMENTOS DE MUCÍLAGO DE NOPAL, CENIZA Y NEJAYOTE.
Alvarez Bernardino Jaqueline Susana, Instituto Tecnológico de Querétaro. Cruz Pintor Ana Giovanna, Instituto Tecnológico de Querétaro. Mejia Arredondo Leslie, Instituto Tecnológico de Querétaro. Asesor: Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
A lo largo de la historia una solución constructiva en muchas culturas ha sido el bahareque, el que tiene por significado "pared de cañas y/o maderas y tierra"
Gracias a la aparición de nuevos materiales de construcción, se han creado modificaciones a las técnicas constructivas de dicho muro.
Dentro de esta investigación se realizarán 3 prototipos donde se emplea la misma base, únicamente se cambiará un material, para poder identificar la diferencia, así como si existen pros y contras en cada uno de ellos, estos materiales son: nejayote, ceniza y mucílago de nopal.
METODOLOGÍA
Se obtuvieron materiales naturales como son:
Arcilla
Para la obtención del material, se realizó una excavación a un metro de profundidad de esta manera se asegura la pureza del material, esto con la finalidad de evitar la incorporación de otros materiales, tales como, piedras, materia vegetal, elementos en descomposición, entre otras.
Mucílago de nopal
El mucílago del nopal mejor conocido como la baba de nopal, es un biopolímero coagulante que se ha utilizado para impermeabilizar, tapar poros, resanar e incluso se utiliza como adhesivo.
Para obtener el mucílago de nopal, es necesario utilizar nopales en buen estado y con un grosor considerable de 2 cm o más. Una vez teniendo esto será necesario retirar la piel de cada nopal para poder obtener la pulpa, posteriormente la pulpa se deberá reposar en agua para que suelte el mucílago que se necesitará.
Nejayote
La palabra nejayote significa agua con cenizas en náhuatl. Proviene de las palabras nextli, que significa ceniza y ayotl que es líquido. La referencia a las cenizas proviene del método tradicional de nixtamalización. Para preparar el nixtamal en algunas partes de México, y siguiendo la tradición prehispánica, se utiliza ceniza, en vez de cal. Se coloca ceniza o cal, para cocer el maíz y después se deja reposar por horas.
De forma popular, el término nejayote se utiliza para identificar el agua amarillenta en que se ha cocido el maíz.
Cal
Sustancia alcalina constituida por óxido de calcio, de color blanco o blanco grisáceo, que al contacto del agua se hidrata o se apaga, con desprendimiento de calor, y mezclada con arena forma la argamasa o mortero.
Carrizo
Es un material ecológico y sostenible de bajo costo, estéticamente aceptable, fácil de obtener y colocar, ya que permite generar diferentes sistemas constructivos.
Es resistente a las heladas y un buen aislante térmico, debido a la gran cantidad de huecos llenos de aire de los tallos. Su conductividad térmica es λ = 0,055 W/m.K.
Se generará un muro de 1m2 donde la estructura es a base de carrizo entrelazado para crear un módulo donde posteriormente se agrega la mezcla para recubrir toda la superficie.
Ceniza
La ceniza de madera es un material que se obtiene como resultado de quemar la madera en una chimenea o en una estufa de leña. Los beneficios de este material son: que es un abrasivo natural, fertilizante natural, repelente de plagas, sustrato versátil, tiene propiedades abrasivas y suavizantes, y en este caso lo usaremos en la construcción.
Elaboración de las mezclas
Para la realización de la mezcla vamos emplear los materiales base, los cuales son, tierra, arena y cal, para posterior agregar el material elegido (najaya, mucílago de nopal o ceniza)
Aplicación
La colocación del relleno se realizará iniciando desde la parte baja del bahareque y de allí hasta la parte superior de forma ordenada y pareja.
Se realizan bolas de tierra de aproximadamente 10 cm de diámetro para posteriormente lanzarla con fuerza y la mezcla logre cubrir por completo la superficie.
Es importante emplear las manos para darle un mejor acabado al muro.
Secado
El secado del muro de bahareque de arcilla con mucílago de nopal, deberá ser a temperatura ambiente, tomando en cuenta las siguientes:
Cubrir la superficie de aplicación para evitar la incidencia solar de manera directa (esto con el fin de evitar grietas).
Recomendable descubrir por las noches las pasta para que la misma seque a temperatura ambiente por las noches.
Resultados
Como resultado de los tres tipos de muro, principalmente pudimos notar que hacer la mezcla fue sencilla, hubo buena adherencia entre los materiales y se logró conseguir una mezcla homogénea; La aplicación fue fácil en la superficie, lo que pudimos notar igual en el muro de ceniza y maíz es que no tenía la suficiente adherencia para mantenerse, sin embargo en el de mucílago de nopal se sostuvo muy bien, algo que podemos proponer en estos casos es agregar otro material a la mezcla para poder obtener mayor resistencia.
CONCLUSIONES
Durante la estancia de verano de investigación se logró adquirir conocimientos teóricos de los materiales que se pueden utilizar para realizar un muro sostenible. De igual manera se puso en práctica lo teórico, creando prototipos de 1 m2, para generar el muro de bahareque con la misma base y solo cambiar con el mucílago de nopal, ceniza y con nejayote, mostrando así, buenos resultados debido a que se abaratan costos y recursos, además se disminuye el impacto ambiental e incrementa la cultura de las comunidades.
Melchor Flores Diana, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla
SIMULACIóN E IMPRESIóN 3D DE UN TUMOR CEREBRAL (GLIOBLASTOMA) UTILIZANDO SOFTWARE BASADO EN MONTE CARLO
SIMULACIóN E IMPRESIóN 3D DE UN TUMOR CEREBRAL (GLIOBLASTOMA) UTILIZANDO SOFTWARE BASADO EN MONTE CARLO
Melchor Flores Diana, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Eduardo Moreno Barbosa, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los glioblastomas constituyen el tipo de tumor cerebral primario más común y peligroso en los adultos. En México se estima una incidencia de 3.5 por cada 100000 habitantes (González 2020). Aunque la actividad sináptica y la liberación de neurotransmisores influye en su proliferación, crecimiento, migración y supervivencia de las células progenitoras neurales en las neuronas y la glía (Yu, K. 2021) rara vez hace metástasis.
Durante el verano de investigación se plantea el desarrollo de un modelo computacional 3D in sillico basado en las interacciones intercelulares de los glioblastomas para comprender mejor su fisiopatología y a partir de él, generar un modelo geométrico de impresión 3D que funcione como herramienta de apoyo pedagógica.
METODOLOGÍA
Se reviso la bibliografía acerca de las neoplasias: la proliferación clonal de células anormales. En general, todos los cánceres presentan cambios en la fisiología celular: autosuficiencia en relación con señales de crecimiento, insensibilidad a señales inhibidoras de crecimiento, alteración del metabolismo celular, evasión de la muerte celular (apoptosis), potencial de replicación ilimitado, angiogénesis continua (formación de vasos a partir de capilares existentes), invasión y/o metástasis en tejido sano y evasión de la vigilancia inmunitaria (Robbins, K. 2021). En particular los gliomas, unos de los tumores más vascularizados, tienden a desarrollarse a partir de neoplasias relativamente benignas no encapsuladas hasta tumores de alto grado conocidos como Glioblastomas Multiformes (GBM), estos muestran un alta proliferación y densidad celular, crean vasos sanguíneos a partir de ya existentes, lo que los conlleva a una mala calidad y por lo tanto hay necrosis (Mustafa, D.A. 2012). Los GBM rara vez hacen metástasis lo cual es conveniente al realizar una simulación in sillico ya que nos permite restringir el ambiente celular.
Una técnica eficaz para analizar los comportamientos biológicos de los tumores es la simulación computacional basada en métodos Monte Carlo (MC), los cuales se ocupan de generar variables aleatorias a partir de funciones de densidad de probabilidad para estimar parámetros desconocidos y calcular sus valores esperados (Koch, K.R. 2020). Existen dos enfoques para el modelado de tejidos: (1) modelos continuos, que utilizan campos de densidad celular y ecuaciones diferenciales parciales para modelar interacciones celulares sin representaciones explicitas, y (2) modelos basados en agentes, que representan células individuales e interacciones explícitamente (Swat, M.H 2012). El método que seleccionamos para realizar nuestra simulación es el modelo Glazier-Graner-Hogeweg (GGH) perteneciente al tipo basado en agentes. A grandes rasgos el GGH funciona discretizando el espacio simulado en una serie de voxeles idénticos, una célula individual, representa un conjunto finito de estos voxeles y se simula de manera dinámica los cambios en la forma y tamaño de las células, así como las interacciones intercelulares de manera explícita.
El software que se utilizó para construir el modelo fue CompuCell3D (CC3D), una plataforma de código abierto y distribución libre basada en el lenguaje Python. Fue necesario familiarizarse con este lenguaje de programación y con algunas de sus librerías. Para crear un modelo en CC3D primero se deben especificar los parámetros generales para la simulación, que incluyen: el tamaño del espacio simulado, la amplitud de fluctuación de la membrana celular, también llamada motilidad, la duración de la simulación en términos de Pasos Monte Carlo, que representa la unidad temporal elemental en CC3D, y la configuración inicial de la distribución celular. Después declarar los tipos de células requeridas, por default se genera un tipo de células falsas (dummy) que funciona como la matriz extracelular o el medio en el que se desarrolla el resto de las células. Por último, es posible crear características específicas en módulos. Para este trabajo se limitó la clasificación de células según su adhesión, utilizando un módulo que contempla la energía efectiva por contacto, en términos de la energía de adhesión por unidad de superficie, que es una característica especifica entre tipos de células. Para calcular la contribución total, solamente se toma en cuenta aquellos voxeles de células aledañas que están en contacto y otro para la constricción volumétrica que controla el volumen ideal de las células y la amplitud de las fluctuaciones en su membrana: un valor elevado resulta en células rígidas, ya sea inmóviles o poco móviles mientras que un valor disminuido permite un grado alto de movilidad y reordenamiento celular.
Al finalizar la creación del modelo en CC3D para el crecimiento del tumor se pretende exportar la información geométrica en un formato que pueda leer una impresora 3D y así hacer modelos físicos. Para imprimir el modelo, se tomó un curso acerca de la impresión 3D, en donde se aprendió acerca tres tipos de impresoras, dos que utilizan filamentos y una que utiliza resina. Se encontró que las impresoras de resina respecto a las de filamento permiten imprimir piezas muy complejas y pequeñas. Por estas razones se optó por utilizar la impresora de resina.
CONCLUSIONES
A lo largo de la estancia de verano se lograron adquirir conocimientos teóricos acerca de los mecanismos fisiológicos alterados en los tumores más específicamente en los glioblastomas, también se adquirieron conocimientos acerca de la importancia del modelado matemático, probabilístico, mediante el uso de métodos Monte Carlo, el dominio de la plataforma Compucell3D, el empleo del lenguaje de programación en Python y sobre las diferencias de 2 tipos de impresión 3D.
Debido a que el modelado de sistemas complejos constituye un extenso trabajo aún se encuentra en la fase de implementación de la creación de modelado, por lo tanto, aún se está trabajando en la fase final de la simulación y su posterior impresión.
Melendez Yahuitl Jazmin, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Jesús Guillermo Falcón Cardona, Instituto Tecnológico y de Estudios Superiores de Monterrey
OPTIMIZACIóN MULTIOBJETIVO CON APLICACIóN BIOLóGICA.
OPTIMIZACIóN MULTIOBJETIVO CON APLICACIóN BIOLóGICA.
Melendez Yahuitl Jazmin, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Jesús Guillermo Falcón Cardona, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
En el campo de las ciencias biológicas, específicamente de la genética, las secuencias de nucleótidos que conforman el ADN consisten en distintas combinaciones de letras A, G , T , y C que codifican instrucciones para sintetizar biomoléculas que constituyen a los organismos vivos. Debido a la amplia variedad de combinaciones posibles que estas 4 letras pueden hacer y al tamaño de las secuencia génicas presentes en los organismos, cuyo tamaño llega a ser de más de 200,000 pares de bases, la optimización multiobjetivo puede ser una herramienta útil para resolver problemas que traten simultáneamente con distintas soluciones posibles (en este caso, distintas secuencias y proporciones de nucleótidos de las mismas).
En este trabajo nos enfocaremos a un caso hipotético de estudio de diferentes secuencias de ADN, de las cuales nos interesan dos características: longitud de la secuencia y contenido de G/C (proporción de bases guanina y citosina en la secuencia) buscando encontrar las soluciones que representen las secuencias más largas con el contenido de G/C más alto, mediante el uso de Python.
En un problema de optimización multiobjetivo, como el que se pretende resolver en este código, se busca optimizar múltiples objetivos al mismo tiempo. En este caso, los objetivos son dos características de las secuencias genómicas: la longitud y el contenido de G/C.
Dado que estos dos objetivos son contradictorios entre sí (es decir, mejorar uno de ellos puede implicar empeorar el otro), no existe una única solución que sea la mejor en ambos objetivos al mismo tiempo. En lugar de buscar una única solución óptima, se busca un conjunto de soluciones que no pueden ser mejoradas en uno de los objetivos sin empeorar en el otro. Este conjunto de soluciones no dominadas se conocen como el conjunto de Pareto.
METODOLOGÍA
Para lograr la optimización de la problemática previamente presentada, se implementó el siguiente algoritmo mediante el uso de las librerías "numpy" y "matplotlib.pyplot" del lenguaje de programación Python con el empleo del software libre "Visual Studio Code" para editar, compilar y ejecutar el código fuente.
Algoritmo desarrollado en Python:
Creación de una población aleatoria
Definimos la clase SecuenciaGenomica y el "método __init__" con los atributos de longitud, número de bases de nucleótidos;contenido_gc, contenido guanina/citosina y cadena, que nos permitirá almacenar la secuencia de nucleótidos.
Definimos la función generar_cadena_genomica(longitud) que se encargará de generar una cadena de nucleótidos aleatoria con una longitud específica.
Definimos la función generar_poblacion_inicial(tamaño_población)
Implementamos la función poblacion_inicial = generar_poblacion_inicial(valor)
Determinación de las soluciones de pareto no dominadas
Definimos la función es_dominado(secuencia_i, secuencia_j) que compara la longitud y el contenido de G/C de ambas secuencias genómicas y devuelve True si secuencia_i domina a secuencia_j y False en caso contrario.
Definimos la función encontrar_soluciones_pareto que sigue estos pasos:
.Inicializa un conjunto A, mediante A = set(poblacion)
Itera a través de todas las secuencias en la población y compara cada secuencia con las demás para determinar cuáles son no dominadas gracias a los bucles for i in range(N) y for j in range(N)
Descarta del conjunto A las secuencias que son dominadas por otras, dejando solo las soluciones de Pareto mediante la implementación de A.discard(poblacion[i])
Guarda la soluciones no dominadas en la población secundaria mediante soluciones_pareto = list(A)
Ordena las soluciones de Pareto en función de dos criterios de optimización con soluciones_pareto.sort(key=lambda secuencia: (-secuencia.contenido_gc, -secuencia.longitud))
Devuelve la lista de soluciones de Pareto ordenadas mediante la implementación de return soluciones_pareto
Graficación de resultados mediante el uso de la biblioteca matplotlib.pyplot para crear un gráfico de dispersión (scatter plot) con los datos de longitud y contenido de G/C de las soluciones no dominadas.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre las metaheurísticas bio-inspiradas, la dominancia de pareto y los algoritmos evolutivos para ponerlos en práctica mediante la programación de un algoritmo en lenguaje de programación Python, que nos permite obtener las soluciones no dominadas de Pareto de un conjunto de secuencias génicas generadas aleatoriamente variando su longitud (cantidad de nucleótidos) , combinación y variación en contenido G/C que se representan como un conjunto de puntos en un gráfico de dispersión. Sin embargo, al ser un trabajo desafiante, el código aún no se encuentra terminado, es necesario implementar "mutaciones" y "clonaciones" de los valores de pareto no dominados para obtener soluciones más impecables y óptimas, por lo cual se encuentra en constante perfeccionamiento y modificación.
Méndez Guerrero Héctor, Universidad Veracruzana
Asesor:Dr. Jose Maria Cantarero Lopez, Centro de Investigación en Matemáticas (CONACYT)
LA CONJETURA DE QUILLEN
LA CONJETURA DE QUILLEN
Méndez Guerrero Héctor, Universidad Veracruzana. Meza Campa Victor Adrian, Universidad Autónoma de Sinaloa. Asesor: Dr. Jose Maria Cantarero Lopez, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El estudio del conjunto parcialmente ordenado (poset) Sp(G) de p-subgrupos no triviales de un grupo G para un número primo p, ordenados por inclusión inició con Brown en 1975 donde se enfocó en analizar la característica de Euler y la cohomología para grupos discretos. Años más tarde en su artículo de 1978 Homotopy Properties of the Poset of Nontrivial p-Subgroups of a Group, Quillen define además del poset introducido por Brown, el poset de los p-subgrupos elementales abelianos de un grupo G (también conocidos como p-toros) Ap(G), demuestra que los complejos simpliciales asociados a ambos posets son homotopicamente equivalentes y que si G tiene un p-subgrupo normal no trivial, entonces el complejo simplicial asociado a Ap(G) es contráctil. Conjetura además que el reciproco es cierto, es decir, que si el complejo simplicial asociado al poset Ap(G) es contráctil entonces G tiene un p-subgrupo normal no trivial. Lo anterior es llamado la conjetura de Quillen.
En los años posteriores se ha hecho el intento de atacar este problema desde distintas perspectivas. El presente trabajo se enfoca en los artículos An approach to Quillen’s conjecture via centralisers of simple groups de Piterman, Acyclic 2-dimensional complexes and Quillen’s conjecture de Piterman, Sadofschi Costa y Viruel y A geometric approach to Quillen’s conjecture de Díaz Ramos y Mazza.
METODOLOGÍA
A través de artículos realizados sobre la conjetura de Quillen, rescatamos la información relevante y los avances hechos sobre el problema. Mediante sesiones dos veces por semana se esclarecieron dudas sobre conceptos que se necesitan para comprender la conjetura e implicaciones que tiene.
Además, mediante nuestra participación del seminario de topología algebraica realizado en CIMAT-Mérida por el Dr. José María Cantarero López se reforzaron conceptos usados en diferentes artículos que hablan sobre la conjetura y en general que son usados en el ámbito matemático.
CONCLUSIONES
En el artículo original Quillen demuestra algunos casos de la conjetura. Muestra que la conjetura es cierta si el p-rango del grupo es a lo más dos, si el grupo es soluble, entre otros casos particulares. Piterman, en particular amplia la conjetura para los casos con p-rango a lo más 4 y desarrolla técnicas que pueden ayudar al posterior desarrollo en la resolución de esta conjetura. Desarrolla un tipo de inducción, donde muestra que si un grupo cumple con ciertas condiciones la conjetura es válida si subgrupos propios y cocientes centrales propios del grupo satisfacen la conjetura.
Aschbacher y Smith en su artículo On Quillen's conjecture for the p-groups complex desarrollaron uno de los más grandes avances en el estudio de la conjetura, definen que un grupo tenga la dimensión de Quillen QDp si el complejo asociado al poset de los p-subgrupos abelianos tiene homología reducida diferente de cero en su dimensión maximal. Demostraron entonces que la conjetura es cierta si el número primo p es mayor que 5 y el grupo satisface ciertas condiciones de sus componentes y la dimensión de Quillen.
Díaz Ramos y Mazza trabajan sobre los p-subgrupos abelianos elementales E de un grupo finito G, definiendo el rango de dichos subgrupos y trabajando sobre ellos como espacios vectoriales sobre los campos finitos Fp. Definiendo los conceptos de tuplas y estudiando a detalle sus propiedades, se enfocaron en el análisis de las cadenas del complejo simplicial asociado al poset de p-subgrupos abelianos elementales |Ap(G)|. Estudiando las cadenas de símplices que existen en este poset uno puede reconocer que si E es maximal, entonces existe un elemento no trivial de la homología reducida de dimensión r-1, donde r es el rango de E. Esto en particular implica |Ap(G)| es no contraíble y la conjetura de Quillen se cumple para G, siempre y cuando G cumpla ciertas hipótesis sobre sus elementos. Si además se tiene que r = rkp(G), es decir, r es el máximo de todos los rangos de los p-subgrupos abelianos elementales de G se obtiene que G cumple con QDp, la cual nos indica que la homología reducida del complejo |Ap(G)| en r-1 es no trivial.
En diversos artículos además desarrollan versiones duales, equivalentes o más fuertes que la original, comparando los grupos de homología que generan los espacios y los coeficientes de los anillos en la homología. Por ejemplo, en el artículo An approach to Quillen’s conjecture via centralisers of simple groups, Piterman demuestra una equivalencia de la conjetura original, donde se puede reemplazar la contractibilidad del espacio con que el espacio sea Z-acíclico y además muestra que si cambiamos la condición por Q-acíclico, obtenemos una versión más fuerte de la conjetura.
La conjetura de Quillen es un tema que se sigue abordando el día de hoy, donde se han demostrado diversos casos particulares y se sigue tratando de diferentes maneras. A día de hoy, herramientas como la clasificación de grupos finitos simples han apoyado el desarrollo de la solución de este problema.
Mendiola Rojas Diego, Instituto Politécnico Nacional
Asesor:Dra. Argelia Perez Pacheco, Hospital General de México
REFLECTOMETRíA CERCANA AL áNGULO CRíTICO PARA DETERMINAR EL íNDICE DE REFRACCIóN DE LA DENTINA HUMANA
REFLECTOMETRíA CERCANA AL áNGULO CRíTICO PARA DETERMINAR EL íNDICE DE REFRACCIóN DE LA DENTINA HUMANA
Mendiola Rojas Diego, Instituto Politécnico Nacional. Asesor: Dra. Argelia Perez Pacheco, Hospital General de México
PLANTEAMIENTO DEL PROBLEMA
El ángulo critico es el ángulo mínimo de incidencia en que cual se produce la reflexión total interna. Este fenómeno es de gran utilidad en muchos sistemas, por ejemplo, para el funcionamiento de las fibras ópticas donde las reflexiones múltiples entre dos interfaces permiten que la luz se pueda direccionar.
En el campo medico el uso de la fibra óptica es de gran utilidad en las técnicas endoscópicas clásicas sustituyendo los sistemas tradicionales por los modernos fibroscopios. Otros aparatos como laringoscopios, broncoscopios, gastroscopios están equipados con esta tecnología, la cual permite con gran precisión la exploración de cavidades internas del cuerpo humano.
METODOLOGÍA
Se utilizaron 5 muestras dentales con diferentes características. Para el estudio de las muestras se procedió a pulir las piezas a fin de dejar una cara plana, posteriormente la cara plana se colocó en el sistema experimental para la obtención del ángulo crítico. Conociendo el índice de refracción de un medio conocido (bromonaftaleno) y siendo este mayor al del medio a analizar (dentina) se pudo conocer dicho ángulo. Los resultados se analizaron de manera téorica y experimental.
Como previa calibración, se utilizó el vidrio para verificar el funcionamiento del sistema. Se realizó una valoración teórica usando la ley de Snell y las ecuaciones de Fresnel usando el software MATLAB.
El sistema experimental consistió de un láser de longitud de onda 670 nm, un sensor de potencia con un rango de medición de 50 nW - 50 mW que permitió medir el haz reflejado en la muestra, una base ajustable a 3 ejes y una base rotatoria de 360°. El montado de la muestra en la celda consto de alinear la celda en la base rotatoria a 4 puntos principales. Una vez colocada la celda en la base, se ajustó su ubicación para que el haz incidiera en la muestra. Luego la celda se llenó con bromonaftaleno con ayuda de una pipeta.
Las condiciones de trabajo fueron con luz apagada y puerta cerrada para asegurarnos que las mediciones proporcionadas por el sensor fueran solo del haz del láser reflejado por la muestra.
Para el inicio de las mediciones durante la calibración, primero se roto la base a 20° de la posición inicial para evitar interferencia entre el cuerpo del sensor y la salida del haz del láser. Partiendo de ese punto se realizaron mediciones cada 5° hasta llegar a 80°. Entre 60° y 70° se redujo el rango medición de 2° a 1° ya que entre esos valores se encontraba el ángulo crítico teórico del vidrio. Este procedimiento se realizó dos veces obteniendo un valor del ángulo critico en 66.3° y un valor del índice de refracción de 1.5108. Estos valores concordaron con los valores reportados en otros estudios para el vidrio.
Una vez comprobado el funcionamiento del equipo y tomando en cuenta el error humano con respecto a la precisión y la escala de medición se procedió a realizar el mismo procedimiento con las muestras dentales. Para las muestras dentales se realizaron dos mediciones en cada zona donde fue la incidencia laser. Por cada muestra se obtuvo el ángulo crítico en 2 zonas. Para este experimento el ángulo crítico promedio de la zona de la dentina de las piezas fue de 69.45+/- 0.5°, obteniendo un valor del índice de refracción de la dentina de 1.544+/-0.001. El valor teórico reportado para el índice de refracción de la dentina es de 1.540 +/- 0.013.
CONCLUSIONES
Con el diseño experimental se logró determinar el ángulo critico de la dentina y por lo tanto obtener el índice de refracción para cada muestra. Los valores experimentales obtenidos concuerdan satisfactoriamente con lo reportado en otros trabajos de la literatura científica.
Mendoza Aparicio Carola, Universidad Autónoma del Estado de México
Asesor:Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
PROSPECCIóN DE ZONAS DE RIESGO Y VULNERABILIDAD A INCENDIOS FORESTALES EN LA COSTA NORTE DE JALISCO EN EL PERIODO 2015-2023
PROSPECCIóN DE ZONAS DE RIESGO Y VULNERABILIDAD A INCENDIOS FORESTALES EN LA COSTA NORTE DE JALISCO EN EL PERIODO 2015-2023
Mendoza Aparicio Carola, Universidad Autónoma del Estado de México. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Los cambios en el clima provocados por las acciones humanas han propiciado la intensa variabilidad climática natural, aumentando algunos fenómenos hidrometeorológicos, como las sequías. En el año 2013 el Grupo Intergubernamental de Expertos sobre el Cambio Climático mencionó que las tendencias para el siglo XXI son de menor disponibilidad de agua (Ortega Gaucin, et. al., 2018)
Un evento natural provocado por las sequías son los incendios forestales, estos son la propagación libre y no programada del fuego sobre la vegetación en los bosques, selvas, zonas áridas y semiáridas (CENAPRED, 2004). Los incendios forestales suelen ocurrir en la temporada de estiaje que abarca los meses de marzo a junio, en donde los ríos y lagunas disminuyen su nivel de forma natural.
Los bosques y selvas son importantes almacenes de carbono, al incendiarse se liberan grandes cantidades de Dióxido de Carbono (CO2), este es uno de los Gases de Efecto Invernadero que intensifican el cambio climático global. De acuerdo con el Concentrado Nacional de Incendios Forestales del año 2022 en Jalisco ocurrieron 940 incendios en total, afectando una superficie de 76,707 ha (CONAFOR, 2022).
Este estudio puede contribuir a que los tomadores de decisiones actúen en conjunto con investigadores y combatientes del fuego para prevenir y controlar los incendios forestales.
METODOLOGÍA
Primeramente, se llevó a cabo una revisión bibliográfica, para conocer los conceptos importantes sobre los incendios forestales, así como identificar los trabajos sobre el tema que se han realizado a nivel internacional, nacional y estatal. Posteriormente se recolectaron los Datos de Teledetección de Puntos de Calor por medio de la plataforma del Sistema de Alerta Temprana de Incendios de CONABIO. Los Puntos de Calor son aquellos que emiten una temperatura suficientemente alta y diferente en comparación a los puntos de su alrededor para que sea detectado por el satélite.
La CONABIO utiliza imágenes de satélite VIIRS, sus bandas para detectar puntos de calor son de 750 m, así mismo usa el satélite MODIS estas bandas tienen resolución espacial de 1km por 1km en el nadir. A continuación, se realizó un análisis con la información de Excel de los datos de puntos de calor que abarcan desde el 1 de enero del 2015 hasta el 31 de mayo del 2023, este análisis se dividió por años y en ellos se identifica el tipo de vegetación que resulto más impactada por los puntos de calor.
Se trabajó con el Sistema de Información Geográfica; ArcGis para realizar cada uno de los mapas de los puntos de calor por año y conocer la distribución espaciotemporal de los elementos mencionados, pues se realizó la comparación entre los puntos de calor y los incendios forestales registrados por la Secretaría de Medio Ambiente y Desarrollo Territorial del Gobierno de Jalisco, los cuales fueron de los años 2015, 2017, 2018, 2019, 2020, 2021.
CONCLUSIONES
En el municipio de Puerto Vallarta la cantidad de puntos de calor es menor en comparación con Cabo Corrientes, principalmente porque la actividad económica más importante es el turismo, sin embargo, podemos ver un aumento con forme pasan los años, siendo el 2022 el año en el que más puntos de calor presentó (fueron 214 en total).
Por otro lado, en Cabo Corrientes, el año que más ha presentado puntos de calor es el 2023, la información utilizada es solo hasta el 31 de mayo, por lo que es preocupante ver 2,678 puntos de calor registrados en 5 meses, cuando en 2022, en total se presentó menos de una cuarta parte (572). Los puntos de calor tienen mayor presencia en este municipio en comparación con Puerto Vallarta, debido a que la cobertura de selva es de 53.4% y los bosques conforman 37.4% del total del municipio, contrario a Puerto Vallarta donde sobresale el uso de suelo urbano.
La cobertura de selva y bosque presenta las condiciones adecuadas para que ocurran incendios forestales pues la gente tira basura, las altas temperaturas y la ola de calor presente en este 2023 junto con los materiales flamables del bosque y los residuos, dan las condiciones idóneas para que ocurran estos fenómenos.
Los años con menos puntos de calor fueron el 2015 y 2018, en los cuales estuvo presente el Fenómeno de El Niño Oscilación del Sur (ENSO). Este evento tiende a aumentar la actividad de ciclones tropicales, y por lo tanto hay más precipitaciones, lo cual probablemente evito que hubiera aumentos en la temperatura de los puntos como para ser detectados por los satélites correspondientes.
Por otro lado, los que más puntos de calor presentaron han sido el 2019, el 2021, encabezados por el 2023, es importante señalar que debido a que en este año se está haciendo presente ENSO, este fenómeno traerá consigo temperaturas altas, sequías y condiciones favorables para la formación de incendios forestales para los años siguientes. Las condiciones fueron similares en el 2019, pues en ese año y el anterior también estuvo presente ENSO.
Sin embargo, para el 2021, se registró el Fenómeno de La Niña, lo mismo que el año 2020, la interferencia de los vientos alisios y la disminución en las precipitaciones pudieron ser determinantes para aumentar la cantidad de puntos de calor.
La vegetación que presento más puntos de calor en el periodo analizado fue la Selva mediana subcaducifolia, seguida de la Selva baja caducifolia y el Bosque de Pino-Encino. Por último, las grandes concentraciones de puntos de calor coinciden con los incendios forestales en los años 2015, 2017, 2018, 2019, 2020, 2021, de acuerdo con la información disponible de incendios proporcionada por la SEMADET.
Mendoza Macías Montserrat Aranzazú, Universidad de Guadalajara
Asesor:Dr. Servando López Aguayo, Instituto Tecnológico y de Estudios Superiores de Monterrey
GENERACIóN Y PROPAGACIóN DE SOLITONES ESPACIALES EN REDES óPTICAS
GENERACIóN Y PROPAGACIóN DE SOLITONES ESPACIALES EN REDES óPTICAS
Mendoza Macías Montserrat Aranzazú, Universidad de Guadalajara. Asesor: Dr. Servando López Aguayo, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
El fenómeno del solitón se ha estudiado ampliamente en la física no lineal debido a su presencia en diversas áreas como la óptica, cosmología, teoría de cuerdas, etc.
En el presente trabajo, se propagaron solitones óptico-espaciales mediante un propagador basado en métodos espectrales. Además, partiendo de la ecuación diferencial auxiliar basada en un potencial arbitrario para obtener solitones generales se generaron diagramas de estabilidad de dichos solitones.
De esta manera, con ayuda de los programas computacionales y la teoría solitónica, se estudió al fenómeno óptico no lineal y se obtuvieron diversos resultados de gran interés.
METODOLOGÍA
Partiendo del estudio de los conceptos de integración y derivación numérica, se obtuvieron códigos básicos para integrar y derivar funciones basados en el método de diferencias finitas.
Posteriormente, se estudiaron los conceptos de resolución de ecuaciones diferenciales de manera numérica y, con ello, obtuvimos los códigos elementales en la resolución de un sistema de n ecuaciones diferenciales por diferencias finitas.
Finalmente, se estudiaron las bases de la ecuación no lineal de Schrödinger para la propagación de solitones ópticos espaciales mediante un propagador basado en métodos espectrales. Una vez resuelta la ecuación diferencial auxiliar basada en un potencial arbitrario para obtener solitones generales y propagados los solitones generales en la redes ópticas, se generaron diagramas para el estudio de la estabilidad de dichos solitones.
Obtenidos los resultados, se redactó el texto científico correspondiente.
CONCLUSIONES
Consideramos satisfactorios los resultados de los solitones generales y los diagramas de estabilidad generados que tuvieron como objetivo aprender la metodología del fenómeno solitónico. Se continuará con diversas simulaciones de los solitones y se revisará a detalle el formato del documento científico generado. Se terminará el escrito final y se verá la posibilidad de obtener un artículo científico en algún congreso y/o revista arbitraria.
Como trabajo a futuro, se espera obtener solitones con redes ópticas mucho más arbitrarias.
Mendoza Rodríguez Pedro Iván, Instituto Tecnológico de Nuevo Laredo
Asesor:M.C. Julio Ernesto Osuna Covarrubias, Universidad Autónoma de Sinaloa
ANáLISIS DE LA CONFIGURACIóN SOCIOESPACIAL DE CIUDADES MEDIAS: MAZATLáN Y NUEVO LAREDO
ANáLISIS DE LA CONFIGURACIóN SOCIOESPACIAL DE CIUDADES MEDIAS: MAZATLáN Y NUEVO LAREDO
Mendoza Rodríguez Pedro Iván, Instituto Tecnológico de Nuevo Laredo. Asesor: M.C. Julio Ernesto Osuna Covarrubias, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
En las últimas dos décadas, las ciudades medias de México han sido escenario de un crecimiento acelerado, modificando así su configuración socio espacial, en gran parte impulsados por la política de vivienda en el país.
Esta política se ha ido modificando con el tiempo, con el objetivo de responder de manera correcta a los retos y necesidades de la ciudad, con la intención de mejorar sus condiciones de vida y reducir el déficit habitacional.
Sin embargo, a pesar de las metas planteadas, surge la preocupación de que esta política de vivienda se ha mantenido invariable en sus estrategias y enfoques a lo largo del tiempo, influyendo así en el crecimiento de los distintos asentamientos urbanos, como lo son las colonias populares y los fraccionamientos de vivienda de interés social, establecidos en distintas épocas.
Es importante analizar cómo es que ha influido la acción gubernamental en la configuración socio espacial de estas ciudades, para conocer si esta ha respondido de manera efectiva a los retos y necesidades de las ciudades medias.
METODOLOGÍA
Se escogieron dos ciudades de tipo medio para hacer una comparativa, con el objetivo de conocer lo planteado anteriormente; para la investigación se escogieron la ciudades de Mazatlán y Nuevo Laredo, en el estado de Sinaloa y Tamaulipas, respectivamente.
Se seleccionó como referencia a la ciudad de Mazatlán, escogiendo una colonia popular y un fraccionamiento de vivienda de interés social, de la década de 1980 y de la década del 2000, de esta misma.
Empezando por actualizar la información de esta, del 2010 al 2020, de acuerdo con las estadísticas recolectadas por el censo de población y vivienda del INEGI; una vez actualizadas al censo más reciente, por medio de la implementación de los software SIG específicamente ARQgis y Qgis, se procesaron los datos de toda la ciudad de Mazatlán y se aislaron específicamente aquellos de los asentamientos seleccionados. Estos datos fueron enviados al programa Excel para obtener de manera esquematizada la información deseada.
Ya con los datos procesados por los software se comparó la configuración socio espacial que hay en estos asentamientos como, la edad de la población, sus características educativas y económicas, así como la seguridad social de estas y la cobertura de servicios con la que cuenta.
Posteriormente, se analizó como la política de vivienda influyó en los asentamientos configurados en la década de 1980, y, por otro lado, en la década de los 2000, además de si tuvo un mismo efecto en los fraccionamientos y en las colonias populares de la ciudad de Mazatlán.
Una vez obtenido los resultados con la primera ciudad, se continuó con la ciudad de Nuevo Laredo, Tamaulipas, por lo que lo primero que se realizó fue una recolección y recopilación de datos de esta ciudad desde la base de datos del INEGI, específicamente del censo de población y vivienda 2020, para poder así aplicar la metodología llevada a cabo con la anterior ciudad.
Se seleccionaron de igual forma una colonia de origen irregular y un fraccionamiento, de la década de 1980 y del 2000, para posteriormente hacer uso de los software SIG y Excel, para el correcto procesamiento y lectura de los datos que ayudaron a obtener la configuración socio espacial de estos asentamientos en función de las características mencionadas anteriormente con la ciudad de Mazatlán.
Una vez obtenida la información de las colonias y fraccionamientos de vivienda de interés social de Nuevo Laredo, se procedió a realizar la comparativa de ambas ciudades sobre la base de las estadísticas del censo 2020 de población y vivienda del INEGI, obteniendo así resultados que después fueron analizados e interpretados, y se determinó la manera en como la política de vivienda en el país actúa en los asentamientos de distintas décadas de las ciudades medias, escogidas en dos zonas diferentes del territorio mexicano.
CONCLUSIONES
En la estancia de verano del programa Delfín 2023, se realizó una investigación en las ciudades medias de México, Mazatlán y Nuevo Laredo, que demostró que la política de vivienda tiene un impacto significativo en la configuración socio espacial de los asentamientos urbanos, específicamente en las colonias populares y los fraccionamientos de vivienda de interés social.
Se ha demostrado que la política de vivienda ha impulsado el crecimiento acelerado de los fraccionamientos, facilitando el acceso a viviendas mediante créditos otorgados por instituciones como el INFONAVIT. Esta dinámica ha resultado en una disminución de la población en las colonias populares, ya que muchos residentes han optado por migrar hacia los fraccionamientos. Esta situación indica que las estrategias gubernamentales deben seguir enfocándose en mejorar las oportunidades de acceso a la vivienda propia, pero también deben poner énfasis en garantizar la habitabilidad y calidad de vida dentro de los fraccionamientos.
La reducción de la informalidad en el crecimiento de las colonias populares es un objetivo importante de la política de vivienda, pero debe realizarse de manera equitativa y planificada, para evitar que la población quede desplazada o en desventaja. Es esencial que las acciones gubernamentales se orienten hacia el mejoramiento integral de la infraestructura, servicios y condiciones habitacionales en ambos tipos de asentamientos, para garantizar una mayor equidad y evitar la generación de problemas socio espaciales a largo plazo.
En conclusión, este estudio ha resaltado la importancia de una política de vivienda dinámica y adaptativa, que fomente el acceso a la vivienda propia y mejore la calidad de vida en los asentamientos urbanos de las ciudades medias de México. Es fundamental que las estrategias gubernamentales busquen mejorar la habitabilidad de los asentamientos y que estos crezcan en y hacia la mejor opción. Solo de esta manera se podrán enfrentar los retos y necesidades de las ciudades medias de forma efectiva, asegurando una configuración socio espacial correcta y próspera para sus habitantes.
Meseguer Delgado Melissa, Universidad Autónoma de Baja California
Asesor:Dr. Oscar Talavera Mendoza, Universidad Autónoma de Guerrero
CARACTERIZACIóN FíSICO-QUíMICA-MINERALóGICA DE MUESTRAS DE SUELO DEL DISTRITO MINERO DE TAXCO
CARACTERIZACIóN FíSICO-QUíMICA-MINERALóGICA DE MUESTRAS DE SUELO DEL DISTRITO MINERO DE TAXCO
Meseguer Delgado Melissa, Universidad Autónoma de Baja California. Asesor: Dr. Oscar Talavera Mendoza, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
El norte del estado de Guerrero ha sido una región minera muy importante desde la época de la colonia. El Distrito Minero de Taxco de Alarcón fue donde se abrió la primera mina. Este distrito se ha caracterizado históricamente por su producción de metales base (plomo, zinc y cobre) y metales preciosos (oro y plata). A lo largo de 450 años de explotación minera se ha generado depósitos de desechos sólidos y líquidos. Estudios realizados en el Distrito Minero de Taxco indican que se han contabilizado alrededor de 55 millones de toneladas de jales mineros contenidos en seis grandes represas de jales (La Concha, El Fraile, Guerrero I, Guerrero II, Los Jales y El Solar) ubicadas invariablemente en los cauces de arroyos tributarios pertenecientes a los ríos Cacalotenango y Taxco, los cuales son los más importantes de la región. Múltiples estudios indican que estos desechos sólidos y líquidos en la mayoría de las zonas mineras, presentan concentraciones de metales y metaloides tóxicos que pueden causar efectos adversos en el medio ambiente (suelo, sedimentos, agua y plantas). La dispersión de jales mineros por el viento y el agua pueden producir un incremento en los valores regionales de fondo de los suelos agrícolas, forestales y urbanos, así como de los sedimentos de los arroyos cuya afectación estimada puede alcanzar los 50 km a partir de la fuente de emisión.
METODOLOGÍA
Durante la estancia se trabajaron con 5 muestras de suelo de una parcela ubicada en la comunidad de Tehuilotepec en el Distrito Minero de Taxco, a las cuales se le realizó una caracterización físico-químico-mineralógica para evaluar el impacto de la minería. Las muestras se tomaron de manera representativa a una profundidad aproximada de 15 a 20 cm recolectando alrededor de 1 a 2 kg de suelo, estas fueron tamizadas en malla 10 para recuperar las partículas menores a 2 mm, aproximadamente 100 g de esta fue molida a malla #230 con ayuda de un mortero de ágata para homogenizarlas a una granulometría <0.065 mm. Esta caracterización consistió en realizar textura, secciones delgadas para microscopia electrónica de barrido, difracción de rayos equis, pH, conductividad, materia orgánica y digestión para análisis elementales por espectroscopia de emisión atómica con plasma inducido.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos sobre los suelos, desde su caracterización, edafología, hasta la aplicación de métodos que nos den información al respecto de su comportamiento, sin embargo, al ser un trabajo extenso aún se encuentra en la fase de interpretación de los resultados obtenidos. Se espera que en los suelos muestreados se obtengan concentraciones de cobre (Cu), plomo (Pb), zinc (Zn), arsénico (As) y cadmio (Cd), debido a que son elementos asociados a contaminación por actividades mineras.
Meza Campa Victor Adrian, Universidad Autónoma de Sinaloa
Asesor:Dr. Jose Maria Cantarero Lopez, Centro de Investigación en Matemáticas (CONACYT)
LA CONJETURA DE QUILLEN
LA CONJETURA DE QUILLEN
Méndez Guerrero Héctor, Universidad Veracruzana. Meza Campa Victor Adrian, Universidad Autónoma de Sinaloa. Asesor: Dr. Jose Maria Cantarero Lopez, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El estudio del conjunto parcialmente ordenado (poset) Sp(G) de p-subgrupos no triviales de un grupo G para un número primo p, ordenados por inclusión inició con Brown en 1975 donde se enfocó en analizar la característica de Euler y la cohomología para grupos discretos. Años más tarde en su artículo de 1978 Homotopy Properties of the Poset of Nontrivial p-Subgroups of a Group, Quillen define además del poset introducido por Brown, el poset de los p-subgrupos elementales abelianos de un grupo G (también conocidos como p-toros) Ap(G), demuestra que los complejos simpliciales asociados a ambos posets son homotopicamente equivalentes y que si G tiene un p-subgrupo normal no trivial, entonces el complejo simplicial asociado a Ap(G) es contráctil. Conjetura además que el reciproco es cierto, es decir, que si el complejo simplicial asociado al poset Ap(G) es contráctil entonces G tiene un p-subgrupo normal no trivial. Lo anterior es llamado la conjetura de Quillen.
En los años posteriores se ha hecho el intento de atacar este problema desde distintas perspectivas. El presente trabajo se enfoca en los artículos An approach to Quillen’s conjecture via centralisers of simple groups de Piterman, Acyclic 2-dimensional complexes and Quillen’s conjecture de Piterman, Sadofschi Costa y Viruel y A geometric approach to Quillen’s conjecture de Díaz Ramos y Mazza.
METODOLOGÍA
A través de artículos realizados sobre la conjetura de Quillen, rescatamos la información relevante y los avances hechos sobre el problema. Mediante sesiones dos veces por semana se esclarecieron dudas sobre conceptos que se necesitan para comprender la conjetura e implicaciones que tiene.
Además, mediante nuestra participación del seminario de topología algebraica realizado en CIMAT-Mérida por el Dr. José María Cantarero López se reforzaron conceptos usados en diferentes artículos que hablan sobre la conjetura y en general que son usados en el ámbito matemático.
CONCLUSIONES
En el artículo original Quillen demuestra algunos casos de la conjetura. Muestra que la conjetura es cierta si el p-rango del grupo es a lo más dos, si el grupo es soluble, entre otros casos particulares. Piterman, en particular amplia la conjetura para los casos con p-rango a lo más 4 y desarrolla técnicas que pueden ayudar al posterior desarrollo en la resolución de esta conjetura. Desarrolla un tipo de inducción, donde muestra que si un grupo cumple con ciertas condiciones la conjetura es válida si subgrupos propios y cocientes centrales propios del grupo satisfacen la conjetura.
Aschbacher y Smith en su artículo On Quillen's conjecture for the p-groups complex desarrollaron uno de los más grandes avances en el estudio de la conjetura, definen que un grupo tenga la dimensión de Quillen QDp si el complejo asociado al poset de los p-subgrupos abelianos tiene homología reducida diferente de cero en su dimensión maximal. Demostraron entonces que la conjetura es cierta si el número primo p es mayor que 5 y el grupo satisface ciertas condiciones de sus componentes y la dimensión de Quillen.
Díaz Ramos y Mazza trabajan sobre los p-subgrupos abelianos elementales E de un grupo finito G, definiendo el rango de dichos subgrupos y trabajando sobre ellos como espacios vectoriales sobre los campos finitos Fp. Definiendo los conceptos de tuplas y estudiando a detalle sus propiedades, se enfocaron en el análisis de las cadenas del complejo simplicial asociado al poset de p-subgrupos abelianos elementales |Ap(G)|. Estudiando las cadenas de símplices que existen en este poset uno puede reconocer que si E es maximal, entonces existe un elemento no trivial de la homología reducida de dimensión r-1, donde r es el rango de E. Esto en particular implica |Ap(G)| es no contraíble y la conjetura de Quillen se cumple para G, siempre y cuando G cumpla ciertas hipótesis sobre sus elementos. Si además se tiene que r = rkp(G), es decir, r es el máximo de todos los rangos de los p-subgrupos abelianos elementales de G se obtiene que G cumple con QDp, la cual nos indica que la homología reducida del complejo |Ap(G)| en r-1 es no trivial.
En diversos artículos además desarrollan versiones duales, equivalentes o más fuertes que la original, comparando los grupos de homología que generan los espacios y los coeficientes de los anillos en la homología. Por ejemplo, en el artículo An approach to Quillen’s conjecture via centralisers of simple groups, Piterman demuestra una equivalencia de la conjetura original, donde se puede reemplazar la contractibilidad del espacio con que el espacio sea Z-acíclico y además muestra que si cambiamos la condición por Q-acíclico, obtenemos una versión más fuerte de la conjetura.
La conjetura de Quillen es un tema que se sigue abordando el día de hoy, donde se han demostrado diversos casos particulares y se sigue tratando de diferentes maneras. A día de hoy, herramientas como la clasificación de grupos finitos simples han apoyado el desarrollo de la solución de este problema.
Meza Garcia Esau, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional
DETERMINACIóN DE LAS PROPIEDADES MECáNICAS EN RECUBRIMIENTOS HECHOS POR ROCIADO EN FRIO Y SU RELACIóN CON LA DINáMICA DE FLUIDOS DE PARTíCULAS EN VUELO.
DETERMINACIóN DE LAS PROPIEDADES MECáNICAS EN RECUBRIMIENTOS HECHOS POR ROCIADO EN FRIO Y SU RELACIóN CON LA DINáMICA DE FLUIDOS DE PARTíCULAS EN VUELO.
Meza Garcia Esau, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La manufactura aditiva es una técnica de construcción de piezas 3D que se basa en agregar una capa sobre capa para obtener el producto final. Existen muchas maneras de realizar este proceso uno de los cuales es relativamente reciente (1990) y es muy prometedor, la manufactura aditiva a través de la técnica rociado en frío de alta presión (HPCS por sus siglas en ingles). Los componentes creados tienen grandes méritos como propiedades anticorrosivas, alta densidad, baja porosidad, gran adhesión entre las partículas y partícula-sustrato; además, no existen cambios de fase en el material y baja oxidación de partículas en vuelo. Pese a estas grandes ventajas también tiene limitaciones, se necesitan materiales dúctiles como metales y sus aleaciones ya que materiales como cerámicos son quebradizos. Se necesitan saber las propiedades mecánicas y la dinámica de choque para un recubrimiento denso y con buena adhesión.
Como se explica anteriormente, con el propósito de mejorar la calidad de los recubrimientos, así como disminuir el costo de estos es importante el uso de software de simulación como Kinetic Spray Solutions (KSS). Con los parámetros de entrada como la presión de gas, tipo de boquilla y pistola, tamaño de partícula, distancia de rociado, etc., este software es capaz de calcular la velocidad de impacto de las partículas, su velocidad critica, así como su variación en la temperatura. Con ello se puede estimar la eficiencia de depósito. Por lo que es muy importante conocer como es que la dinámica de partículas en vuelo afecta las propiedades mecánicas de los recubrimientos.
METODOLOGÍA
Las simulaciones fueron obtenidas con el software de Kinetic Spray Solutions (KSS) para obtener las velocidades críticas y de impacto, así como su relación (η), las muestras fueron recubiertas con los mismos parámetros de entrada los cuales son los siguientes:
38bar de presión de gas de arrastre (Helio)
Una temperatura de 450°C
25µm de tamaño de partícula de Inconel 625
Boquilla de tipo NZZL 0060
Pistola de VCR Systems
Con estos datos obtuvimos los siguientes datos de la dinámica de fluidos:
Velocidad critica 695 m/s
η=1.31
Velocidad de impacto 910 m/s
Un polvo comercial de Inconel 625 fue usado para los recubrimientos. El polvo base Níquel-Cromo está compuesto de los siguientes materiales: Ni, Cr, Mo, Nb, Fe, C, Si, Al, Ti, Mn, S. Tiene una distribución unimodal de tamaño con un D50 a 25 μm. El polvo fue depositado en sustratos de Inconel 625. Los recubrimientos fueron fabricados con rociado en frío de alta presión (HPCS) y rociado en frío asistido por láser (LACS) con el sistema Gen III High Pressure Cold Spray System, una boquilla de Laval y un láser de poder variable (máximo 4 kW). Se uso una presión de gas de Helio (38 bar), temperatura de gas (450°C) y una distancia de rociado (25 mm). Una vez fabricados los recubrimientos, se prepararon muestras para su caracterización.
Los sustratos de Inconel 625 con recubrimiento fueron cortados y embebidos en una bakelita (duro fast). El siguiente paso fue pulir, usando una lija húmeda partiendo de una lija de grano 800 aumentando hasta una lija de grano 4000. Para dar un pulido espejo fue utilizada una vibropulidora y silica coloidal ultrafina por un tiempo de 3hrs, posteriormente la muestra obtenida fue limpiada en un baño ultrasónico.
Una vez realizada la preparación la muestra. El módulo elástico (E) y Dureza (H) de todas las muestras fue determinado por el método Oliver y Pharr vía nanoidentación utilizando un Ubi-1 nanoindentador (Hysitron) con una punta cónica de diamante. Se aplicó una carga constante por 10s a 5mN para descartar fenómenos de deformación dependiente del tiempo. El número de indentaciones fue de 25 en una matriz de 5x5 para todas las muestras. Se obtuvieron gráficas:
Carga vs desplazamiento
Dureza vs profundidad
Después de obtener las gráficas se realizó un análisis Weibull. Es una herramienta que nos permite representar las variaciones de los valores dados y la homogeneidad entre estos. Una interpretación directa de este análisis es que tan probable es que los valores obtenidos sean parecidos entre sí.
Se compararon las graficas de carga desplazamiento de las muestras de superficie con las gráficas de carga desplazamiento obtenidas con el mismo procedimiento, pero obtenidas de un corte transversal del recubrimiento con el objetivo de conocer si existen diferencias significativas entre estas.
CONCLUSIONES
Se predijo que habría una diferencia mecánica entre las muestras de corte transversal y las de superficie, eso debido a la anisotropía reportada por otros métodos de manufactura aditiva. A continuación; se numerarán los resultados obtenidos:
1. La dureza de las muestras superficie es dé 8.23175(HPCS), 8.68766(LACS600), 7.76538(LACS900) GPa, y transversales 9.15364(HPCS), 9.18(LACS600), 7.28713(LACS900) GPa, con lo que se puede apreciar que la dureza de la muestra transversal es mayor.
2. A diferencia de la sección transversal no existe una tendencia reconocible en la dureza y módulo de elasticidad de la superficie.
3. El procesamiento de los recubrimientos tiene diferentes efectos en la mecánica del material en la superficie y en la sección transversal. Esto se le atribuye al endurecimiento por fronteras de grano. Debido a la anisotropía del Inconel 625, hay mas efectos de frontera de grano en la sección transversal que en la superficie, en donde se esperan granos más alargados.
4. Los resultados obtenidos tienen una distribución estadística y homogeneidad suficiente para que no tengan error estadístico.
Trabajos citados:
1. Kenneth Champagne Jr Ozan Cagatay Ozdemir Aaron Nardi Editors, V. (n.d.). Practical Cold Spray.
2. Cavaliere, P. (2017). Cold-Spray Coatings: Recent Trends and Future perspectives. In Cold-Spray Coatings: Recent Trends and Future perspectives. Springer International Publishing. https://doi.org/10.1007/978-3-319-67183-3
3. Champagne, V. K. (2007). The cold spray materials deposition process: fundamentals and applications. Woodhead.
Meza Pérez Ximena Minori, Instituto Politécnico Nacional
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
FUNDAMENTOS DE LA COSMOLOGíA PARA EL ENTENDIMIENTO DE LA ENERGíA OSCURA
FUNDAMENTOS DE LA COSMOLOGíA PARA EL ENTENDIMIENTO DE LA ENERGíA OSCURA
Meza Pérez Ximena Minori, Instituto Politécnico Nacional. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En el vasto e intrigante cosmos que nos rodea, la comprensión de las fuerzas fundamentales que gobiernan su evolución es un desafío constante para la ciencia. Uno de los mayores enigmas que ha desconcertado a los astrónomos y físicos durante décadas es la existencia de la misteriosa "energía oscura". Esta entidad cósmica es una forma de energía hipotética que se cree que está presentando una influencia dominante en la expansión acelerada del Universo. Esta expansión cósmica acelerada contradice las expectativas basadas en las leyes conocidas de la gravedad, lo que se plantea un dilema fundamental: ¿Qué está impulsando este fenómeno aparentemente imposible?. La respuesta propuesta para esta aceleración es la existencia de la energía oscura, una fuerza repulsiva que contrarresta la atracción gravitacional de la materia normal y la materia oscura, llevando a una expansión cósmica acelerada.
METODOLOGÍA
Se realizó una búsqueda de literatura científica, artículos, libros y publicaciones especializadas en cosmología y energía oscura. Esta revisión permitió adquirir un conocimiento teórico sólido sobre los fundamentos de la cosmología, la expansión del Universo y la teoría detrás de la energía oscura. Se proporcionó una introducción teórica sobre la cosmología, incluyendo conceptos como el principio cosmológico, la expansión del Universo, el CMB y la composición del Universo en términos de materia oscura, materia bariónica y energía oscura. Se estudió la constante de Hubble y su relación con la expansión del Universo. Se explicó la teoría de la relatividad general de Einstein y su papel en la descripción de la gravedad, además de abarcar cómo esta teoría es fundamental para entender la expansión y la energía oscura. Se presentó las ecuaciones de Friedmann, que describen la evolución del Universo en el contexto de la relatividad general. Posteriormente se dió una explicación detallada de qué es la energía oscura, sus características y cómo difiere de otras formas de energía en el Universo. Se explicó la ecuación de estado de la energía oscura y su papel en la determinación de su comportamiento en la expansión del universo. Esta investigación abarcó en su mayoría información teórica debido al nivel de estudios que actualmente se tiene cursado, sin embargo, se adquirió un conocimiento acerca del manejo del software adecuado, como wxMaxima, para llevar a cabo cálculos y análisis numéricos, además dentro de wxMaxima se realizó algunas operaciones para resolver la ecuación de Einstein con la métrica de Friedmann.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos profundizando el entendimiento de los fundamentos de la cosmología con el propósito de comprender en detalle la naturaleza y el papel de la energía oscura en la expansión del Universo, la energía oscura es uno de los mayores enigmas de la cosmología moderna, y su estudio no solo es esencial para comprender el futuro del Universo, sino también para cuestionar y expandir nuestra comprensión de las fuerzas fundamentales que dan forma al cosmos en su conjunto. Además de adquirir conocimientos básicos sobre el funcionamiento de Wxmaxima, para posteriormente resolver la ecuación de Einstein con la métrica de Friedmann. Sin embargo, al nivel de estudios que actualmente se tiene cursado, no se realizaron cálculos para la comprensión de cómo la energía oscura afecta la expansión del Universo y su evolución a lo largo del tiempo.
Meza Ross Luz Arely, Instituto Tecnológico de Sonora
Asesor:Dr. Juan Martin Gómez Gomez Gonzalez, Universidad Nacional Autónoma de México
SISMICIDAD E INSTRUMENTACIÓN EN EL DESARROLLO DE UNA RED SÍSMICA
SISMICIDAD E INSTRUMENTACIÓN EN EL DESARROLLO DE UNA RED SÍSMICA
Garcia Delgado Mario Eduardo, Universidad de Guadalajara. Meza Ross Luz Arely, Instituto Tecnológico de Sonora. Asesor: Dr. Juan Martin Gómez Gomez Gonzalez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La Sierra Gorda Queretana esta incrustada en la Sierra Madre Oriental, está compuesta por numerosas formaciones marinas deformadas y plegadas hace entre 60 y 100 millones de años. En la actualidad se han reportado distintos episodios de sismicidad en Querétaro. Desde el 2000 el Centro de Geociencias (CGEO) ha realizado varios monitoreos mediante redes sísmicas temporal para entender el origen y comportamiento del fenómeno sísmico.
En 2021, el CGEO puso en marcha la Red sísmica del estado de Querétaro (ReSeQ), la primera en su tipo en el centro del país, para monitorear la sismicidad local y regional. Uno de los productos es la elaboración de un catálogo que contenga el historial de la sismicidad, el cual pueda ayudar a identificar algunas de las zonas sismogénicas., información importante tanto para la investigación como para las autoridades de Protección Civil de Querétaro. Esta estancia de investigación nos puede ayudar a conocer las bases de la Sismología, aprender a manejar software para el análisis de sismicidad, utilizar métodos de automatización y colaborar en la fabricación de un circuito electrónico que proteja la infraestructura de las estaciones sísmicas de las descargas por corrientes inducidas.
METODOLOGÍA
Durante la estancia trabajamos con un software de código abierto, Seisan, el cual permite analizar las señales sísmicas, localizar los hipocentros y estimar su magnitud, entre otras. Revisamos más de 15,000 señales de la ReSeQ para identificar los arribos de las ondas P y S. Obtuvimos 93 localizaciones que conforman el primer catálogo de sismicidad, el cual cubre de enero a junio de 2023, del cual derivó un reporte para el gobierno estatal.
Realizamos una salida a campo para el mantenimiento, revisión, instalación, configuración de sismógrafos y extracción de datos de la ReSeQ. También realizamos mejoras a las casetas para reducir la vulnerabilidad ante condiciones meteorológicas extremas. Dada la vulnerabilidad de las estaciones sísmicas ante fenómenos meteorológicos, es necesario protegerlas ante descargas eléctricas. Por ello, colaboramos con el Centro de Física Aplicada y Tecnología Avanzada (CFATA) de la UNAM en el desarrollo de un circuito para proteger los equipos ante el impacto de corrientes inducidas.
CONCLUSIONES
Durante nuestra estancia aprendimos el manejo de sismógrafos y la importancia de cuidar el ambiente en el que están instalados. Visitamos todas y cada una de las estaciones de la red sísmica de Querétaro. Dimos mantenimiento preventivo en varias estaciones, corregimos diferentes problemas de infraestructura y comunicación. También aprendimos a instalar y usar el sistema operativo Linux, y software libre y gratuito, como SEISAN, GMT, que ofrecen muchas ventajas de uso, especialmente en la Sismología. Adquirimos conocimientos teóricos y prácticos sobre el manejo, adquisición y análisis de datos sísmicos, así como a interpretarlos. Finalmente, nos introdujimos en el ambiente de la sismología instrumental y pudimos conocer el trabajo necesario que conlleva hacer un análisis de datos sísmicos. Conocimos la importancia del análisis de datos sísmicos, tanto para la investigación como para la sociedad.
Miranda Espinoza Alondra Azucena, Instituto Tecnológico Superior de Cananea
Asesor:Dr. Jesús Roberto Vidal Solano, Universidad de Sonora
PETROLOGíA Y MINERALOGíA DE ALGUNAS UNIDADES EN EL FLANCO ESTE DEL VOLCáN SANTA CLARA EN EL CAMPO VOLCáNICO EL PINACATE, SONORA, MéXICO.
PETROLOGíA Y MINERALOGíA DE ALGUNAS UNIDADES EN EL FLANCO ESTE DEL VOLCáN SANTA CLARA EN EL CAMPO VOLCáNICO EL PINACATE, SONORA, MéXICO.
Miranda Espinoza Alondra Azucena, Instituto Tecnológico Superior de Cananea. Asesor: Dr. Jesús Roberto Vidal Solano, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Como sabemos, en el Campo Volcánico El Pinacate existe poca variedad en la composición de las rocas de acuerdo con cómo han sido formadas en diferentes eventos y procesos magmáticos. Esas variedades representa el producto final de largos y complicados procesos petrogenéticos que tienen lugar en la corteza de la tierra y que culminan con la formación de los depósitos de lava más comunes en el área. Sin embargo, el flanco Este del Volcán más amplio, el Volcán Santa Clara, no se exploraba desde los años 80, siendo el objeto de la presente investigación donde fue posible reconocer a nuevos vestigios volcánicos de rocas con una composición distinta la reportada previamente
METODOLOGÍA
La siguiente investigación incluyó un estudio sore la geología volcánica del lugar comprendiendo la formación de las unidades rocosas, estableciendo su composición y sus texturas, así como a los tipos de lava de acuerdo al comportamiento del magma, e identificando a los tipos de edificios volcánicos que existen, describiendo a las unidades de roca con formalidad y en apego a los estándares internacionales. Lo anterior se llevó a cabo por medio de un reconocimiento de campo, un muestreo para petrografía y geoquímica, una determinación petrológica de la muestra de mano y la elaboración de láminas delgadas para finalmente realizar su estudio al microscopio.
CONCLUSIONES
Teniendo en cuenta que una de las características en este campo volcánico son sus rocas de composición máfica e intermedia, con presencia de olivino tipo Forsterita, clinopiroxeno tipo Augita y plagioclasa tipo Labradorita, se pudo determinar que en el área de estudio ocurren rocas de composiciones mucho más félsicas como traquitas con minerales como Feldespato Alcalino de tipo Sanidina, Clinopiroxeno de tipo Aegirina y olivino de tipo Fayalita. Estas unidades forman cuerpos dómicos a partir de masas de lava demasiado viscosa para fluir una distancia considerable, por ello, cuando sale del conducto, la lava se acumula alrededor y encima de su punto de emisión. Estos resultados ponen en evidencia una historia volcánica distinta a la hasta hoy conocida en el lugar.
Molina Gómez Aneth de Jesús, Universidad Autónoma de Chiapas
Asesor:Dr. José Reyes Gasga, Universidad Nacional Autónoma de México
ESTRUCTURA Y CARACTERIZACIóN QUíMICA DEL DIENTE HUMANO.
ESTRUCTURA Y CARACTERIZACIóN QUíMICA DEL DIENTE HUMANO.
López Collazo Ana Laura, Universidad Autónoma de Chiapas. López Rendón Maria del Mar, Universidad Tecnológica de Pereira. Molina Gómez Aneth de Jesús, Universidad Autónoma de Chiapas. Olguin Plomares Uriel, Instituto Politécnico Nacional. Asesor: Dr. José Reyes Gasga, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Para estudios microscópicos del diente humano, se emplea con frecuencia el ácido orto fosfórico. Esta es una sustancia corrosiva que tiene la capacidad de debilitar y desmineralizar el barro dentinario. Se aplica en la superficie del diente y disuelve la componente orgánica e inorgánica del diente, exponiendo la estrctura interna de la dentina y el esmalte. Por otro lado, el refresco de cola contiene ácido fosfórico, agua, azúcares, cafeína y colorantes, que tienen la capacidad de atacar los componentes inorgánicos de las muestras dentales, facilitando la descomposición de proteínas que están en la matriz dental. El uso del refresco de cola como agente de ataque, es una alternativa menos corrosiva en comparación con otros ácidos altamente concentrados. Al revelar de forma diferencial los componentes inorgánicos y orgánicos, se obtiene información valiosa sobre la estructura, composición y posibles alteraciones dentales, lo que contribuye al avance del conocimiento en odontología y a la mejora de los tratamientos y diagnósticos relacionados con la salud bucal.
METODOLOGÍA
1. Se utilizó un diente molar de una persona adulta y se observó la muestra en un estéreo microscopio Zeiss para un reconocimiento estructural.
2.Para realizar el corte transversal y longitudinal en el diente y eliminar la raíz, se utilizó un cortador de disco de diamante Buehler-IsoMet 1000. De allí, se obtuvieron 6 muestras de diente con 0.5 mm de espesor, dejando a simple viste el esmalte y la dentina.
3.Se desbastaron las muestras con lijas No.2000 y No.4000, empleando abundante agua. Seguidamente se hizo un pulido hasta lograr un acabado espejo, empleando un paño de microcloth y polvo de alúmina en tamaños de 5, 1.0, 0.3 y 0.05 micras . Lo anterior, con el fin de aplanar las superficies, reducir el espesor y eliminar defectos en la superficie del diente. Después de pulir, se lavaron las muestras con agua durante un minuto, para eliminar cualquier rastro de impureza. Seguidamente, se colocaron en un vaso de precipitado con isopropanol al 60% y se hizo un baño ultrasónico con un equipo Branson modelo 1510 durante quince minutos. Finalmente, las muestras se secaron con aire comprimido
4.Para revelar la estructura microscópica de la dentina y el esmalte, las muestras se colocaron en una caja de Petri y se cubrieron completamente con las sustancias atacantes. La muestras fueron atacadas primero con ácido ortofosfórico al 32 % durante 2 min. Luego se atacaron con refresco de cola durante 30 min, 1 hora y 1hora 45 min. Pasado este tiempo, se lavaron las muestras con agua durante un minuto y se secaron con aire comprimido.
5.Las 6 muestras atacadas se observaron mediante 3 técnicas de microscopía: microscopio óptico, SEM 5600LV y SEM 7800F.
CONCLUSIONES
-De acuerdo con las estadísticas de los diámetros de los túbulos dentinarios y los prismas del esmalte, las muestras que fueron atacadas con refresco de cola obtuvieron un efecto similar a las muestras atacadas con ácido orto fosfórico. Sin embargo, la morfología de los túbulos dentinarios y los primas de las muestras atacadas con ácido orto fosfórico revelaron una mayor remoción de la matriz inorgánico de la dentina y el esmalte.
-De las posibles variables que impidieron un mayor revelado de las estrructuras del esmalte, se encuentra el tiempo de exposición del refresco de cola.
-El estudio elemental químico de las muestras atacadas, reveló la presencia de los elementos que componen la Hidroxiapatita. A pesar del alto contenido en azúcares del refresco, no se evidenciaron cambios significativos en la composición química de las muestras atacadas con este compuesto.
-La hipótesis planteada es verdadera, el ácido ortofosfórico y el refresco de cola atacan el material orgánico del diente.
Mondragon Cruz Jose Angel, Instituto Politécnico Nacional
Asesor:Dra. Dulce Yaahid Flores Renteria, Instituto Politécnico Nacional
EFECTO DE NANOPARTíCULAS DE ZNO EN EL CRECIMIENTO DE
PLANTAS DE SORGO CON DIFERENTES SUELOS
EFECTO DE NANOPARTíCULAS DE ZNO EN EL CRECIMIENTO DE
PLANTAS DE SORGO CON DIFERENTES SUELOS
Mondragon Cruz Jose Angel, Instituto Politécnico Nacional. Terminel Niebla Martín Antonio, Instituto Tecnológico de Sonora. Asesor: Dra. Dulce Yaahid Flores Renteria, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Pese a que la palabra nanotecnología es relativamente nueva, la existencia de materiales de dimensiones nanométricas no es algo novedoso. Estas estructuras han existido en la Tierra durante tanto tiempo como la vida.
En los últimos años se ha iniciado la implementación en procesos de investigación el uso de nanopartículas (NPs) para diversas aplicaciones, sean tecnológicas, electrónica, medicina, agricultura, etc. Las nanopartículas representan una transición entre moléculas y átomos. El rango de tamaños de las nanopartículas se encuentra entre 1 y 100 nm. Por debajo de 1 nm encontramos moléculas, átomos o partículas elementales .
En el contexto de la agricultura moderna no convencional, el uso de la NT para formular nano insumos ofrece la posibilidad de mejorar el uso y eficiencia de los productos empleados, además de reducir la cantidad aplicada de agroquímicos promoviendo así una agricultura sustentable y de bajo impacto ambiental.
El óxido de zinc, con sus propiedades físicas y químicas únicas tales como alta estabilidad química, alta afinidad electrónica, alto rango de absorción de radiación y alta foto estabilidad, es un candidato ideal para multitud de aplicaciones. Las nanopartículas de óxido de zinc (NPs-ZnO) por sus propiedades opto-eléctricas, físicas y antimicrobianas presentan efectos positivos en las plantas (Faizan et al., 2020). Varios estudios sugieren que las mismas tienen la capacidad de mejorar el crecimiento en diferentes especies de plantas.
Estudios dentro de la literatura demuestran algunos ejemplos de aplicación de las NPs-ZnO en donde, por mencionar un ejemplo, la aplicación foliar de NPs ZnO mejora el rendimiento y la calidad comercial y nutracéutica de los frutos de melón. El rendimiento y la calidad del cultivo de melón depende de la concentración utilizada de NPs ZnO ya que dosis altas favorece el rendimiento y una mayor concentración de Zn en pulpa; en cambio en la aplicación de dosis intermedias de NPs ZnO se propicia una mayor acumulación de compuesto bioactivos. La aspersión foliar de NPs ZnO es una manera práctica de enriquecer los frutos de melón.
El estudio se realizó con el objetivo de identificar y caracterizar los efectos de las NPs-ZnO sobre las características del suelo cultivado con sorgo mediante el estudio de sus propiedades físico-químicas y alteraciones morfológicas de la planta
METODOLOGÍA
Se tomaron muestras de suelo provenientes de sitios con diversos usos, representativos de las actividades productivas de los municipios de Ramos Arizpe y Saltillo, en el estado de Coahuila, México. Esta región pertenece al desierto Chihuahuense. Dichos usos se clasificaron en Agrícola, Ganadero y Huertos nogaleros. Se seleccionaron 9 sitios por cada uso de suelo, para un total de 27 tipos de suelo distintos .
Se utilizó un diseño factorial de 3 factores: Riego, NPs, Uso de suelo. El factor de riego conto con dos niveles, bajo y normal; el factor de NPs con los niveles de presencia y ausencia de NPs. Cada tratamiento se analizó por triplicado para un total de 324 muestras analizadas en el proceso.
Se utilizaron bandejas de germinación en donde se colocaron aleatoriamente las 324 réplicas de suelo (80 g) donde a una profundidad de aproximadamente 2cm se introdujeron 5 semillas de sorgo. En el caso de los tratamientos con NPs se añadieron 80mg de NPs-ZnO para una dosis antes de la siembra. Los primeros riegos se realizaron sin diferencia para cada planta hasta el 3er riego, mismo que se realizó cada tercer día. A partir del número de riego mencionado, se continuo con un riego diferenciado con los niveles bajo y normal, para los cuales de utilizaron 5mL y 10mL respectivamente. Durante 12 días se registró la germinación a la par de los días de riego.
Las plántulas se desarrollaron durante 22 días y se realizó un muestreo final destructivo. Se determinó la longitud de parte aérea (vástago) y raíz, así como la biomasa seca del vástago y raíz, en muestras secas a 70° C durante 24 horas dentro de bolsas de papel separados por tratamiento.
Durante el proceso de desarrollo de sorgo transcurría, se realizo la caracterización inicial del suelo, donde se obtuvieron datos de pH, Materia Orgánica (MO), conductividad eléctrica (CE), capacidad de campo (CC) y densidad aparente (DA)
Una vez pasados los 22 días se inició la cosecha en conjunto con la recolección de las muestras de suelo; mientras se realizaban ambas tareas, se realizaba la medición de la longitud/peso seco de vástago y la raíz para su posterior secado en el horno a 70°C dentro de bolsas de papel separados por tratamiento.
El análisis post-hoc de Tukey se utilizó para evaluar las diferencias entre las medias. Los análisis estadísticos se ejecutaron en el software STATISTICA V10.0 y Minitab.
CONCLUSIONES
En la caracterización inicial del suelo se analizo el promedio de cada variable con un enfoque al uso de suelo, siendo, por ejemplo, el suelo de tipo ganadero quien mostro tener un pH promedio ligeramente más alcalino que los restantes. De acuerdo con los % de germinación, se ve una diferencia ligeramente significativa en cuanto al factor de NPs-ZnO, el cual se concluye para este estudio como a una tendencia positiva el hecho de aplicar dosis de NPs-ZnO en la siembra de sorgo a un riego normal de manera mas notoria en un uso de suelo agrícola.
Se encontró que la longitud de las raíces de sorgo se relaciona con el uso de suelo en el que es sembrado, siendo así el suelo de uso Agrícola quien mostro además los mejores % de germinación y registro la mejor media. El uso de suelo que mostró un menor % de germinación fueron los de suelos ganaderos, en donde en la tabla 2 se observa el menor promedio.
Con el análisis de correlaciones entre el PH final y variables que dependen del vástago o de la raíz se describe la siguiente proposición: las variables de longitud y peso seco de la raíz covarian de manera negativa con el pH final, mientras que las variables de longitud y peso seco de vástago covarian de manera positiva con el PH final.
Monroy Aguilar Andrea Isabel, Instituto Tecnológico de Colima
Asesor:Dr. Roberto Alonso Saenz Casas, Universidad de Colima
MODELADO DE REACCIONES DE CINéTICA ENZIMáTICA UTILIZANDO UN MODELO BASADO EN AGENTES
MODELADO DE REACCIONES DE CINéTICA ENZIMáTICA UTILIZANDO UN MODELO BASADO EN AGENTES
Monroy Aguilar Andrea Isabel, Instituto Tecnológico de Colima. Asesor: Dr. Roberto Alonso Saenz Casas, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
Las enzimas son catalizadores químicos. Son un tipo de proteína de alta especificidad, con la función de aumentar la velocidad de una reacción, que actúan sobre muchos procesos celulares. Las enzimas actúan disminuyendo la energía de activación de una reacción, es decir, la energía necesaria para que una reacción dé inicio. Por lo tanto, no afectan el equilibrio de la reacción, y aún así consiguen acelerar el proceso hasta millones de veces. Una reacción enzimática, de modo general, tiene la siguiente estructura:
E + S <---> ES ---> P
Donde la letra E representa a la enzima, S es el sustrato (la molécula con la que la enzima forma un enlace temporal para actuar sobre ella, modificarla y así llevar a cabo su actividad catalítica), ES es el complejo que se forma entre la enzima y el sustrato, y P es el producto que marca el fin de la reacción. Además, cada reacción está delimitada por una tasa K relacionada con la velocidad de la reacción: Kc representa la formación de complejo, Kd es la disociación de ese mismo complejo y Kr es la tasa para la conversión del complejo al producto.
Un modelo es la descripción abstracta y simplificada de un proceso. Los modelos basados en agentes (MBA) son formas de modelado computacional donde se puede describir cómo actuaría un agente en una simulación. Un agente es un individuo autónomo con sus propias características. Esta clase de modelado es muy útil para el estudio de sistemas complejos.
El objetivo de este proyecto es diseñar, comprender y describir un MBA para reacciones de cinética enzimática, considerando una adaptación de las tasas y comparándolo son un modelo de ecuaciones diferenciales (ED).
METODOLOGÍA
Para diseñar el modelo se utilizó el lenguaje computacional NetLogo, desarrollado por Uri Wilensky en 1999, específicamente para el estudio de MBA, y se tomó como base el modelo Enzyme Kinetics, desarrollado por Stieff y Wilensky (2001). Este código permite visualizar una reacción enzimática, modificando la concentración de sustrato al inicio y a lo largo del proceso, así como el valor de las tasas Kc, Kd y Kr.
En primer lugar se buscó comprender cómo funciona el modelo, realizando varias simulaciones, combinando distintas condiciones iniciales en un volumen fijo. Así se delimitaron los alcances y limitaciones del programa.
La atención se centró, entonces, en los valores de las tasas K. Dado que estaban escritos en forma de probabilidad, se buscó realizar un primer análisis, donde se observa el comportamiento ante diferentes combinaciones de los valores de Kc, Kd y Kr, para luego realizar otra serie de análisis que permitieran la comparación del MBA contra un modelo de ED y encontrar la posibilidad de un ajuste. Para ello, se realizaron varias simulaciones de las que se extrajeron los datos, los cuáles fueron revisados y posteriormente comparados con el modelo de ED utilizando un código de estimación paramétrica en MatLab. Se prestó especial atención a los valores que permitan el ajuste de los modelos, considerando, si las había, las diferencias frente al MBA.
CONCLUSIONES
La cinética enzimática nos permite comprender el comportamiento de las enzimas dentro de una reacción con un producto determinado. Utilizando el lenguaje de programación NetLogo, se buscó desarrollar y comprender un modelo donde pudiera observarse una reacción enzimática, en un volumen determinado y bajo ciertas condiciones delimitadas por el usuario.
En este estudió se logró comprender la naturaleza de los parámetros y compararlos con un modelo de ecuaciones diferenciales. Se encontraron tres constantes de proporcionalidad, una para cada tasa K, tal que el programa pudiera funcionar en el caso planteado (con una concentración de enzima y sustratos fijos), considerando las tasas como probabilidad.
Se observó cómo cada tasa K afecta de forma distinta al programa, siendo la de menor impacto Kc, y las que influyen más, Kr y Kd. Podemos ver esto ya que, al modificar la primera, no afecta tanto la velocidad de reacción; en cambio, si disminuimos Kr o Kd, la velocidad de reacción se ve afectada drásticamente.
El ajuste paramétrico fue posible, teniendo una gráfica que encaja notablemente con el modelo de ecuaciones diferenciales. Se abren nuevas preguntas, tales como qué sucedería con una diferente relación en la concentración sustrato:enzima (en este caso, 1:1), qué pasaría en un volumen distinto, y cómo se afectan la una a la otra, concentración y volumen, así como la manera en que pueden alterar el comportamiento de la reacción ante determinados valores de K.
Montaño García Ben-hur, Universidad Autónoma de Baja California
Asesor:Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
CORRELACIóN ENTRE LA COMPOSICIóN DE LOS RAYOS CóSMICOS Y EL RISE TIME MEDIDO EN LOS DETECTORES DE SUPERFICIE UTILIZANDO LOS DATOS LIBERADOS DEL OBSERVATORIO PIERRE AUGER
CORRELACIóN ENTRE LA COMPOSICIóN DE LOS RAYOS CóSMICOS Y EL RISE TIME MEDIDO EN LOS DETECTORES DE SUPERFICIE UTILIZANDO LOS DATOS LIBERADOS DEL OBSERVATORIO PIERRE AUGER
Montaño García Ben-hur, Universidad Autónoma de Baja California. Asesor: Dra. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Los rayos cósmicos son partículas de alta energía que llegan a la tierra, provenientes del espacio. Al atravesar la atmósfera terrestre, éstas partículas primarias son muy susceptibles a colisionar con núcleos de aire, a partir de la primera colisión se producen las primeras partículas secundarias, lo que conocemos como el inicio del chubasco atmosférico. Estas partículas seguirán colisionando con otras y partiéndose en más partículas secundarias, mismas que finalmente llegarán al suelo de la Tierra.
El Observatorio de Pierre Auger utiliza dos técnicas diferentes pero complementarias para la detección de éstas partículas secundarias, Un sistema de Telescopios de Fluorescencia , que observan la luz producida por la cascada atmosférica, así como un arreglo de detectores de Superficie que registran la llegada de las partículas secundarias a nivel del suelo. Una vez hechas las detecciones, nos interesa reconstruir por medio de estadísticas, ecuaciones y gráficas, todas las ramas de la cascada producida, además de obtener información de la partícula primaria que originó este evento, como por ejemplo su composición, la cual por mucho tiempo nos indicaba que mayormente se trataba de protones y/o núcleos atómicos, es decir, partículas con masa pequeña. Sin embargo, estudios recientes han hecho observaciones que indican que las partículas primarias pudieran tratarse de elementos pesados, tales como el Hierro.
El presente estudio de investigación se enfoca en estas observaciones, especialmente en una variable llamada Rise time, utilizando la base de datos abierta del Observatorio de Pierre Auger.
METODOLOGÍA
Primero que nada, el artículo en el que basé los fundamentos de mi investigación fue el trabajo de Tesis para Doctorado de mi asesora, Dra. Karen Salomé Caballero Mora, titulado Composition studies of Ultra High Energy Cosmic Rays using Data of the Pierre Auger Observatory (2010).
Los programas utilizados para las gráficas y reconstrucciones realizadas en éste estudio fueron Root (version 5.34.38) y Jupyter Notebook (Python 3).
Las consideraciones para seleccionar los eventos y estaciones para realizar las reconstrucciones fueron las siguientes:
Energía del Chubasco: igual o mayor a 3 EeV (Exa - electrón volts, 1x10^18) y menor a 5 EeV.
Ángulo Cenital de detección: de 0 a 60 grados.
No. mínimo de estaciones que detectaron la cascada: 5 estaciones.
Señal mínima alcanzada por los detectores de superficie: 5 VEM (Vertical Equivalent Muons)
Distancia máxima del detector de superficie al centro del chubasco: 1,800 metros.
Una vez seleccionados los eventos y recopilado los datos de cada uno, se realizaron gráficas y comparaciones entre la señal integrada de cada fotomultiplicador en función del tiempo en que tomó recopilar la señal.
Es importante tomar en cuenta que, cada uno de los detectores de superficie, estación, posee 3 fotomultiplicadores (PMT’s, en inglés Photomultiplier) en su interior. Éste se encarga de arrojar un aproximado del número de partículas que han colisionado en un tiempo real, el cual capta información cada 25 nanosegundos.
Por lo tanto, los bins de los histogramas se encuentran separados por 25 nanosegundos entre cada uno, dato que nos sirve para poder encontrar el Rise time.
Para cada señal reconstruida de un solo PMT, necesitamos calcular el rise time, ésta variable indica el tiempo que tardó la señal reconstruida (Acumulada) en llegar de su 10% al 50% de la señal máxima medida, entonces podemos decir que un primer margen de error son los 25 ns que tarda el PMT en registrar cada valor de la señal. Para realizar ésto, primero debemos realizar un promedio de la señal integrada de los 3 PMT’s, y así calcular el rise time en ésta gráfica de la señal promedio, mismo método que propició la disminución de los márgenes de error en los datos.
Luego de haber realizado los histogramas para cada estación seleccionada, se realiza una reconstrucción del evento completo, donde graficamos el rise time con respecto a la distancia que hay del detector al centro del chubasco atmosférico, donde podemos observar que la distribución sigue una curva que crece mientras la distancia es mayor, hasta cierta distancia aproximada de 1,300 metros, dado que a partir de ésta distancia se observa un decaimiento en el rise time, singularidad que ocurre en el 50% de los eventos reconstruidos.
Analizando ésta distribución antes de los 1,300 m, utilizamos una función exponencial que aproxime los datos de la gráfica, y usando esta función se calcula el valor del rise time a los 1,000 metros del centro de la cascada.
Finalmente, una vez obtenido el valor del rise time a 1,000 m de cada uno de los eventos reconstruidos, se realizan las comparaciones de la composición realizando dos gráficas, una en donde se refleja el rise time en 1,000 m en función del logaritmo de la energía, y la otra en función de la secante del ángulo cenital, comparando nuestras mediciones con simulaciones de tipo Monte Carlo, con los modelos de interacción QGSJET01 y Sibyll 2.1 en altas energías, mismas simulaciones que son propiedad de la Dra. Karen, quien me ha concedido permiso de usar estas aproximaciones para el propósito de este trabajo.
CONCLUSIONES
Se lograron reconstruir un total de 9 eventos, con 53 histogramas de cada estación analizada, y 9 valores de rise time calculados en 1,000 m, con los cuales se hicieron las comparaciones con las simulaciones de partículas ligeras y pesadas. En conclusión, con los datos usados en este trabajo se puede notar que si existe una correlación entre el rise time con la composición de la partícula primaria, y que ésta variable podría ser un buen aproximado de los detectores de superficie. Sin embargo, éste mismo también presenta algunas inconsistencias y márgenes de error elevados, por lo que se deben de seguir realizando más estudios a futuro para reducir la incertidumbre, aumentar el número de eventos y agilizar el procesamiento de los datos.
Montes Loaeza Hannia Jazmín, Instituto Tecnológico de Acapulco
Asesor:Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia
DESPACHO ECONóMICO CON RESTRICCIONES DE INERCIA
DESPACHO ECONóMICO CON RESTRICCIONES DE INERCIA
Montes Loaeza Hannia Jazmín, Instituto Tecnológico de Acapulco. Asesor: Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia
PLANTEAMIENTO DEL PROBLEMA
En los sistemas eléctricos de potencia (SEP) la inercia es un parámetro importante para mantenerse en sincronismo entre las máquinas generadoras conectadas a la red eléctrica, a lo largo de su operación diaria. Cuando ocurre una pérdida de generación repentina en el sistema eléctrico, como el apagado inesperado de una central eléctrica o una falla en un generador, se produce un desbalance entre la demanda y la generación disponible. En este escenario, la inercia de los generadores síncronos juega un papel crucial para mantener el equilibrio entre la demanda y la generación. Cuando la generación disminuye, el SEP trata de compensar este desbalance acelerando la velocidad de rotación de los generadores restantes. Sin embargo, debido a la ley de conservación de la energía, esta aceleración no puede mantenerse indefinidamente. En cambio, parte de la energía cinética almacenada en los rotores de los generadores síncronos se libera gradualmente a medida que estos frenan, lo que permite mantener la estabilidad transitoria del sistema y evitar que la frecuencia se desplome, por lo tanto, si la inercia se libera para mantener el equilibrio entre la demanda y la generación, la pérdida de generación también implicará una reducción en la velocidad de rotación de los rotores y, en consecuencia, una disminución en la frecuencia del sistema eléctrico rebasando el valor límite de la misma. Esta caída de frecuencia es un indicador de que el sistema está enfrentando una situación de desequilibrio y puede desencadenar acciones automáticas de control y protección para restaurar el equilibrio entre la demanda y la generación.
METODOLOGÍA
La primera etapa de la metodología consistió en investigar y comprender las restricciones asociadas a la respuesta inercial del SEP. Estas restricciones se refieren a la potencia suministrada por el sistema en respuesta a cambios en la frecuencia, debido a las masas rotantes de las máquinas sincrónicas conectadas al sistema, incluyendo cargas y generadores. Una vez identificadas las restricciones, se procedió a buscar las formulaciones y ecuaciones que describen el comportamiento de las máquinas sincrónicas y cómo interactúan con el sistema para contrarrestar los desbalances carga/generación. La ecuación que representa las leyes que rigen el movimiento de las masas rotantes en el generador es la denominada ecuación del swing: 2 veces la constante de inercia del generador * la derivada de la desviación de la velocidad del rotos recpecto al tiempo que es igual al torque mecanimo menos el toque electrico. Las restricciones que permiten garantizar el correcto funcionamiento de las reservas de los generadores están dadas por las siguientes ecuaciones: 1.- La sumatoria de todas las reservas de los generadores i debe de ser mayor o igual a la potencia perdida del generador en contingencia, 2. Las reservas de los generadores i deben de ser mayor o igual a 2 veces la tasa maxima de rampa del generador i multiplicado por el valor de inercia del sistema multiplicado por la frecuencia antes de la contingencia menos la frecuencia minima menos la frecuencia de la banda muerta de los generadores, todo entre la potencia del generador en contingencia. 3. Las reservas de los generadores i deben de ser menor o igual que la máxima reserva del generador i. Con la formulación implementada, se realizó un caso de estudio en el SEP de 118 nodos para aplicar las restricciones de inercia y observar su impacto en el comportamiento de la frecuencia del sistema en respuesta a perturbaciones. Se consideró que las variaciones de frecuencia se propagan rápidamente en el sistema interconectado, permitiendo que la frecuencia en cada punto de la red sea prácticamente la misma en cada instante. El sistema de 118 nodos, el cual contiene 41 generadores y una capacidad instalada de 9966.2 MW, se considera una contingencia de una pérdida de 805.2 MW. El costo total de operación con restricciones de inercia es de $752,824.00, mientras que el costo sin restricciones de inercia es de $ 731,808. Para el desarrollo de la simulación mediante Simulink, se utilizó el modelo de una unidad termoeléctrica, considerando el valor del estatismo R del gobernador, con el objeto de ver el efecto de ésta variación en la respuesta dinámica del sistema de control carga-frecuencia, para la simulación se utilizaron los datos siguientes:Constante de amortiguamiento (D) [MWp.u./Hz]= 0.00833, Regulación (R) [Hz/MW p.u.]= 1.4, Constante de tiempo de la cámara de vapor (Tch) [s]=0.5, Ganancia de la función de transferencia del sistema [Kp] 1/D [Hz/MWp.u.]= 120.048, Constante de tiempo de la función de transferencia del sistema [Tp](2H/Dfo)[s.]=20.208. Como resultado, se obtiene la respuesta del sistema correspondiente al valor de regulación para la unidad termoeléctrica. Se realizo una grafica mostrando la curva del cambio en la frecuencia del sistema con un valor de regulación R, donde se observa una menor perturbacion en la frecuencia a comparación de la curva que no se aplico con restricciones de inercia. Se observo que la estabilización completa de la planta se llevó a cabo después de aproximadamente 7 s.
CONCLUSIONES
Durante la estancia, se implementó en GAMS, el cual es un lenguaje de modelado algebraico utilizado para resolver problemas de optimización, el modelo de despacho económico con restricciones de inercia. Para garantizar una mayor flexibilidad y facilidad en el manejo de los datos, se utilizó Matlab para lectura y procesamiento de los parámetros del sistema y estos se transfieren a GAMS. Los resultados indican que las restricciones de inercia en el despacho económico pueden influir en los costos de operación, los requerimientos de reservas y la caída de frecuencia del SEP. El despacho económico con restricciones de inercia resultó en un costo total de operación de $752,824.00, en cambio sin restricciones de inercia resultó en un costo total de operación de $731,808.00. Desde el punto de vista de la caída de frecuencia; con restricciones de inercia, se permitió una respuesta más rápida y efectiva ante perturbaciones, lo que podría haber reducido la magnitud y duración de la caída de frecuencia durante eventos como la contingencia mencionada, sin considerar la inercia, la respuesta del sistema podría haber sido
Montes Tapia Ariadna Itzel, Universidad de Colima
Asesor:M.C. Vicente Castro Castro, Universidad Autónoma de Chiapas
EROSIóN COSTERA EN LA COMUNIDAD BARRA DE SAN SIMóN, MAZATáN, CHIAPAS
EROSIóN COSTERA EN LA COMUNIDAD BARRA DE SAN SIMóN, MAZATáN, CHIAPAS
Montes Tapia Ariadna Itzel, Universidad de Colima. Asesor: M.C. Vicente Castro Castro, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
En el año de 2015 en la Playa de San Benito ubicada en la localidad de Puerto Madero, Tapachula, fueron construidos tómbolos y espigones con el fin de proteger a la población a causa del avance del mar y consecuentemente evitar pérdida de playas. Esta acción ha contribuido a reducir el daño de la infraestructura urbana e incrementar la seguridad de los pobladores de Puerto Madero; sin embargo, habitantes de la comunidad de Barra de San Simón, en el municipio de Mazatán, ubicada aproximadamente a 9.6 Km de Puerto Madero, han manifestado afectaciones por el avance del mar y pérdida de tierras de cultivo, casas habitación y recreativas.
Los pobladores de Barra San Simón han logrado percibir el retroceso de la línea de costa de sus playas. Los habitantes comparten que desde el 2015 el mar ha avanzado hasta el punto de ocasionar pérdidas totales de infraestructura cimentada y tierras de cultivo a lo largo de estos 8 años. Los pobladores conocen el problema que están viviendo, pero por desgracia no existe información o estudios que avalen o validen lo dicho por ellos, por lo que es necesario generar evidencias técnico-científicas a cerca del proceso erosión-sedimentación en las playas de la comunidad de Barra San Simón, lo que permitirá gestionar obras que brinden protección a las tierras e infraestructura, pero, sobre todo, seguridad para los pobladores.
METODOLOGÍA
Análisis a corto plazo
De acuerdo con la metodología descrita por Castro-Castro et al., (2017) se establecieron dos sitios de estudio A y B. En cada sitio se ubicaron cuatro puntos fijos, los cuales se marcaron con tubos de PVC de 50 cm de largo, de una pulgada de diámetro y fueron enterrados en la zona de Backshore (área hacia el continente después de la berma de marea y hasta donde inicia la vegetación), separados cada uno a 50 metros. Se realizaron dos muestreos el 7 y 29 de julio del presente año. Las mediciones se realizaron con una cinta métrica de 20 m de largo. Las primeras mediciones que se realizaron en los sitios A y B corresponden a la medición de referencia base a partir de las cuales se valorarán los cambios en la playa. A partir de los cambios medidos y las evidencias fotográficas, se definió el nivel de erosión-sedimentación de las playas en estudio.
El nivel de erosión-sedimentación de las playas, para evaluar los daños naturales y antropogénicos a causa del retroceso de la línea de costa se realizó a partir del Índice de Erosión-Sedimentación Costera (IE-SC) (Cárdenas y Ovando, 2005). Es un método basado en la observación, y a partir de fotografías se documentó que tan avanzado está el proceso erosivo o sedimentario en la playa estudiada. El método de IE-SC valora mediante la asignación de 5 diferentes niveles, donde el nivel 1 corresponde a sitios donde no existe evidencia de erosión-sedimentación costera, mientras que el nivel 5 son áreas con graves problemas de ganancia de sedimento o pérdida de este, generando zonas con sedimentación intensiva o una erosión exacerbada. A partir de esta información en cada punto fijo se hicieron las valoraciones necesarias para asignarle un nivel (1-5) a cada sitio de estudio y se realizaron tomas fotográficas.
Análisis a largo plazo
Por medio de Google Earth Pro se conoció la variabilidad a largo plazo de la superficie erosionada en la Barra de San Simón mediante imágenes satelitales del año de 2011 y 2023. Primeramente, se marcaron los 8 sitios de muestreo que fueron registradas mediante coordenadas UTM en campo. Después en los años de 2011 y 2023 se marcó la línea de costa teniendo como referencia el límite máximo de la zona húmeda. A partir de estas dos líneas trazadas en 2011 y 2023 se hizo una medición desde cada uno de los puntos fijos establecidos a una dirección de 230° y a una altura de observación de 70 metros.
Análisis estadístico
Para determinar la tasa de erosión presentes en la Barra de San Simón a corto y largo plazo se usó el programa de Excel mediante el cual se obtuvieron los promedios y las desviaciones estándar de cada muestreo y de cada sitio.
Para determinar posibles diferencias significativas a largo plazo en la Barra de San Simón se aplicó un análisis de varianza (ANDEVA) de una vía, y se confirmaron los supuestos de normalidad y homogeneidad de varianza de los datos, para lo cual se empleó el software Past 4.03.
CONCLUSIONES
Los trabajos realizados marcaron el inicio del proyecto para conocer la dinámica de erosión-sedimentación del área de interés, por lo que resulta necesario considerar los resultados del presente reporte como iniciales.
A corto plazo el sitio A se caracterizó por una acreción debido a la acumulación de sedimento dado que la playa avanzó en promedio 0.76 ± 0.75 m. Mientras que el sitio B presentó un balance negativo en el transporte de sedimento, por lo que fue una zona que mostró erosión, perdiendo en promedio 2.19 ± 2.34 m.
El índice de Erosión-Sedimentación Costera que presentó el sitio A fue nivel 3 debido a la formación de terrazas de erosión que presentaron alturas que oscilaban entre los 50 y 60 cm, también se encontró infraestructura cimentada a menos de 5 metros del límite de marea alta, así como raíces de vegetación expuesta y palmeras ladeados debido a la remoción de sedimento, ubicados en la zona intermareal.
Al sitio B se le asignó un nivel 4 del índice de erosión-sedimentación costera debido a que las terrazas de erosión que se presentaron fueron mayores a 1 m, con raíces de vegetación expuesta a la orilla de estas terrazas.
En el largo plazo, se observó un retroceso en la línea de costa de 2011 a 2023 tanto para el sitio A como para el sitio B. En el sitio A la costa retrocedió en promedio 18.00 ±1.6 m de 2011 a 2023 y en el sitio B la superficie de la playa expuesta disminuyó, teniendo el mar un avance promedio a tierra firme de 25.75 ± 1.50 m, siendo mayor el área que se ha perdido en el sitio B. El análisis de varianzas mostró diferencias significativas (p<0.05) entre ambos sitios de estudio.
Montoya Marin Alejandra, Universidad del Quindío
Asesor:Dr. Manuel E. Trejo Soto, Universidad Autónoma de Sinaloa
ESTABLECIMIENTO Y ANáLISIS DE REDES GEODéSICAS MULTIPROPóSITO
ESTABLECIMIENTO Y ANáLISIS DE REDES GEODéSICAS MULTIPROPóSITO
Montoya Marin Alejandra, Universidad del Quindío. Asesor: Dr. Manuel E. Trejo Soto, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Para llevar a cabo el establecimiento de una red geodésica (RG) de cualquier tipo, es necesario crear un diseño de esta, donde se cuantifican el número de vértices requeridos en función del área de cobertura y de las necesidades de precisión de los parámetros geoespaciales que se otorgaran a los mismos. El diseño de las RG se realiza considerando las normas técnicas correspondientes, donde se muestran los distintos niveles de precisión y categorías en que se clasifican, así como las tareas a las que están destinadas. Como parte de las actividades desarrolladas en el periodo de la estancia académica, se llevaron a cabo mediciones geodésicas satelitales, mediciones de distancias para la construcción de redes de trilateración y mediciones de diferencias de alturas entre vértices geodésicos, con el propósito de conocer metodologías de medición y elaboración matemática de las mediciones geodésicas (ajuste matemático).
METODOLOGÍA
Las RG multipropósito están orientadas a resolver problemas prácticos de ingeniería, con técnicas de medición sencillas sin perder la rigurosidad en la obtención de resultados precisos y expeditos, aplicando algoritmos matemáticos eficientes, utilizando instrumentos geodésicos de bajo costo y de fácil operación. Como ejemplo de RG que se establecieron en el periodo de la estancia académica, se tienen:
Red planimétrica de trilateración, donde solo se miden distancias horizontales con el instrumento estación total, formando figuras a partir de triángulos. Las figuras más usuales y prácticas, son las de vértice central, donde coinciden todas las distancias de los vértices que componen la RG; figuras diagonales. Una particularidad de estas RG, es su rapidez en el desarrollo de las mediciones y su facilidad en su ajuste matemático. El algoritmo utilizado es el método correlativo o de condiciones. En el caso de la RGT que se realizó, se establecieron una condición de suma de ángulos en un vértice y condición de horizonte. El proceso consiste en establecer funciones matemáticas que permiten calcular las correcciones a los ángulos en los triángulos en función de las correcciones a las distancias medidas.
Red altimétrica geodésica, donde se miden los desniveles entre los vértices utilizando un nivel de alta precisión DNA03, miras invar de tres metros y bases para las miras de nivelación. La red altimétrica estaba formada por seis vértices (Reloj, Buelna, Biblioteca, Centro de Ciencias, Arquitectura y FACITE), dos de los cuales eran de referencia (alturas conocidas). El esquema de nivelación fue de doble horizonte del instrumento, con distancias no mayores a 50 metros, lecturas no menores a 0.50 cm, ni mayores a 2.50 mts, con el propósito de minimizar errores por no paralelismo de la visual y de eje horizontal del instrumento, así como errores causados por la refracción. El ajuste matemático de la red altimétrica se llevo a cabo mediante los métodos paramétrico y el método correlativo (condiciones).
Red Geodésica GNSS
Las redes geodésicas espaciales o GNSS, tienen hoy un uso muy frecuente por la diversidad de problemas que se pueden resolver, su establecimiento es relativamente sencillo, se puede medir sin importar la hora del día y casi bajo cualquier condición meteorológica. El uso de los equipos es muy sencillo, se reduce el número de integrantes de las brigadas de campo y el tiempo de trabajo. Existe una diversidad de instrumentos o receptores satelitales geodésicos y últimamente se ha ampliado el uso de los receptores de bajo costo. Como parte de las tareas desarrolladas, se estableció una red espacial GNSS en Ciudad Universitaria, compuesta por seis vértices, los mismos que la red altimétrica, sin embargo, no se llevaron a cabo mediciones satelitales sobre el vértice FACITE, dado que las condiciones de recepción de señales de radio satelitales, no eran favorables y sus resultados no cumplirían con la calidad y precisión requeridas. El esquema de medición se llevo a cabo por vectores aislados entre par de vértices y referidos al vértice CULC, de la red geodésica nacional activa, gestionada por el Instituto Nacional de Estadista y Geografía de México. El instrumento utilizado fue el HiTarget, con un tiempo de medición sobre cada vértice de una hora. El postproceso se llevo a cabo utilizando el software Topcon Tools, que permite obtener la matriz de covarianza para cada vector seleccionado. Una tarea pendiente a realizar es el ajuste matemático, mediante el algoritmo del método paramétrico, formando un circuito cerrado con los vértices medidos. Es necesario resaltar que, el vector Biblioteca - Centro de Ciencias, fue descartado por presentar inconsistencias en sus resultados con valores de desviación estándar muy por encima de los permisibles, así como valores de coordenadas cartesianas espaciales con valores errados. Para realizar el ajuste matemático deberá formarse la matriz de los coeficientes de las incógnitas (coordenadas), la matriz de los términos independientes y la matriz de los pesos, que se forma con las matrices particulares de covarianza de cada vector seleccionado. Finalmente se realiza la estimación de la precisión de las coordenadas obtenidas, es decir el cálculo de la desviación estándar.
CONCLUSIONES
Las redes geodésicas multipropósito tienen un valor importante al emprender la solución de distintos problemas donde se requieren datos geoespaciales confiables y que satisfagan los requerimientos de precisión para cada caso en particular. La elección del tipo de red geodésica lleva implícito su diseño y a su vez, el algoritmo de elaboración matemática de las mediciones geodésicas. Así mismo, el diseño optimo permite organizar los trabajos de medición, sus costos, personal, instrumentos a utilizar y los plazos para su consecución.
Morales Magallón Pedro Luis, Instituto Tecnológico de Morelia
Asesor:Dr. Jose Humberto Camacho Garcia, Benemérita Universidad Autónoma de Puebla
CáLCULO DE LAS PROPIEDADES MECáNICAS DE LA FASE 59 DEL SIC
CáLCULO DE LAS PROPIEDADES MECáNICAS DE LA FASE 59 DEL SIC
Morales Magallón Pedro Luis, Instituto Tecnológico de Morelia. Asesor: Dr. Jose Humberto Camacho Garcia, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Esta investigación se centra en estudiar materiales mediante simulaciones de estructuras cristalinas y cálculos cuánticos. Se ha investigado un carburo de silicio con grupo espacial 59 para analizar sus propiedades y comportamiento. El estudio abarca del 19 de junio al 4 de agosto, con investigaciones adicionales hasta el 30 de agosto en la Benemérita Universidad Autónoma de Puebla, y de manera virtual. Se analizará el carburo de silicio en nuestra propia computadora y se transferirá a las computadoras de la BUAP para el análisis. Este estudio se enfocará en encontrar las constantes elásticas y la dureza del carburo de silicio con grupo espacial 59, que no ha sido previamente investigado. La importancia del desarrollo tecnológico y la relación con la simulación de materiales impulsan la investigación. Grandes investigadores históricos como Thomas-Fermi, Kohn-Sham, Charles Kittel, entre otros, sentaron las bases para estos estudios. Mi motivación es contribuir al avance científico. En este programa Delfín, nuestra investigación busca adquirir un dominio en el uso de herramientas y técnicas de simulaciones de estructuras cristalinas y cálculos cuánticos, con el fin de obtener resultados precisos y confiables sobre las propiedades de los materiales analizados. A través de este estudio, se busca realizar un valioso aporte al conocimiento científico y tecnológico en el campo de estudio de materiales, mediante el empleo eficiente de simulaciones y cálculos cuánticos, lo que contribuirá al avance y comprensión de las características y comportamientos de los materiales a nivel molecular y estructural.
METODOLOGÍA
Al inicio del programa, se hizo una revisión bibliográfica, para estar al corriente de qué es un pseudopotencial, qué es el DFT y cómo se desarrolla la ecuación de Schrödinger, incluyendo sus aproximaciones, que son dos: el LDA (densidad fija, no varía) y el GGA (Gradiente que suaviza la densidad). En los pseudopotenciales hay dos tipos: N.C (Conservan la norma) y U.S (ultra suaves, PBE, V).
Posteriormente, hubo asesoramiento sobre cómo usar Vesta, para empezar a aprender a usarlo, se creó un titanato de calcio. Se necesitó plasmarlo en Vesta con los parámetros de celda, grupo espacial, los elementos químicos y sus posiciones atómicas (x, y y z), así como sus cargas correspondientes y con estos, se analizó en el software, así se supo cómo utilizar Vesta.
Después se introdujo su estructura cristalina a Vesta del carburo de silicio con un grupo espacial 59, una vez ingresada, se exportó su información, ya que se necesitaban sus posiciones y parámetros de red.
Luego del aprendizaje en Vesta, se abordó el uso de una computadora con sistema operativo Linux, donde se continuaría la investigación y se analizarían los cálculos con Quantum Espresso. Se realizó una revisión bibliográfica sobre Quantum Espresso y se creó una entrada para que la computadora de la BUAP ejecutara los cálculos del material.
La entrada consta de varias secciones: &control, &system, &electrons, &ions, &cell, Atomic_Species y K_Points automatic. Cada sección debe llevar ciertas indicaciones. Por ejemplo en la sección &control, se utilizaron los siguientes parámetros: calculation='vc-relax' (que relaja la estructura), restart_mode='from_scratch', nstep=200 (controla cuántas iteraciones se deben hacer), prefix='SiC' (es el material a estudiar), outdir='.' (donde se guardarán los archivos de salida), tstress=.true. (permite activar o desactivar el cálculo) y tprnfor=.true. (controla si se imprimirá o no información adicional). Las demás secciones también tienen sus indicaciones específicas.
Una vez que se tuvo la entrada lista, se ejecutó en la computadora utilizando el comando nohup pw.x SiC-59-bulk.out &, ya que se necesitaba obtener la energía mínima del material y encontrar la energía más pequeña en pocas iteraciones, y si esta energía mínima es negativa, es aún mejor, porque no necesariamente debe ser igual a cero.
Tras obtener la energía mínima, se afinaron los valores de energía de corte y puntos k para mejorar los resultados. Posteriormente, se ajustó la estructura cristalina variando los parámetros de red, generando una gráfica volumen (Å^3) - energía (eV). Esta gráfica confirmó la existencia de la energía mínima.
Luego, se determinó el GAB para clasificar el material como conductor, aislante o semiconductor. Con esto en mente, se empleó un mallado diferente, con puntos k iniciando en 423000 debido a su naturaleza semiconductor. Posteriormente, se generó un SCF junto con el archivo delta.sh para tratar de obtener las constantes elásticas y la dureza. El delta.sh contiene indicaciones esenciales para los cálculos, como el ibrav para reconocer la asimetría. Tras ejecutar el delta.sh con el comando "./delta.sh &", se analizó la convergencia. Aunque debido al poco tiempo, esta etapa aún se encuentra en proceso. Cuando la convergencia se logre, se procederá a modificar el archivo "log thermo" con la deformación obtenida en la convergencia y se correrá el RUN con otras indicaciones. Esto permitirá generar el log thermo que proporcionará las constantes elásticas y la dureza del material.
CONCLUSIONES
Durante la estancia de verano, combinando conceptos teóricos y herramientas como Vesta y Quantum Espresso, logramos optimizar la geometría exitosamente, un hito importante en el proyecto. Estamos avanzados en el cálculo de propiedades mecánicas y electrónicas, pero aún trabajamos en obtener las constantes elásticas y la dureza. Los resultados preliminares son prometedores, validando el enfoque para estudiar materiales cristalinos. La experiencia ha sido enriquecedora, adquiriendo habilidades esenciales en investigación y desarrollo de materiales.
Morales Vásquez Miguel Ehecatl, Instituto Politécnico Nacional
Asesor:Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez
ESTUDIO DE UN PROCESO CONTINUO DE ABSORCIóN MEDIANTE EL CONTROL DE LOS FLUJOS DE OPERACIóN.
ESTUDIO DE UN PROCESO CONTINUO DE ABSORCIóN MEDIANTE EL CONTROL DE LOS FLUJOS DE OPERACIóN.
Morales Vásquez Miguel Ehecatl, Instituto Politécnico Nacional. Asesor: Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Las centrales termoeléctricas producen la energía eléctrica mediante la quema de combustibles fósiles, emitiendo a la atmósfera de manera continua grandes cantidades de CO2. La tecnología de captura de CO2post-combustión es una buena alternativa para absorber las emisiones de CO2 de manera continua. Una de las principales unidades de la tecnología post-combustión es la columna empacada de absorción. En esta operación unitaria es importante tener controlado el flujo de la solución absorbente dentro del proceso para evitar inundación de la columna de absorción o evitar que se vacíe o baje el nivel de solución dentro de la columna.
Debido a la necesidad de mantener las condiciones del proceso constantes, en el actual trabajo de investigación, se busca la implementación y desarrollo de un sistema de control que mantiene un flujo volumétrico constante de salida de la solucion involucrada en una columna de absorción. El sistema de control coinsiste en una electroválvula proporcional, así como un caudalímetro a la salida de la columa de absorción conectados a un Controlador Lógico Programable (PLC). Dicho PLC, desarrolla el control de apertura y cierre de la electroválvula proporcional por medio de una tarjeta de señal analógica de salida. Por otra parte, la adquisicion del flujo volumétrico es realizado por medio de una tarjeta de señal digital de entrada, está configurada como un contador de tren de pulsos (PWM) generado por el instrumento.
METODOLOGÍA
El proceso de absorción se lleva de la siguiente manera. La mezcla de MEA con H2O es bombeada desde un recipiente mediante una bomba peristáltica. Una vez que entra en el sistema, el líquido desciende de forma uniforme a tráves del cilindro gracias a un distribuidor de líquido. Al mismo tiempo, se introduce el aire del ambiente recolectando por un compresor. La columna se llena con la solución hasta cubrir perfectamente todos los empaques. Teniendo lista la columna se procede a abrir la bomba, simultáneamente a una válvula la cual regula el caudal de salida. A la par, se suministra CO2 de un tanque de contención, combinándose con el aire del compresor que se suministró de forma continua. El fluido dentro de la columna empiece a burbujear, generando una zona de contacto entre la monoetanolamina y el dióxido de carbono. Permitiendo que el dióxido de carbono se disuelva en la monoetanolamina mientras que atraviesa la columna. A medida que el compuesto gaseoso se disuelve, la solución con el CO2 capturado se obtiene en la salida inferior de la columna.
Se llevaron a cabo dos pruebas utilizando monoetanolamina. El objetivo de estas pruebas fue evaluar y analizar el comportamiento del caudal a lo largo del tiempo durante el proceso. Para normalizar las pruebas experimentales, se cronometraron en un momento tiempo cero. Para obtener una visión más clara y precisa de cómo se comporta el flujo a lo largo de cada prueba, se registraron los valores del caudal de salida en intervalos regulares de tiempo. Con los datos recopilados, se procedió a graficar los valores del flujo de salida en función del tiempo para ambas pruebas.En la primera prueba, se requería mantener un caudal constante de 35 mL/minuto. El caudal permaneció constante durante la mayor parte del proceso, ractificando la efectividad del control proporcionado por la electroválvula y el voltaje aplicado. Sin embargo, se observaron momentos en los que el caudal experimentó cambios significativos en los minutos 5, 20 y 35 de la prueba. Estas variaciones de presión llevaron a alteraciones en las condiciones del fluido, lo que a su vez impactó en el comportamiento del caudal.
En la segunda prueba, empleo un flujo constante de 75 mL/min. La gráfica realizada muestra pequeñas variaciones en el caudal a lo largo de la prueba, teniendo un comportamiento semejante a la prueva anterior. Tras un detallado análisis de las variaciones en el caudal, se llegó a la hipotesis de que el componente del sistema físico que estaba perturbando el flujo era el compresor. Estas vibraciones del compresor perturbaban la estabilidad del flujómetro, el cual era responsable de controlar la cantidad de CO2 y aire que ingresaba al sistema. Como resultado, el flujo volumétrico experimentaba fluctuaciones debido a la inestabilidad causada por las vibraciones del compresor. Es importante destacar que estas pequeñas variaciones en el caudal, aunque presentes, no invalidan la efectividad del control proporcionado por la electroválvula y el esfuerzo por mantener un flujo constante en la prueba.
CONCLUSIONES
El flujo de salida del sistema debe de ir sincronizado al flujo de entrada, mismo que es regulado por una bomba peristaltica. El realizar esta labor de forma manual se producen diversas irregualridades en el caudal que atravieza la columna, las cuales afectan negativamente la absorcion de CO2. Estos se pueden producir por un error humano en la apertura de la válvula, o errores en la medición del flujo de salida. Para realizar esta tarea se uso una electrovalvula y un caudalimetro conectados a un PLC. Este controlador regula el proceso y garantiza un flujo de salida normalizado.
Existen diversas mejoras que se podrían implementar en el sistema de control de flujo volumetrico. Una oportación interesante sería el uso de un código de control PID (Proportional Integral Derivative, por sus siglas en ingles). Este sistema obtiene un mejor control en el caudal al incorporar un segundo caudalímetro en la salida de la válvula peristáltica. La idea es obtener una medición que se pueda comparar con el primero, permitiendo que el código PID compare las datos obtenidos y regule la apertura de la electroválvula, haciendo aun más autónomo el sistema. De igual modo, es importante considear la implementación de un sistema físico que restrinja las vibraciones producidas por el compresor, eliminando las alteraciones en las varibles de proceso.
Morelos Lozada Jesus, Instituto Politécnico Nacional
Asesor:Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
DOSIMETRíA EN FANTOMA Y USO DE MATERIALES CRISTALINOS EN DOSIMETRíA.
DOSIMETRíA EN FANTOMA Y USO DE MATERIALES CRISTALINOS EN DOSIMETRíA.
Hernández Carrillo Anette Sofía, Universidad Autónoma de Ciudad Juárez. Inzunza Lugo Alejandra, Universidad Autónoma de Sinaloa. Morelos Lozada Jesus, Instituto Politécnico Nacional. Ochoa Sánchez Daniela, Universidad de Guadalajara. Salgado Díaz America, Universidad Autónoma del Estado de México. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La radioterapia es un tratamiento esencial en la lucha contra el cáncer, pero es crucial garantizar que la dosis de radiación se administre con precisión en el área objetivo y se minimice la exposición en tejidos circundantes. Para ello, se utilizan dosímetros para medir la distribución de la radiación y evaluar la eficacia del tratamiento. Además, es relevante investigar y seleccionar los materiales cristalinos más adecuados para desempeñar esta función de dosimetría.
El objetivo de este estudio es analizar la distribución de la radiación en un fantoma durante la radioterapia y evaluar la eficacia de diferentes materiales cristalinos como dosímetros.
METODOLOGÍA
1. Se prepararon dosímetros, dispositivos diseñados para medir la dosis de radiación absorbida.
2. Se colocó el fantoma, que es una simulación de un paciente, en un acelerador lineal para simular un tratamiento de cáncer cervico-uterino.
3. Se distribuyeron los dosímetros en posiciones estratégicas dentro del fantoma.
4. Se programó el equipo del acelerador lineal para administrar la dosis de radiación de acuerdo con el tratamiento simulado.
5. Se realizaron mediciones y análisis de los resultados obtenidos por los dosímetros para evaluar la distribución de la radiación en el fantoma.
Materiales cristalinos:
1. Se seleccionaron compuestos químicos y se prepararon con sus respectivos dopantes para actuar como materiales cristalinos para dosimetría.
2. Se identificaron los cristales preparados y se los preparó para la lectura de sus respuestas a la radiación.
3. Se programó el equipo necesario para llevar a cabo la lectura de los cristales y obtener resultados de dosimetría.
4. Se analizaron los resultados obtenidos por los materiales cristalinos para evaluar su eficacia como dosímetros.
CONCLUSIONES
1. Distribución de la radiación en el paciente: Se observó que la dosis de radiación recibida por el paciente durante el tratamiento depende del tamaño del tumor y de la energía empleada. Es fundamental garantizar una distribución precisa de la radiación para evitar daños innecesarios en tejidos sanos circundantes.
2. Importancia de la precisión en las mediciones: Se recomienda tomar dosímetros del mismo lote para asegurar la precisión y consistencia en las medidas de dosimetría. La exactitud en la administración de la dosis es esencial para mejorar la efectividad del tratamiento y evitar posibles complicaciones.
3. Protocolos de radioterapia personalizados: Se sugiere la implementación de nuevos protocolos de radioterapia que se adapten a las características individuales de cada paciente. Un enfoque personalizado puede aumentar la efectividad del tratamiento y reducir los efectos secundarios.
4. Reducción de la radiación en zonas periféricas: Se propone desarrollar instrumentos y materiales superficiales para disminuir los niveles de radiación en las áreas circundantes del tumor. Esto puede ayudar a evitar el riesgo de desarrollar un segundo cáncer en tejidos cercanos a la zona tratada.
5. Eficacia de los materiales cristalinos: Los materiales cristalinos, en particular, los LaAl03 dopados con Dy o Pr, mostraron una alta respuesta termoluminiscente (TL). Estos materiales demostraron ser excelentes para capturar la energía absorbida en los centros de trampa, lo que los convierte en opciones prometedoras para su uso como dosímetros.
En conclusión, este estudio destaca la importancia de la dosimetría en fantoma y el uso de materiales cristalinos en dosimetría para garantizar la precisión y efectividad de los tratamientos de radioterapia. La investigación continua en este campo puede conducir a mejoras significativas en el cuidado y el tratamiento de pacientes con cáncer.
Moreno Estrada Jose Daniel, Universidad de Guadalajara
Asesor:Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla
SEGUIMIENTO FOTOGRAMéTRICO (SATELITAL Y FIJO) DE EXHALACIONES DEL VOLCáN POPOCATéPETL Y SU POSIBLE EFECTO EN EL CAMBIO CLIMáTICO DEL ESTADO DE PUEBLA.
SEGUIMIENTO FOTOGRAMéTRICO (SATELITAL Y FIJO) DE EXHALACIONES DEL VOLCáN POPOCATéPETL Y SU POSIBLE EFECTO EN EL CAMBIO CLIMáTICO DEL ESTADO DE PUEBLA.
Moreno Estrada Jose Daniel, Universidad de Guadalajara. Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Encontrar si existen discrepancias en el área del cráter del volcán Popocatépetl y monitoreo e investigación de los años con más actividad volcánica y sísmica generando un mapa de riesgo.
METODOLOGÍA
Por medio de la percepción remota se logra obtener imágenes satelitales para el estudio del cráter , el cual se mide el área en km2 logrando obtener imágenes satelitales de alta calidad, generando por medio de SIG un mapa de riesgo a 25 kilómetros conociendo las comunidades de alto riesgo e impacto de una catástrofe. Así mismo, del CENAPRED se obtiene información de los últimos 10 años sobre las actividad volcánica y sísmica mas importante del 2018 al 2023.
CONCLUSIONES
A través del estudio de imágenes satelitales con ayuda de percepción remota en el área del cráter y las faldas del volcán Popocatépetl se muestra que el cráter cada vez se expande más en cada movimiento geológico. Con los datos obtenidos se encontró que, en las exhalaciones del año 2013 al año 2023 el cráter se expandió 16 km. Esto puede ser provocado por los sismos o las erupciones, así mismo, el riesgo a 25 kilómetros del cráter en un movimiento sísmico fuerte pueda causar críticos daños a comunidades de las faldas del volcán.
Moreno Ortega Angélica, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Alfredo Rafael Vilchis Nestor, Universidad Autónoma del Estado de México
COMPARACIóN DE MORFOLOGíA Y TAMAñO DE PARTíCULAS DE ZNO A PARTIR DE 2 TIPOS DE SíNTESIS Y 2 PRECURSORES DIFERENTES, PARA LA FOTOCATáLISIS DE AZUL DE METILENO
COMPARACIóN DE MORFOLOGíA Y TAMAñO DE PARTíCULAS DE ZNO A PARTIR DE 2 TIPOS DE SíNTESIS Y 2 PRECURSORES DIFERENTES, PARA LA FOTOCATáLISIS DE AZUL DE METILENO
Moreno Ortega Angélica, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Alfredo Rafael Vilchis Nestor, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
El azul de metileno (C3H18ClN3S) es un pigmento catiónico monovalente el cual es uno de los colorantes más utilizados en la industria textil para la tinción de lanas y algodón (como la mezclilla) (Puentes, 2011).
Además, la presencia de pigmentos en el agua provoca la reducción del oxígeno disuelto y esto conlleva a la disminución en la penetración de algunos tipos de radiación que a su vez afecta los procesos fotosintéticos de los acuíferos (Hincapié et al., 2017); el pigmento antes mencionado es de origen sintético y que posee una estructura aromática compleja, el cual también es inerte y difícil de degradar cuando se descarga en el agua.Otro problema es la creciente contaminación, producto del uso de energía que proviene de combustibles fósiles, la cual es poco sostenible y altamente nocivo para el medio ambiente.
Para hacer una biorremediación a este problema se buscan materiales que no representen un mayor impacto al ecosistema y por ende a la salud. Por lo que el presente trabajo es una propuesta amigable con el medio ambiente, en el cual se utilizó un proceso conocido como fotocatálisis, este consiste en el uso de materiales que sean capaces de absorber la energía ultravioleta, y así los fotones que se liberan en este tipo de catálisis adquieren una energía superior a la de la banda prohibida del semiconductor que promueve la excitación de los electrones desde un estado ocupado de mayor energía a otro estado desocupado de menor energía.
Los materiales que presentan esta característica generalmente se denominan fotocatalizadores, siendo los más utilizados los semiconductores como algunos óxidos metálicos.
Por sus propiedades fotocatalíticas el ZnO es un excelente material para la degradación del azul de metileno, además de poseer una baja toxicidad y ser de bajo costo.
METODOLOGÍA
Se realizaron cuatro síntesis para obtener partículas de óxido de zinc, donde se utilizaron dos métodos de síntesis que fueron el hidrotermal y por precipitación, donde para obtener los materiales se variaron los precursores (acetato de zinc y nitrato de zinc).
El primer método de síntesis fue el hidrotermal, el cual consiste en la inducción de reacciones químicas en presencia de agua dentro de un sistema cerrado, esta inducción se realiza mediante el calentamiento del sistema hasta temperaturas que sobrepasan el punto de ebullición del disolvente y se mantiene así durante un periodo de tiempo determinado, esto genera condiciones de alta presión y temperatura que promueven la nucleación (Li, Wu & Wu, 2016). Así los productos obtenidos se forman directamente en la solución, con este método se pueden sintetizar materiales que presenten distintas características como: composición, cristalinidad, morfología y tamaño. Las propiedades del material se pueden modificar al variar uno o más de los parámetros como lo son: temperatura, presión, tiempo de reacción, concentración, pH y precursor (Sōmiya & Roy, 2000).
Para obtener los materiales por este método se realizó una solución de NaOH 0.5M, y como primer precursor fue el acetato de zinc y el segundo precursor que se empleó fue el nitrato de zinc, ambos a una concentración 0.1 M, la solución de hidróxido de sodio y su respectiva solución de zinc, se agregaron al reactor, que posteriormente se colocó en la mufla a una temperatura de 180°C durante 2 horas, al término de este tiempo se dejó enfriar el reactor; se decantó y posteriormente se enjuagó el material obtenido, y se secó en la estufa a 60°C durante 24 horas, para posteriormente poder ser caracterizado.
El segundo método empleado, se utilizó la síntesis por precipitación, la cual consiste en la nucleación y crecimiento de una solución sobresaturada (contiene más soluto del que puede existir en equilibrio a una temperatura dada). Hay muchas formas de volver sobresaturada a una solución y así inducir la nucleación y crecimiento. La sobresaturación también se puede producir al añadir otro componente en el cual el soluto sea insoluble.
Al igual que en el procedimiento anterior se emplearon como precursores el acetato de zinc y el nitrato de zinc.
Las soluciones se calentaron por separado a 65°C en el agitador magnético durante 15 minutos, por goteo lento añadimos la solución de hidróxido de sodio a la respectiva solución de zinc.
Esta solución se dejó reposar por una hora, se decantó y el precipitado se enjuagó y se centrifugó en ciclos de 10 minutos a 3500 rpm, y por último se secó en la estufa.
Los materiales obtenidos, fueron caracterizados, por las siguientes técnicas: DRX, Ft-IR, UV-Vis, EDS y Microscopía Electrónica de Barrido (SEM); en este último también se observó como cambiar el filamento de tungsteno.
CONCLUSIONES
Con ambos métodos de síntesis se obtuvo óxido de zinc en fase wurtzita, y de los materiales obtenidos, en la síntesis hidrotermal con precursor de nitrato de zinc, se obtuvieron microestructuras con forma de erizos, para la síntesis por precipitación con el precursor de nitrato de zinc, la síntesis por precipitación con acetato de zinc y la síntesis hidrotermal con acetato de zinc, mediante Microscopía Electrónica de Barrido (SEM) se observaron aglomerados en los cuales se teoriza que el material posee un tamaño nanométrico, para confirmarlo se realizará Microscopía Electrónica de Transmisión (TEM).
Los materiales obtenidos se probaron en fotocatálisis; en una caja de condiciones controladas con luz UV y directamente bajo la luz del sol, ambas condiciones, permitieron degradar el azul de metileno en un tiempo de 5 horas, y a futuro se pretende realizar los análisis pertinentes para determinar que condiciones funcionan mejor y cuál material es el más efectivo para degradar mayor cantidad del colorante y en menor tiempo.
Munguía Cuatlayotl Mytzi Yael, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Jesús López Hernández, Universidad Autónoma de Sinaloa
ANáLISIS DE GALAXIAS CON FORMACIóN ESTELAR A PARTIR DE DATOS DEL PROYECTO MANGA DEL SDSS.
ANáLISIS DE GALAXIAS CON FORMACIóN ESTELAR A PARTIR DE DATOS DEL PROYECTO MANGA DEL SDSS.
Munguía Cuatlayotl Mytzi Yael, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Jesús López Hernández, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La formación estelar es uno de los procesos fundamentales que dan forma a las galaxias y determinan su evolución, comprender los mecanismos y las propiedades de esta formación estelar en diferentes entornos galácticos es esencial para desentrañar los misterios de la cosmología y la astrofísica. Sin embargo, la complejidad de los procesos involucrados y la diversidad de las galaxias hacen necesario un análisis detallado y preciso de los datos observacionales.
El proyecto MaNGA (Mapping Nearby Galaxies at Apache Point Observatory) del Sloan Digital Sky Survey (SDSS) ofrece una vasta cantidad de datos espectroscópicos e imágenes de galaxias, brindando una oportunidad única para investigar en profundidad la formación estelar en diferentes contextos galácticos. A pesar de la disponibilidad de estos datos, aún enfrentamos el desafío de cómo realizar un análisis efectivo y sistemático que nos permita caracterizar y comparar las propiedades de formación estelar en las galaxias estudiadas.
Por lo tanto, el presente estudio se propone abordar la siguiente interrogante: ¿Cómo podemos realizar un análisis riguroso y exhaustivo de una galaxia que contiene formación estelar utilizando los datos proporcionados por MaNGA SDSS? La respuesta a esta pregunta no solo contribuirá a nuestra comprensión de los procesos de formación estelar, sino que también sentará las bases para el desarrollo de metodologías efectivas de análisis de datos espectroscópicos en el estudio de galaxias.
METODOLOGÍA
Se descargó un cubo de datos mediante la plataforma Marvin-web. Se utilizó la muestra completa de datos para seleccionar una galaxia que contiene formación estelar. Se comenzó con el análisis del espectro dado que las líneas de emisión desempeñan un papel crucial en el estudio de la formación estelar en las galaxias, las cuales proporcionan información invaluable sobre los procesos físicos y químicos que ocurren en estas regiones de intensa actividad. Estas líneas, como Ha, Hb, [NII] y [OIII], ofrecen claves para entender la dinámica, la presencia de gas ionizado y la formación de nuevas estrellas, su importancia radica en el mapeo de formación estelar que permiten identificar y mapear las regiones de formación estelar activa en las galaxias.
Posteriormente, se extrajo un espectro, en el cual se analizaron las líneas de emisión de interés antes ya mencionadas. Además, se les ajustó una gaussiana, siendo esencial para extraer información cuantitativa y cualitativa de las características del gas y su relación con la formación estelar. Así mismo, se encontró la abundancia química de los objetos usando el indicador N2, el cual es un estimador de metalicidad simple basado en la relación logarítmica N2= log[NII]lamda 6584/Ha. Existe una correlación significativa entre N2 y la abundancia de oxígeno, lo que significa que a medida que aumenta uno, tiende a aumentar el otro, para poder describir esta relación, se planteó el siguiente ajuste lineal 12 + log(O/H) = -9.12± 0.05 + 0.73±0.10 * N2 (Denicoló, 2001), con base en esto se creó un histograma de Metalicidad (12 + log(O/H)) el cual representa la distribución de la abundancia de oxígeno (O/H) de nuestra muestra de datos, los picos indican un proceso común de formación estelar.
De igual forma, se generó un código en Python que nos brindara el diagrama de diagnóstico, esté se utiliza para clasificar y analizar las propiedades de las regiones de emisión en galaxias; su principal función es ayudar a entender los procesos astrofísicos que están ocurriendo en esas regiones y diferenciar entre diferentes fuentes de emisión. En el diagrama de diagnóstico se trazan dos líneas o curvas de separación que ayudan a distinguir entre las diferentes regiones de clasificación, estas curvas se basan en modelos teóricos y observaciones, las cuales son útiles para identificar las propiedades astrofísicas de una región. En esta investigación utilizamos las líneas de separación de Kaufmann (2003) y Kewley (2001).
Se procedió a obtener los identificadores MangaID correspondientes a las galaxias con formación estelar determinadas por el antes mencionado diagrama de diagnotico, de los cuales se seleccionó uno específico para un análisis más detallado. En este sentido, nuestra atención se centró en la galaxia con el Manga-ID: 1-319576 y Plate-IFU: 11954-6104.
Finalmente, se desarrolló un código que facilita la selección de una región en la imagen de Ha y su posterior ubicación en el diagrama de diagnóstico; esta estrategia se implementó con el propósito de lograr una interpretación más precisa y enriquecedora de los resultados obtenidos en el diagrama de diagnóstico. Análogamente, se realizó lo mismo para la selección en el diagrama de diagnóstico y su posterior ubicación en el mapa de flujo de Ha.
CONCLUSIONES
Dado que el tiempo de la estancia es reducido para abarcar gran cantidad de conceptos, no se pudo realizar un amplio análisis sobre la galaxia en cuestión, sin embargo, en el diagrama de diagnóstico de la galaxia seleccionada se observa una abundancia de objetos ubicados en la región correspondiente a alta formación estelar, exhibiendo que se trata de una galaxia con un alto nivel de formación estelar tal como se determinó en el previo análisis del cubo de datos. Por otro lado, en el mapa de emisión se encontró que las zonas con menos emisión están fuera de las líneas de Kauffmann y Kewley, o incluso están en la parte inferior del diagrama, dado que son zonas con menor formación estelar, por lo cual hay menos presencia de Ha.
Finalmente, se logró adquirir conocimientos que van desde los conceptos más importantes de la formación estelar hasta cómo comenzar con el análisis de los datos astronómicos, en muchas ocasiones es muy difícil acceder a este tipo de información, sin duda alguna esta investigación forjo grandes conocimientos sobre nuevas técnicas de investigación en el área de astronomía.
Muñoz Aguilar Albert Iván, Universidad Autónoma de Chiapas
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
MECANISMOS DE HIGGS
MECANISMOS DE HIGGS
Muñoz Aguilar Albert Iván, Universidad Autónoma de Chiapas. Padilla Arévalo Héctor Francisco, Universidad Autónoma de Chiapas. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La acción del mecanismo, está dado en un modelo estándar que nos permitirá explicar cómo las partículas elementales adquieren masa a través de la interacción con el campo de Higgs.
Para ello, analizaremos diferentes acciones; gravitatorias, electro-débil, fundamentales, residuales entre las relaciones de masa-energía de una partícula en relación a un espín. Ya sea, enteros o semi-enteros (En este caso, los fermiones 1/2 y/o bosones "1").
Para esto aproximaremos los resultados del mecanismo de forma teórica, basándonos en la forma experimental del Gran Colisionador de Hadrones (LHC) del CERN.
METODOLOGÍA
Ahora, dentro de este medio mes en el programa delfín tratamos de recrear de manera teórica los resultados.\
Iniciamos haciendo una aproximación de los mecanismos de higgs de manera teórica para lograr entender Cómo funciona la partícula cuándo se mantiene inestable para sí mismo lograr que dicha partícula caiga entre sus máximos y mínimos dentro de su potencial.\
para ello tomamos las ecuaciones de movimiento de una partícula clásica y la metimos dentro de un sistema clásico para ver si dicha partícula sí obedece la física clásica.\
iniciamos calculando en lagrangiano de la partícula para tener dos energías que nos permitan conocer y obtener su movimiento en este caso la energía cinética y la energía potencial, para que así al momento de resolver la energía cinética respecto al tiempo nos quede como resultado el movimiento y lograr construir una ecuación diferencial de movimiento y energía potencial. \
Ahora que ya conocemos cómo se mueve la partícula iniciaremos a calcular los estados de libertad para su masa teniendo en consideración que la ecuación nos quedó con casi 12 estados de libertad.\
Mientras se resuelva cada estado de libertad vaya siendo menos y ahora en lugar detener más estados de libertad tengamos menos para poder calcular ahora su masa.\
para terminar seguimos calculando para encontrar la trayectoria de la partícula ahora sabemos que la partícula una vez siendo graficada toma forma de un sombrero mexicano y así poder obtener resultados a partir de su gráfica teniendo en consideración sus mínimos y sus máximos y su punto crítico para que la partícula pueda estar inestable dentro su energía potencial.
CONCLUSIONES
Como conclusion la particula en las ecuaciones teoricas no responde muy bien, más bien al momento de resolver de forma clásica esto colapsa y nos da resultados que no queremos, por lo que en un sistema cuántico si funciona, por lo que debemos acudir a la física cuántica para poder resolver de manera teórica este problema.
Muro Sánchez Sebastián, Universidad Autónoma de Ciudad Juárez
Asesor:Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo
ANáLISIS DEL BOSóN DE HIGGS MEDIANTE EL CANAL DORADO DE PRODUCCIóN Y DECAIMIENTOS PESADOS
ANáLISIS DEL BOSóN DE HIGGS MEDIANTE EL CANAL DORADO DE PRODUCCIóN Y DECAIMIENTOS PESADOS
Muro Sánchez Sebastián, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
El modelo estándar en física de partículas es una teoría de campos que se encarga de describir las unidades fundamentales que constituyen nuestro universo y sus interacciones. Para el estudio de este tipo de física se realizan grandes experimentos los cuales colisionan partículas a altas energías para así estudiar los productos generados por estas y comprobar la teoría, o incluso descubrir nueva física.
Una de estas partículas fundamentales es el bosón de Higgs, el cuál tiene un tiempo de vida muy corto, por lo que es imposible detectarlo directamente con la instrumentación acutal. Sin embargo, este bosón tiene diversos canales de decaimiento en otras partículas que sí son detectables.
METODOLOGÍA
Una forma de analizar el bosón de Higgs y sus propiedades es precisamente utilizando sus decaimientos. Para esto es posible utilizar simulaciones llamadas generadores de eventos, en este caso de colisiones a altas energías, que utilizan los modelos teóricos y las propiedades aleatorias de las colisiones para utilizar técnicas monte carlo en ellas.
Los canales de decaimiento estudiados son el canal dorado de producción donde el Higgs decae a dos bosones Z y estos a un par de leptones cada uno (H → ZZ → 4l), cuando el Higgs decae a dos leptones tau (H → ττ) y el decaimiento a un par quark bottom y antibottom (H → bb^-), siendo estos últimos no tan comunmente estudiados en datos reales.
Se utilizó el generador de eventos Pythia en su versión 8.309, el cual se configuró e instaló de la manera estándar. El funcionamiento general para generar eventos es el mismo en los tres canales de decaimiento estudiados: en un archivo de código C++ se incluyen los header files correspondientes para la utilización de Pythia, se caracteriza que la colisión sea entre dos protones y se especifica la energía a la que se lleva acabo la colisión (13.6 TeV), se escribe el comando que activa la posibilidad de la generación de bosones de Higgs, se indica además el número de eventos a generar; posteriormente se realiza el ciclo principal donde se generará cada partícula de cada evento, siendo todas las partículas que son visibles en un detector de verdad guardadas en un archivo y las ya mencionadas más las que no son detectables en otro archivo. Los algoritmos para la reconstrucción del Higgs a partir de sus productos toman los datos de los archivos generados por el generador.
El algoritmo para analizar el Higgs gracias a su canal dorado de producción es el siguiente: de cada evento se seleccionan solo los leptones que cuentan con una energía mínima de 10 GeV para que puedan ser considerados como producto de un Higgs; en seguida, si la cantidad de leptones es la suficiente para que el evento efectivamente sea del canal dorado, se reconstruyen dos bosones Z con los leptones más adecuados (generalmente los más energéticos); y así finalmente se reconstruye un Higgs propuesto, gracias a un análisis estadístico y si este está fuera del rango ideal de masa, se considera que la reconstrucción fue ficticia, es decir, no hubo un decaimiento por el canal dorado en realidad.
El algoritmo para el canal con dos leptones tau es el siguiente: de manera similar al canal dorado, primero se seleccionan los tau, si es que los hay en el evento, con una energía suficiente para ser considerados; se reconstruye directamente un Higgs propuesto y gracias a un análisis estadístico y si este está fuera del rango ideal de masa, se considera que la reconstrucción fue ficticia.
El algoritmo que considera el decaimiento a un par quark bottom y antibottom está por ser finalizado.
Aplicar estos algoritmos a datos del CMS o ATLAS está por ser probado.
CONCLUSIONES
Tras correr grandes cantidades de datos se finaliza con estadística de los leptones en el canal dorado (e.g. cuál fue el más recurrente), histogramas de las masas de los bosones Z y los bosones H, histogramas de los momentos tranversos y estadística en general de la recurrencia de cada decaimiento. Destacando los decaimientos pesados los cuales son menormente explorados en la literatura.
Este verano ha sido una gran oportunidad para aprender una gran variedad de temas teóricos de la física de partículas y la física matemática y aplicarlos en un trabajo de simulación.
Nava Ramos Jesus Eduardo, Universidad Autónoma de Baja California
Asesor:Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional
SíNTESIS Y CARACTERIZACIóN DE óXIDOS DE ALTA ENTROPIA CE-LA-Y-SM-BI(CLYSBO) Y CE-LA-Y-SM(CLYSO)
SíNTESIS Y CARACTERIZACIóN DE óXIDOS DE ALTA ENTROPIA CE-LA-Y-SM-BI(CLYSBO) Y CE-LA-Y-SM(CLYSO)
Nava Ramos Jesus Eduardo, Universidad Autónoma de Baja California. Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En ciencia de materiales, se está en una constante búsqueda de nuevos materiales con mejores propiedades para diversas aplicaciones. Con los que se puedan obtener avances tecnológicos y abordar problemas emergentes.
Durante las últimas décadas surgió el concepto de materiales de alta entropía y ha tomado relevancia. Comenzó en 1995 con el desarrollo de las primeras aleaciones de alta entropía (HEA) por Yeh y Huang , pero no fue hasta 2004 con los artículos de Yeh et al. y Cantor et al. que como tal se utilizó el concepto. Posteriormente, la idea de soluciones sólidas multicomponentes estabilizadas por entropía se aplicó a otros materiales como los óxidos (HEO).
Los HEO son óxidos complejos que contienen cinco o más cationes metálicos principales y tienen una estructura cristalina monofásica, estabilizada por la entropía y temperatura.
Estos materiales han sido investigados como un material prometedor para aplicaciones en la producción y almacenamiento de energía, como material de ánodo en baterías de iones de litio, o como material dieléctrico de k grande, o en catálisis.
Actualmente la contaminación del agua es uno de los principales problemas globales. Una de las principales fuentes de contaminación son aguas residuales de la actividad humana que son vertidas en fuentes naturales sin ningún tratamiento. En estas aguas residuales suelen encontrarse diferentes químicos, entre los que se encuentran contaminantes orgánicos como colorantes, medicamentos, pesticidas y fertilizantes.
Por esto, ha sido de interés el estudio de la degradación de contaminantes orgánicos en soluciones acuosas. Se han reportado varias formas de degradarlos entre los que se encuentran los métodos de oxidación avanzada.
Uno de los métodos de oxidación avanzada es la fotocatálisis, que consiste en la excitación de electrones de la capa de valencia a la capa de conducción, generando pares de electrones-hueco. Estos pares en la superficie del material provocan que se formen especies reactivas que degradan a los contaminantes orgánicos.
En este trabajo se busca sintetizar óxidos de alta entropía mediante molienda de alta energía Y reacción de estado sólido. Así, como caracterizarlos y probar sus propiedades fotocatalíticas.
METODOLOGÍA
Se mezclaron cantidades estequiométricas de CeO2 , La2O3, Y2O3 y Sm2O3 para el caso del CLYSO; Y CeO2, La2O3, Y2O3 y Sm2O3 y Bi2O3 para el CLYSBO. Después, ambos materiales se sometieron a molienda de bolas húmeda con 10 mL de etanol, en un molino planetario a 250 rpm con una relación de masa de polvo a bolas de 1:5, variando los tiempos de molienda en 4 h, 8 h y 16 h. Posteriormente, se les dio un tratamiento térmico a 800 °C y 1100 °C por 6 h, con una rampa de 5 °C/min.
La composición química se determinó mediante espectroscopia de energía dispersiva (EDS) con un detector XFlash 6/10 de la marca BRUKER. El estudio se realizó en un área de 120 micras x 85 micras con un aumento de 1000x, a una distancia de trabajo de 13.5 mm y un voltaje de 20 kV.
La determinación de la estructura cristalina se realizó mediante difracción de rayos X (XRD), los difractogramas se tomaran en un rango de 2θ de 20 - 60°, usando una radiación Cu kα, k=1.54060 Å. Se realizó un refinamiento de Rietveld utilizando el software Highscore Plus y se calculó la cantidad presente de cada fase.
El Band gap se calculó utilizando la función de Kubelka-Munk a partir de la reflectancia difusa de los polvos, la cual fue medida con un espectrofotómetro Agilent Cary.
Se utilizó Rodamina B como colorante modelo para medir la actividad fotocatalítica. La fotodegradación se llevó a cabo bajo irradiación de luz con una lámpara de Xenón de 6000 K.
Se preparó una solución acuosa de 250 ml de azul de Rodamina B con una concentración de 10 ppm y se añadieron 250 mg del fotocatalizador. La solución se mantuvo con agitación constante. Se dejó 60 minutos en oscuro, después se inició la reacción fotocatalítica y cada 30 minutos se extrajo 1 mL de solución, hasta completar 4 h. Posteriormente, las muestras se centrifugaron a 5000 rev/min por 5 min para precipitar el catalizador, luego se tomaron 250 μL y se midió la absorbancia usando un espectrofotómetro en un rango de 300 a 700 nm.
CONCLUSIONES
Los resultados de EDS muestran la siguiente composición química para los materiales sin bismuto, CLYSO, en porcentajes atómicos sin considerar el oxígeno: 32.12% ± 1.72% de Itrio (Y), 17.10% ± 0.11% de Lantano (La), 30.43% ± 1.28% de Cerio (Ce) y 20.48% ± 0.44% de Samario (Sm). En el caso de los materiales con bismuto, CLYSBO, es la siguiente 22.00% ± 0.91% de Itrio, 11.93% ± 0.30% de Lantano, 23.69% ± 0.96% de Cerio, 15.47% ± 0.10% de Samario, 27.18% ± 0.57% de Bismuto.
De la difracción de rayos X se obtuvo que el material más cercano a ser de una sola fase es el CLYSBO con molienda de 16 h y un tratamiento térmico de 1100 °C. Su difractograma muestra la presencia de tres fases. La primera corresponde a una estructura FCC con grupo espacial Fm3m compuesta por un óxido con todos los elementos presentes Ce-La-Y-Sm-Bi, con 75 %. La segunda fase tiene la misma estructura cristalina y grupo espacial pero está conformada por óxido de bismuto, cerio y lantano, con 20 %. La tercera y última fase también es cúbica con un grupo espacial Ia-3 que es de óxido de itrio, con un 5%. Los demás materiales muestran la presencia de más fases entre 4 y 5, dependiendo de las condiciones de síntesis. Al comparar este material descrito y el que no tiene bismuto, con los mismos parámetros de síntesis, también se observan diferencias importantes. Al tener cinco cationes diferentes y con esto una mayor entropía, se estabiliza mejor el compuesto.
En las pruebas de actividad fotocatalítica los materiales con mejores resultados son los óxidos con bismuto con tratamiento térmico de 800°C. CLYSBO con 4 h de molienda y tratamiento a 800°C, llegó a una degradación de rodamina B del 70%. Mientras que con CLYSBO con 8 h de molienda y tratamiento a 800°C se obtuvo una degradación del 64%.
Navarro Delgadillo Diego, Universidad de Guadalajara
Asesor:Dra. Mariana Elvira Callejas Jimenez, Consejo Quintanarroense de Ciencia y Tecnología
CAMBIO Y AFECTACIóN EN EL USO DE SUELOS ASOCIADO AL TREN MAYA EN TRAMO 6 Y 7
CAMBIO Y AFECTACIóN EN EL USO DE SUELOS ASOCIADO AL TREN MAYA EN TRAMO 6 Y 7
Cebreros Verdin Angel Gerardo, Universidad de Guadalajara. Navarro Delgadillo Diego, Universidad de Guadalajara. Asesor: Dra. Mariana Elvira Callejas Jimenez, Consejo Quintanarroense de Ciencia y Tecnología
PLANTEAMIENTO DEL PROBLEMA
El cambio y afectación del uso de suelos es un tema de importancia mundial, actualmente en México existen grandes extensiones de territorio nacional que se ven envueltos en un cambio drástico debido a la construcción de nueva infraestructura para la movilidad del sureste del país, lo que provoca un proceso de afectación en los ecosistemas de dicha región, cada vez es más común en la construcción de obras tramitar el cambio del uso de suelo debido al antecedente establecido. El cambio de uso de suelo es la transformación de la cubierta vegetal existente con el fin de dar paso a otros usos o degradar la calidad de la vegetación asiendo modificaciones como densidad y composición. (1).
La construcción del tren maya abarca aproximadamente 1460 km del territorio sur, con presencia en Chiapas, Tabasco, Yucatán y Quintana Roo (2). Ante la enorme cantidad de extensión territorial el presente trabajo se centró en dos tramos el 6 y 7, con el fin de inferir el impacto en la región.
Tomando en cuenta lo antes mencionado formulamos la siguiente pregunta de investigación:
¿Existen cambios en el uso de suelo por la construcción del tren maya en los tramos 6 y 7?
METODOLOGÍA
Para comprender mejor el impacto del tren maya, es importante conocer el nivel de deforestación que se produjo años atrás y qué factor la provoca. Hoy en día, demasiados factores naturales o humanos han influido en la pérdida de la selva.
Con la ayuda de CONAFOR, se encontró que los desarrolladores urbanos y turísticos han afectado seriamente la mayor parte de la vegetación forestal a lo largo de la costa Caribe[MCJ1] .(3) En el estado de Quintana Roo, el número de cuartos de alojamiento aumentó de 269 cuartos en 2000 (38,206 cuartos) a 2018 (102,890 cuartos)[MCJ2] .(3) La infraestructura turística que acompañó esta expansión apareció principalmente en áreas cubiertas por selvas y manglares.[MCJ3] [MCJ4] Cada año se pierden 1.882 hectáreas de vegetación forestal en las áreas de crecimiento de la infraestructura turística, lo que destruye uno de los factores importantes para la vida, la salud y el bienestar de los habitantes de la región (3). En 24 años, la comunidad de Bacalar ha perdido 75,263 hectáreas de bosque, lo que representa una deforestación anual de 0.7. % pérdida promedio anual de cobertura forestal 3136 hectáreas. (4)
En este sentido, es muy importante conocer el efecto que provoca el tren maya y los impactos que puede causar en la región.
También se han visto noticias o videos en redes sociales sobre protestas que los municipios o comunidades indígenas han organizado para detener la construcción del tren maya porque les afecta mucho, así lo dice el diario (PAÍS UE: MÉXICO). Los afectados califican la construcción como "ecocidio", que ha provocado la deforestación de miles de hectáreas, la pérdida de cenotes y aguas subterráneas, y el desplazamiento de biodiversidad y comunidades. Integrantes de las comunidades de Bacalar, Calakmul, Puerto Morelos y Carrillo Puerto advirtieron sobre daños ambientales que afectan a más de 100 comunidades indígenas, incluyendo daños al agua, flora y fauna. Si no tenemos tierra, ¿cómo vamos a vivir? Trabajamos la tierra. Que nos ayuden a protegerlo, no a dañarlo, dijo Nicolás Moreno del Consejo Indígena de Calakmul. Como ya se mencionó, gran parte del tren pasa por tierras ejidales y allí cultivan, en su mayoría su única fuente de ingresos y temen perder sus tierras. (6)
Para la ejecución del presente trabajo, se realizó búsqueda, análisis y revisión de artículos científicos, con la finalidad de familiarizarse con el tema de la investigación. Además, se obtuvo capacitación en fundamentos de percepción remota, uso y manejo de Q-GIS.
Se realizó trabajo de campo con la finalidad recabar información relevante para la ejecución del proyecto, relacionado a levantamiento y georreferenciación de puntos relevantes de vegetación y cultivos, así como aplicación de encuestas en el municipio de Bacalar Quintana Roo, en las localidades de Nicolas Bravo, Maya Balam, Manuel Ávila Camacho, Kuchumatan, Lázaro Cárdenas, Reforma, Ucum.
Se analizaron imágenes satelitales para identificar los principales tipos de vegetación tanto natural (selva, tular, manglar, etc.), así como los diferentes cultivos presentes en el área de estudio.
CONCLUSIONES
Conclusión
Durante la estancia de investigación se pudo recabar información sobre los cambios de uso de suelo, la deforestación y los factores que la provocaban sin tomar en cuenta la construcción del tren maya. Con la cual se plantea la posibilidad de las obras del tren maya pueden provocar desequilibrios en el medio ambiente, poniendo en peligro rápidamente los recursos naturales de suma importancia, de la misma manera se puede inferir la presión por recursos como agua y el suelo, con modificaciones de terrenos de selva hacia la agricultura del municipio, para saber sus ventajas o desventajas generadas a las comunidades y su influencia en la economía local.
Navarro Lopez Iveth Rocio, Universidad de Sonora
Asesor:Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla
DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE ADQUISICIóN DE DATOS PARA LA CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS DE CENTELLEO CON TUBO FOTOMULTIPLICADOR.
DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE ADQUISICIóN DE DATOS PARA LA CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS DE CENTELLEO CON TUBO FOTOMULTIPLICADOR.
Díaz Gutiérrez Luis Carlos, Universidad de Sonora. Garcia Gutierrez Alejandro Ivan, Benemérita Universidad Autónoma de Puebla. Medina Ferrer Gustavo Alberto, Universidad de Sonora. Navarro Lopez Iveth Rocio, Universidad de Sonora. Pérez Morán Federico Santiago, Universidad de Guadalajara. Asesor: Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los distintos experimentos y búsqueda de fenómenos exóticos relacionados con la física de altas energías requieren de instrumentos que cuenten con una alta precisión en la toma de datos.
Por ello el diseño y desarrollo de detectores de partículas cada vez más precisos es importante pues debe de haber una mejora en los mecanismos de detección además de la optimización en la toma de señales para que estas sean procesadas, discriminadas y tratadas, con el fin de evitar perdida de información y cuellos de botella.
Debido a esto, en este trabajo se analizará la arquitectura de dos chips (NINO y HPTDC) diseñados para su uso especifico en física de altas energías, donde es fundamental, alta frecuencia de detección, gran precisión en la resolución temporal y una alta cantidad de densidad de canales para la medición de la carga depositada en sensores de plástico centellador y de placas resistivas
METODOLOGÍA
En primera instancia se preparó un sistema básico de trigger, el cual sirve para la detección de un evento/ partícula incidente en un arreglo de tres o más detectores, dos de los cuales fungen como trigger; el evento se confirma al registrarse de forma simultánea por este arreglo.
Los detectores de disparo (trigger) se caracterizan y se determina el voltaje de alimentación para el cual el par registra un número similar de señales. Para esto se realizó una sincronización sobre un par detectores de plástico centelleador y tubos fotomultiplicadores de dimensiones 9.7 9.7 3.4 cm. Se aplicó para cada detector una variación del voltaje de alimentación en un intervalo de 1 a 1.7 kV con pasos de 0.5 kV, para cada valor se llevó a cabo el conteo de eventos/señales registradas para cada detector, el conteo se realizó utilizando la patente de la contadora de eventos para pruebas rápidas de parte de la Benemérita Universidad Autónoma de Puebla. Para cada valor de voltaje se realizaron tres mediciones de 1 minuto de duración, con un voltaje de discriminación de 15 mV. Se determinaron los voltajes para el cual se presenta una diferencia de conteos menor al 10% entre los detectores.
Posteriormente, se usó un arreglo experimental en el cual el sistema de trigger se localizó por encima y por debajo del detector a caracterizar (L1), de forma que la proyección de su área transversal coincida para ambos detectores del sistema. Se aplicó una variación del voltaje de alimentación únicamente para L1 (en este caso se da una alimentación con un voltaje negativo) en un intervalo de 0.9 a 1.45 kV con pasos de 0.5 kV, para el trigger se da el voltaje de alimentación previamente obtenido. Se realizó igualmente el registro del número de eventos para cada valor de voltaje con la contadora, se efectuaron 3 mediciones de 4 minutos cada una; se registraron los eventos para L1, los del trigger y las coincidencias entre los tres. Se determinó la eficiencia del detector L1 y se escogió el voltaje de alimentación óptimo para este mismo.
En un posterior arreglo se da lugar a la digitalización de la señal obtenida de L1. Se usa el sistema anterior compuesto por el detector y el trigger. La señal de salida de L1 es procesada por la tarjeta NINO 2468 del experimento ALICE, que devuelve un pulso cuadrado cuyo ancho se ve relacionado con la amplitud de la señal de entrada y a su vez con la carga de la partícula incidente. Posteriormente, este pulso es direccionado a otra tarjeta que realiza una conversión de señal LVDS (low voltage differential signal) a salida TTL, posteriormente esta señal es recibida por un módulo traductor CAEN para la conversión a NIM, con el objetivo de conectar la señal a un TDC (time to digital converter) para la digitalización y obtención de los flancos de subida y bajada del pulso cuadrado, realizar el cálculo de su ancho en el eje temporal y así conocer la amplitud de la señal del detector. La precisión de la medición de los flacos de subida y bajada de estas señales es de 25 ps.
La señal de ambos detectores del trigger es direccionada a un módulo discriminador, posteriormente a un módulo de coincidencias que devuelve una única señal TTL. Después, se utiliza el mismo módulo traductor a NIM para finalmente llegar al TDC para poder efectuar la obtención del tiempo de la señal. El trigger en el TDC realiza la confirmación de un evento de L1 por medio de un método de medición que consiste en la aplicación de una ventana de tiempo de búsqueda previamente definida, donde a los pulsos registrados dentro de dicha ventana se les toma el tiempo del flanco de subida y de bajada.
Finalmente, se realizó un código para la lectura de los datos recabados y el posterior cálculo de los anchos de las señales obtenidas y así conocer la resolución temporal del detector.
CONCLUSIONES
Durante la estancia se hizo uso de instrumentos que son comunes para hacer pruebas con los distintos detectores esto con el fin de comprobar su correcto funcionamiento, adquiriendo conocimiento de cómo usar estos instrumentos, igualmente se aprendió a utilizar un software con el que se obtienen datos, además al recoger estos datos se llevó a cabo un análisis de estos, buscando la resolución temporal, tiempo de llegada de señales respecto al trigger, la estadística de veces que cierta resolución llego y la medición de la carga de cada evento detectado. Sin embargo, los últimos datos aún se encuentran en proceso de ser analizados, pero se espera que estos datos nos indiquen un funcionamiento correcto y bastante preciso de los detectores caracterizados.
Novela Codina Jorge Alejandro, Universidad de Guadalajara
Asesor:Dr. Joan Manuel Redondo Ortegón, Universidad Católica de Colombia
GESTIóN SISTéMICA DE RECURSOS HíDRICOS ESCASOS EN ENTORNOS URBANOS
GESTIóN SISTéMICA DE RECURSOS HíDRICOS ESCASOS EN ENTORNOS URBANOS
Novela Codina Jorge Alejandro, Universidad de Guadalajara. Asesor: Dr. Joan Manuel Redondo Ortegón, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
La investigación se centra en la escasez de recursos hídricos en Ciudad Guzmán, Jalisco, y su impacto en la agricultura, especialmente en los cultivos de aguacate y berries. Dado que la zona depende económicamente de la agricultura, la disponibilidad de agua para el riego se vuelve crítica. El problema radica en que la región enfrenta una disminución de las precipitaciones debido al cambio climático, lo que ha llevado a un aumento en los períodos de sequía y, por consiguiente, a la sobreexplotación de los mantos acuíferos para cubrir las necesidades de riego. Esta sobreextracción del acuífero no solo genera un estrés hídrico actual, sino que también plantea una preocupación para el futuro, ya que las reservas de agua subterránea se están agotando más rápido de lo que pueden recargarse naturalmente.
METODOLOGÍA
Para satisfacer el propósito de la investigación y obtener los resultados presentados, se llevó a cabo una metodología integral y rigurosa basada en un análisis científico. La metodología consistió en varias etapas clave: En primer lugar, se recopilaron datos de hidrología superficial y subterránea para realizar un análisis detallado de la zona de estudio, Ciudad Guzmán, Jalisco. Esto permitió comprender la disponibilidad y el comportamiento del recurso hídrico en la región, identificando las principales fuentes de agua y las variables que afectan su disponibilidad. Posteriormente, se desarrolló un modelo mental del sistema hídrico que representó las interconexiones entre los distintos elementos que conforman el ciclo del agua en la región. Esta aproximación sistémica permitió una comprensión profunda de la complejidad del funcionamiento del recurso hídrico y cómo diferentes factores interactúan entre sí. El siguiente paso fue la elaboración de un modelo de producción de aguacate y berries, que incluyó variables relacionadas con el área de cultivo, producción, flujo de caja y cambios de uso de la tierra. Este modelo permitió evaluar la relación entre la producción agrícola y su impacto en el recurso hídrico, proporcionando información valiosa sobre la dependencia del agua en la actividad agrícola. Para representar de manera más detallada el comportamiento de las variables y sus relaciones, se utilizó la herramienta de simulación Vensim. Los resultados se obtuvieron mediante la evaluación minuciosa de los datos recopilados, el análisis de las interacciones identificadas en el modelo mental, así como la simulación de escenarios utilizando Vensim. Por último, se realizo un sitio web que muestra de manera grafica todos los resultados obtenidos, el cual el usuario puede interactuar entres si para ver las simulaciones del sistema. Toda la información obtenida se registró en un formato látex para una mejor comprensión al lector.
CONCLUSIONES
En conclusión, la metodología empleada combinó el análisis de datos, la creación de modelos mentales, diagramas causales y simulaciones con Vensim, lo que permitió un enfoque profundo y holístico en la gestión de recursos hídricos escasos en entornos urbanos. Los resultados obtenidos ofrecen una base sólida para proponer estrategias de gestión sostenible y eficiente del agua en la región de Ciudad Guzmán, Jalisco, contribuyendo así a abordar los desafíos de la escasez de recursos hídricos en el contexto del cambio climático y la dependencia agrícola
Nuñez Peralta Yareli, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Nazario Bautista Elivar, Instituto Tecnológico de Pachuca
SECADO DE CERáMICA UTILIZANDO ENERGíA RENOVABLE (SOLAR)
SECADO DE CERáMICA UTILIZANDO ENERGíA RENOVABLE (SOLAR)
Medina Lozano Ángela Monserrat, Benemérita Universidad Autónoma de Puebla. Nuñez Peralta Yareli, Benemérita Universidad Autónoma de Puebla. Ramos Martínez Axel Shalom, Universidad Autónoma del Estado de México. Asesor: Dr. Nazario Bautista Elivar, Instituto Tecnológico de Pachuca
PLANTEAMIENTO DEL PROBLEMA
El proceso de secado de cerámicos es de vital importancia para la obtención de productos de calidad, sin embargo los tiempos de secado pueden llegar a ser muy tardados, provocando problemas en la producción, así mismo si el secado no es lo suficientemente lento existe peligro de la pérdida de piezas, pues si la velocidad de evaporación del agua no es adecuada pueden formarse grietas en los productos. En ambos casos existe la necesidad de controlar el ambiente para tener condiciones ideales que permitan que la fase se lleve a cabo correctamente. Actualmente, se realiza este proceso en condiciones ambientales, dando una duración de aproximadamente veinte días, sin embargo se busca acelerar la producción al tiempo que se cuida la calidad en cada pieza creando condiciones controladas de secado con los requerimientos energéticos mínimos posibles.
METODOLOGÍA
En México, los sistemas colectores de calor han sido de gran consideración para capturar la radiación solar y pasarla a energía térmica. Su avance y desarrollo dependerá de distintos factores como la disponibilidad total de la tecnología.
El sol es la principal fuente de energía para todos los procesos naturales que tienen lugar en el planeta, sin embargo para procesos industriales y comerciales es usado como una fuente de energía renovable, limpia, abundante y gratuita.
Para aprovechar la radiación solar, se emplean colectores solares térmicos para captar y transferir el calor a un fluido, como agua o aire. Este calor se utiliza directamente en el proceso de secado, por lo que es un punto a tomar en consideración para poder reducir el tiempo de secado de cerámicos. El secado de cerámicos con energía solar ofrece varios beneficios, como reducir los costos de energía al aprovechar una fuente renovable y gratuita, disminuye la dependencia de combustibles fósiles y reduce las emisiones de gases de efecto invernadero.
Un prototipo de un sistema de captación de radiación solar ya estaba en marcha en el Departamento de Ingeniería Eléctrica y Electrónica del Instituto Tecnológico de Pachuca que se utilizará para el secado con muestras de piezas cerámicas de la empresa ANFORA, por lo que nuestra aportación fue de mejora y refinamiento del sistema actual.
Este prototipo cuenta con tres partes principales: un colector de aire caliente, un calentador solar y una cabina de secado, se pretende que el sistema trabaje constantemente, aproximadamente 6 horas en el día y con la energía acumulada, otro par de horas durante la noche.
El colector solar se encarga recolectar y calentar el aire durante el día, el sistema es semi cerrado, contando con ventanas de acrílico que a su vez cuentan con lentes de fresnel para aumentar la temperatura del aire en el mismo, la cuál por medio de mangueras especiales se distribuye a la cabina de secado, esta sección del sistema se encuentra equipada con sistemas de control que miden la temperatura del aire constantemente para no rebasar las condiciones ideales que se buscan. El calentador solar contendrá un líquido que irradiará calor en la cabina de secado; este líquido se distribuirá por medio de tubos y un radiador, haciendo que el líquido frío pueda regresar al calentador por medio de un sistema de control. Finalmente la cabina cuenta con un diseño cilíndrico horizontal, esto con el objetivo de que tanto el calor irradiado como el aire que entra tenga un comportamiento envolvente, mientras las piezas se encuentran justamente en medio sobre una plataforma de metal con hoyos distribuidos por toda la superficie para hacer la circulación del calor más uniforme.
Durante la estancia se desarrollaron actividades como el mejoramiento de la extracción de calor en el colector solar y la instalación de un sistema de control usando Arduino para la cabina de secado, donde se pretendía que el líquido frío del radiador fuera extraído y regresado hacia el calentador solar cuando alcanza cierto nivel, se utilizaron sensores, un relé, una bomba de agua de 12V, etc. El sensor ultrasónico tenía el siguiente principio: el sensor emite una onda ultrasónica que se propaga a través del agua hasta que alcanza la superficie. La onda ultrasónica se refleja en la superficie del líquido y vuelve al sensor. El tiempo que tarda la onda ultrasónica en viajar desde el sensor a la superficie del líquido y volver al sensor se utiliza para calcular la distancia entre el sensor y la superficie del agua, presentamos algunas dificultades para programar e instalar este sistema en donde reforzamos nuestros conocimientos de electrónica y coding, fue una buena tarea en la que nosotros aplicamos lo aprendido y aportamos al proyecto.
Además, nos encargamos de conectar los tres elementos del sistema a través de tubos y cables, colocamos la placa de metal e hicimos algunas pruebas de funcionamiento con respecto al movimiento del fluido del calentador solar a la cabina de secado.
CONCLUSIONES
Durante la estancia de verano se obtuvieron conocimientos sobre las aplicaciones de las energías renovables en el secado de cerámicos, así como, aprendizajes teóricos sobre propiedades y la importancia del secado en el proceso. Además de conocimientos prácticos para completar el prototipo ya establecido. Podemos decir que fue posible aplicar y reforzar diversos conocimientos del área del estudio de la carrera en cuestión,que permitieron contribuir con el proyecto, se espera que el prototipo en funcionamiento reduzca al menos el 40% del tiempo de secado en condiciones ambientales, finalmente, este proyecto se alinea con el ODS7 de desarrollo sostenible y energía asequible, debido a su contribución al uso de energías renovables.
Nuñez Tenorio Ricardo Arturo, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Luz Adriana Cordero Cid, Benemérita Universidad Autónoma de Puebla
ANáLISIS DE LA FENOMENOLOGíA DEL SECTOR ESCALAR DEL MODELO CXSM.
ANáLISIS DE LA FENOMENOLOGíA DEL SECTOR ESCALAR DEL MODELO CXSM.
Nuñez Tenorio Ricardo Arturo, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Luz Adriana Cordero Cid, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El modelo cxSM considera la extensión del modelo estándar con un singlete escalar complejo lo que nos permite estudiar nueva física en el sector escalar. En este caso consideramos que los nuevos campos escalares que se introducen al modelo, pueden estudiarse considerando la producción de dichos campos en decaimientos del bosón de Higgs a los nuevos escalares.
METODOLOGÍA
El trabajo se inició estudiando el Modelo Estándar (SM), que es una teoría basada en el grupo de norma SU(3)xSU(2)xU(1) . Dicha teoría describe las interacciones fuerte, débil y electromagnética entre las partículas elementales como los fermiones, así como con partículas mediadoras de las interacciones como los bosones de norma y el bosón de Higgs. Por tanto, el SM es una teoría totalmente comprobada que sirve de base para el estudio de nueva física que se puede ver en modelos extendidos.
Existen modelos en los cuales se extiende el sector escalar, teniendo así un espectro de partículas más amplio e indicios de nueva física relacionada con los nuevos escalares que se incluyen en el modelo. Uno de estos modelos corresponde al modelo cxSM, en el cual se introduce un singlete escalar complejo. En este caso se introducen nuevos campos escalares al modelo, denotados como S y A. Para este modelo cxSM se utilizan los doblete y singlete:
Φ=(G+, (v+H+iG0)/ √2)T
S=(vS+S+i(vA+A)) √2
donde H, S y A son los campos escalares reales, G+ y G0 y son los bosones de Goldstone de los bosones y Z y W± . Por otra parte, v, vA y vS son los valores de expectación en el vacío correspondientes a los campos. Este modelo se analizó considerando vA=0, G+=0, G0=0 y vS =0. Además, dado que solo estudiamos acoplamientos entre campos escalares, el análisis llevado a cabo es sobre el siguiente potencial:
V=m2/2 (Φ†Φ)+λ/4 (Φ†Φ)2+δ2/2 Φ†Φ|S|2+b2/2 |S|2+d2/4 |S|4+(b1/4 S2+.c.c.)
donde m, λ, δ2, b2, d2, b1 son los parámetros del modelo. Por otra parte, se identifico en el potencial los coeficientes que acompañan a los campos escalares HH, SS y SS:
[HH]: m2/4+3v2λ/8+δ2(vS2+vA2)/8
[HS]: δ2vvS/2
[SS]: δ2v2/8+(b1+b2)/4+d2vS2/8
De estos coeficientes se construye la matriz de masa donde los términos [HH] y [SS] están en la diagonal, y en las entradas restantes está la mitad del término [HS].
Por otra parte, como H y S son campos matemáticos, los campos físicos se obtienen al hacer una rotación (Rα) dada por el parámetro α. De tal forma que el campo matemático y el campo físico se relacionan de la siguiente manera:
(h1, h2)T=Rα(H, S)T
donde h1 lo consideramos como el escalar de higgs, y h2 es el el campo escalar que introducimos. En este trabajo, estudiamos el sector escalar el modelo cxSM, enfocándonos al análisis de la nueva física que surge de los acoplamientos entre el bosón de Higgs y los nuevos escalares que se introducen al modelo.
[hhh]: iChhh
[hhhh]: iChhhh
Los acoplamientos que estudiamos corresponden a:
[h1h2h2]: iCh1h2h2
[h1AA]: iCh1AA
Particularmente estudiamos indicios de nueva física, analizando los decaimientos del bosón de Higgs a los nuevos escalares del modelo. La expresión general para la anchura de decaimiento de los decaimientos estudiados es:
Γ(h1→hh)=1/(16π)√(M2-4mh2)/M2 |Ch1hh|2
donde M es la masa del campo escalar de Higgs y mh es la masa de los campos escalares en el que decae.
CONCLUSIONES
Durante el desarrollo de la estancia, se estudió el Modelo Estándar haciendo énfasis en los decaimientos y en el sector escalar. Además, se trabajó con la extensión cxSM del sector escalar por medio de un singlete y un doblete escalar complejo. Utilizando los valores propuestos para este trabajo, se llegaron a las anchuras de decaimiento.
Ocaña Miranda Elva Nayeli, Universidad de Sonora
Asesor:Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla
SEGUIMIENTO FOTOGRAMéTRICO (SATELITAL Y FIJO) DE LAS EXHALACIONES DEL VOLCáN POPOCATéPET Y SU POSIBLE EFECTO EN EL CAMBIO CLIMáTICO DEL ESTADO DE PUEBLA.
SEGUIMIENTO FOTOGRAMéTRICO (SATELITAL Y FIJO) DE LAS EXHALACIONES DEL VOLCáN POPOCATéPET Y SU POSIBLE EFECTO EN EL CAMBIO CLIMáTICO DEL ESTADO DE PUEBLA.
Ocaña Miranda Elva Nayeli, Universidad de Sonora. Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El reciente incremento de la actividad volcánica por parte del volcán Popocatépetl puede traer consigo afectaciones al medio debido a los gases que emana. En este trabajo, se trata la preocupación de que estos gases, en especial el dióxido de carbono y el dióxido de azufre, deriven el efecto de cambio climático en los microclimas del estado de Puebla.
METODOLOGÍA
Se realizó una investigación de cada uno de los contaminantes atmosféricos más importantes que exhalan los volcanes y cómo estos afectan tanto a los seres vivos como al medio en el que habitamos. En base a imágenes satelitales por parte de la NASA de las exhalaciones de dióxido de azufre por parte del volcán Popocatépetl en el periodo "septiembre 2022-11 julio 2023", se realizó un registro de datos diarios y se trabajaron con el fin de analizar la actual actividad del volcán y ver sus posibles afectaciones en los microclimas de Puebla. Con respecto a los diferentes climas que existen en el estado de Puebla, se realizó una breve investigación y resumen de las generalidades de estos para finalmente, interpretar resultados en base a toda la información recabada.
CONCLUSIONES
Los gases volcánicos emitidos por el Popocatépetl además de afectar a la salud de los seres vivos, su alimento, vegetación y cuerpos de agua, pueden llegar a influir en el cambio climático de los microclimas del estado de puebla por parte del CO2, o pueden llegar a enfriar la atmósfera por parte del SO2, al encontrarse estos en grandes cantidades, ser emitidos de forma recurrente y considerando los vientos de temporada, los vientos extremos o inclusive la ausencia de estos dando un incremento de su concentración. De acuerdo con la actividad volcánica reciente del periodo de septiembre de 2022 hasta el 11 de julio de 2023, se ha detectado un incremento de emisiones constantes a partir del mes de enero hasta la fecha mencionada, lo que podría influir en las modificaciones de algunos microclimas del Estado de Puebla.
Ocaña Miranda Jenifer Alondra, Universidad de Sonora
Asesor:Dra. Georgina Beltrán Pérez, Benemérita Universidad Autónoma de Puebla
SENSORES Y BIOSENSORES BASADOS EN FIBRAS óPTICAS
SENSORES Y BIOSENSORES BASADOS EN FIBRAS óPTICAS
Fuentes Cortes Uriel, Benemérita Universidad Autónoma de Puebla. Ocaña Miranda Jenifer Alondra, Universidad de Sonora. Tellechea Cañez Luis Ángel, Universidad de Sonora. Asesor: Dra. Georgina Beltrán Pérez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Un biosensor es un dispositivo que se utiliza para convertir reacciones biológicas en señales medibles. Estos constan de tres componentes: un elemento biológico que realiza el reconocimiento, este genera un cambio particular que el elemento transductor convierte en una señal fácilmente medible y por último el elemento de salida.
El principio de un biosensor óptico es la interacción de la onda evanescente con el anticuerpo. La modificación del índice de refracción circundante modifica el coeficiente de extinción de la onda evanescente, lo que genera cambios en la energía lumínica que transmite la fibra, dichas pérdidas pueden relacionarse con la diferente cantidad de proteína detectada. Los biosensores que utilizan como elemento de reconocimiento biológico anticuerpos o proteínas, tienen alta afinidad y especificidad para detectar analitos de interés.
Por otra parte, la interleucina 10 (IL-10) es una proteína que actúa como molécula mensajera, esta se produce en células del sistema inmune y en otras células del organismo. La IL-10 es la citocina de mayor poder antiinflamatorio y se ve involucrada en el proceso de isquemia cerebral.
En el proyecto se busca detectar la presencia de interleucina 10 en plasma sanguíneo de modelo murino a través de biosensores de fibra óptica con el fin de buscar una alternativa en el futuro donde se pueda determinar la concentración de la proteína para construir dispositivos poco invasivos que permitan hacer diagnóstico.
METODOLOGÍA
En la construcción de biosensores se utilizó fibra monomodo SMF-28. Se realizó el corte de las fibras con una longitud de 80 cm, haciendo un devastado de 5 cm en el centro de la fibra retirando la cubierta polimérica.
Para llevar a cabo el grabado de las fibras por medio de dos electrodos operando un arco eléctrico de 85mW. Se realizó el grabado de 40 puntos con una periodicidad de 550 μm y una separación de 1cm.
Para analizar los espectros ópticos se utilizó una OSA 9057 F/8 con un diodo láser CLD1015 como fuente de luz. Se caracterizo la fibra sin puntos y grabada, esta se efectuó en el rango de longitudes de onda entre 1375 y 1575 nm.
La siguiente etapa es la hidroxilación, se preparó 15 ml de disolución de KOH a 999.306M en 15 ml de una solución 1:1 metanol-agua desionizada.
Se colocaron 10 fibras ópticas con 2RPL sumergidas en solución en pozos en una placa de teflón y se dejaron reposar por 3.5h. Después, las fibras se enjuagan con metanol y se secaron durante un minuto usando gas nitrógeno.
Se caracterizo el espectro de la fibra en condiciones de agitación de 200 rpm.
En la etapa de la funcionalización se depositaron las fibras en placa de teflón y se realizó una adición de solución de APTMS al 2% disuelta en tolueno, la fibra hidroxilada se dejó reposar por 1.5 h. Se procedió a enjuagar en tolueno. Durante este proceso, el APTMS se inmovilizó Si-O-Si, Si-Si y Si-O-H. Como consecuencia, se formaron los sitios NH-activos.
En la etapa de activación se utilizaron 200 µl de una solución compuesta por 5mg de NHS y 5mg de EDC disueltos en 2ml de PBS, se sumergió la fibra durante 90 min en agitación a 200rpm. Posteriormente se enjuagó la fibra con PBS y se midió el especto durante 15 min cada 5 min.
En la etapa de inmovilización a cada fibra se agregaron 200 µl del anticuerpo anti-interleucina 10, bajo las mismas condiciones de agitación. Una vez agregado el anticuerpo la interacción es de 2h, realizando mediciones del espectro de transmisión cada 5 min.
Respecto a la inducción del modelo murino a la enfermedad cerebrovascular isquémica global, este proceso se realizó en el Centro de Investigación en Reproducción Animal de la Universidad Autónoma de Tlaxcala. Una vez presentado los síntomas de isquemia los animales se sacrificaron a 2h y 24h por decapitación e inmediatamente se obtienen las muestras de plasma sanguíneo. Cada muestra se centrifugo a 3000 rpm por 15 min para obtener el suero sanguíneo y se almaceno a -20 °C.
En la etapa de la detección, se depositaron 200μm de las muestras de suero sanguíneo, para el primer biosensor se utilizó el plasma a 2h, para el segundo 24h y en el último se ocupó la proteína Interleucina 10 estándar. Cada biosensor se caracterizó mediante transmisión durante dos horas cada 5 min.
CONCLUSIONES
A lo largo de nuestra estancia de verano se adquirieron conocimientos teóricos sobre guías de luz y programación en Python para tratamiento de datos, así como practica en la manipulación de fibras ópticas y en la elaboración de interferómetro de Mach-Zehnder utilizando 2 rejillas de periodo largo con periodo de 550 μm en fibra óptica como parte de la elaboración de biosensores. Mediante la variación en la transmisión de dichos biosensores en función de la exposición de la zona sensible al medio se busca determinar la presencia de interleucina 10, proteína involucrada en el proceso de isquemia cerebral.
Los datos de potencia de transmisión de las fibras ópticas obtenidos en cada una de las 4 etapas (funcionalización, activación, inmovilización y detección) son normalizados, graficados y sometidos a análisis de componentes principales cuya primera componente resulto con un porcentaje de varianza de 90.42%, la segunda componente es de 7.92% y la tercera de 0.97% en pruebas de detección de plasma de 24 horas sin tratamiento. Mediante el análisis de componentes principales se pudo observar tendencias y zonas que nos permiten discriminar entre las diferentes etapas. Los datos de inmovilización se encuentran en el segundo y tercer cuadrante, y las de detección en el segundo cuadrante. Ambas mediciones presentan una tendencia definida. Para la detección en el plasma de 24 horas sin tratamiento la tendencia se contiene en una elipse y la inmovilización presenta una tendencia lineal. Comparando con los resultados de detección del estándar, el análisis nos proporciona información para determinar o no la presencia de interleucina 10.
Ocaña Santillán Ericka Melissa, Instituto Tecnológico de Pachuca
Asesor:Dr. Joan Manuel Redondo Ortegón, Universidad Católica de Colombia
GESTIóN SISTéMICA DE LOS DRENAJES URBANOS
GESTIóN SISTéMICA DE LOS DRENAJES URBANOS
Ocaña Santillán Ericka Melissa, Instituto Tecnológico de Pachuca. Asesor: Dr. Joan Manuel Redondo Ortegón, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
El tema de las inundaciones en Pachuca, es una gestión que se ha llevado durante años buscando una mejora en la recaudación del agua y lograr una autonomía financiera, por su conformación de plato roto, el río que almacena toda la escorrentía de la ciudad no es funcional por su uso irresponsable, además el abastecimiento que tiene depende de una única red de distribución conectada a tres represas y varios pozos. Por lo mencionado, para mejorar la calidad del agua y reducir inundaciones, se requiere adoptar las técnicas de los Sistemas Urbanos de Drenaje Sostenible (SUDS), los cuales ofrecen soluciones para controlar la cantidad y calidad de las aguas de escorrentía, para priorizar al medioambiente, los servicios públicos, la gestión efectiva de aguas pluviales y residuales son esenciales para enfrentar los desafíos del crecimiento poblacional y mejorar la calidad de vida en la ciudad.
METODOLOGÍA
Hice una investigación sobre los diferentes sistemas que se han implementado en ciudades parecidas que sufren el problema de las inundaciones, encontrando aproximadamente 30 artículos, los leí para poder encontrar las soluciones que se pueden adecuar a Pachuca, de ahí escogí tres artículos que me llamaran la atención por mostrar buenos estudios y soluciones en sus países, todos ellos encaminados a un desarrollo beneficiario a la población y medio ambiente, consiguiente a esto, recopile la información de todos los artículos que hablaron sobre el tema de los SUDS y en una tabla registre respuestas a seis preguntas esenciales para poder entender mejor sus alcances y sus funciones, con ello analice como la ciudad funciona respecto a los tiempos de escorrentía y los metros cúbicos que se mantenían en cada zona, entendiendo esto, realice mis diagramas causales y de flujo explicando como es el proceso hidrológico de la zona, además de mostrar los tiempos de inundaciones y escorrentía que hay en cada mes de cada año, esto extendido a los últimos diez años. Por último, toda la información obtenida la registre en un formato látex para una mejor comprensión al lector.
CONCLUSIONES
Por medio de los diagramas causales y de flujo elaborados, se ha podido ver que la entrada de escorrentía en las diferentes zonas es mayor a la salida del drenaje, esto surge porque no conecta a todas las redes que debería y por ello no logra satisfacer a toda la ciudad, así que podemos decir que es necesario implementar soluciones que requieran dividir por áreas las rutas del flujo de agua por toda la ciudad, y con ayuda de Sistemas Urbanos de Drenaje Sostenible mejorar junto con las edificaciones la disminución de la cantidad de agua e ir bajando la cantidad de escorrentía.
Ochoa Oregon Salvador Alejandro, Universidad Autónoma de Sinaloa
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
CONSTRUCCIóN DE ESPECTROS DE MASA INVARIABLE DE DOS Y CUATRO CUERPOS
CONSTRUCCIóN DE ESPECTROS DE MASA INVARIABLE DE DOS Y CUATRO CUERPOS
Ochoa Oregon Salvador Alejandro, Universidad Autónoma de Sinaloa. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Historicamente, la investigación en el área de la física de las particulas elementales y altas energias ha logrado avances importantes en otras esferas de la ciencia, tales como la medicina, quimica e ingenierias. Estós avances han permitido el desarrollo tecnologico en sus respectivas áreas con impacto directo en la sociedad.
Actualmente, en la física nos planteamos diferentes retos teoricos y experimentales. Uno de ellos es poder entender con presición el origen de las masas de los cuerpos y los mecanismos que la rigen.
Especificamente, una de los retos para los fisicos es reconstruir los parámetros experimentales no medibles directamente en el experimento. Para ello, las variables teoricas deben calcularse cada vez de forma mas precisa y poderlas comparar con los resultados experimentales. Un método importante en la física de altas energías, es caracterizar un sistema de partículas mediante la masa invariante reconstruida a traves de las varaibles cienemáticas. En este verano de investigación se trabajó en la reconstrucción de la masa invariante en dos y cuatro cuerpos independiente del sistema de referencia utilizado para su observación.
METODOLOGÍA
Para llevar a cabo este proyecto, la estancia de verano se dividió en 7 semanas, en donde todos los lunes de cada semana nos reuníamos para discutir avances y dudas sobre el tema visto. Los objetivos de cada semana fueron las siguientes:
Semana 1: Revisión de literatura
Durante esta semana, el trabajo se centró en la búsqueda de bibliografía relevante para el tema del proyecto. Principalmente, nos enfocamos en investigaciones y tesis que abordaran de manera completa los conceptos y aspectos teóricos necesarios para un sólido entendimiento del tema.
Semana 2: Estudio del funcionamiento de detectores de partículas.
En esta semana, profundizamos en el funcionamiento de las diversas capas que componen los detectores y cómo están diseñadas para obtener la máxima información de las partículas detectadas, como su energía y momento. Esto es fundamental para reconstruir la información de interés, como las masas invariantes de ciertas partículas, utilizando las leyes de conservación y momento.
Semana 3: Estudio de los detectores principales del detector ALICE
Analizamos el detector ALICE, uno de los 8 experimentos con detectores del Gran Colisionador de Hadrones (LHC). Estudiamos algunos de sus principales detectores como son el TRD para identificar electrones, el ITS para rastrear partículas cargadas cercanas al punto de colisión, y el HMPID para identificar partículas con alta masa y momento.
Semana 4: Estudio de las variables de Mandelstam
Se plantearon las variables de Mandelstam y se dedujeron propiedades importantes de las mismas, las cuales serían útiles para la reconstrucción de los espectros de masas invariantes. Por otra parte, también se profundizó sobre el significado físico de las mismas.
Semana 5: Análisis de los datos de ALICE
En esta semana se analizaron los datos producidos en el software AliRoot los cuales, al ser más de dos millones de datos, estos se guardaron en una estructura de datos conocida como árboles. Para el análisis y visualización de estos datos, se empleó el lenguaje de programación Python, junto con las bibliotecas Matplotlib, Pandas y Uproot. A través de estas herramientas, se lograron visualizar los datos y se realizaron búsquedas para identificar propiedades relevantes. Esto permitió llevar a cabo un proceso de depuración de los mismos, donde se logró de 8500 datos.
Semana 6: Construcción de espectros de masa invariable de 2 y 4 cuerpos
Una vez efectuado el análisis de datos, se utilizaron las variables de Mandelstam para la reconstrucción del espectro de masa invariante de, la cual se corroboró con los resultados reportados por la bibliografía previamente utilizada, llegando a que se cumplió el objetivo del proyecto.
Semana 7: Presentación y discusión de los resultados
En esta última semana presentamos el producto de la investigación efectuada anteriormente, y discutimos sobre como se podrían mejorar los resultados obtenidos.
CONCLUSIONES
Durante la estancia de verano, se lograron cumplir los objetivos planteados durante cada semana, lo que implico que pudiera adquirir los conocimientos teóricos para comprender de manera general el funcionamiento de los detectores de partículas, como a su vez las herramientas teóricas necesarias, las cuales se aplicaron y con ellos se logró la construcción de los espectros de masa invariables de dos y cuatro cuerpos. Por último, se plantea como futuro proyecto el uso de herramientas computacionales como son el Machine Learnig y redes neuronales para una aplicación más precisa en la reducción de datos necesarios para la reconstrucción de este tipo de espectros.
Ochoa Sánchez Daniela, Universidad de Guadalajara
Asesor:Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
DOSIMETRíA EN FANTOMA Y USO DE MATERIALES CRISTALINOS EN DOSIMETRíA.
DOSIMETRíA EN FANTOMA Y USO DE MATERIALES CRISTALINOS EN DOSIMETRíA.
Hernández Carrillo Anette Sofía, Universidad Autónoma de Ciudad Juárez. Inzunza Lugo Alejandra, Universidad Autónoma de Sinaloa. Morelos Lozada Jesus, Instituto Politécnico Nacional. Ochoa Sánchez Daniela, Universidad de Guadalajara. Salgado Díaz America, Universidad Autónoma del Estado de México. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La radioterapia es un tratamiento esencial en la lucha contra el cáncer, pero es crucial garantizar que la dosis de radiación se administre con precisión en el área objetivo y se minimice la exposición en tejidos circundantes. Para ello, se utilizan dosímetros para medir la distribución de la radiación y evaluar la eficacia del tratamiento. Además, es relevante investigar y seleccionar los materiales cristalinos más adecuados para desempeñar esta función de dosimetría.
El objetivo de este estudio es analizar la distribución de la radiación en un fantoma durante la radioterapia y evaluar la eficacia de diferentes materiales cristalinos como dosímetros.
METODOLOGÍA
1. Se prepararon dosímetros, dispositivos diseñados para medir la dosis de radiación absorbida.
2. Se colocó el fantoma, que es una simulación de un paciente, en un acelerador lineal para simular un tratamiento de cáncer cervico-uterino.
3. Se distribuyeron los dosímetros en posiciones estratégicas dentro del fantoma.
4. Se programó el equipo del acelerador lineal para administrar la dosis de radiación de acuerdo con el tratamiento simulado.
5. Se realizaron mediciones y análisis de los resultados obtenidos por los dosímetros para evaluar la distribución de la radiación en el fantoma.
Materiales cristalinos:
1. Se seleccionaron compuestos químicos y se prepararon con sus respectivos dopantes para actuar como materiales cristalinos para dosimetría.
2. Se identificaron los cristales preparados y se los preparó para la lectura de sus respuestas a la radiación.
3. Se programó el equipo necesario para llevar a cabo la lectura de los cristales y obtener resultados de dosimetría.
4. Se analizaron los resultados obtenidos por los materiales cristalinos para evaluar su eficacia como dosímetros.
CONCLUSIONES
1. Distribución de la radiación en el paciente: Se observó que la dosis de radiación recibida por el paciente durante el tratamiento depende del tamaño del tumor y de la energía empleada. Es fundamental garantizar una distribución precisa de la radiación para evitar daños innecesarios en tejidos sanos circundantes.
2. Importancia de la precisión en las mediciones: Se recomienda tomar dosímetros del mismo lote para asegurar la precisión y consistencia en las medidas de dosimetría. La exactitud en la administración de la dosis es esencial para mejorar la efectividad del tratamiento y evitar posibles complicaciones.
3. Protocolos de radioterapia personalizados: Se sugiere la implementación de nuevos protocolos de radioterapia que se adapten a las características individuales de cada paciente. Un enfoque personalizado puede aumentar la efectividad del tratamiento y reducir los efectos secundarios.
4. Reducción de la radiación en zonas periféricas: Se propone desarrollar instrumentos y materiales superficiales para disminuir los niveles de radiación en las áreas circundantes del tumor. Esto puede ayudar a evitar el riesgo de desarrollar un segundo cáncer en tejidos cercanos a la zona tratada.
5. Eficacia de los materiales cristalinos: Los materiales cristalinos, en particular, los LaAl03 dopados con Dy o Pr, mostraron una alta respuesta termoluminiscente (TL). Estos materiales demostraron ser excelentes para capturar la energía absorbida en los centros de trampa, lo que los convierte en opciones prometedoras para su uso como dosímetros.
En conclusión, este estudio destaca la importancia de la dosimetría en fantoma y el uso de materiales cristalinos en dosimetría para garantizar la precisión y efectividad de los tratamientos de radioterapia. La investigación continua en este campo puede conducir a mejoras significativas en el cuidado y el tratamiento de pacientes con cáncer.
Ojeda Martinez Sebastián, Universidad Autónoma de Sinaloa
Asesor:Dr. Marco Antonio Navarrete Seras, Universidad Michoacana de San Nicolás de Hidalgo
PRUEBAS NO DESTRUCTIVAS (RESISTIVIDAD DE CORRIENTE ELéCTRICA, VELOCIDAD DE PULSO ULTRASóNICO, RESONANCIA MAGNéTICA) EN CONCRETO BASE CEMENTO PORTLAND ADICIONADOS CON FIBRAS DE POLIPROPILENO Y SU RELACIóN CON LA DURABILIDAD
PRUEBAS NO DESTRUCTIVAS (RESISTIVIDAD DE CORRIENTE ELéCTRICA, VELOCIDAD DE PULSO ULTRASóNICO, RESONANCIA MAGNéTICA) EN CONCRETO BASE CEMENTO PORTLAND ADICIONADOS CON FIBRAS DE POLIPROPILENO Y SU RELACIóN CON LA DURABILIDAD
Ojeda Martinez Sebastián, Universidad Autónoma de Sinaloa. Asesor: Dr. Marco Antonio Navarrete Seras, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Desde hace ya varios años el concreto es el material de construcción más utilizado en el mundo, este está compuesto ordinariamente por agregados, agua y cemento. La huella de carbono para la producción de este último es en promedio 0.4 toneladas de CO2 por tonelada producida de cemento.
En México, las Normas Técnicas Complementarias para Diseño y Construcción de Estructuras de Concreto del Reglamento de Construcciones del Distrito Federal (NTCC, RCDF) establecen que las estructuras para edificios deben tener una vida útil de al menos 50 años, por lo que se vuelve necesario su paulatino mantenimiento para alargar lo más posible su etapa funcional y evitar cualquier catástrofe.
Él no dar el mantenimiento correcto de las estructuras genera su demolición y la construcción de nuevas obras, que a su vez se traduce en la continua explotación de la industria cementera. En México la producción anual de cemento se estima en 41 millones de toneladas, con un consumo de cemento de aproximadamente 325 kg por habitante por año.
Ante lo mencionado anteriormente, una posible medida preventiva para la detección de fenómenos nocivos para las estructuras de concreto son la aplicación de diversas pruebas no destructivas al concreto, éstas permiten conocer de manera general la estructura interna de los mismos, esto a su vez se relaciona con distintos factores que favorecen o no su posible deterioro y que pueden detectar a tiempo la necesidad de una obra de mantenimiento y restauración. La presente investigación se centra en el efecto que tiene la adición de fibras de polipropileno en mezclas de concreto con aditivo fluidificante, mediante técnicas no destructivas.
METODOLOGÍA
Se elaboraron dos mezclas de concreto hidráulico, una mezcla testigo y una mezcla adicionada con fibras de polipropileno (600 gr por m³) y un aditivo fluidificante (6 ml por kg de cemento). Luego se realizaron las pruebas a las mezclas en estado fresco y posteriormente se realizaron especímenes cilíndricos de 10 cm de diámetro y 20 cm de altura y vigas de 60 cm de largo y 15 de altura. Una vez realizados los especímenes se procedió a dejar secar por 24 horas para su posterior descimbrado y ubicación en un cuarto húmedo para su correcto curado hasta llegar a sus edades de ensaye (7 y 21 días).
Una vez los especímenes cumplieran 7 días de colado se procedió a realizar sus respectivas pruebas no destructivas, comenzando por el procedimiento de la prueba de resistividad eléctrica basado en la norma NMX-C-514-ONNCCE-2016 la cual permite conocer qué tan porosa es una mezcla, entre mayor sea la resistividad nos indica una mayor oposición al flujo de corriente a través del concreto lo que se traduce en una mezcla menos porosa. Para su ejecución se hizo uso de un resistómetro que midiera resistencia eléctrica en medios porosos, placas de acero inoxidable, franelas mojadas y de una previa saturación de los especímenes a probar, esto último con el fin de saturar al máximo las muestras y que el resultado fuera más preciso al estar los especímenes en las mismas condiciones de saturación. Una vez probados y obtenidos los resultados se procedió a procesar la información y calcular su resistividad.
La segunda prueba realizada a los especímenes fue la prueba de velocidad de pulso ultrasónico siguiendo la norma NMX-C-275-ONNCCE-2020 la cual es útil para la verificación de homogeneidad, para detectar fallas internas (presencia de vacíos) producidos durante la elaboración, profundidad de las fisuras y para el monitoreo de las propiedades del concreto a lo largo del tiempo. El ensayo se llevó a cabo mediante la utilización de un equipo de sistema digital para ensayos ultrasónicos modelo V-Meter MK IVTM marca NDT - James Instruments el cual trabaja con una escala de frecuencia de 24 a 500 KHz. Para la realización se colocaron las vigas en posición y se le colocó gel a los transductores que emitirían el sonido a través del concreto, se colocaron los transductores a la misma altura del espécimen y se procedió a emitir la señal y tomar mediciones.
Una vez procesados los resultados se encontró mucha variabilidad en los mismos, debido al mismo punto que se tocó anteriormente, los especímenes se notaron en algunos casos muy segregados y porosos esto debido a un mal compactado y un mal vibrado, por lo tanto, no se pudo concluir exactamente cuál mezcla fue mejor pero sí se pudo identificar que entre más segregación había mayor era la velocidad obtenida.
Por último, se realizó la prueba de frecuencia de resonancia a los especímenes tipo viga siguiendo la normativa ASTM-C-215 y C-666, esta prueba nos permite determinar cuál es la frecuencia de resonancia a la que trabajará nuestro concreto, dicho valor es de suma importancia debido a que este fenómeno puede producir accidentes graves en obras de gran magnitud como por ejemplo lo sucedido con el puente Tacoma Narrow donde un puente se derrumbó debido a que entró en resonancia con las corrientes de viento, por lo tanto, en esta prueba fue de suma interés obtener valores altos de frecuencia para así tener un concreto el cual fuera difícil hacer entrar en resonancia, además esta prueba nos permite calcular el módulo de elasticidad dinámico.
El procedimiento consistía en colocar en posición de trabajo la viga, conectarla al medidor de frecuencia de resonancia, calibrar el equipo y comenzar a emitir frecuencias poco a poco hasta encontrar el valor donde el medidor empiece a disminuir automáticamente.
CONCLUSIONES
Durante la estancia de investigación se logró conocer métodos de pruebas no destructivas al concreto, su importancia y su relación con la durabilidad del mismo. Si bien las pruebas no destructivas no son un suplente de las destructivas, estas nos permiten conocer características internas de la estructura de nuestro concreto sin necesidad de afectar la estructura y pudiendo realizar las pruebas en sitio. Según los resultados obtenidos, se observó que la mezcla con fibras de polipropileno fue notablemente superior a la testigo en las tres pruebas no destructivas realizadas, considero que la investigación abre campo a realizarla posteriormente con otra adición pero con un solo operador a la hora de realizar los especímenes.
Olguin Plomares Uriel, Instituto Politécnico Nacional
Asesor:Dr. José Reyes Gasga, Universidad Nacional Autónoma de México
ESTRUCTURA Y CARACTERIZACIóN QUíMICA DEL DIENTE HUMANO.
ESTRUCTURA Y CARACTERIZACIóN QUíMICA DEL DIENTE HUMANO.
López Collazo Ana Laura, Universidad Autónoma de Chiapas. López Rendón Maria del Mar, Universidad Tecnológica de Pereira. Molina Gómez Aneth de Jesús, Universidad Autónoma de Chiapas. Olguin Plomares Uriel, Instituto Politécnico Nacional. Asesor: Dr. José Reyes Gasga, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Para estudios microscópicos del diente humano, se emplea con frecuencia el ácido orto fosfórico. Esta es una sustancia corrosiva que tiene la capacidad de debilitar y desmineralizar el barro dentinario. Se aplica en la superficie del diente y disuelve la componente orgánica e inorgánica del diente, exponiendo la estrctura interna de la dentina y el esmalte. Por otro lado, el refresco de cola contiene ácido fosfórico, agua, azúcares, cafeína y colorantes, que tienen la capacidad de atacar los componentes inorgánicos de las muestras dentales, facilitando la descomposición de proteínas que están en la matriz dental. El uso del refresco de cola como agente de ataque, es una alternativa menos corrosiva en comparación con otros ácidos altamente concentrados. Al revelar de forma diferencial los componentes inorgánicos y orgánicos, se obtiene información valiosa sobre la estructura, composición y posibles alteraciones dentales, lo que contribuye al avance del conocimiento en odontología y a la mejora de los tratamientos y diagnósticos relacionados con la salud bucal.
METODOLOGÍA
1. Se utilizó un diente molar de una persona adulta y se observó la muestra en un estéreo microscopio Zeiss para un reconocimiento estructural.
2.Para realizar el corte transversal y longitudinal en el diente y eliminar la raíz, se utilizó un cortador de disco de diamante Buehler-IsoMet 1000. De allí, se obtuvieron 6 muestras de diente con 0.5 mm de espesor, dejando a simple viste el esmalte y la dentina.
3.Se desbastaron las muestras con lijas No.2000 y No.4000, empleando abundante agua. Seguidamente se hizo un pulido hasta lograr un acabado espejo, empleando un paño de microcloth y polvo de alúmina en tamaños de 5, 1.0, 0.3 y 0.05 micras . Lo anterior, con el fin de aplanar las superficies, reducir el espesor y eliminar defectos en la superficie del diente. Después de pulir, se lavaron las muestras con agua durante un minuto, para eliminar cualquier rastro de impureza. Seguidamente, se colocaron en un vaso de precipitado con isopropanol al 60% y se hizo un baño ultrasónico con un equipo Branson modelo 1510 durante quince minutos. Finalmente, las muestras se secaron con aire comprimido
4.Para revelar la estructura microscópica de la dentina y el esmalte, las muestras se colocaron en una caja de Petri y se cubrieron completamente con las sustancias atacantes. La muestras fueron atacadas primero con ácido ortofosfórico al 32 % durante 2 min. Luego se atacaron con refresco de cola durante 30 min, 1 hora y 1hora 45 min. Pasado este tiempo, se lavaron las muestras con agua durante un minuto y se secaron con aire comprimido.
5.Las 6 muestras atacadas se observaron mediante 3 técnicas de microscopía: microscopio óptico, SEM 5600LV y SEM 7800F.
CONCLUSIONES
-De acuerdo con las estadísticas de los diámetros de los túbulos dentinarios y los prismas del esmalte, las muestras que fueron atacadas con refresco de cola obtuvieron un efecto similar a las muestras atacadas con ácido orto fosfórico. Sin embargo, la morfología de los túbulos dentinarios y los primas de las muestras atacadas con ácido orto fosfórico revelaron una mayor remoción de la matriz inorgánico de la dentina y el esmalte.
-De las posibles variables que impidieron un mayor revelado de las estrructuras del esmalte, se encuentra el tiempo de exposición del refresco de cola.
-El estudio elemental químico de las muestras atacadas, reveló la presencia de los elementos que componen la Hidroxiapatita. A pesar del alto contenido en azúcares del refresco, no se evidenciaron cambios significativos en la composición química de las muestras atacadas con este compuesto.
-La hipótesis planteada es verdadera, el ácido ortofosfórico y el refresco de cola atacan el material orgánico del diente.
Ortega Butanda Andrea, Instituto Tecnológico de Pachuca
Asesor:Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional
PREPARACIóN DE COMPOSITOS BI12TIO20-BI4TI3O12 PARA ELIMINACIóN DE CONTAMINANTES PRESENTES EN AGUA.
PREPARACIóN DE COMPOSITOS BI12TIO20-BI4TI3O12 PARA ELIMINACIóN DE CONTAMINANTES PRESENTES EN AGUA.
Ortega Butanda Andrea, Instituto Tecnológico de Pachuca. Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El agua es un componente esencial de la vida de toda la flora y fauna del planeta. Durante los últimos siglos, la calidad del agua se ha deteriorado gravemente debido a las extensas actividades agrícolas e industriales resultantes del enorme crecimiento de la población mundial. Cada año se descargan al medio ambiente más de 400 millones de toneladas de solventes, metales pesados, productos farmacéuticos, tintes y otros desechos orgánicos. Como resultado, el desarrollo de estrategias sencillas, económicamente viables, fiables, rápidas y respetuosas con el medio ambiente son requisitos previos para hacer frente a la degradación de los contaminantes emergentes abordando los problemas medioambientales y de salud. En las últimas décadas se han desarrollado una amplia variedad de métodos convencionales para la remoción de contaminantes orgánicos, tales como coagulación-floculación, filtración, precipitación, adsorción, tratamientos biológicos, físicos y químicos. Según se informa, las tecnologías de tratamiento convencionales no son rentables ni energéticamente eficientes y son inadecuadas para la degradación completa de los contaminantes en las aguas residuales. Por lo tanto, se necesitan nuevos métodos de tratamiento avanzados para destruir la parte orgánica de las aguas residuales
METODOLOGÍA
Se fabricaron heterouniones de Bi12TiO20/Bi4Ti3O12 (Titanato de Bismuto tipo Perovskita Aurivillius y Silenita) como material fotocatailico, con diferentes proporciones en masa de ambos titanatos (Bi12TiO20/Bi4Ti3O12= Bi12/Bi4) 0:100, 25:75, 50:50, 75:25 y 100:0 empleando β-Bi2O3 y TiO2 (anatasa) como precursores , se pesaron las cantidades adecuadas de cada precursor, seguido a esto se realizó un proceso de mecanoactivación con molienda mecánica durante 4 h, posteriormente las mezclas se calcinaron a 800°C por 4 h en un horno para realizar la reacción en estado sólido y formar las fases deseadas, Bi12 y Bi4.
Al obtener los polvos se realizó su caracterización, las fases de los polvos preparados se analizaron en un difractometro de rayos X (XRD) para saber la composición, la estructura y la orientación, se determinó los modos de vibración de las estructuras por espectroscopia de Raman y las morfologías de los preparados se investigaron mediante microscopia electrónica de barrido (SEM).
Se realizaron experimentos preliminares de fotocatálisis al sol en tubos falcón, a partir de una solución madre de 1000 ppm de Rodamina B se preparó una solución de 10 ppm, de la solución preparada se tomó una muestra de 250 microlitros para medir su concentración inicial en el espectrofotómetro. En cada tubo falcón se agregó 40 mg de la muestra en diferentes tubos cada una y con 40 mL de la solución preparada a 10 ppm y se expusieron al sol durante 3 h tomando una muestra de 1 mL de cada tubo por cada hora que transcurría en el sol, para su análisis se centrifugo durante 5 min a 5000 rpm y se extrajo 250 microlitros del líquido sobrenadante con una micropipeta en una microplaca para ser leído el resultado mediante el espectrofotómetro de microplacas BioTec Epoch 2 para medir la absorbancia UV-Vis.
De los 5 polvos elaborados y con experimentación preliminar se eligieron 3 de los que se obtuvieron mejor resultado en el Espectrofotómetro de la degradación de Rodamina B mediante el resultado inicial de la solución de 10 ppm y la final con la longitud de onda que fueron presentando cada uno de los polvos al transcurrir el tiempo. En un vaso de precipitado se agregaron 500 mg de un polvo con 500 mL de la solución a 10 ppm de Rodamina B y con un agitador de propela a 240 rpm se expuso al sol durante 6 h tomando muestras de 1 mL cada 15 min, para su análisis todas las muestras se metieron a centrifugación durante 5 min a 5000 rpm extrayendo 250 microlitros con una micropipeta del líquido sobrenadante en una microplaca para obtener el resultado en el espectrofotómetro de microplacas BioTec Epoch 2 para medir la absorbancia UV-Vis, realizando este procedimiento para los tres polvos que presentaron mejor degradación de Rodamina B.
Con los 3 polvos que se hicieron pruebas en exposición al sol con el agitador propela se realizó una prueba en un reactor con lámpara de xenón, a partir de la solución madre de 1000 ppm de Rodamina B se preparó una solución de 10 ppm, de la solución preparada se tomó una muestra de 250 microlitros para medir su concentración inicial en el espectrofotómetro. Se tomaron 250 mL de la solución con 500 mg de un polvo y se puso en agitación constante tomando muestra de 1 mL en 10 min,30 min y 1 h con la luz de xenón apagada para estabilizar la mezcla y se encendió la luz a la hora, durante 6 h mantuvimos la luz encendida con agitación constante y cada 15 min una muestra de 1 mL, se centrifugo cada muestra por 5 min a 5000 rpm, del líquido sobrenadante con una micropipeta se extrajeron 250 microlitros y lo colocamos en una microplaca para ser leído el resultado en el espectrofotómetro de microplacas BioTec Epoch 2 para medir la absorbancia UV-Vis, realizando este procedimiento para los tres polvos que presentaron mejor degradación de Rodamina B.
CONCLUSIONES
Durante la estancia de verano en el Centro de Investigación y de Estudios Avanzados del IPN en Queretaro adquirí conocimientos teóricos y puestos en práctica en la degradación del contaminante de Rodamina B mediante la fabricación de compuestos a partir de Bismuto y Titanio con diferentes composiciones caracterizando y puestos en experimentación se puedo obtener en tres (0:100,50:50, y 100:0) de los cinco polvos fabricados una buena degradación del contaminante a lograr degradar, algunos con mayor tiempo para su degradación y otros con menor tiempo pero para ello.
Al ser un trabajo extenso conlleva más experimentación e investigación para saber qué factores son los responsables de la degradación, así como la evaluación de otros contaminantes.
Ortiz Márquez Karla Selene, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
DESCRIPCIóN DE LA MASA DE LOS NEUTRINOS USANDO EL MECANISMO SEESAW LINEAL
DESCRIPCIóN DE LA MASA DE LOS NEUTRINOS USANDO EL MECANISMO SEESAW LINEAL
Ortiz Márquez Karla Selene, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El Modelo Estándar (SM) de Física de Partículas, probado y confirmado experimentalmente, considera la masa del neutrino nula. Sin embargo, los experimentos Super-Kamiokande y SNO confirmaron que los neutrinos oscilan, lo cual implica que los neutrinos son masivos ya que la fase de oscilación es proporcional a las diferencias de masas sus masas. Teóricamente, ya que la diferencia de las masas de los neutrinos (muy pequeñas) respecto de las demás de los demás fermiones es grande, se espera que su masa se genere por medio de otro mecanismo, diferente al mecanismo de Higgs. Por ello, se han propuesto diferentes mecanismos alternativos como el mecanismo SeeSaw tipo I (SS) o el SeeSaw Lineal (LSS).
El mecanismo SS original propuesto por primera vez por Minkowski en 1977 y desarrollado por varios físicos, sugiere una explicación para la pequeña masa de los neutrinos observados en la naturaleza. En el modelo SS,se introduce una partícula hipotética llamada neutrino estéril, que es un neutrino derecho (singlete de neutrino) que no participa en las interacciones débiles como lo hacen los neutrinos izquierdos (dobletes de neutrinos). La interacción entre los neutrinos izquierdos y los neutrinos derechos se establece mediante términos de masa, y esto conduce a la generación de una masa pequeña para los neutrinos observados. Los neutrinos estériles, al no interactuar fuertemente con otras partículas, pueden ser más masivos y explicar la ligereza de los neutrinos observados.
METODOLOGÍA
Debido a la pequeñez de la masa del neutrino y su diferencia con la masa de los demás fermiones, se espera que su masa se genere por medio de otro mecanismo distinto al mecanismo de Higgs. Se han propuesto diferentes mecanismos alternativos como el mecanismo SS o el LSS. En este trabajo, se estudian el mecanismo LSS para la generación de la masa del neutrino. Para ello, se realizará una revisión del mecanismo SeeSaw y los diferentes tipos, en particular el SS y el LSS. Así, en estos se analizan las masas de los neutrinos y se comparan los resultados obtenidos.
CONCLUSIONES
En este trabajo estudiamos el mecanismo LSS, en el se introduce una partícula hipotética llamada neutrino estéril, que es un neutrino derecho (singlete de neutrino) que no interactúa a través de las interacciones débiles como los neutrinos izquierdos (dobletes de neutrinos). La diferencia clave radica en cómo se establece la interacción entre los neutrinos izquierdos y derechos para generar las masas de los neutrinos. En este, en lugar de introducir términos de masa "yukawa" (del tipo utilizado en el modelo seesaw original), se introduce una masa efectiva "lineal" que es directamente proporcional a la energía de rompimiento de la simetría electrodébil, relacionada con la masa adquirida por las partículas después del rompimiento de la simetría. Así, el mecanismo LSS ofrece una forma diferente de relacionar las masas de los neutrinos con las propiedades fundamentales del Modelo Estándar, lo que puede tener implicaciones interesantes para la física de partículas y la comprensión de la naturaleza de los neutrinos.
Ortiz Montiel Andrea Guadalupe, Universidad de Colima
Asesor:Dra. Rosalva Pérez Gutiérrez, Universidad Autónoma de Guerrero
POTENCIAL DE CARGA Y DESCARGA DE AGUA EN MICROCUENCAS DEL ESTADO DE GUERRERO UTILIZANDO ARCGIS Y EL ANáLISIS MULTICRITERIO
POTENCIAL DE CARGA Y DESCARGA DE AGUA EN MICROCUENCAS DEL ESTADO DE GUERRERO UTILIZANDO ARCGIS Y EL ANáLISIS MULTICRITERIO
Ortiz Montiel Andrea Guadalupe, Universidad de Colima. Asesor: Dra. Rosalva Pérez Gutiérrez, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
Según estudios el 97% del agua del planeta es salada, mientras que el 3% restante es agua dulce. De esta última, el 21% corresponde a agua almacenada en los subsuelos. Los acuíferos son abundantes en México, por ello se han convertido en esenciales para el abastecimiento de agua potable, para riego agrícola, industrial y doméstico. Sus características físicas permiten su aprovechamiento, almacenamiento, redes de distribución y plantas de tratamiento naturales (CONAGUA, 2009).
La identificación de zonas de carga y descarga de aguas subterráneas es importante para la administración del recurso. Gestionando de manera adecuada estas áreas se puede garantizar un suministro de agua de mejor calidad, además de ayudar a la prevención de la sobreexplotación y contaminación de estos acuíferos, apoyando de igual manera la conservación de ecosistemas y el desarrollo sostenible.
METODOLOGÍA
La zona de estudio abarca seis subcuencas dentro de la región hidrológica Balsas del estado de Guerrero que se ubica al norte y centro del estado, compuesta del Río Balsas-Mezcala, Rio Balsas-Zirandaro, Río Balsas-Infiernillo, Río Tlapaneco, Río Grande de Amacuzac y el Rio Cutzamala.
Para identificar las zonas de carga y descarga se realizó un análisis de los indicadores superficiales del agua subterránea con la teoría de flujos y se evaluó mediante el Análisis Multicriterio.
La propuesta de la teoría de sistemas de flujo por Tóth (1963) permite realizar un análisis integral de la dinámica del agua subterránea incorporando diversos componentes, como la geología, la composición del suelo, la vegetación y la influencia humana. Como resultado, este enfoque está ganando cada vez más aceptación en la comprensión de los procesos ambientales relacionados con el agua subterránea (Pérez-Villarreal et. al., 2018).
El análisis multicriterio (AMC) de los indicadores superficiales se llevó a cabo para evaluar el potencial de recarga y descarga. Se procedió a ponderar los indicadores utilizando el Proceso Analítico Jerárquico propuesto por Saaty (Hernández-Juárez et.al., 2020), que involucra la creación de una matriz de comparación para realizar juicios sobre cada elemento. Para complementar estos criterios se realizó un método de combinación lineal ponderada.
Las zonas de recarga de acuíferos son aquellas donde el agua entra y ocurre en la superficie por medio de la precipitación o el deshielo de la nieve, esta se filtra a través del suelo y llega a las capas subterráneas de las rocas y sedimentos permeables. También puede ocurrir cuando existen corrientes de agua superficiales que se filtran en el suelo incorporándose al acuífero. Estas zonas suelen ubicarse en las zonas de mayor pendiente, laderas de montañas, áreas forestales y zonas de captación de agua, con suelos permeables que permiten la infiltración con facilidad. La vegetación igual puede llegar a influir en la cantidad y calidad de agua que se infiltra.
Las zonas de descarga son aquellas donde el agua del acuífero sale y fluye hacia cuerpos de agua superficiales. Suelen ubicarse en zonas de menor pendiente, en suelos menos permeables y presentarse en forma de arroyos o manantiales, siendo una importante fuente de agua para humedales y ecosistemas acuáticos y vegetación.
Las variables que se utilizan para este tipo de estudio son aquellas que tienen más importancia para comprender el flujo hidrológico de la zona de estudio. Su importancia se da con su influencia en el medio y con otras variables. Las características hidrogeológicas del subsuelo son las más importantes para determinar el flujo de agua a través de la superficie, por esto la primera variable es la litología. En segundo lugar la edafología nos habla de la permeabilidad, textura, acidez y composición de los suelos, lo que nos puede dar una idea de la infiltración en estos. La densidad de drenaje está en tercer lugar, ya que indica las cursos y cuerpos de agua en una cuenca respecto de su área, esta variable nos puede dar una idea de que tan rápido se el agua fluye a un zona determinada. Las topoformas están en cuarto lugar, mezcladas con la litología nos dan idea del relieve que existe en la zona de estudio y los puntos que faciliten la infiltración. La pendiente está en quinto lugar, ya que sean suaves o altas nos dan una idea del tiempo de contacto del agua y la velocidad de los flujos. Por último, la vegetación es una variable condicionada por la mayoría de las anteriores, pero que es importante para el flujo hídrico y ayuda al mantenimiento de los suelos.
Después de ponderar cada una de estas capas, se integran en el programa de ArcGIS con la siguiente fórmula utilizando álgebra de mapas:
Potencial de descarga = (Litología*0.31)+(Edafología*0.18)+(Topoformas*0.17)+(Densidad de drenaje*0.12)+(Pendiente*0.12)+(Vegetación*0.10)
El mapa resultante se clasifica para dar nombre a cada una de las clases y facilitar la interpretación de este.
CONCLUSIONES
El uso de la TSF y el análisis multicriterio nos permiten lograr estudiar un área desde distintas capas para lograr en este caso, comprender la dinámica del flujo de agua de seis subcuencas del estado de Guerrero. La clasificación del potencial de recarga permite vincular las áreas de alto y bajo potencial, que facilita la ubicación de las zonas de carga y descarga de aguas subterráneas. En el área de estudio se pueden observar diversas áreas formadas de rocas ígneas resultantes de un viejo ambiente volcánico, rocas metamórficas, lutitas-areniscas y conglomerados. Al igual que ambientes que nos muestran la dinámica hidrogeológica del área como lo son las Pozas Azules de Atzala, que son una zona de descarga de agua, con la presencia de varias rocas metamórficas y calizas. Con el mapa resultante se espera observar más fuentes de recarga y descarga para el área de estudio, esta información puede ser de ayuda para gestionar estas áreas y utilizar el recurso de manera sostenible.
Osuna Vega Melisa Guadalupe, Universidad Autónoma de Baja California
Asesor:Dr. Jesus Pablo Lauterio Cruz, Universidad de Sonora
SIMULACIóN DE UN PULSO ELECTROMAGNéTICO MEDIANTE EL MéTODO FDTD
SIMULACIóN DE UN PULSO ELECTROMAGNéTICO MEDIANTE EL MéTODO FDTD
Osuna Vega Melisa Guadalupe, Universidad Autónoma de Baja California. Asesor: Dr. Jesus Pablo Lauterio Cruz, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
En teoría, cuando un campo electromagnético incide sobre una estructura de una forma arbitraria, las ecuaciones de Maxwell pueden se utilizadas para conocer el valor exacto de la reflexión en cualquier punto del espacio. Sin embargo, una solución analítica de la distribución del campo está restringida a un cierto número de geometrías; aquellas en donde es posible realizar los métodos tradicionales de solución de ecuaciones diferenciales. Usualmente para obtener soluciones analíticas, el fenómeno de dispersión del campo electromagnético se resuelve aplicando condiciones a la frontera y realizando separación de variables. Desafortunadamente este procedimiento sólo es válido para unas pocas geometrías. En consecuencia, cuando la geometría se vuelve más complicada, sólo es posible conocer el valor del campo por medio de métodos computacionales.
El método de diferencias finitas en el dominio del tiempo (FDTD) es una técnica computacional que discretiza las ecuaciones de Maxwell en forma de diferencias finitas centrales. Con esto, se llegan a ecuaciones con las que se puede construir un algoritmo computacional recursiva para simular fenómenos electromagnéticos. Durante el verano de investigación se busco implementar este método en MATLAB con el objetivo de desarrollar un algoritmo que genere la simulación de un pulso electromagnético en un medio homogéneo, en particular el vacío; que si bien esto no implica gran interés físico, el algoritmo desarrollado presenta gran flexibilidad para ser implementado en diferentes situaciones físicas.
Este tipo de estudios numéricos son de gran trascendencia, pues permiten llevar a cabo desarrollos experimentales optimizados, en el área de fibras ópticas, sensores, generación de luz de amplio espectro, y demás.
METODOLOGÍA
Los fenómenos electromagnéticos se pueden describir a través de las Ecuaciones de Maxwell. Para ello, primero se tuvieron que obtener las ecuaciones de Helmoltz para los casos transversal eléctrico (TE) y transversal magnético (TM). Luego, se reescribieron las ecuaciones de Maxwell para el caso 1D. Considerando la ausencia de fuentes y corrientes, además de las relaciones constitutivas para el caso isotrópico, donde ε = µ = 1.
En el caso 1D se considero una onda electromagnética que se propaga sobre el eje z, el campo eléctrico oscila en el eje x y el campo magnético oscila sobre el eje y.
Después se desarrollo la Ec. de Ampère-Maxwell, considerando que el campo eléctrico sólo oscila en el eje x y que todas las componentes de los campos dependen de (z,t). Así, se obtuvo una ecuación (Ec. 1) con la que se trabajaría en el Método de diferencias finitas en el dominio del tiempo (FDTD). Análogamente, se desarrollo la Ec. de Faraday y se obtuvo una ecuación similar a la anterior (Ec. 2), esta ecuación también seria utilizada en el FDTD.
Para implementar el método FDTD en MATLAB fue necesario discretizar las ecuaciones de Maxwell usando la definición de diferencias finitas centrales para aproximar las derivadas y discretizar las coordenadas continuas (z, t) → (k∆z, n∆t).
Tomamos la parte izquierda de la Ec. 1 y omitimos la escritura de ∆z y ∆t en las coordenadas para reducir la notación. Además, colocamos la coordenada temporal n a manera de superíndice. Después hicimos lo mismo para la parte derecha de la Ec. 1 y sustituimos ambas partes en la ecuación original, así obtuvimos la Ec. 3. Para reescribir la Ec. 2, además de realizar el mismo procedimiento. Tuvimos que considerar un desfasamiento de acuerdo a la Celda de Yee y así se obtuvo la Ec. 4.
Considerando la Celda de Yee en las Ecs. 3 y 4, estas pudieron reescribirse respectivamente (Ecs. 5 y 6). Para simular la propagación de una onda electromagnética en una malla discreta de longitud ∆z, tuvimos que considerar un paso temporal y espacial. Después definimos como nuestra fuente un pulso eléctrico de perfil gaussiano. Finalmente, al reescribir las Ecs. 5 y 6 en formato computacional recursivo, quedaron como las ecuaciones 7 y 8.
CONCLUSIONES
Durante la estancia de verano se repasaron las ecuaciones de Maxwell y las derivadas numéricas, reforzando así las bases de matemáticas y física. También se logró adquirir conocimiento teórico y práctico en Octave, MATLAB y LaTeX. Gracias a este estudio y al programar las Ecs. 7 y 8 se logró obtener un pulso eléctrico que se propaga a lo largo del eje z, tomando el campo eléctrico con la contribución del campo magnético. La explicación detallada de este procedimiento fue digitalizada a manera de póster.
Padilla Arévalo Héctor Francisco, Universidad Autónoma de Chiapas
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
MECANISMOS DE HIGGS
MECANISMOS DE HIGGS
Muñoz Aguilar Albert Iván, Universidad Autónoma de Chiapas. Padilla Arévalo Héctor Francisco, Universidad Autónoma de Chiapas. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La acción del mecanismo, está dado en un modelo estándar que nos permitirá explicar cómo las partículas elementales adquieren masa a través de la interacción con el campo de Higgs.
Para ello, analizaremos diferentes acciones; gravitatorias, electro-débil, fundamentales, residuales entre las relaciones de masa-energía de una partícula en relación a un espín. Ya sea, enteros o semi-enteros (En este caso, los fermiones 1/2 y/o bosones "1").
Para esto aproximaremos los resultados del mecanismo de forma teórica, basándonos en la forma experimental del Gran Colisionador de Hadrones (LHC) del CERN.
METODOLOGÍA
Ahora, dentro de este medio mes en el programa delfín tratamos de recrear de manera teórica los resultados.\
Iniciamos haciendo una aproximación de los mecanismos de higgs de manera teórica para lograr entender Cómo funciona la partícula cuándo se mantiene inestable para sí mismo lograr que dicha partícula caiga entre sus máximos y mínimos dentro de su potencial.\
para ello tomamos las ecuaciones de movimiento de una partícula clásica y la metimos dentro de un sistema clásico para ver si dicha partícula sí obedece la física clásica.\
iniciamos calculando en lagrangiano de la partícula para tener dos energías que nos permitan conocer y obtener su movimiento en este caso la energía cinética y la energía potencial, para que así al momento de resolver la energía cinética respecto al tiempo nos quede como resultado el movimiento y lograr construir una ecuación diferencial de movimiento y energía potencial. \
Ahora que ya conocemos cómo se mueve la partícula iniciaremos a calcular los estados de libertad para su masa teniendo en consideración que la ecuación nos quedó con casi 12 estados de libertad.\
Mientras se resuelva cada estado de libertad vaya siendo menos y ahora en lugar detener más estados de libertad tengamos menos para poder calcular ahora su masa.\
para terminar seguimos calculando para encontrar la trayectoria de la partícula ahora sabemos que la partícula una vez siendo graficada toma forma de un sombrero mexicano y así poder obtener resultados a partir de su gráfica teniendo en consideración sus mínimos y sus máximos y su punto crítico para que la partícula pueda estar inestable dentro su energía potencial.
CONCLUSIONES
Como conclusion la particula en las ecuaciones teoricas no responde muy bien, más bien al momento de resolver de forma clásica esto colapsa y nos da resultados que no queremos, por lo que en un sistema cuántico si funciona, por lo que debemos acudir a la física cuántica para poder resolver de manera teórica este problema.
Palacios Chimeo Pedro Luis, Universidad de Guadalajara
Asesor:Dra. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)
ESTUDIO DE GUíAS DE ONDA FABRICADAS EN VIDRIO POR ESCRITURA LáSER
ESTUDIO DE GUíAS DE ONDA FABRICADAS EN VIDRIO POR ESCRITURA LáSER
Juárez Cabello Javier, Universidad de Guadalajara. Palacios Chimeo Pedro Luis, Universidad de Guadalajara. Tepetla Garcia Abigail, Universidad Veracruzana. Asesor: Dra. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La mayoría de las tareas que se realizan actualmente involucran de una manera u otra la utilización de circuitos electrónicos. Estos forman parte de todos los dispositivos modernos que se utilizan en una gran variedad de áreas. Sin embargo, estos circuitos presentan ciertas fallas que afectan a su utilización en algunos campos.
Cada día se crean grandes cantidades de información en todos los ámbitos, y la cantidad de información diaria aumenta constantemente. La necesidad de que esta información pueda ser transmitida eficientemente y con seguridad es uno de los mayores problemas de la tecnología actual. Cada vez nos acercamos más al límite posible de información que puede ser utilizada por los circuitos electrónicos.
Una guía de onda es una estructura en la cual se confina la luz dentro de una zona de un sustrato. Existen tres tipos principales de guía de ondas: las guías de onda planas, donde la luz se encuentra encerrada en un plano con el sustrato arriba y abajo. Las guías de onda canales, donde la luz está en un sustrato, con una cara expuesta al medio, y por último las fibras ópticas, donde la guía es un cilindro rodeado por el sustrato.
El uso principal de las guías de onda es su utilización en los circuitos ópticos. Un circuito óptico funciona de manera similar a un circuito electrónico, la diferencia principal es el uso de fotones como transmisores de la información. Debido a que los circuitos ópticos se limitan a la velocidad de los fotones, tienen la ventaja de ser entre 10 y 100 veces más rápidos que los circuitos electrónicos. Además, que no se ven afectados por variables como el campo magnético o temperatura en el trayecto. Podemos, en concreto, confinar un haz de luz en pequeñas cavidades (por ejemplo, fibra óptica) y usarlo a modo de interruptores que bloquea o permite el flujo de luz, tal como podría funcionar un transistor, con la ventaja de una velocidad, estabilidad y eficiencia de energía mucho mayor.
METODOLOGÍA
La muestra por medir fue proporcionada por el CIO. Esta muestra consiste en un sustrato de vidrio sódico-cálcico de 25mm de largo, 8mm de ancho y 1mm de profundidad. En este vidrio se crearon guías de onda a través de la técnica de escritura láser directa de femtosegundos (FDWL). Estas guías fueron creadas en una matriz de 4X6, donde las columnas 1 y 2 se realizaron con una energía de láser de 1µJ y la columna 3 y 4 con una energía de 2 µJ. Las filas se dividen por una distancia de 100 µm entre sí, empezando en los 100 µm de profundidad y terminando la fila 6 en los 600µm.
Para realizar las mediciones se utiliza un láser de He-Ne rojo con una potencia de 10 mW a una longitud de onda de 633 nm. Este láser se acopla a la muestra utilizando un objetivo de microscopio 10X a 3 mm de distancia de la muestra. El haz resultante de la guía de onda se amplifica utilizando un objetivo 20X. Para asegurar un correcto acoplamiento en ambos casos se utilizan 3 microposicionadores, dos de ellos son en 3 ejes para los objetivos y el último es en 2 ejes para la muestra. Por último se coloca una cámara CCD a 16 cm (la longitud de tubo específica para nuestros objetivos de microscopio).
Para realizar las mediciones de los tamaños de modos de cada guía se utilizó el programa Thorlabs Beam en conjunto con la cámara CCD. La cámara fue adaptada con un filtro de atenuación de 40dB. Con la aplicación se obtenían los valores de potencia. Se filtraba en Excel todos los valores menores al 13.53% de la potencia máxima y se obtuvo su posición en la cámara de estas potencias, se obtuvo la distancia entre estas posiciones y se dividió entre 20 (la amplificación del objetivo), esto nos da el tamaño del modo.
Los cálculos de pérdidas de las guías se obtienen con la ecuación:
αp=(10/L)•log(Tg/(nac•Tf))
donde αp es la pérdida de potencia en dB/cm, L la longitud de la guía de onda, TG la transmitancia de la guía, nac siendo la eficiencia de acoplamiento entre el láser y la guía, y un parámetro que definimos como:
Tf=(4nz•ng)/(nz+ng)
donde ng es el índice de refracción de la guía y nz el índice de refracción entre el lente y la guía.
Para conocer la pérdida por propagación también ocupamos la eficiencia por acoplamiento , la cual se estima con la siguiente ecuación:
nac=ndes•nfres•nmodos
donde ndes es la eficiencia dada por la desalineación, nfres la eficiencia debido a las reflexiones de Fresnel en el extremo de entrada de la guía y nmodos la eficiencia por el acoplamiento de los modos transversales.
Todas estas ecuaciones se realizan con la ayuda de Excel para obtener los resultados de las pérdidas de nuestras guías de ondas.
CONCLUSIONES
En esta estancia de verano se adquirieron conocimientos teóricos acerca de las guías de onda, así como, la forma de caracterizarlas. También, podemos observar cuáles son las variables que afectan a las guías de onda a través de la escritura láser. Observamos que mientras mayor sea la profundidad de grabado en la muestra, se incrementa el tamaño de la guía, si esta profundidad es grande también se empiezan a presentar aberraciones en el grabado. Otro punto importante de la técnica es la potencia, ya que observamos que, con una potencia mayor, las guías resultantes tienen diámetros mayores, pero pérdidas energéticas menores.
Palacios González Diego, Universidad de Guadalajara
Asesor:Dr. Emerson Sadurní Hernández, Benemérita Universidad Autónoma de Puebla
DISTORSIóN DE LA ESTRUCTURA ESQUELETAL DEL BUTADIENO EN MODELOS SIMPLIFICADOS HUCKELOIDES EN LA APROXIMACIóN ARMóNICA.
DISTORSIóN DE LA ESTRUCTURA ESQUELETAL DEL BUTADIENO EN MODELOS SIMPLIFICADOS HUCKELOIDES EN LA APROXIMACIóN ARMóNICA.
Palacios González Diego, Universidad de Guadalajara. Asesor: Dr. Emerson Sadurní Hernández, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Las configuraciones de equilibrio de moléculas orgánicas solo pueden obtenerse a través de métodos numéricos de alta complejidad, incorporados en software de altos costos y cuyos algoritmos se desarrollan en supercomputadoras. En este proyecto de educación de calidad, se plantea el estudio de un modelo sencillo con un mínimo de grados de libertad que exhiba el efecto Jahn-Teller en la química orgánica o en compuestos relevantes para la nanotecnología. Más allá de la aproximación Born-Oppenheimer, el movimiento nuclear puede influir de manera importante en las configuraciones electrónicas más estables de cadenas poliméricas, como lo ha demostrado la deformación de Peierls. Claramente, los modelos más simples de transporte electrónico en complejos de carbono describen razonablemente bien el comportamiento conductor nanoscópico en potenciales aplicaciones de microcomponentes relevantes para el procesamiento de información cuántica. Esta simplicidad de los modelos huckeloides puede acompañarse de consideraciones igualmente sencillas, como la aproximación armónica cuantizada (fonón) de los movimientos mecánicos de un polímero, así como su interacción mínima en forma de acoplamientos bilineales con los ya mencionados niveles electrónicos. El problema consiste en caracterizar el espectro conjunto de las tres contribuciones ya mencionadas, lo que implica la diagonalización de operadores en un espacio de Hilbert reducido y mucho más pequeño que aquel correspondiente a cálculos de primeros principios, dominio del supercómputo. Dentro del planteamiento se incluye también, como objetivo, la presentación de métodos y resultados que sean adecuados para estudiantes de nivel superior en el área de química, físico-química y nanotecnología.
METODOLOGÍA
Se utiliza extensamente la aproximación de Hückel para describir las amplitudes de tunelamiento de los electrones en orbitales pi. Aunado a esto, se trabaja con modelos algebraicamente solubles, incluso en la aproximación armónica, para la dinámica de las coordenadas nucleares descompuestas en modos normales según su matriz de adyacencia provista por el modelo molecular esqueletal en forma de un grafo matemático. Posteriormente se reconoce que la integral de traslape entre funciones de onda contiguas contiene, paramétricamente, la distancia entre centros atómicos. Dicho parámetro, en virtud del teorema Hellman-Feynman, recupera su naturaleza dinámica al sustituirse por las coordenadas nucleares de los átomos que conforman la molécula. El modelo resultante guarda una importante analogía con los modos de vibración de un cristal en la descripción del efecto Jahn-Teller y la ruptura espontánea de la simetría. Finalmente, se procede a la identificación de los niveles energéticos más bajos para el sistema conjunto e interactuante. Debe concluirse que el estado base del compuesto está representado por una configuración vibracional deformada y distinta a la del reposo, gracias a la interacción que produce una repulsión de niveles degenerados.
CONCLUSIONES
Se espera la obtención de un conjunto de estados estacionarios electrón-vibración dado por una suma fuertemente correlacionada entre ambos grados de libertad. La analogía con el modelo Jaynes-Cummings permitirá explorar cuantitativamente dichas correlaciones, así como las posiciones de equilibrio correspondientes a cuantos de vibración diferentes de cero. Se demostrará que una desexcitación electrónica debe ir acompañada de una ocupación del número de cuantos vibracionales (estados de Fock) y con ello una configuración energética mínima diferente a la del equilibrio clásico armónico. Se recuperarán los elementos más sencillos que producen este efecto dentro del modelo de estudio, con el fin de elaborar un documento que explique de manera simple la aparición del efecto Jahn-Teller, con miras a incluirse en textos pedagógicos a nivel licenciatura para ingenierías, física, física aplicada y matemáticas.
Palacios Santiago Sergio Israel, Universidad Autónoma de Chiapas
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
DISPOSITIVO TéRMICO PARA LA REDUCCIóN DE LA CONTAMINACIóN MEDIANTE UN TORBELLINO
DISPOSITIVO TéRMICO PARA LA REDUCCIóN DE LA CONTAMINACIóN MEDIANTE UN TORBELLINO
Palacios Santiago Sergio Israel, Universidad Autónoma de Chiapas. Quiñones Sánchez Carol Edith, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La capa de inversión es un proceso meteorológico que ocurre en la atmosfera, el cual implica que la temperatura a mayor altura aumente, esto produce un efecto de tapón el cual impide el intercambio de masas, pues solo materia con una temperatura mayor a la de la máxima de la capa de inversión puede traspasarla.
Uno de los mayores problemas ambientales actuales es la contaminación provocada por gases de efecto invernadero, tales como el combustible de los vehículos, la industria, y el consumo de gas L.P, a los cuales se les atribuyen la formación de ozono, ahora, el problema radica en que los gases al ascender aumentan su volumen y por lo tanto disminuyen su temperatura, de forma que no son capaces de pasar por la capa de inversión y entonces quedan atrapados, la solución que se propone es calentar el aire para crear un agujero en la capa de inversión y producir el cambio de materia, y mediante el torbellino dispersar los contaminantes y a su vez jalar el aire caliente hasta la capa de inversión, siendo esto el símil un huracán, pero en una escala mucho menor.
METODOLOGÍA
Se propone llevar a cabo pruebas mediante modelación multi física con Comsol Multiphysics de dos sistemas, uno cuya fuente de calor es el gas L.P., y el segundo utilizando el calor de las chimeneas de la industria utilizando a su vez el agua de desechos para evaporarla.
Esto se llevara a cabo mediante un diseño anterior, mejorando sus caracteristicas y modelando su funcionamiento con distintos dominios maximos, desde el diseño original hasta un kilometro de altura, lo cual seria suficiente para asegurar que se llego y traspaso la capa de inversion.
La simulacion consistira en el dispositivo formado por multiples ventiladores y la fuente de calor, el dominio maximo de aire y la capa de inversion con sus respectivas caracteristicas
CONCLUSIONES
Por lo tanto, se consiguió simular los efectos del torbellino producido por el modelo propuesto el cual consiste 8 ventiladores los cuales se configuraron para alcanzar una velocidad de 60m/s, de esta forma se logro generar el torbellino de hasta un kilómetro, logrando así el objetivo principal que es penetrar la capa de inversión con una diferencia de temperatura que supera los 20 grados kelvin y así mismo poder dispersar los contaminantes presentes en ella.
Finalmente se sigue trabajando en la dependencia temporal de la simulación, con la ayuda del LNS de la BUAP.
Palafox Juárez Carmen Aida, Instituto Tecnológico de Sonora
Asesor:Dra. Magdalena Elizabeth Bergés Tiznado, Universidad Politécnica de Sinaloa
CARACTERIZACIóN Y PREPARACIóN DE MUESTRAS ORGáNICAS E INORGáNICAS PARA ANáLISIS DE METALES Y METALOIDES
CARACTERIZACIóN Y PREPARACIóN DE MUESTRAS ORGáNICAS E INORGáNICAS PARA ANáLISIS DE METALES Y METALOIDES
Camacho Zacarias Miriam Yolotzin, Instituto Tecnológico del Valle de Morelia. Galaviz Sauceda Edith Marcela, Instituto Tecnológico de Sonora. Palafox Juárez Carmen Aida, Instituto Tecnológico de Sonora. Asesor: Dra. Magdalena Elizabeth Bergés Tiznado, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La presencia de metales y metaloides en el agua, suelos, plantas y organismos acuáticos es un problema de contaminación global. Algunos de estos elementos resultan ser esenciales, mientras que otros pueden perjudicar o alterar el funcionamiento de los individuos. En muchos casos el potencial riesgo o beneficio depende de la concentración en la que estos se encuentran, ya que pueden ser muy peligrosos debido a que son agudamente tóxicos para ciertos organismos en determinadas cantidades, altamente persistentes en el tiempo, es decir no son biodegradables, por lo que permanecen en el medio ambiente durante largos periodos y bioacumulable en los tejidos de distintos organismos.
El objetivo de esta estancia fue caracterizar suelos provenientes de dos regiones mineras y la preparación de estas matrices inorgánicas, así como de muestras de plantas y músculo comestible de curvinas para el análisis de metales y metaloides.
METODOLOGÍA
Las muestras de suelo se recolectaron en dos sitios mineros de Sinaloa, en Cosalá y Concordia, estas se obtuvieron y prepararon de acuerdo con la Norma Oficial Mexicana NOM-021-RECNAT-2000, que establece las especificaciones de fertilidad, salinidad y clasificación de suelos. Estudios, muestreo y análisis. El método AS-01 se utilizó para preparar las muestras de suelo, el AS-02 para determinar el pH, la materia orgánica se midió a través del método AS-07 de Walkley y Black y la textura por el procedimiento de Bouyoucos (AS-09).
En cuanto a las plantas y el músculo de curvina, primero se liofilizaron durante 72 horas para retirar la humedad de las matrices. Después, las muestras orgánicas e inorgánicas (muestras de suelo) se homogenizaron y posteriormente, se sometieron a una digestión ácida (por duplicado), usando vasos de digestión de teflón con capacidad de 60 mL.
Plantas
Se agrega a cada frasco con muestra 5ml de HN03 + 1.5 ml de HF
Se hacen 2 blancos, introduciendo solo los ácidos
Músculo de curvina
Se agrega a cada frasco con muestra 5ml de HNO3
Se hacen 2 blancos, introduciendo solo los ácidos.
Se hace una muestra con material de referencia y los ácidos.
Se colocan los recipientes cerrados dentro de una charola con arena de mar común, esto sobre una plancha de calentamiento a altas temperaturas durante 3 hrs, dentro de una campana de extracción de gases.
Las muestras digeridas se llevaron a un volumen final de 20 mL con agua milliQ y se almacenaron en frascos de polietileno previamente acondicionados y lavados para su futuro análisis en un equipo de espectrofotometría de absorción atómica.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teórico-prácticos de las metodologías necesarias para la caracterización de suelos y el procesamiento de muestras de origen orgánico e inorgánico para la determinación de metales y metaloides. Se procesaron un total de 7 muestras de suelo y se les determinó el pH, porcentaje de carbono orgánico y materia orgánica, así como textura. Estos suelos y las muestras de tallo, raíz y hojas de 10 plantas acumuladoras de metales y metaloides, así como porciones de músculo de 80 individuos de curvina fueron digeridos y se están próximos a ser analizados para determinar la concentración de elementos como mercurio, cadmio, plomo, arsénico, entre otros.
Los resultados finales de la investigación serán relevantes para determinar el posible daño ambiental que ha provocado la minería en zonas del sur de Sinaloa en los ecosistemas.
Pale Cuevas Emmanuel, Universidad Veracruzana
Asesor:Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
ANÁLISIS DE VARIABILIDAD CLIMÁTICA PARA PUERTO VALLARTA EN EL PERÍODO 2008-2022
ANÁLISIS DE VARIABILIDAD CLIMÁTICA PARA PUERTO VALLARTA EN EL PERÍODO 2008-2022
Pale Cuevas Emmanuel, Universidad Veracruzana. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La variabilidad climática se entiende como el cambio de las condiciones de la atmósfera para un periodo el cual puede ir de uno a varios meses, años, décadas e incluso períodos más largos que son hasta de siglos. Esto se debe a un estado natural, ya que se presentan de manera cíclica debido a otros factores como la rotación y traslación de la tierra, circulación del aire y el océano, y las regiones del sol con alta actividad magnética con las manchas solares. Es importante tratar entender el comportamiento de la temperatura y precipitación, de esta forma poder proyectar y preparar a la humanidad para las condiciones futuras que el clima pueda tener, recordar la importancia que tiene la variabilidad en la forma del clima para una región, ayuda a ubicar el cambio climático proyectado al contexto de la variabilidad climática.
Es por eso que se realiza un análisis de variabilidad climática para la región de Puerto Vallarta, Jal. Saber los cambios de las condiciones que ha tenido la atmósfera para el periodo comprendido de quince años, del 2008 al 2022, para lo cual se realizó la relación con patrones de anomalías globales, a través de ellos los diferentes índices climáticos como el de los fenómenos El Niño Oscilación del Sur (ENSO), La Oscilación del Atlántico Norte (NAO) y La Oscilación Decadal del Pacífico (PDO).
METODOLOGÍA
Para realizar este análisis se utilizaron datos mensuales de temperatura máxima, mínima, media y de precipitación, de un periodo de 15 años, comprendido del 2008 al 2022, de dos estaciones meteorológicas automáticas Davis Vantage pro plus 2. Una se encuentra ubicada en el Centro Universitario de la Costa (CUC) de la Universidad de Guadalajara, campus Puerto Vallarta a una latitud 20.7037°N y una longitud -105.222°E esta con un 98.8% de los datos, la segunda estación se encuentra en la preparatoria regional de Puerto Vallarta (Prepa PV) a una latitud 20.663°N y una longitud -105.2159°E esta con un 95.8% de los datos.
Se calculó primero el promedios y desviación estándar mensual, de todos los eneros del periodo, luego de todos los febreros del periodo y así sucesivamente hasta el promedio de todos los diciembres para cada una de las variables. posteriormente. La anomalía estandarizada que se obtuvo tomando el dato mensual restándole el promedio mensual y dividiéndolo entre la desviación estándar del mes correspondiente. Ya calculada la anomalía estandarizada se procedió a suavizar los datos, promediando los valores de anomalía por periodos bimensuales (dic-ene, ene-feb, mar-abr, etc) y trimestrales (dic-ene-feb, ene-feb-mar y así sucesivamente).
Posteriormente procedimos a buscar los valores de los índices que se utilizarían para realizar la correlación, los índices de cada uno de los fenómenos que se utilizaron fueron el Índice Oceánico de El Niño (ONI), Índice Multivariado de El Niño (MEI), el índice de la Oscilación Decadal del Pacífico (PDO) y el índice de la Oscilación del Atlántico Norte (NAO). Cada uno se descargó y se calculó los coeficientes de correlación con los valores observados desde cada estación, así como con los valores de anomalía estandarizada por mes, con los promedios de anomalía estandarizada bimestral y por último con los valores de anomalía estandarizada trimestral.
CONCLUSIONES
Los índices se calculan principalmente a partir de las anomalías del promedio de la temperatura superficial del mar en un segmento del Océano Pacífico y no de valores extremos. Es por eso que se encontró una mayor correlación de los diferentes índices con la temperatura media de los valores mensuales de la estación. La mayor correlación se encontró con los índices del MEI, ONI y PDO mientras que se obtuvo una menor correlación en el NAO. Los diferentes valores de correlación indica que porcentaje de influencia
Passo Riquett Catalina Andrea, Universidad de la Guajira
Asesor:Dra. María del Socorro Menchaca Dávila, Universidad Veracruzana
DISPONIBILIDAD HíDRICA EN CANTIDAD Y CALIDAD Y SU RELACIóN CON EL SUELO EN LA MICROCUENCA DEL RíO PIXQUIAC, VERACRUZ MéXICO.
DISPONIBILIDAD HíDRICA EN CANTIDAD Y CALIDAD Y SU RELACIóN CON EL SUELO EN LA MICROCUENCA DEL RíO PIXQUIAC, VERACRUZ MéXICO.
Passo Riquett Catalina Andrea, Universidad de la Guajira. Santos Rios Karent Jyneth, Universidad de la Guajira. Asesor: Dra. María del Socorro Menchaca Dávila, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
Una cuenca se define como el espacio limitado que incluye desde los aspectos que abarcan las formas geológicas de la Tierra que captan, concentran y distribuyen los distintos flujos hídricos, que provienen de las precipitaciones de la región, hasta los aspectos relacionados con los ecosistemas, los seres humanos que habitan espacios y territorios, así como los relativos a la economía en cuanto a los sistemas y modos de producción de bienes y servicios (Menchaca & Bello, 2015).
La Microcuenca del Río Pixquiac es una fuente importante de agua potable para la ciudad de Xalapa y para las localidades de los municipios de Acajete, Tlalnelhuayocan, Perote, Las Vigas de Ramírez y Coatepec; pero el crecimiento poblacional ha traído consigo implicaciones en la contaminación, lo cual conlleva a la disminución en la disponibilidad del recurso para el consumo humano (Zapata, 2009).
En consecuencia, en el Observatorio del Agua para el Estado de Veracruz, OABCC (Agua, Bosques, Cuencas y Costas) se han llevado a cabo investigaciones desde el año 2006 en la microcuenca del río Pixquiac, en dónde se identifican problemas medioambientales principalmente en los servicios ambientales y en el agua para su uso y consumo; debido a los cambios en sus características fisicoquímicas y microbiológicas, y la presencia de metales pesados por el uso de agroquímicos en los cultivos (Menchaca & Ríos, 2018).
Lo anterior, ha provocado impactos y afectaciones en los recursos, ya que los usuarios del agua agrícolas (aplicación de agroquímicos), pecuarios (manejo inadecuado de las heces fecales) y domésticos (falta de drenaje y tratamiento de las aguas residuales) son factores que afectan directamente el recurso agua, mediante procesos de escurrimiento, arrastre e infiltración en el suelo, transportando los contaminantes a los cuerpos de agua naturales. Asimismo, se señala que en la microcuenca se identifican afectaciones tanto en sistema eco hidrológico como en la salud de la población (Menchaca & Ríos, 2020).
Con base a lo anterior, la pregunta de conocimiento en el verano de investigación que se plantea es la siguiente:
¿Cuál es la disponibilidad hídrica en cantidad y calidad y su relación con el suelo, en la Microcuenca del Rio Pixquiac?
METODOLOGÍA
A. Descripción del aréa de estudio
La microcuenca del río Pixquiac se encuentra ubicada en el Estado de Veracruz, México, nace en la vertiente nororiental de Cofre de Perote, entre las coordenadas 19°33´35 y 19°26´05 de latitud Norte y 96°54´39 y 97°08´45 de longitud oeste, presenta una extensión aproximada de 107 km2; al mismo tiempo está constituida parcialmente por los territorios de los municipios de Las Vigas de Ramírez, Acajete, Coatepec, Perote y San Andrés Tlalnelhuayocan (Menchaca et al; 2015).
B. Procedimiento
Para la obtención de la información se tuvieron en cuenta dos tipos de fuentes:
Fuentes Primarias
Base de datos Sequía (CONAGUA.gob.Mx).
Base de datos calidad del OABCC
Base de datos Cantidad del OABCC
Revisión Biliografica
Fuentes Secuendarias
Revisión Biliografíca de artículos en publicada en la plataforma de OABCC.
Revisión de artículos.
Inicialmente, se revisó literatura científica para identificar la problemática del agua respecto a la disponibilidad hídrica en cantidad y calidad y su variabilidad en relación con el suelo, por efectos de las actividades naturales y antrópicas. Se revisaron distintas temáticas sobre los recursos agua y suelo tales como:(calidad, cantidad, usos, servicios ecosistémicos, contaminación, degradación del suelo, micro plásticos, relación agua-suelo y procesos de escurrimiento, arrastre e infiltración)
Se procesó la base de datos del Observatorio del Agua para el Estado de Veracruz, OABCC (Agua, Bosques, Cuencas y Costas) en relación al comportamiento y/o la variación de los parámetros fisicoquímicos, metales y cianuros y microbiológicos; específicamente de las características (nitritos, detergentes, cadmio, plomo, cromo, arsénico, coliformes totales y coliformes fecales) en las presas de Cinco Palos, Cofre de Perote, Medio Pixquiac y Socoyolapan ubicadas en la microcuenca del Río Pixquiac. La información que se analizó de manera diacrónica es desde el año 2005 hasta el 2016 exceptuando el año 2013; se señala que dicha base de datos se elaboró a partir de los reportes cuatrimestrales. Para realizar el procedimiento estadístico, se desarrolló el data tidying teniendo en cuenta una serie de criterios, las cuales se construyeron en base a la NOM-127-ssa1-1994 la cual, establece los límites permisibles de calidad y los tratamientos de potabilización del agua para uso y consumo humano.
Por otra parte, se llevó a cabo un análisis exploratorio descriptivo de la información sobre la calidad del agua, donde se obtuvieron resultados tabulados y gráficos teniendo en cuenta los períodos de sequía y precipitación.
CONCLUSIONES
Se determinaron una serie de criterios, teniendo en cuenta la normativa Mexicana NOM-127-ssa1-1994; donde se pudieron establecer las siguientes:
Dentro del límite permisible (o contaminada)
Al limite permisible (Limite contaminada)
Por encima del límite permisible (contaminada)
Los metales y cianuros, presentan 357 registros, establecidos dentro del límite permisible (no contaminada) a su vez, se reportan 20 registros que se encuentran por encima del límite (contaminada).
A partir de los datos analizados en la base de datos de calidad se puede interpretar que las características de los coliformes totales y fecales presentan altos niveles de concentración, superando así, el límite permisible establecido por la NOM-127-ssa1-1994.
Conforme a los datos ausentes se puede determinar que el parámetro de metales y cianuros presento la mayor frecuencia con un valor de 320 datos registrados en las presas de estudio.
Conforme a la categoría uno establecida como dentro del límite permisible, específicamente del parámetro fisicoquímico (nitritos y detergentes) presenta la mayor frecuencia con un valor de 239 datos.
Pastrana Quirino Elizandra, Universidad Autónoma de Guerrero
Asesor:Dr. Carlos Alberto Aguirre Gutierrez, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias
CÁLCULO DE LA HUELLA HÍDRICA VERDE DE LOS CULTIVOS DE MAÍZ Y FRIJOL DE TEMPORAL EN LA REGIÓN ALTOS NORTE DE JALISCO
CÁLCULO DE LA HUELLA HÍDRICA VERDE DE LOS CULTIVOS DE MAÍZ Y FRIJOL DE TEMPORAL EN LA REGIÓN ALTOS NORTE DE JALISCO
Pastrana Quirino Elizandra, Universidad Autónoma de Guerrero. Asesor: Dr. Carlos Alberto Aguirre Gutierrez, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias
PLANTEAMIENTO DEL PROBLEMA
El agua es un recurso hídrico en el que se ha generado una alta presión debido a la demanda para el uso doméstico y la producción de bienes y servicios en diferentes sectores. La escasez de agua dulce se ha agravado debido al manejo ineficiente y el crecimiento demográfico constante, resultando en problemas de contaminación y cambio climático. En consecuencia, México pasó de ser un país con alta disponibilidad de agua a uno con baja, siendo el sector agrícola el que mayor cantidad de agua ocupa. La Huella Hídrica (HH) es un indicador que refleja el volumen total de agua dulce utilizado en la producción de algo, ya sea incorporado al producto, evapotranspirado por cultivos, devuelto a otra cuenca o empleado para asimilar contaminantes. La HH verde se relaciona con el consumo de agua de lluvia, mientras que la HH azul indica el uso de agua superficial o subterránea.
Es importante tener en cuenta la HH, porque el uso insostenible del agua es un problema creciente que estamos enfrentando en todo el mundo. La contaminación y el agotamiento de los recursos hídricos son desafíos que enfrentamos actualmente. Dicho esto, el objetivo de esta investigación fue calcular la HH verde de los cultivos de maíz y frijol de temporal en la Región Altos Norte de Jalisco y generar mapas para la representación de la HH verde de los cultivos de los 8 municipios en estudio.
METODOLOGÍA
El estudio se realizó con un periodo de 4 años (2014-2017) en los 8 municipios que componen la región Altos Norte del estado de Jalisco: Encarnación de Díaz, Lagos de Moreno, Ojuelos de Jalisco, San Diego de Alejandría, San Juan de los Lagos, Teocaltiche, Unión de San Antonio y Villa Hidalgo. Se recopilaron datos climatológicos del Servicio Meteorológico Nacional (SMN) de los 8 municipios para los cuatro años de estudio. Posteriormente, con el uso del software ArcGIS, se realizó un Clip para extraer los municipios de interés y un Buffer para identificar cada estación meteorológica de influencia de cada uno de los municipios (se consideraron 5 km alrededor del polígono de los 8 municipios), para ello se usó un Shapefile descargado de INEGI. Seguidamente para completar los datos, se descargaron los faltantes en las estaciones del SMN mediante el Dataset Terra Climate de Google Earth Engine, así como de las variables de velocidad del viento y presión real de vapor. Por otra parte, se usó un Shapefile de edafología para obtener los datos edafológicos que serán necesarios para calcular las láminas de rego y precipitación efectiva.Con los datos obtenidos se calcularon los valores de humedad relativa e insolación con el método de la FAO Penman-Monteith para cada municipio. Una vez obtenidos todos los datos necesarios, se determinaron las láminas de riego y precipitación efectiva de los cultivos para cada municipio con el programa Cropwat 8.0 y finalmente se calculó la Huella Hídrica verde de los cultivos en estudio
CONCLUSIONES
En el análisis realizado del cálculo de la HH verde de los cultivos se identificó que el cultivo de frijol obtuvo la HH verde más alta, al igual que el promedio de todo el periodo de años en estudio. Durante los años 2014 y 2016, la precipitación no fue suficiente para sostener la producción de los cultivos de frijol y maíz, ya que el modelo indicó la necesidad de láminas de riego para su desarrollo. Por otro lado, los años 2015 y 2017 fueron más lluviosos, lo que permitió que el agua incorporada por la precipitación fuera suficiente para mantener la producción de los cultivos, resultando en un aumento de la HH verde en la mayoría de los cultivos y municipios. Es importante destacar que la escasez de precipitación en algunos municipios, depende mucho de la ubicación y geomorfología del lugar, ya que al encontrarse en diferentes altitudes algunas más altas y otras más bajas, esto determina y afecta la cantidad de precipitación, humedad, clima y condiciones de suelo, provocando que la producción de maíz y frijol no sea sostenible en algunos casos ya que los cultivos se encuentran más limitados por la cantidad de agua requerida para su desarrollo, lo que representa un desafío para garantizar la viabilidad de la agricultura en esas regiones.
Patricio Alemán Jonathan, Instituto Tecnológico Superior de Apatzingán
Asesor:Mtro. Adrian López Hernández, Instituto Tecnológico Superior de Apatzingán
ANÁLISIS GEOESPACIAL EN LOS ESTUDIOS Y DISEÑOS URBANOS E HIDROLÓGICOS POR MEDIO DEL USO DE DRONES
ANÁLISIS GEOESPACIAL EN LOS ESTUDIOS Y DISEÑOS URBANOS E HIDROLÓGICOS POR MEDIO DEL USO DE DRONES
Cano Morfin Ryan Hsan, Instituto Tecnológico Superior de Apatzingán. Magaña Tovar Leonardo Guadalupe, Universidad de Colima. Patricio Alemán Jonathan, Instituto Tecnológico Superior de Apatzingán. Asesor: Mtro. Adrian López Hernández, Instituto Tecnológico Superior de Apatzingán
PLANTEAMIENTO DEL PROBLEMA
Dentro de los últimos años , la población de la región del Municipio de Apatzingán ha crecido espontáneamente ocasionando que el aumento a su vez la demanda exige que la población deba extenderse hacia regiones bastante alejadas, de una manera repentina y sin precedentes, a causa de esta situación las zonas más alejadas de la ciudad se encuentran establecidas en terreno sin estudios ni precedentes previos para determinar la calidad del uso de suelo lo que significa un alto riesgo de sufrir algún daño colateral en toda vivienda que sea construida en dicha zona, la cual se encuentra ubicada en las colonias de nombre Lomas del pedregal y Adolfo López mateos, ubicadas alrededor de una cordillera, exponiendo a las viviendas a sufrir deslaves y derrumbes por el movimiento de ésta.
METODOLOGÍA
El tipo de metodología implementada para la investigación fue mixto, ya que implica un conjunto de procesos de recolección, análisis y vinculación de datos cuantitativos y cualitativos en un mismo estudio o una serie de investigaciones para responder a un planteamiento del problema. Para la investigación cualitativa fue basada por medio de consultas bibliografías de metodologías aplicadas a los deslizamientos de tierra, así como de cuestionarios elaborados para poder dar noción del conocimiento que se tiene acerca de los factores de riesgo de alguna zona en cuestión. Por otra parte la investigación cuantitativa, en la cual a partir de la recolección de datos geoespaciales identificar las zonas susceptibles a deslizamientos y analizar las afectaciones las cuales pudieran pasar. La implementación de la investigación cuantitativa podemos lograr resultados aplicando metodologías de las cuales son para determinar, analizar e identificar las zonas vulnerables en el área de estudio.
CONCLUSIONES
Gracias a las nuevas tecnologías que hoy en día se puede aplicar ciento de metodologías, obtener resultados óptimos y de manera eficaz. La utilización de drones en esta investigación son una herramienta prometedora para el estudio y diseño urbano e hidrológico para la prevención de desastres, los cuales ofrecen una serie de ventajas sobre los métodos tradicionales, incluyendo una mayor precisión, eficiencia y nivel de detalle. Los drones pueden capturar imágenes y datos en alta resolución que pueden utilizarse para identificar áreas de riesgo, monitorear el movimiento de la tierra y evaluar el impacto de los deslizamientos de tierra, así como planificar y diseñar proyectos de prevención de desastres. Por ejemplo, los drones se pueden utilizar para mapear áreas que son propensas a inundaciones, identificar áreas que necesitan ser reforestadas y evaluar el impacto de las obras de infraestructura.
El uso de drones para el estudio y diseño urbano e hidrológico para la prevención de desastres, teniendo optimas mejoraras de precisión, eficiencia y nivel de detalle de la recopilación de datos geoespaciales, con los drones se recopilan datos que pueden utilizarse para salvar vidas y proteger la infraestructura.
Gracias a el equipo GNSS (Sistema Global por Navegación por Satélite) y a la implementación de los Sistemas de información geográfica son parte fundamental para la recolección y producción de datos geoespaciales.
La zona evaluada presentó un ligero desplazamiento en algunas mojoneras, el movimiento que se tuvo fue de 5 mm a 3 cm, determinados estos movimientos son por la influencia de él margen de error de los equipos empleados. En base al estudio obtenido se elaboró una predicción con métodos geoestadísticos de interpolaciones correspondiente al desplazamiento de los puntos de control, el cual sigue un patrón que presentan los puntos de control, aunque no son del todo preciso pues falta información fundamental para poder lograr que funcione con más precisión, pero por otro lado también es válido, puede servir de referencia sobre cómo se está comportando todo el área de interés y así poder dar información a las personas que habitan en sus alrededores, como a las autoridades pertinentes y puedan tener un plan de acción ante un suceso.
En base a la investigación realizada, se recomienda lo siguiente; continuar investigando el uso de drones para el estudio y diseño urbano e hidrológico para la prevención de desastres, desarrollar marcos metodológicos para el análisis de la información recopilada por drones, identificar las principales fuentes de datos proporcionadas por los drones y analizar su relevancia para la identificación de zonas de riesgo, aplicar técnicas de análisis de datos para extraer información útil de los conjuntos de datos y por ultimo evaluar la eficacia del análisis de información mediante la comparación de casos de estudio y la medición de los resultados obtenidos.
Perea Vazquez Jessica, Universidad Autónoma de Ciudad Juárez
Asesor:Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional
SINSTESIS Y CARACTERIZACIóN DE BHAP APARTIR DE UNA FUENTE BIOGENICA
SINSTESIS Y CARACTERIZACIóN DE BHAP APARTIR DE UNA FUENTE BIOGENICA
Perea Vazquez Jessica, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La ingeniería de tejidos también conocida como medicina regenerativa, es la rama encargada de mejorar o reemplazar funciones biológicas, es por eso por lo que se busca emplear una combinación de materiales a base de fuentes biogénicas (bovina) para contribuir y prolongar la eficacia de los productos desarrollados en comparación a los que son desarrollados por una fuente sintética, para así remplazar a largo plazo o permanentemente una función vital. Además, se busca la obtención de andamios porosos mediante compactación y sinterización.
METODOLOGÍA
Síntesis y caracterización de BHAp a partir de una fuente biogénica.
Paso 1.
Obtenemos el hueso bovino con materia orgánica por lo que se hacen limpiezas con bisturí y se mete a la autoclave por 3 horas para poder desprender carne o ligamentos que aun queden incrustados en el hueso, se repite limpieza con bisturí para asegurar de desprender toda la materia orgánica y así pasar a tener un hueso poroso y seco.
Paso 2.
Después de tener el hueso en esas condiciones pasa al triturador de mandíbula triturando por una malla de 8 micras y 2 micras. Y un tamizado de 15 minutos. Después de este tamizado, metimos una cantidad de 5gr en en 2 viales para moler en molino de alta energía spex por un tiempo determinado de 1 hora, para avanzar en el proceso de tamizado. Al igual se hizo una molienda de 50gr en 4 viales en el molino planetario Retsch PM400
Paso 3.
Se realiza el proceso de tamizado de polvos por molienda, esto consiste en una serie de tamices empezando por 100 micras hasta llegar a una de 23 micras, iremos tamizando en ciclos de 30 minutos por descansos de 5 minutos, hasta a completar una hora. Posterior a esto si sigue quedando mucho polvo en los primeros dos tamices los metemos a molienda de alta energía llamado spex en viales pequeños con capacidad de 5 gr c/u y una relación de bolas de nitruro de silicio 1:2 , por ciclos de 15 minutos, hasta obtener tamizar la mayor cantidad de polvo. En este caso no se contaba con los números de tamices que se indican por lo que se trato de acercar a lo indicado, fueron tamices de 103 micras,58 micras, 45 micras y 23 micras.
Paso 4.
Después de recolectar los polvos, pasaremos a un tratamiento químico, este consiste en el baño ultrasónico, tapamos los polvos con acetona con una temperatura de 0°C y repetimos a una temperatura de 45°c, cada ciclo de 30 minutos, posterior a estos, tapamos el material con etanol AL 96% dejándolo 7 horas en el baño ultrasónico, para después poder secarlos en la campana de extracción, aproximadamente 5 horas, hasta que este se seque por completo, además se introdujo en la estufa por 3 horas para eliminar cualquier humedad que allá quedado.
Paso 5.
Tratamiento térmico, este se realiza en la mufla con el polvo ya seco, ahora bien, nos guiamos en nuestro diagrama de fase que se nos indica que es en una temperatura de 1200-1500°c para poder obtener BHAp.
Paso 6.
Realizamos el proceso de prensado, con una prensa eostatica por con una presión de 5 MPa, durante 5 minutos, posterior a este realizamos lo mismo en prensa hidráulica con una presión de 15 MPa, durante 15 minutos. Se realiza esto porque es más fácil sinterizar en forma de pastilla que en polvo. Como esta prensa eostatica no estaba en condiciones de utilizarse, se opto por una prensa de 5 tonaladas en el laboratorio de metalografía, donde se nos fue capacitadas para utilizarla y lograr hacer pastillas.
Paso 7.
Después de obtener nuestra pastilla, podemos pasarla a un proceso de DRX, SEM, RAMMAN y FTIR para poder analizar qué es lo que tenemos en nuestra muestra.
Obtención de andamios porosos mediante compactación y sinterización.
Lo primero que se realizo fue una revisión bibliográfica respecto a unos artículos que nos hacen énfasis en este tema, ya que conocemos que los fosfatos de calcio tienen dos propiedades primordiales para los bioceramicos ya que es un material bioactivo y biodegradable, para el uso biomédico sustituyendo un problema o deficiencia en el cuerpo, sin la necesidad de una impresora en 3D.
Para esto se menciona que uno de los principales compuestos en estos andamios que han mostrado una buena vialidad es una relación de la fase nurse A, y un aglutinante, esta consta de Acetato de Polivinilo (PVA). Por lo que se comenzó con un análisis de moliendas, primero usamos relaciones de 90/10, 80/20/85/15. Además, se repitieron estas moliendas con las mismas proporciones de BHAp/PVA, ya que también la biohidroxiapatita tiene antecedentes prometedores para la obtención de los andamios. Para estas moliendas se hizo uso del molino de alta energía spex, donde en cada vial se consto de una relación 2:1 de bolas de nitruro de silicio Si3Na4 , ya que son las que mejor respuesta tienen al desgaste energético. El proceso de molienda fue de un ciclo, moliendo solamente 1 hora, recuperábamos polvos, lavábamos viales en balo ultrasonido Branson 1015 y continuábamos con las moliendas indicadas.
Con los polvos que obtuvimos fueron llevados hacia metalografía para la producción de pastillas en una prensa de 5 toneladas donde ya se nos había capacitado posteriormente, para así ser llevadas hacia SEM y DRX, para ver la estructura que obtuvimos. No logramos ingresarlas para tratamiento térmico debido a que no estaban en funcionamiento.
CONCLUSIONES
Deseamos obtener y analizar si la BHAp que obtenga de fuente bovina sea mejor o de mayor calidad que las que encontramos en el mercado ya sea BHAp huevo, BHAp comercial, etc. No logramos observar si nuestra ruta fue mejor debido a que no logramos realizar tratamientos térmicos para ningún material, pero en la fase que se quedaron ambos proyectos logramos ver resultados satisfactorios para la continuación o conclusión de estos mismos.
En ambos proyectos que estuve trabajando, ningún proceso se logro concluir debido a pequeños factores no permitieron su continuación, pero conocí más allá de la área a la que estaba destinada, agradezco a mis asesoras M.C.Yesenia Ramos y a la Dra. Carolina Navarro por siempre estar en la mejor disposición de responder nuestras dudas y asesorarnos en toda nuestra estancia. De igual manera agradezco al Dr. Juan Muñoz por recibirnos y dejarnos hacer uso de sus equipos en el CENAPROT.
Pereyra Zarate Ángel Abraham, Universidad Autónoma de Chiapas
Asesor:Dr. Jesús Guadalupe Rodríguez González, Instituto Politécnico Nacional
CIRCUITO PARA MEDIR LA SINCRONIZACIóN EN CORAZóN AISLADO EN EL SISTEMA LANGENDORFF.
CIRCUITO PARA MEDIR LA SINCRONIZACIóN EN CORAZóN AISLADO EN EL SISTEMA LANGENDORFF.
Pereyra Zarate Ángel Abraham, Universidad Autónoma de Chiapas. Asesor: Dr. Jesús Guadalupe Rodríguez González, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En estudios realizados por Peña Romo Mario Alberto, 2018 (Estudio del efecto del ruido extrinseco en la respuesta mecanica del corazón), los resultados revelaron que los niveles bajos de ruido inducido por estimulación eléctrica llevan a un rendimiento óptimo en la respuesta mecánica del corazón. Sin embargo la sincronización entre la estimulación que se esta aplicando al corazón y la respuesta eléctrica e iónica (calcio) es esencial para el funcionamiento del corazón
. El sistema de Langendorff proporciona una valiosa oportunidad para estudiar el corazón ex vivo aislado , permitiendo un control sobre las interacciones entre estimulación que se esta aplicando al corazón y la respuesta eléctrica y iónica (calcio) , en este caso se plantea medir que el efecto de estos dos parametros es improtante.
En el CINVESTAV Monterrey, se esta desarrollando un sitema optico (integrado por; 2 camaras CMOS identicass, 4 espejos y 16 leds) para adquirir imágenes de la superficie anterior y posterior del corazón que sea capaz de medir el efecto del ruido con la sincronización en un corazón aislado mediante el sistema Langendorff, para el cual es necesario el desarrollo de un instrumento con capacidad de adquirir las señales dadas por este sistema de optocardiografía, para captar la sincronización entre la estimulacion dada y la respuesta electrica y ionica (calcio) en un corazón aislado.
La creación de este instrumento permitirá obeservar cómo las variaciones en la estimulaci´on afectan la respuesta eléctrica y como esta sincronización puede influir en la funci´on cardíaca global.
METODOLOGÍA
1.Diseño y adaptacion de circuito.
Debido a que aun no contamos con datos del sistema optico, hemos empleado dos microcon- troladores (Arduino Uno) conectados a generadores de señal para llevar a cabo un proceso de medici´on y conversi´on de señales analogicas. Nuestro objetivo fue obtener datos de los microcontroladores conectados y convertirlos en una voltaje de salida comprensible.
Para lograr esto, desarrollamos un programa ep cual realiza la lectura del valor proveniente del generador de señal. A través de los pines de entrada analógica del microcontrolador.
Luego, mediante procesamiento de señales, transformamos los valores analógicos obtenidos a un voltaje de salida y fueron guardados para posteriormente ser procesados.
El almacenamiento de los datos fue realizado en un archivo de Excel, esto facilita la manipula- ci´on de los datos para futuros propósitos de investigación.
2.Simulación.
En el contexto de esta investigación, hemos empleado el uso de softwares como Multisim y Proteus para crear simulaciones, las cuales ayudan a eficientizar la creación del dispositivo. Esta simulación implico la recepción de dos señales y su posterior transmisión a un equipo de computo, en donde se almacenaron los datos obtenidos.
3. Aportacion extra.
Como complemento, se llevo a cabo el diseño y simulación del circuito eléctrico de un electro cardiógrafo, el cual tiene como objetivo de medir la frecuencia cardíaca en tiempo rela en un corazón aislado dentro del sistema Langendorff, en combinación del sistema óptico empleado.
Para lograr este propósito el enfoque fue desarrollar un circuito que sea capaz de captar las señales eléctricas generadas por el corazón aislado bajo las condiciones específicas del sistema
Langendorff. Este circuito ha sido diseñado para garantizar precisión en la detección de las
señales cardíacas.
Cabe mencionar de esta aportación, que el circuito no se llevo a cabo de manera fisica y solo se llego a la simulacion debido al tiempo ya que es necesario mucha presicion al ser diseñado para un corazón aislado de ratón.
La integración del electrocardiógrafo con el sistema óptico empleado en el estudio ha sido considerada estratégicamente para complementar y enriquecer los datos recopilados. Al combinar ambas técnicas de medición, pretendemos obtener una visión más completa y detallada de la actividad cardiaca en el contexto específico del sistema Langendorff.
CONCLUSIONES
1. Resutados.
Como parte de esta investigación, se ha alcanzado la capacidad de adquirir dos señales simulta-neamente, las cuales una simula la respuesta eléctrica e iónica (calcio) y la otra el estimulo dado al corazón. Estas señales fueron adquiridas mediante un par de microcontroladores programados para transmitir datos de manera sincronizada, emulando así el comportamiento de las cámaras del sistema óptico en la experimentación y poder guardarlas para su posterior procesamiento.
La sincronización de los microcontroladores permitió asegurar una captura simultánea de ambas señales, lo cual es importantepara el análisis de los datos. En este contexto, las señales obtenidas se registraron en tiempo real, garantizando la integridad temporal de los datos adquiridos.
Para facilitar la posterior manipulación y análisis de los datos, se implementó un procedimiento de almacenamiento eficiente mediante el uso del software Excel. Cada uno de los datos adqui-ridos, correspondientes tanto a la simulacion de la estimulación cardiaca como a la simulacion de la respuesta eléctrica e iónica (calcio), fue registrado en el mencionado software.
2. Trabajo a futuro:La integración del Circuito en el Sistema Óptico:
A) Integración de Señales: Que se pueda implementar la interconexión adecuada para fusionar las mediciones del circuito con las mediciones ópticas, garantizando que los datos se obtengan simultáneamente.
B) Sincronización de Datos: Que se pueda establecer un mecanismo para sincronizar las mediciones del circuito con los datos ópticos adquiridos por el sistema óptico desarrollado previamente.
Pérez García Gustavo Manuel, Universidad de Guadalajara
Asesor:Dra. Luz Marina Reyes Barrera, Universidad de Guadalajara
ANáLISIS DE LA MATRIZ DE CONEXIóN DE UNA RED EVOLUTIVA DE IZHIKEVICH.
ANáLISIS DE LA MATRIZ DE CONEXIóN DE UNA RED EVOLUTIVA DE IZHIKEVICH.
Pérez García Gustavo Manuel, Universidad de Guadalajara. Asesor: Dra. Luz Marina Reyes Barrera, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Para entender como funciona el cerebro, necesitamos combinar estudios experimentales de sistemas nerviosos humanos y animales con simulación numérica de modelos cerebrales a gran escala. El uso de modelos biofísicamente precisos como el de Hodgkin-Huxley es computacionalmente imposible, ya que solo podemos simular un puñado de neuronas en tiempo real.
No obstante, Izhikevich propone un modelo de pico simple que es biológicamente tan plausible como el modelo Hodgkin-Huxley, pero tan eficiente computacionalmente como el modelo de ''integrar y disparar".
METODOLOGÍA
Como se mencionó anteriormente, el modelo de Izhikevich es eficiente computacionalmente. Dicho modelo depende de dos ecuaciones diferenciales ordinarias y de cuatro parámetros. En particular, dependiendo de estos cuatro parámetros (a,b,c y d), el modelo reproduce en espiga y en ráfaga los tipos conocidos de neuronas corticales.
A lo largo de la estancia de verano utilizamos los lenguajes de programación; Python y Matlab, siendo Matlab el más utilizado al momento del desarrollo de la red evolutiva neuronal. Para la elaboración de la red evolutiva de Izhikevich, primero empezamos por elaborar un programa sobre el modelo de Izhikevich para una sola neurona. Para ello, resolvimos computacionalmente las ecuaciones diferenciales que propone el modelo de Izhikevich. Además, de ir variando los valores de los cuatro parámetros, con el propósito de obtener los conocidos tipos de neuronas corticales. Por ejemplo, las neuronas: regular spiking, intrinsically bursting, chattering, fast spiking, low-threshold spiking y resonator.
Posteriormente, se elaboró un programa en el cual consideramos 200 neuronas, en donde, el 80\% de las neuronas fuesen excitatorias y las restantes inhibibtorias. La mejor manera de lograr heterogeneidad, fue asignar cada célula excitatoria como: (ai,bi)=(0.02,0.2) y (ci,di)=(-65,8)+(15,-6)ri^2, donde ri es una variable aleatoria distribuida uniformemente en el intervalo [0,1] e i es el índice neuronal. Si ri=0, entonces las célula excitatoria corresponde a la neurona regular spiking (RS). En cambio, si ri=1 corresponde a la célula chattering, la cual, también es una neurona excitatoria. Utilizamos ri^2 para sesgar la distribución hacia las células RS. Similarmente, para las células inhibitorias tenemos: (ai,bi)=(0.02,0.25)+(0.08,-0.5)ri y (ci,di)=(-65,2). Los pesos de conexión sináptica entre las neuronas se vieron dados por la matriz S=(sij), de modo que cada una de las neuronas este conectada con 10 neuronas de manera aleatoria.
Finalmente, consideramos una red neuronal de 50 por 50 con N=200 elementos, en donde se consideró bordes periódicos y que los extremos fueran vecinos. Para ello, nos basamos principalmente en el modelo de ''Gas social''. En pocas palabras, es un modelo utilizado para representar la motilidad de los elementos sociales; es totalmente determinista, tiene un número reducido de parámetros y exhibe un conjunto de propiedades que recuerdan cómo se comportan las comunidades en la competencia socioecológica. Así mismo, consideramos posiciones aleatorias entre [0,50], elegiendo un radio R=10, siendo este, el radio que define la vecindad. Luego, se trabajó en el cálculo de las posiciones con respecto el tiempo t+1 y en la actualización de los estados, utilizando al modelo de Izhikevich. De esta manera, se analizó el comportamiento de los elementos para ver como se comportaban con respecto a la variable epsilon, la cual expresa la intensidad de acoplamiento entre los estados de los elementos. En consecuencia, logramos programar una red evolutiva de neuronas.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre las redes neuronales y su respectivo funcionamiento. Además de poner en práctica dichos conocimientos y habilidades de programación con la finalidad crear una red neuronal evolutiva mediante el modelo de Izhikevich.
Perez Gonzalez Mauricio Daniel, Instituto Tecnológico Superior de Los Reyes
Asesor:Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia
PARTICIPACION DE LOS PROSUMIDORES EN SISTEMAS ELECTRICOS INTELIGENTES DE DISTRIBUCION
PARTICIPACION DE LOS PROSUMIDORES EN SISTEMAS ELECTRICOS INTELIGENTES DE DISTRIBUCION
Perez Gonzalez Mauricio Daniel, Instituto Tecnológico Superior de Los Reyes. Asesor: Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia
PLANTEAMIENTO DEL PROBLEMA
Los consumidores de energía eléctrica cada vez optan más por generar su propia energía con generación distribuida, principalmente paneles fotovoltaicos y sistemas de almacenamiento, convirtiéndose en prosumidores. Sin embargo, la gran mayoría de estos prosumidores mantienen una conexión a la red eléctrica de distribución.
El sistema de distribución, incluye las empresas suministradoras detrás de la subestación de distribución que vende energía eléctrica a precios horarios, prosumidores con paneles fotovoltaicos y sistemas de almacenamiento, y consumidores convencionales. El operador del sistema de distribución (DSO) busca minimizar el costo total de operación, incluidos los costos de energía no servida, mientras que los prosumidores buscan maximizar sus respectivos beneficios economicos vendiendo/comprando energía. La empresa suministradora vende energía a precios nodal horarios y los consumidores convencionales aceptan el precio nodal resultante en su nodo de interconexion. Para conciliar la visión de las perspectivas del DSO y los prosumidores, se propone un modelo de equilibrio.
METODOLOGÍA
Se realizó una introducción básica de dos diferentes métodos lineales para la representación de la red de transmisión se consideraron, los cuales son:
Método de thetas.
Método SF (Shift Factor).
El problema de despacho económico se implementó en GAMS, el cual es un software para realizar modelados matemáticos de optimización. Se realizaron dos ejemplos donde se interactúa con el software para su familiarización.
Se realizó una investigación sobre artículos de despacho económico y la participación de los prosumidores en el despacho económico.
El modelo de equilibrio, reportado en del articulo ´´distribution market including prosumers: an equilibrium analysis´´ se consideró como referencia. Dicho modelo busca minimizar el costo total de generación, mientras que los prosumidores buscan maximizar sus beneficios económicos mediante la compra-venta horaria de energía. A continuación, se presenta la formulación compacta del modelo de equilibrio:
Minimizar costos de generación, energía activa no servida y energía reactiva no servida
Sujetos a: Restricciones del problema del DSO.
Restricciones del problema de los prosumidores.
CONCLUSIONES
Los prosumidores están desempeñando un papel crucial en la transición hacia una matriz energética más sostenible. Su contribución a la generación y consumo responsable de energía es fundamental para alcanzar los objetivos de mitigación del cambio climático y avanzar hacia un futuro energético más limpio y sustentable.
Al tener únicamente 7 semanas de estancia de investigación, se logró comprender el funcionamiento del modelo matemático y su parcial implementación en GAMS. Ademas de profundizar sobre las líneas de investigación de transmisión, distribución y utilización de la energía eléctrica.
Perez Hernandez Maria Fernanda, Universidad de Guadalajara
Asesor:Dr. Christian Javier Salas Juárez, Universidad Kino
TERMOLUMINISCENCIA Y LUMINISCENCIA PERSISTENTE COMO TéCNICA EXPERIMENTAL PARA LA DETERMINACIóN DE PARáMETROS CINéTICOS: SIMULACIóN NUMéRICA Y SIO2 COMO MODELO EXPERIMENTAL
TERMOLUMINISCENCIA Y LUMINISCENCIA PERSISTENTE COMO TéCNICA EXPERIMENTAL PARA LA DETERMINACIóN DE PARáMETROS CINéTICOS: SIMULACIóN NUMéRICA Y SIO2 COMO MODELO EXPERIMENTAL
Perez Hernandez Maria Fernanda, Universidad de Guadalajara. Asesor: Dr. Christian Javier Salas Juárez, Universidad Kino
PLANTEAMIENTO DEL PROBLEMA
La termoluminiscencia (TL) es un fenómeno luminiscente que presentan los semiconductores y aislantes tras ser estimulados térmicamente, y previamente expuestos a radiación ionizante. La TL es utilizada en diversas aplicaciones de la física médica, por ejemplo, en el desarrollo de dosímetros de radiación, el estudio de la interacción de radiación-materia, entre otras. Además, es posible el uso de la TL para la datación de materiales geológicos.
El conocimiento de las propiedades electrónicas de un material es importante debido a que permite realizar propuestas de aplicaciones tecnológicas. En este trabajo, se propone el estudio de la TL con el objetivo de asociar los niveles de atrapamiento en el band gap con la presencia de defectos en un material. Se realizaron simulaciones numéricas de TL y luminiscencia persistente con cinética de primer orden con el objetivo de comprender el fenómeno, además se determinaron los parámetros cinéticos (energía de activación, factor de frecuencia, tiempo de vida) de un material amorfo (SiO2), como modelo experimental para correlacionar sus propiedades termoluminiscentes, con sus niveles de atrapamiento y su posible aplicación.
METODOLOGÍA
En este trabajo, se realizaron simulaciones numéricas del fenómeno de TL y luminiscencia persistente para un proceso de cinética de primer orden (también conocido como Randall - Wilkings) donde se considera que no existe atrapamiento de los portadores de carga y se utilizaron con los softwares MATLAB, Mathcad y TLanalyzer para deconvoluciones computarizadas.
CONCLUSIONES
En este trabajo se determinaron las simulaciones numéricas de TL y luminiscencia persistente del modelo de primer orden, y se determinaron sus parámetros cinéticos. A pesar que los datos eran simulaciones, se encontró que los métodos presentan errores sistemáticos lo que indica que en la determinación de los parámetros cinéticos de un material en un modelo experimental el error puede ser aún más grande. Se realizó deconvolución computarizada de curvas simuladas y se encontró un error asociado a la medición.
Por otra parte, se determinaron los parámetros cinéticos de SiO2 utilizando el fenómeno de TL y luminiscencia persistente. La curva de brillo de TL de SiO2 presentó un sólo máximo a 106 °C, sin embargo, mediante los análisis hechos por factor de forma, luminiscencia persistente como respuesta a la dosis, levantamiento inicial y deconvolución computarizada, pudimos demostrar que la curva está compuesta por al menos tres estados de atrapamiento asociados a tres tipos de defectos en el material diferentes. De esta manera, se concluye que la TL es un fenómeno luminiscente que puede ser utilizado para la determinación de defectos estructurales y con ello, entender sus propiedades electrónicas para proponer aplicaciones del material a futuro.
Pérez Morán Federico Santiago, Universidad de Guadalajara
Asesor:Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla
DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE ADQUISICIóN DE DATOS PARA LA CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS DE CENTELLEO CON TUBO FOTOMULTIPLICADOR.
DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE ADQUISICIóN DE DATOS PARA LA CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS DE CENTELLEO CON TUBO FOTOMULTIPLICADOR.
Díaz Gutiérrez Luis Carlos, Universidad de Sonora. Garcia Gutierrez Alejandro Ivan, Benemérita Universidad Autónoma de Puebla. Medina Ferrer Gustavo Alberto, Universidad de Sonora. Navarro Lopez Iveth Rocio, Universidad de Sonora. Pérez Morán Federico Santiago, Universidad de Guadalajara. Asesor: Dr. Guillermo Tejeda Muñoz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los distintos experimentos y búsqueda de fenómenos exóticos relacionados con la física de altas energías requieren de instrumentos que cuenten con una alta precisión en la toma de datos.
Por ello el diseño y desarrollo de detectores de partículas cada vez más precisos es importante pues debe de haber una mejora en los mecanismos de detección además de la optimización en la toma de señales para que estas sean procesadas, discriminadas y tratadas, con el fin de evitar perdida de información y cuellos de botella.
Debido a esto, en este trabajo se analizará la arquitectura de dos chips (NINO y HPTDC) diseñados para su uso especifico en física de altas energías, donde es fundamental, alta frecuencia de detección, gran precisión en la resolución temporal y una alta cantidad de densidad de canales para la medición de la carga depositada en sensores de plástico centellador y de placas resistivas
METODOLOGÍA
En primera instancia se preparó un sistema básico de trigger, el cual sirve para la detección de un evento/ partícula incidente en un arreglo de tres o más detectores, dos de los cuales fungen como trigger; el evento se confirma al registrarse de forma simultánea por este arreglo.
Los detectores de disparo (trigger) se caracterizan y se determina el voltaje de alimentación para el cual el par registra un número similar de señales. Para esto se realizó una sincronización sobre un par detectores de plástico centelleador y tubos fotomultiplicadores de dimensiones 9.7 9.7 3.4 cm. Se aplicó para cada detector una variación del voltaje de alimentación en un intervalo de 1 a 1.7 kV con pasos de 0.5 kV, para cada valor se llevó a cabo el conteo de eventos/señales registradas para cada detector, el conteo se realizó utilizando la patente de la contadora de eventos para pruebas rápidas de parte de la Benemérita Universidad Autónoma de Puebla. Para cada valor de voltaje se realizaron tres mediciones de 1 minuto de duración, con un voltaje de discriminación de 15 mV. Se determinaron los voltajes para el cual se presenta una diferencia de conteos menor al 10% entre los detectores.
Posteriormente, se usó un arreglo experimental en el cual el sistema de trigger se localizó por encima y por debajo del detector a caracterizar (L1), de forma que la proyección de su área transversal coincida para ambos detectores del sistema. Se aplicó una variación del voltaje de alimentación únicamente para L1 (en este caso se da una alimentación con un voltaje negativo) en un intervalo de 0.9 a 1.45 kV con pasos de 0.5 kV, para el trigger se da el voltaje de alimentación previamente obtenido. Se realizó igualmente el registro del número de eventos para cada valor de voltaje con la contadora, se efectuaron 3 mediciones de 4 minutos cada una; se registraron los eventos para L1, los del trigger y las coincidencias entre los tres. Se determinó la eficiencia del detector L1 y se escogió el voltaje de alimentación óptimo para este mismo.
En un posterior arreglo se da lugar a la digitalización de la señal obtenida de L1. Se usa el sistema anterior compuesto por el detector y el trigger. La señal de salida de L1 es procesada por la tarjeta NINO 2468 del experimento ALICE, que devuelve un pulso cuadrado cuyo ancho se ve relacionado con la amplitud de la señal de entrada y a su vez con la carga de la partícula incidente. Posteriormente, este pulso es direccionado a otra tarjeta que realiza una conversión de señal LVDS (low voltage differential signal) a salida TTL, posteriormente esta señal es recibida por un módulo traductor CAEN para la conversión a NIM, con el objetivo de conectar la señal a un TDC (time to digital converter) para la digitalización y obtención de los flancos de subida y bajada del pulso cuadrado, realizar el cálculo de su ancho en el eje temporal y así conocer la amplitud de la señal del detector. La precisión de la medición de los flacos de subida y bajada de estas señales es de 25 ps.
La señal de ambos detectores del trigger es direccionada a un módulo discriminador, posteriormente a un módulo de coincidencias que devuelve una única señal TTL. Después, se utiliza el mismo módulo traductor a NIM para finalmente llegar al TDC para poder efectuar la obtención del tiempo de la señal. El trigger en el TDC realiza la confirmación de un evento de L1 por medio de un método de medición que consiste en la aplicación de una ventana de tiempo de búsqueda previamente definida, donde a los pulsos registrados dentro de dicha ventana se les toma el tiempo del flanco de subida y de bajada.
Finalmente, se realizó un código para la lectura de los datos recabados y el posterior cálculo de los anchos de las señales obtenidas y así conocer la resolución temporal del detector.
CONCLUSIONES
Durante la estancia se hizo uso de instrumentos que son comunes para hacer pruebas con los distintos detectores esto con el fin de comprobar su correcto funcionamiento, adquiriendo conocimiento de cómo usar estos instrumentos, igualmente se aprendió a utilizar un software con el que se obtienen datos, además al recoger estos datos se llevó a cabo un análisis de estos, buscando la resolución temporal, tiempo de llegada de señales respecto al trigger, la estadística de veces que cierta resolución llego y la medición de la carga de cada evento detectado. Sin embargo, los últimos datos aún se encuentran en proceso de ser analizados, pero se espera que estos datos nos indiquen un funcionamiento correcto y bastante preciso de los detectores caracterizados.
Pérez Moya Lluvia Alheli, Instituto Politécnico Nacional
Asesor:Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez
ANáLISIS DE IMPACTO EN LA POTENCIA DE UNA TURBINA EóLICA PARA LA RECOLECCIóN DE DATOS DE SALIDA Y USOS POTENCIALES UTILIZANDO INTELIGENCIA ARTIFICIAL.
ANáLISIS DE IMPACTO EN LA POTENCIA DE UNA TURBINA EóLICA PARA LA RECOLECCIóN DE DATOS DE SALIDA Y USOS POTENCIALES UTILIZANDO INTELIGENCIA ARTIFICIAL.
Pérez Moya Lluvia Alheli, Instituto Politécnico Nacional. Asesor: Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
La energía eólica ha sido utilizada durante siglos, desempeñando un papel importante en diversas aplicaciones. Desde la propulsión de barcos hasta el bombeo de agua y la creación de alimentos, este tipo de energía ha sido aprovechada de diversas maneras. Sin embargo, en la actualidad, el principal uso de la energía eólica se centra en la generación de electricidad mediante aerogeneradores.
Un aerogenerador es un equipo que con ayuda de la energía cinética del viento logra generar energía a través del movimiento de sus aspas. Esto se logra gracias a un motor interno que aprovecha el movimiento que recibe el rotor de la turbina y lo transforma en energía eléctrica para posteriormente ser procesada e incrementada.
Los aerogeneradores se pueden clasificar gracias a la alineación de su eje, lo más común es encontrar ejes verticales (VWAT) u horizontales (HWAT). El eje se puede ubicar ya que se interpone entre el motor principal de la turbina y el rotor de esta. Cada uno busca aprovechar al máximo las condiciones de viento, por lo cual para elegir un tipo de generador se debe pasar por un proceso de investigación minucioso para evitar accidentes o perdidas monetarias.
Es fundamental conocer sobre los fluidos que contactan con los aerogeneradores, los fluidos se refieren a todo aquello en contacto físico directo con el generador. El viento y el aire son dos fluidos de suma importancia, ya que sus diferentes variables como la densidad, velocidad y calor de estos influye directamente en el funcionamiento del aerogenerador.
El hecho de tener múltiples variables involucradas en el funcionamiento del generador nos hace tener la necesidad de saber controlarlo o regularlo, por lo cual se utilizan diversas ecuaciones para calcular el rendimiento y funcionamiento de este:
• Conservación de la masa ∇ ⋅ V = 0
• Conservación de impulso ρ (dV/dt + V ⋅ ∇V) = -∇P + μ∇²V + ρg
• Ecuación de potencia ρ (dV/dt + V ⋅ ∇V) = -∇P + μ∇²V + ρg
• Ecuación de conservación de energía ρ (dT/dt + V ⋅ ∇T) = -P (∇ ⋅ V) + κ∇²T
Para la obtención de electricidad el generador que tiene la turbina es un generador trifásico por lo cual es necesario explicar su funcionamiento y características.
Este tipo de generadores no difieren de un generador común, su única diferencia es que cuentan con tres cables de salida. Este funciona gracias a que esta magnetizado y cuando su rotor comienza a girar el campo magnético comienza a generar voltaje alterno, que dependiendo la cantidad de veces que gire el rotor tendrá una salida de voltaje de acuerdo con este.
Para utilizar el voltaje con mayor facilidad es necesario convertir la corriente alterna a corriente directa, esto se logra a partir de un circuito rectificador trifásico hecho con diodos conectador que crean una supuesta tierra y un VCC. Este circuito obtiene un cambio de la forma original de la energía a una corriente directa pulsante.
En el proyecto utilizaremos los circuitos para un mejor aprovechamiento de energía y así obtener múltiples datos de la variabilidad de voltaje dependiendo las vueltas que del rotor y el volteje generado en diversas circunstancias.
METODOLOGÍA
Tal como se había planeado, se requería recolectar datos en múltiples variables y con distintas condiciones. Para ello se dividió en varias pruebas con diversas condiciones y tiempos para cada una de estas.
Instrumentos de medición
Puede medir voltaje, corriente, resistencia y otras magnitudes. Se utiliza para diagnosticar problemas y obtener mediciones precisas en campos como la electrónica, la electricidad y la automoción.
Un amperímetro es un dispositivo que se utiliza para medir la corriente eléctrica en un circuito.
Un anemómetro es un instrumento utilizado para medir la velocidad del viento. En este incluimos el software Anemomaster que permitió la recolección de datos automáticamente, siendo estos la temperatura durante la prueba y la velocidad del viento.
Puede ser óptico o electrónico y se utiliza en la industria, mecánica y automoción para medir la velocidad de motores, turbinas, ventiladores y otros dispositivos que giran.
Diseño de experimentación
Para la experimentación se dividió en dos grupos, las pruebas una de corriente alterna y corriente directa. Aparte se hicieron dos pruebas con turbina libre, pero una siendo en corriente alterna sin regular y otra con turbina libre únicamente transformada a directa. Esto para observar el cambio y la efectividad de la turbina acompañada del circuito o las variaciones entre circuitos.
CONCLUSIONES
Se realiza un minucioso análisis del impacto en la potencia de una turbina eólica y cómo se pueden recopilar datos de salida, así como su posible aplicación empleando técnicas de inteligencia artificial. Para transformar la corriente alterna generada por las turbinas en corriente continua, se utiliza un rectificador, y se hace hincapié en la necesidad de recolectar y medir datos precisos. Asimismo, subraya la necesidad de recolectar datos precisos para mejorar la eficiencia de las turbinas eólicas y maximizar su rendimiento mediante el uso de técnicas de inteligencia artificial.
Pérez Rasgado Luis Felipe, Universidad Autónoma de Chiapas
Asesor:Dr. Marco Antonio Bedolla Hernández, Universidad Autónoma de Chiapas
MEDICIóN DE MASAS EN CHARMONIUM Y BOTTOMONIUM PARA DIFERENTES NIVELES DE ENERGíA POR MEDIO DE LA ECUACIóN DE SCHRöDINGER ESFéRICA USANDO EL POTENCIAL DE CORNELL DEL TIPO POTENCIAL DE COULOMB
MEDICIóN DE MASAS EN CHARMONIUM Y BOTTOMONIUM PARA DIFERENTES NIVELES DE ENERGíA POR MEDIO DE LA ECUACIóN DE SCHRöDINGER ESFéRICA USANDO EL POTENCIAL DE CORNELL DEL TIPO POTENCIAL DE COULOMB
Pérez Rasgado Luis Felipe, Universidad Autónoma de Chiapas. Asesor: Dr. Marco Antonio Bedolla Hernández, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Charmonium y bottomonium son los términos empleados para los mesones compuestos de un quark y un antiquark del mismo sabor, es decir un quark charm con un anti-charm; y un quark bottom con uno anti-bottom. El quark top se descompone a través de la interacción electrodébil antes de que pueda formarse un estado ligado.
Por lo general, el quarkonium se refiere solamente al charmonium y al bottomonium, y no a ninguno de los estados más ligeros del quark-antiquark. Este uso se debe a que los quarks más ligeros son mucho menos masivos que los quarks más pesados, por lo que los estados físicos realmente vistos en los experimentos son mezclas de estados entre distintos quarks.
Las masas vestidas de los diferentes niveles de energía que presentan los estados de quarkonium (M) puede describirse mediante la expresión M=2m+En, donde m representa la masa del quark en cuestión y En la energía de vestimiento para cada n nivel de energía. Vamos a calcular la diferencia de parámetros que son necesarios para estudiar charmonia y bottomonia.
METODOLOGÍA
Para poder estudiar las masas a diferentes niveles de energía de los estados de quarkonium hemos usado la información que nos brinda la ecuación de Schrödinger aplicada a la interacción de dos quarks.
Se resuelve la ecuación de Schrödinger para un sistema de dos cargas, usualmente se utiliza el potencial de Cornell de la forma V=A/r+Br, donde el término B representa el potencial del flujo de gluones entre quarks, entre mayor sea la separación entre los quarks mayor será el potencial generado entre ellos, y el término A representa el potencial de coulomb que tiene mayores efectos cuando la separación entre quarks es pequeña.
Resolvemos la ecuación de Schródinger considerando solo la primera aproximación del potencial de Cornell, y calculamos el valor del parámetro A para ambos casos. Para ello se ajusta la aproximación a los resultados experimentales de los estados base de los mesones eta c (2.98 GeV) y eta b (9.38 GeV), respectivamente.
Los valores obtenidos para el parámetro a fueron: A= 1.177GeV para charmonia, y A=0.987 para bottomonia.
CONCLUSIONES
Los resultados obtenidos indican que el valor de A es menor para bottomonia comparando su valor con el de charmonia. Con la aproximación que usamos, esto significa que los estados ligados formados por quarks bottom sienten una intensidad de la interacción menor que en aquellos estados formados por dos quarks charm. Esto podría indicar que entre más pesados los quarks, los estados ligados se forman más cerca al origen.
Estos resultados nos ayudan a seguir con la investigación de los estados de quarkonium; se planea en un futuro resolver la ecuación de Cornell mediante métodos aproximados, o estudiar mesones con otro potencial con confinamiento como el potencial de Rosen-Morse trigonométrico.
Peréz Sanchéz Alondra Elizabeth, Universidad Autónoma de Chiapas
Asesor:Dr. Jorge González Gutiérrez, Universidad Autónoma de Chiapas
ANáLISIS DE GOTAS SECAS PARA IDENTIFICAR MEDICAMENTOS ADULTERADOS.
ANáLISIS DE GOTAS SECAS PARA IDENTIFICAR MEDICAMENTOS ADULTERADOS.
Peréz Sanchéz Alondra Elizabeth, Universidad Autónoma de Chiapas. Asesor: Dr. Jorge González Gutiérrez, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Se necesitan con urgencia mecanismos para la detección rápida de medicamentos adulterados con el fin de prevenir tratamientos incorrectos que podrían poner en riesgo la salud de los pacientes. Tradicionalmente, el control de calidad de los medicamentos se realiza mediante espectroscopia de infrarrojo cercano, espectroscopia Raman, cromatografía y espectrometría de fluorescencia de rayos X (XRF), entre muchos otros. Es importante señalar que todas estas técnicas son muy efectivas pero involucran el uso de instrumentación sofisticada y personal altamente capacitado, lo que requiere condiciones cuidadosas y controladas. En esta investigación, proponemos utilizar el patrón que deja una gota evaporada como firma única de cada compuesto, inalterado o no. Uno de los principales objetivos del método de evaporación por goteo es crear, en residuos secos de gotas, ciertas características morfológicas que puedan identificarse y cuantificarse fácilmente. Por lo tanto, el análisis de gotas secas de medicamentos podría servir como una herramienta de alta sensibilidad para detectar adulteración.
Este proyecto busca analizar patrones de gotas secas adquiriendo conocimiento sobre la instrumentación de laboratorio y el manejo de aplicaciones como AutoStitch e ImageJ,
METODOLOGÍA
Se utilizó una mezcla de solución salina y medicamento para crear los depósitos. Estos se crearon por la evaporación de gotas secadas bajo condiciones controladas. La adquisición de imágenes se realizó con una cámara Nikon (D3200) acoplada al microscopio óptico. La resolución de las imágenes fue de 300 ppp, con dimensiones de 6,016x4,000 píxeles de longitud. Se tomaron 6 fotografías en diferentes cuadrantes de cada depósito. Después, estas imágenes fueron unidas para formar una imagen digital de un depósito entero de 4,328x4,000 pixeles. Las imágenes digitales se ensamblaron utilizando el software Autostitch. Para nuestro análisis de Entropía usamos el complemento GLCM del paquete de software ImageJ con una distancia de 2 pixeles y una dirección de 0 grados. Se analizaron un total de 200 imágenes (20 por cada grupo de concentración de medicamentos).
Empleamos la entropía obtenida de la matriz de coocurrencia de nivel de gris (GLCM) para evaluar la textura de los patrones presentes en las gotas secas. Los valores de Entropía más altos (más bajos) indican regiones heterogéneas grandes (pequeñas) en una imagen. La GLCM es una matriz de tamaño $N_g*N_g$, donde $N_g$ es el número de niveles de gris en la imagen. Se basa en la correlación entre píxeles y captura información sobre la probabilidad de cambio entre los niveles de gris $i$ y $j$ a una distancia de desplazamiento ($d$) y ángulo ($f$) específicos en la imagen.
En las imágenes observamos los Patrones en gotitas secas de medicamentos (1ml). Se observan los Patrones de gotitas secas de Clonazepam, Metotrexato, Ciprofloxacino y Budesonida con cloruro de sodio (NaCl). Estos fueron formados a 63 C. Observamos los Patrones de gotitas secas de clonazepam, metotrexato, ciprofloxacina y budesonida sin cloruro de sodio (NaCl) Estos fueron formados a 63 C (HR = 25%). Se muestra el conjunto de depósitos para probar la alta reproducibilidad en la formación de patrones de Clonazepam, Metotrexato, Ciprofloxacina y Budesonida con cloruro de sodio (NaCl). Las resultados indican que el método es altamente eficiente para detectar medicamentos diluidos en agua al 10%.
CONCLUSIONES
En conclusión, hemos presentado una metodología novedosa, basada en un análisis de patrones de textura en gotas secas, para el control de calidad de fármacos. Se analizaron cuatro tipos de medicamentos: metotrexato, ciprofloxacino, clonazepam y budesonida. La transferencia de calor y las interacciones iónicas se utilizan para inducir patrones bien definidos y reproducibles. Dependiendo de la droga, los patrones en gotas secas muestran una gran diversidad de agregados complejos. Los ejemplos son muchos: salpicaduras circulares u ovaladas, islas con forma de helecho, formas de corona, patrones de corona con formas de aguja y protuberancias, así como cristales dendríticos ramificados y con forma de estrella.
Pérez Villar Alan Máximo, Universidad de Guadalajara
Asesor:Mg. Vilma Viviana Ojeda Caicedo, Universidad Tecnológica De Bolívar
ANALISIS DE VARIABLES OCEANOGRáFICAS EN PROFUNDIDAD
ANALISIS DE VARIABLES OCEANOGRáFICAS EN PROFUNDIDAD
Pérez Villar Alan Máximo, Universidad de Guadalajara. Valencia Vargas Miguel Angel, Instituto Tecnológico de Morelia. Asesor: Mg. Vilma Viviana Ojeda Caicedo, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
El estudio de variables oceanográficas es vital para el aprovechamiento de bienes marítimos y la protección del medio ambiente marino. En este trabajo, se analizan datos oceanográficos en una sección paralela a la costa norte de Colombia, desde la península de la Guajira hasta el sur de Santa Marta, donde ocurre el fenómeno de surgencia.
La surgencia es causada por corrientes de viento que mueven aguas frías y nutrientes hacia la superficie. Las variables oceanográficas utilizadas son velocidad u, velocidad v, temperatura y salinidad. Estos datos provienen del modelo Hycom, que combina simulaciones numéricas y datos reales del océano en formato netCDF.
El análisis de estas variables permitirá comprender los fenómenos marítimos que afectan los ecosistemas y tomar decisiones informadas para el cuidado del medio ambiente marino y la gestión sostenible de los recursos marítimos en la región estudiada.
METODOLOGÍA
En este estudio, se analizan datos oceanográficos recopilados desde 2017 hasta 2022, con intervalos de 24 horas para 2017-2019 y de 3 horas para 2020-2022. La región de interés comprende coordenadas de -90 a -68 grados este y de 8 a 14 grados norte, en la costa norte de Colombia.
Los datos incluyen velocidad longitudinal (u), velocidad latitudinal (v), temperatura y salinidad, y se descargaron en archivos mensuales en formato netCDF. Estos archivos se convirtieron a archivos .mat para su análisis en Matlab, resultando en cuatro archivos anuales para cada variable.
Se realizó un transepto para observar el comportamiento del upwelling cerca de la costa. Se interpolaron datos en coordenadas donde no había información, y se crearon matrices con los datos del transepto. Luego, se aplicó una rotación a los datos de velocidad para proyectar las velocidades longitudinales y latitudinales en el transepto y determinar los movimientos paralelos y perpendiculares al mismo, siendo este último relevante para el upwelling.
Para identificar zonas de interés, se utilizaron máscaras matriciales. Estas máscaras, al multiplicarse con la matriz del transepto, proporcionaron información sobre el comportamiento del flujo de agua en la región de interés. Los datos fueron unidos en un archivo único para obtener una serie temporal de los seis años estudiados.
CONCLUSIONES
En este trabajo se analizaron variables oceanográficas desde 2017 hasta 2022. Se generaron gráficas de transeptos para cada variable estudiada. En la velocidad u, los valores positivos indican corriente de izquierda a derecha, y los negativos de derecha a izquierda. En la velocidad v, valores positivos indican corriente opuesta a la costa y negativos hacia la costa. La temperatura muestra estabilidad en los primeros 100 m de profundidad y disminuye hacia el fondo. La salinidad sigue un patrón similar. Se realizaron series temporales en la zona de surgencia, mostrando comportamiento oscilatorio. El análisis cuantitativo será importante para obtener información sobre el comportamiento del océano.
Piedrahita Ospina Michael, Universidad del Quindío
Asesor:Dr. Rosendo Romero Andrade, Universidad Autónoma de Sinaloa
ANáLISIS DE LAS OBSERVACIONES GPS/GNSS CON RECEPTORES DE ORDEN GEODéSICO Y DE BAJO COSTO PARA TRABAJOS TOPOGRáFICOS-GEODéSICOS.
ANáLISIS DE LAS OBSERVACIONES GPS/GNSS CON RECEPTORES DE ORDEN GEODéSICO Y DE BAJO COSTO PARA TRABAJOS TOPOGRáFICOS-GEODéSICOS.
Piedrahita Ospina Michael, Universidad del Quindío. Vargas Cristancho Juan Diego, Universidad del Quindío. Asesor: Dr. Rosendo Romero Andrade, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Cuando se menciona equipos de bajo costo, nos referimos a aquellos dispositivos que han tenido poco uso. Sin embargo, con el paso del tiempo, estos equipos han demostrado ser muy útiles en trabajos de orden geodésicos y pueden aplicarse también en la topografía. Al utilizar receptores de este tipo, es posible obtener resultados de precisión comparables a los de un equipo de orden geodésico (GNSS).dado los resultados obtenidos abre la posibilidad de aplicarse en muchas actividades en las que se requieran dar coordenadas a los puntos, además son equipos que su mismo nombre lo indica no tiene un elevado monto de dinero para adquirir este equipo en comparación de los GNSS, llegando al punto de realizar varios experimentos para saber la fiabilidad del equipo
METODOLOGÍA
Se puede decir que la metodología de la investigación se dividió en dos momentos o instantes; las primeras semanas el investigador se encargó de brindar la teoría necesario para realizar el proyecto investigativo, dicha teoría estaba enfocada a temas tales como:
Conceptos básicos geodésicos y mediciones GNSS.
Tipos de mediciones GNSS.
Equipos GNSS (casa fabricantes y de bajo costo).
Procesamiento de datos GNSS.
Calidad y ajuste de datos o red geodésica.
El primer instante de la investigación es fundamental debido a que se adquiere el conocimiento necesario para una buena comprensión de los proyectos a ejecutar, se pude decir que este no es netamente y el correcto manejo tanto de equipos de medición como son los fabricados por casas nativas normalmente encontrados en el mercado, como los quipos de bajo costo los cuales son pocos conocidos en Latinoamérica y se pueden considerar como una nueva herramienta para la realización de mediciones GNSS y redes geodésicas la cual se esta a dando conocer por su bajo costo en el mercado y logrando obtener mediciones aceptables y de calidad para distintos trabajos.
La segunda etapa de la investigación consiste en la realización de los experimentos prácticos correspondientes a la investigación, se realizaron un total de tres experimentes los cuales son:
Equipo de bajo costo como estación de monitoreo continuo:
Dicho experimento se realizó en las instalaciones de la Facultad de Ciencias de la Tierra y el Espacio de la Universidad Autónoma de Sinaloa. Trata de la instalación de una antena de bajo costo (Beitian - BEIBT300 NONE) junto con un receptor de bajo costo Ublox ZED-F9P, dichos equipos fueron colocados en la terraza de la facultad en un punto de centrado forzoso, se realizaron observaciones por un periodo de 3 días, a los resultados de dichas observaciones se les realiza un análisis de calidad haciendo uso del software TEQC, considerando los parámetros propuestos por el IGS para estaciones de monitoreo continuo.
Equipo de bajo costo para determinar el nivel medio del mar:
Dicho experimento tiene como fin el el determinar el nivel medio del mar por medio de multitrayectoria con equipos de bajo costo, se realizo en el muelle de Altata, Sinaloa. Para la realización de dicho experimento fue necesario la instalación de una antena de bajo costo (Beitia - BEINT300 NONE), junto con un par de antena de bajo costo ANN-MB-00 montadas sobre una estructura sobre el mar, cada antena estaba conectada a su respectivo receptor de bajo costo Ublox ZED-F9P, dichas mediciones se deben realizar en un punto en extremo del muelle por periodos mínimos de 10 horas, para poder culminar con la obtención de datos es necesario realizar 12 campañas de medición a razón de una por mes; los datos obtenidos serán procesados y comparados con los datos brindados por el mareógrafo propiedad de la SEMARNAT, instalado en el otro extremo del muelle dónde se está realizando la investigación.
Software: Se utilizaron programas científicos para la manipulación de los datos, que nos permitió verificar la calidad de los puntos, mediante el lenguaje Bash para analizar el efecto multitrayectoria, saltos de ciclos y los ruidos que se generan y ver si cumplen con los parámetros de IGS, con el objetivo de hacer el análisis de calidad de datos para luego realizar el pos-procesamiento en el software donde se visualiza de mejor manera los datos obtenidos en campo y se realizan los debidos ajustes para satisfacer con los resultados deseados.
CONCLUSIONES
Para dar como finalidad a estos experimentos realizados durante la estancia de mirar las aplicaciones que se les puede dar a estas herramientas para futuros trabajos geodésicos, topográficos o en conjunto realizando las comparaciones para hacer diferencias y concluir con lo siguiente:
Un equipo de bajo costo comparado con un equipo de orden geodésico (GNSS), es que el equipo de bajo costo cuenta muchos efectos de multitrayectoria y saltos de ciclos que se pueden mejorar con mucho mas tiempo de duración en el punto o ya cuando se realice el postproceso se le agregan efemérides precisas para mejorar los datos, además los equipos de bajo costo cuentan con la misma intensidad al momento de recibir la señal al igual que un equipo de orden geodésico (GNSS)
Al momento de realizar el procesamiento de las observaciones se considera necesario el conocer el estado de estas mismas, en dicho análisis se pueden detectar errores que se pueden presentar al momento de realizar las mediciones, dichos errores pueden debido al estado del vértice de medición o interferencias alrededor de este.
El conocer los equipos de bajo costo, donde se evidencia lo útil que y rentables que pueden llegar hacer es de gran satisfacción, teniendo presente que se consideran como una nueva tecnología en nuestro territorio que incluso en nuestro país se cuenta con poca información sobre ellos, con ello llevando nuevos conocimientos a nuestra universidad acerca de estos equipos.
El resultado de las observaciones puede ser afectado por diferentes factores, donde incluso realizando el mejor de los procesos en campo estos errores se pueden evidencia, uno de dichas afectaciones son los efectos multitrayectoria los cuales son causados por objetos alrededor del vértice o punto de medición.
Cada una de los experimentos que se llevaron a cabo, hacen parte de aprendizaje enfocado en los estudios y conocimientos previos para realizar tesis de licenciatura y maestría cada una cuenta con una publicación en una revista científica, estos experimentos no se han terminado ya que se necesitan muchas mas pruebas para dar como finalizado el proyecto y realizar su respectivo análisis.
Pomares Valdés Pablo Jibrán, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla
MACHINE LEARNING EN EL ESTUDIO DE RAYOS CóSMICOS USANDO SIMULACIONES DE MONTE CARLO
MACHINE LEARNING EN EL ESTUDIO DE RAYOS CóSMICOS USANDO SIMULACIONES DE MONTE CARLO
Pomares Valdés Pablo Jibrán, Benemérita Universidad Autónoma de Puebla. Romero López Miguel Ángel, Benemérita Universidad Autónoma de Puebla. Santiago Márquez Aldo, Benemérita Universidad Autónoma de Puebla. Toral Gamez Jorge Luis, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Desde todas direcciones del universo llegan cada segundo a la Tierra unas diez mil partículas por metro cuadrado, a muy altas energías, a estas partículas se les conoce como rayos cósmicos. Ahora bien, antes de llegar a nosotros, las partículas primarias, generalmente núcleos, colisionan en nuestra atmósfera y forman lo que nosotros llamamos lluvias, o showers, de otras partículas secundarias generadas en dicha colisión. A su vez, estas también colisionan en la atmósfera repitiendo el proceso hasta que su energía baje lo suficiente para ser absorbidas.
En el estudio de rayos cósmico de altas energías existe el problema de que, en algún metro cuadrado determinado, cualquiera en el mundo, la ocurrencia de eventos es exponencialmente menos común. Es decir, dependiendo de la energía del rayo puede ocurrir aproximadamente una vez cada cierto número de años, décadas ¡o incluso siglos! Lo cual claramente dificulta su estudio. Para contrarrestar el problema se ha optado por construir observatorios de varios miles de kilómetros cuadrados, como el Observatorio Pierre Auger en Malargüe, Argentina el cual tiene una extensión de 3,000 km2 . No obstante, sigue sin ser suficiente, por lo que se ha introducido el uso de herramientas digitales como CORSIKA que, a través de modelos como EPOS-LHC, SIBYLLL, QGSJETI y QGSJETII, simulan, con diferentes grados de precisión, eventos de rayos cósmicos a través del uso de métodos Monte Carlo y simulaciones numéricas rápidas que nos permiten hacer observaciones de todo el trayecto del evento. Adicionalmente se ha buscado la implementación de modelos de Machine Learning para el análisis de los datos y para buscar una reducción en el número de datos requeridos para el estudio de los eventos. Específicamente, en este proyecto se busca realizar un ajuste lineal para los valores llamados Xmax, que se define como la densidad de masa máxima del shower.
METODOLOGÍA
Para poder realizar las simulaciones, primero nos tuvimos que instalar los softwares de ROOT y CONEX (derivado de CORSIKA). El primero es necesario para el correcto funcionamiento y la lectura de los archivos emitidos por CONEX y el segundo es para la realización de las simulaciones en sí. Después, tuvimos que acceder a la supercomputadora del Laboratorio Nacional de Supercómputo y familiarizarnos con el entorno y el administrador de trabajo (SLURM). Por últmo, mandamos a realizar las simulaciones en dicho equipo.
Originalmente, se realizaron 110 simulaciones, o jobs, en 11 bines, i. e., 10 jobs por bin, con 1000 eventos cada uno en el rango de energía de 16.875 a 19.625LgE (logaritmo de la energía en Ev) con un ángulo azimutal de 0 grados para los núcleos de hidrógeno y de hierro con los modelos EPOS, SIBYLL y QGSJETII. No obstante, cuando llegaron los resultados iniciales nos dimos cuenta de que varias de las simulaciones llegaron corruptas por lo cual se tuvo que reiniciar el proceso. Para la segunda vuelta, se optó por repetir el proceso, pero con 55 jobs de 20000 eventos cada uno en lugar del plan original.
Como software necesario para red neuronal, se usó Ananconda como administrador de entornos, Jupyter como IDE y Tensorflow/Keras, Pandas y Numpy como librerías, así como Uproot para la lectura de los archivos .root.
Para el tratamiento de datos, primero se leyeron los archivos y las ramas Xmax, Nmax, Xfirst, LgE fueron exportadas a un archivo csv para un acceso más rápido. Después, se separaron las columnas Nmax, Xfirst, LgE de la Xmax y fueron puestas en DataFrames de Pandas. Por último, se hizo un sampleo randomizado del 20% de los datos para testeo.
Para la red en sí, se hizo con 3 datos de entrada, una capa oculta de 128 nodos, otra con 512, una última de 256 y una de salida. Todos los nodos fueron de tipo Dense. Como método de compilación, usamos el error cuadrático medio y como optimizador usamos a Adam con una tasa de aprendizaje de 0.001 por 100 epochs.
CONCLUSIONES
A través de la estancia obtuvimos habilidades necesarias en el área de física experimental y computacional y fuimos parcialmente exitosos en la obtención de resultados. Como se mencionó anteriormente, tuvimos que repetir la parte de simulación de datos por lo que, al momento de escritura, solo se han terminado de realizar las simulaciones de hierro y protón con el modelo de SIBYLL y por lo tanto solo se ha podido aplicar la red neuronal a estas. Sin embargo, estos resultados fueron alentadores con una precisión del 86% para el hierro y una del 75% para el protón, de tal manera que esperamos resultados similares para el resto de los modelos. Además, podríamos mejorar estos resultados con la adición de otros parámetros incluidos en la simulación. Por ello, aún quedan áreas de oportunidad en el proyecto.
Ponce Montes Armando, Instituto Politécnico Nacional
Asesor:Dr. Carlos Palomino Jiménez, Benemérita Universidad Autónoma de Puebla
VALUACIóN DE OPCIONES MEDIANTE LA TRANSFORMADA DE ESSCHER
VALUACIóN DE OPCIONES MEDIANTE LA TRANSFORMADA DE ESSCHER
Ponce Montes Armando, Instituto Politécnico Nacional. Asesor: Dr. Carlos Palomino Jiménez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La transformada de Esscher es una técnica útil para valuar opciones suponiendo que el logaritmo del precio de los activos subyacentes es un proceso estocástico con incrementos estacionarios e independientes. Ejemplos de estos procesos son el proceso de Wiener, el proceso de Poisson, el proceso Gamma, entre otros.
Los modelos clásicos de valuación de opciones se pueden obtener mediante la transformada de Esscher ofreciendo primero una fórmula general para la valuación de opciones del tipo call Europeo y posteriormente concretándolas para los distintos casos de procesos estocásticos que gobiernan al logaritmo del precio del activo subyacente.
En la estancia de investigación se estudiaron estos modelos de valuación clásicos y su formulación a través de la transforma de Esscher, además de plantear con la transformada de Esscher una nueva metodología para valuar una opción de tipo call Europeo super share.
METODOLOGÍA
Supongamos que existe un proceso estocástico, {X(t)}, con incrementos estacionarios e independientes, X(0) = 0, tal que
S(t) = S(0)e^(X(t)), t ≥ 0
La transformada de Esscher (con parámetro h) de proceso estocástico {X(t)} se define como una nueva medida de probabilidad con nueva función de densidad
f(x,t;h)=f(x,t)e^(hx)/M(h,t)
donde M(h,t) es el momento h del proceso {X(t)}. Queremos asegurarnos que los precios de las acciones del modelo son internamente consistentes. Por lo tanto buscamos
h = h*, tal que el proceso del precio de las acciones descontadas {e^(-rt)S(t)} sea una martingala respecto a la medida de probabilidad correspondiente a h*. En particular,
S(0) = E*[ e^(-rt)S(t)]
donde r denota la tasa de interés libre de riesgo constante. Si consideramos una opción call europea sobre una acción que no paga dividendos con precio de ejercicio K y fecha de ejercicio T el valor de la opción en el tiempo 0 es
E*[ e^(-rt)max{(S(T)-K),0}]
Después de algunos cálculos obtenemos que el valor de dicha opción es
S(0)[1-F(ln(K/S(0)),T};,h*+1)]-e^(-rt)K[1- F(ln(K/S(0)),T;h*)] (1)
Donde F es la nueva función de distribución acumulada tras aplicar la transformada de Esscher.
Ahora, al suponer que el proceso {X(t)} es un proceso de Wiener y después de realizar los cálculos necesarios y aplicar la fórmula (1) se obtiene que el valor del call europeo es
S(0)N((-ln(K/S(0))+(r+o^2/2)T)/(o T^(1/2)) - e^(-rt) K N((-ln(K/S(0))+(r-o^2/2)T)/(o T^(1/2))
Donde N es la función de distribución acumulada de una variable aleatoria normal estándar y o es la desviación estándar del proceso {X(t)}. Esta última expresión es la famosa fórmula de valuación de opción de Black-Schooles.
Si suponemos ahora que el proceso {X(t)} tiene la siguiente forma
X(t)=kN(t)-ct
Donde k y c son constantes, Después de algunos cálculos y de aplicar de nuevo la fórmula (1) obtenemos la siguiente fórmula
S(0)[1 − A((ln(K/S(0)) + cτ )/k; T e^k a* )] - Ke^(-rt) [1 − A((ln(K/S(0)) + cτ )/k; T a* )]
Donde A es la función de distribución acumulada de Poisson con parámetro a. Esta expresión es la ya conocida formula de valuación de opciones con un proceso de Poisson desplazado.
Por último, se estudiará una variación de la fórmula (1) para una opción de tipo call europeo super share en donde el valor de la opción en el tiempo 0 esta dado por
E*[ e^(-rt)(S(T)/K1 I)]
Donde I toma el valor de 1 si K1<S(T) < K2 y 0 en cualquier otro caso donde K1 y K2 son constantes positivas. Entonces al hacer esta sustitución en la metodología anterior y después de algunos cálculos la modificación de la fórmula (1) queda como
S(0)/ K1 [F(ln(K2/S(0)),T,h*+1)- F(ln(K1/S(0)),T,h*+1)]
Al tomar los mismos supuestos que se utilizaron para derivar el modelo black schooles y después de algunos cálculos se obtiene
S(0)/ K1 [N((ln(K2/S(0))-(r+o^2/2)T)/(o T^(1/2)))- N((ln(K1/S(0))-(r+o^2/2)T)/(o T^(1/2)))]
La cual es la fórmula ya conocida fórmula para valuar opciones de tipo call Europeo super share
CONCLUSIONES
La transformada de Esscher es una metodología muy valiosa para la valuación de opciones ya que simplifica mucho los cálculos y es una manera más práctica de comprender la metodología.
En la estancia de investigación se logro estudiar la transformada de Esscher así como el uso de ésta para obtener las fórmulas clásicas de valuación de opciones. Se comparó además esta metodología con las originales y se concluyó con la derivación de la fórmula de valuación de un super share europeo haciendo uso de la transformada.
Porras Bautista Paola Roshell, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California
LA FIBRA DE CARBONO COMO UNA ALTERNATIVA PARA EL REFORZAMIENTO DE ELEMENTOS DE CONCRETO.
LA FIBRA DE CARBONO COMO UNA ALTERNATIVA PARA EL REFORZAMIENTO DE ELEMENTOS DE CONCRETO.
Porras Bautista Paola Roshell, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Los materiales compuestos son una clase de materiales formados por la combinación de dos o más componentes con propiedades diferentes para crear un material con características mejoradas para fines diversos. (Juárez Alvarado, Mendoza Rangel, Terán Torres, Valdez Tamez, & Castruita Velazquez, 2021)
En el área de la construcción, los materiales compuestos han sido incorporados en obras civiles de todo tipo, permitiendo así la creación, restauración y mejora de edificaciones que día a día benefician a diversos sectores de la población.
La utilización de CFRP (materiales compuestos reforzados con fibra de carbono) para fortalecer elementos de concreto reforzado ha surgido como una opción alternativa y altamente efectiva en comparación con otros métodos. Los CFRP presentan notables características mecánicas, como una elevada resistencia a la corrosión, una relación resistencia-peso muy alta, una instalación rápida y costos de mantenimiento reducidos. (Sakbana & Mashreib, 2020)
Es importante que se haga uso del análisis numérico y teórico de los elementos de concreto reforzado con fibras de carbono a través de herramientas tecnológicas, con el objetivo de desarrollar bases confiables que acompañen al ensaye experimental.
METODOLOGÍA
Se estudiaron mecánicamente dos elementos cilíndricos de concreto de 15 cm de diámetro y 30 cm de altura sometidos a un ensaye a compresión. El primer cilindro de concreto incluye internamente 21 refuerzos de fibra de carbono con un diámetro de ¾ (1.91 cm) y una longitud de 30cm en el sentido de la altura del cilindro. El segundo cilindro de concreto es similar el primero, la diferencia reside en la ausencia de los 21 refuerzos de fibra de carbono, en su lugar se encuentran 21 perforaciones de la misma geometría que los refuerzos de carbono.
Los materiales que se utilizaron fueron concreto con una resistencia a la tracción de 3,447,000 Pa y una resistencia última a la tracción de 4,826,000 Pa, y fibra de carbono con una resistencia última a la tracción de 3,447,000,000 Pa.
Para efectos del ensaye, se colocaron dos placas de aleación de titanio recocido Ti-6Al-4V en las dos caras superior e inferior de ambos cilindros de concreto, dichas placas con una resistencia a la tracción de 845,700,000 Pa y una resistencia última a la tracción de 918,000,000 Pa.
El modelado y ensaye se realizó haciendo uso del Software Ansys, un ecosistema de programas CAE para diseño, análisis y simulación de partes por elementos finitos FEA. En donde se asignaron los materiales mencionados con anterioridad a ambos modelos con sus respectivas características y componentes con ayuda de la herramienta static structural, ofrecida por el mismo Software.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos sobre la importancia de utilizar fibra de carbono como una alternativa para el reforzamiento de elementos de concreto. Los resultados mostraron que el cilindro de concreto con perforaciones cilíndricas (ausencia de fibra como refuerzo) obtuvo una deformación mínima máxima de y un factor de seguridad de 5.58. Por otro lado, el cilindro de concreto con refuerzos de fibras de carbono obtuvo una deformación máxima de y un factor de seguridad de 7.68.
Como se puede observar, integrando la fibra de carbono a la matriz de concreto permitió un aumento del factor de seguridad en un 27.35% y una reducción del 10.28% de la deformación total. Estos comportamientos permiten mostrar la clara mejoría de las condiciones mecánicas del concreto al ser reforzado con fibras de carbono.
Portillo Lujan Ana Paula, Universidad Estatal de Sonora
Asesor:Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
CARACTERIZACIÓN DEL SUELO A PARTIR DEL ANALISIS DE ONDAS SUPERFICIALES EN PUERTO VALLARTA, JALISCO.
CARACTERIZACIÓN DEL SUELO A PARTIR DEL ANALISIS DE ONDAS SUPERFICIALES EN PUERTO VALLARTA, JALISCO.
Alvarado Izarraras Roberto, Universidad de Guadalajara. Portillo Lujan Ana Paula, Universidad Estatal de Sonora. Rosales Rios Claudia Ana Maria, Universidad de Guadalajara. Zúñiga Cueva Wendy Lizbeth, Universidad de Guadalajara. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La ciudad de Puerto Vallarta se encuentra en el occidente de México, la cual es una zona de alta sismicidad por consecuencia de la subducción de la placa Rivera con la Norteamericana. Históricamente han ocurrido sismos importantes que dejaron grandes daños en edificios, además del sismo las causas de esto podrían estar asociadas a los efectos de sitio, de ahí la importancia de estos estudios previos al desarrollo de estructuras de ingeniería civil. La capacidad de las estructuras para resistir una vibración provocada por un sismo depende de la intensidad del movimiento del terreno, su amplitud y duración. Ya que estos comportamientos pueden aumentar tanto la probabilidad de daños estructurales como el riesgo en la seguridad de las personas. Con la aplicación de los diversos métodos sísmicos y técnicas de análisis, como MASW (Multichannel Analysis of Surface Waves) y MAM (Microtremor Array Measurement), se puede obtener la caracterización del suelo. Estos estudios permiten inferir cómo las ondas sísmicas se pueden propagar y amplificar durante un evento sísmico. Estos métodos se basan en el análisis de ondas superficiales, el arreglo MAM es relativamente nuevo pero ha ganado bastante popularidad en la geofísica por su capacidad de resolución y penetración, además de ser más económico al utilizar el ruido ambiental.
METODOLOGÍA
La investigación se basó en la adquisición de datos sísmicos utilizando tanto el método de sísmica activa (MASW) como el método de sísmica pasiva (MAM). Se implementaron equipos y técnicas adecuadas para cada enfoque y se llevaron a cabo pruebas en diversas ubicaciones representativas de Puerto Vallarta. Los datos recopilados se analizaron y compararon para determinar las diferencias y similitudes entre ambos métodos en la caracterización del suelo.
Para el método MASW:
Selección de varios puntos para el área de estudio.
Definición de la trayectoria de la línea de adquisición de datos.
Ondas generadas a partir del golpe de un marro de 20 libras hacía una placa metálica.
Registro de ondas por medio de geófonos colocados cada 2 metros.
Para la adquisición de datos se registra un conjunto de datos suficiente para cubrir un rango de frecuencias que permita una resolución adecuada de las capas subsuperficiales. Al procesar los datos se buscó realizar la corrección de tiempo para alinear las señales registradas, así como aplicar filtros para mejorar la relación señal-ruido y eliminar el ruido no deseado. También se buscó calibrar las amplitudes de las señales para obtener mediciones precisas de la amplitud de las ondas.
Destacando que la metodología del MASW puede requerir ajustes específicos según las condiciones del terreno y los objetivos del estudio. Además, el procesamiento y análisis de datos se lleva a cabo utilizando softwares especializados.
En el caso del método MAM se utilizaron las vibraciones naturales del suelo, como el viento, el tráfico y la actividad humana, conocidas como microtemblores. En el diseño de la práctica se seleccionó el sitio de estudio y el área en el que se realizaron las mediciones, para después colocar una matriz de sensores sísmicos en el suelo (varios geófonos distribuidos en un patrón específico). De la misma manera en la adquisición de datos se recopilaron suficientes microtemblores para un análisis preciso. Para el procesamiento de datos se calcula el espectro de frecuencia de las señales para cada punto en la matriz y para diferentes componentes (horizontal y vertical) así como realizar la corrección de tiempo y aplicar filtros para eliminar ruido no deseado. Al momento de analizar los datos se identifican las frecuencias naturales del suelo (modos de vibración) a partir del espectro de frecuencia.
La metodología de MAM es una herramienta valiosa para la caracterización del subsuelo y la evaluación del riesgo sísmico, especialmente en áreas urbanas donde las fuentes sísmicas naturales son abundantes.
CONCLUSIONES
El uso de ambos métodos permitió obtener una visión más completa de las propiedades del suelo, lo que es esencial para comprender cómo las ondas sísmicas se propagan y amplifican durante un evento sísmico. El método MASW, que se basa en ondas generadas activamente, proporcionó información valiosa sobre las capas subsuperficiales y la velocidad de propagación de las ondas. Por otro lado, el método MAM, que utiliza vibraciones naturales del suelo, permitió identificar las frecuencias naturales y los modos de vibración del suelo. Mencionando que el método MAM tiene mayor costo y complejidad además de un mayor tiempo de procesamiento, mientras que en el método MASW tiene una menor resolución en profundidad y también presenta limitaciones en suelos muy heterogéneos.
La combinación de ambos métodos puede aumentar la precisión y confiabilidad de los resultados y ofrecer una mayor comprensión de la estructura del suelo, lo que es esencial para la planificación y el diseño de nuevas construcciones y para la evaluación de la vulnerabilidad de las estructuras existentes frente a eventos sísmicos.
Al comprender mejor las características del subsuelo, se pueden evaluar los riesgos geotécnicos, como la susceptibilidad a la licuefacción del suelo durante un terremoto, la posibilidad de deslizamientos de tierra u otros fenómenos relacionados con la geodinámica. La información obtenida a través de estos métodos puede ser utilizada para optimizar el diseño y la planificación de proyectos de construcción, reduciendo los costos y los riesgos asociados con la ingeniería geotécnica.
Durante la estancia de verano se logró obtener conocimientos teóricos y ponerlos en práctica a lo largo del verano. Al crear un manual de uso para el equipo geode, las practicas fueron de mayor provecho, una vez teniendo estas herramientas a disposición el proceso es fácil de implementar si el equipo necesario se encuentra disponible.
Que Soberano Jeremy, Instituto Tecnológico Superior de Los Ríos
Asesor:Dr. Virgilio Cruz Cruz, Universidad Autónoma de Guerrero
TECLADO DIDáCTICO PARA LA ENSEñANZA DE LOS SISTEMAS DE NUMERACIóN DIGITAL
TECLADO DIDáCTICO PARA LA ENSEñANZA DE LOS SISTEMAS DE NUMERACIóN DIGITAL
Que Soberano Jeremy, Instituto Tecnológico Superior de Los Ríos. Vázquez Suárez Carlos Manuel, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Virgilio Cruz Cruz, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
Dado el avance en las tecnologías y las ciencias en la computación, se ha dirigido la atención a dicha área y cada vez es más común que jóvenes se interesen en comprender como funcionan estas tecnologías. Sin embargo, algunos temas resultan complicado de aprender o son poco interesantes para los estudiantes. En este contexto, han surgido varios trabajos basados en robótica educativa para facilitar y motivar el estudio por temas complejos y hasta cierto punto, aburridos. De esta manera, es común utilizar placas programables o componentes de cómputo físico para dar movimientos o dinamismo a los mecanismos robóticos o robots que se construyen con fines didácticos. En esta dirección, surge este trabajo de crear un tablero didáctico basado en robótica educativa y computo físico que permita la enseñanza-aprendizaje de la conversión de sistemas de numeración comúnmente usados en el ámbito digital: binario, octal, decimal y hexadecimal. Por medio de una interfaz gráfica e intuitiva, el usurario realiza y visualiza la conversión de un sistema de numeración a otro. El tablero está compuesto por sensores que al detectar la presencia de un objeto envían una señal a la placa principal para realizar el cálculo y posteriormente visualizarlo en una pantalla led que esta incrustada en la carcasa de dicho tablero.
METODOLOGÍA
El objetivo de tablero didáctico es que se aprenda de manera más sencilla y lúdica los diferentes sistemas de numeración. Por ello, el tablero propuesto tiene forma de una calculadora interactiva, la cual está compuesta por 8 sensores tipo fotorresistencia que tienen un valor especifico cada uno de ellos, una placa Arduino Mega 2560 que controla la aplicación, pantalla que visualiza el resultado y un potenciómetro que permite cambiar de un sistema de numeración a otro. Para hacer una conversión de un sistema a otro, se usan canicas que habilitan o deshabilitan los sensores. El modelo de la carcasa está basado en un modelo de control de Xbox, que facilita su uso.
Lo primero fue abrir la página TinKerCad para hacer nuestro programa de modelo 3D (simulación) en línea que se puede ejecutar en un navegador Web. Para la calculadora usamos un Arduino, cables jumpers, potenciómetro de 10k, resistencias, fotorresistencia, una pantalla DCL 16x2 (I2C), tabla potroboard.
Blender es un programa para hacer modelos 3D, para este paso se uzo para elaborar la carcasa de la calculadora. Como se mencionó al principio usamos un modelo de control de Xbox para que sea cómodo al momento se utilizarlo. Nos tomo 2 semanas modelando parte por parte hasta tener listo el modelo. La primera parte se dividió en la parte superior donde va la pantalla, el potenciómetro, los sensores y los leds. La segunda parte fue la parte de la base una superficie plana; y por último los bordes.
Cura es un programa diseñado para impresoras 3D, en la que se puede modificar los parámetros de impresión y después transformarlos en un código G. En esta parte se tuvo unos problemas con el diseño, ya que las medidas eran grandes, por lo cual se decidió dividir las 3 partes como se mencionó anterior mente, se le añadió soportes dentro del programa ya que sin los soportes el filamento caliente se vendría abajo, también se usó fijador para cabello en esprit para que se mantuviera firme y no se moviera. La aplicación te da un tiempo donde te dice cuántas horas se llevará a cabo la impresión en 3D, la primera pieza se tardó unas 7 horas con 20 minutos, la segunda pieza en un aproximado de 5 horas y 6 minutos y la tercera pieza 2 horas y 30 minutos.
Impresora 3D: Anet 8plus, con este modelo se imprimió las partes de nuestro modelo de la base de nuestra calculadora. Para usar la impresora se calibro la base, que es una de un vidrio resistente ya que suporta altas temperaturas, debajo de la base tiene unas tuercas en cada esquina, una vez calibrada se inserta la tarjeta SD, antes de encender la impresora se colocaba el fijador para cabello, y después se prendía la impresora, se selecciona el modelo y después la maquina tarda un aproximado de 5 a 10 minutos, esto porque tiene que calentar a 200° grados para derretir el filamento. Una vez terminado se debe esperar a que se enfrié el modelo, ya que si se retira el modelo estará caliente y al estar caliente se puede desfigurar ya que es plástico caliente.
Después de tener las piezas, la parte superior se la abrió un rectángulo a la medida de la pantalla DCL 16x2 (I2C), también se le abrió un hueco a la medida de los 8 leds, 8 para los sensores del tamaño aproximado de una canica, también con soldar los cables con los leds, a los sensores, a la pantalla y todo esto conectado a la placa Arduino.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos como Arduino es una compañía de desarrollo de software y hardware libres, así como una comunidad internacional que diseña y manufactura placas de desarrollo de hardware para construir dispositivos digitales y dispositivos interactivos que puedan detectar y controlar objetos del mundo real. También se adquirió conocimientos sobre las impresoras 3D, gracias a los modelos en 3D, el programa utilizado fue BLENDER. El docente tomó sólo el papel de facilitador proporcionando conocimientos previos y recursos de aprendizaje para que de manera independiente se indagaran y manipularan objetos (construccionismo) para obtener la comprensión de los conceptos a través de la experimentación (prueba-ensayo-error).
Quiñones Sánchez Carol Edith, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
DISPOSITIVO TéRMICO PARA LA REDUCCIóN DE LA CONTAMINACIóN MEDIANTE UN TORBELLINO
DISPOSITIVO TéRMICO PARA LA REDUCCIóN DE LA CONTAMINACIóN MEDIANTE UN TORBELLINO
Palacios Santiago Sergio Israel, Universidad Autónoma de Chiapas. Quiñones Sánchez Carol Edith, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La capa de inversión es un proceso meteorológico que ocurre en la atmosfera, el cual implica que la temperatura a mayor altura aumente, esto produce un efecto de tapón el cual impide el intercambio de masas, pues solo materia con una temperatura mayor a la de la máxima de la capa de inversión puede traspasarla.
Uno de los mayores problemas ambientales actuales es la contaminación provocada por gases de efecto invernadero, tales como el combustible de los vehículos, la industria, y el consumo de gas L.P, a los cuales se les atribuyen la formación de ozono, ahora, el problema radica en que los gases al ascender aumentan su volumen y por lo tanto disminuyen su temperatura, de forma que no son capaces de pasar por la capa de inversión y entonces quedan atrapados, la solución que se propone es calentar el aire para crear un agujero en la capa de inversión y producir el cambio de materia, y mediante el torbellino dispersar los contaminantes y a su vez jalar el aire caliente hasta la capa de inversión, siendo esto el símil un huracán, pero en una escala mucho menor.
METODOLOGÍA
Se propone llevar a cabo pruebas mediante modelación multi física con Comsol Multiphysics de dos sistemas, uno cuya fuente de calor es el gas L.P., y el segundo utilizando el calor de las chimeneas de la industria utilizando a su vez el agua de desechos para evaporarla.
Esto se llevara a cabo mediante un diseño anterior, mejorando sus caracteristicas y modelando su funcionamiento con distintos dominios maximos, desde el diseño original hasta un kilometro de altura, lo cual seria suficiente para asegurar que se llego y traspaso la capa de inversion.
La simulacion consistira en el dispositivo formado por multiples ventiladores y la fuente de calor, el dominio maximo de aire y la capa de inversion con sus respectivas caracteristicas
CONCLUSIONES
Por lo tanto, se consiguió simular los efectos del torbellino producido por el modelo propuesto el cual consiste 8 ventiladores los cuales se configuraron para alcanzar una velocidad de 60m/s, de esta forma se logro generar el torbellino de hasta un kilómetro, logrando así el objetivo principal que es penetrar la capa de inversión con una diferencia de temperatura que supera los 20 grados kelvin y así mismo poder dispersar los contaminantes presentes en ella.
Finalmente se sigue trabajando en la dependencia temporal de la simulación, con la ayuda del LNS de la BUAP.
Quiroz Alcauter Guillermo, Instituto Tecnológico de Zitácuaro
Asesor:Dr. Marco Antonio Navarrete Seras, Universidad Michoacana de San Nicolás de Hidalgo
LA UTILIZACIÓN DE RESIDUOS DE LA CONSTRUCCIÓN Y DEMOLICIÓN COMO SUSTITUTOS DE AGREGADOS PETREÓS EN CONCRETO
LA UTILIZACIÓN DE RESIDUOS DE LA CONSTRUCCIÓN Y DEMOLICIÓN COMO SUSTITUTOS DE AGREGADOS PETREÓS EN CONCRETO
Quiroz Alcauter Guillermo, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Marco Antonio Navarrete Seras, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
En los últimos años ha crecido significativamente la construcción en las ciudades en Latinoamérica y con ello la cantidad de desechos que estas generan. Dentro de las mismas se recolectan más de 350 metros cúbicos de residuos al día, lo cual ha generado que estos se hayan convertido en un problema ambiental, puesto que, debido a su cantidad y disposición inadecuada, se configuran en focos de contaminación de suelos y aguas superficiales.
METODOLOGÍA
Dentro del costo de una obra, los materiales pétreos representan entre 40 y 60 por ciento del total de un proyecto; lo que con lleva a la generación de residuos de esta actividad que también es significativo en términos monetarios; debido a ello, es importante ofrecer una solución sostenible, que considere en reducir drásticamente la producción de residuos.
Los Residuos de la Construcción y Demolición (RDC) son los que se generan durante el desarrollo de la edificación, actividad de construcción, de realización de obras civiles, de la demolición o de actividades complementarias o análogas.
La composición de los RCD varía en según del tipo de obra o demolición de la cual se trate, y refleja en sus componentes mayoritarios el tipo y distribución potencial de las materias primas que se utilizan en el sector qué pueden variar de un país a otro, en función de la disponibilidad de los mismos y los hábitos constructivos.
En América latina, esta opción es muy común; los recuperadores tradicionales realizan la selección de los derribos y venden los materiales a bodegas para su posterior reventa. Es la región más urbanizada del mundo en desarrollo. Casi un 80% de su población vive en ciudades, la prevención es que este porcentaje aumente en el futuro. Un 32% de la población total y un 40% de la producción urbana de América latina viven en grandes ciudades (de más de un millón de habitantes). En 1956 había 8 grandes ciudades en América latina, hoy día hay 36. La mayor parte de estas ciudades se encuentran en Brasil. En ellas viven casi 109 millones de habitantes.
El auge experimentado por la sede de las ciudades latinoamericanas, y los procesos de renovación urbana que se están llevando a cabo en estas ciudades, han provocado la generación de grandes cantidades de RCD, los cuales debido a la falta de planeación y a la inexistencia de instalaciones de tratamiento o disposición controlada, se han ido depositando en vertederos de residuos urbanos, o bien de forma incontrolada. Las grandes ciudades latinoamericanas deben afrontar, pues, el reto de la gestión de los residuos de la construcción y demolición.
El proyecto titulado “efectos de los residuos de cilindros en ensayos de concreto utilizados como agregado hueso sobre la durabilidad del concreto” (Mora Fernandez, 2021) permitió evaluar los efectos de los residuos de cilindros de ensayos de concreto utilizados, como agregado grueso sobre la durabilidad del concreto, diseñando mezclas de concreto que cumplan una resistencia característica, para ser usada como material estructural, para dos diferentes porcentajes de reemplazo de agregado natural por agregado reciclado. Se determino la resistencia a compresión, penetración de cloruros, carbonatación y expansión de sulfatos del concreto con agregado grueso sustituido al 50% por agregado de concreto reciclado, frente al concreto convencional.
Los resultados de los diferentes ensayos evidenciaron que, es posible producir estructuras de concreto que incorporen cantidades del 50% de agregados reciclados gruesos, siempre que se garantice su calidad y su origen, ya que, el concreto obtenido tuvo resultados comparables a los del concreto de referencia, cumpliendo con los requerimientos normativos de resistencia a la compresión.
CONCLUSIONES
Se establece que los concretos con agregados reciclados, tienen menor resistencia que las mezclas tradicionales. Sin embargo, mientras los agregados sean de buena calidad, es posible obtener concretos con propiedades mecánicas similares, en algunos casos, superiores a las de concretos fabricados con agregados convencionales.
Quiroz Mociños Carolina, Instituto Tecnológico de Pachuca
Asesor:Mtro. Antonio de Jesús Vidal Jiménez, Instituto Tecnológico Superior de Los Ríos
DISEÑO DE HUMEDALES ARTIFICIALES PARA EL TRATAMIENTO DE LAS AGUAS RESIDUALES EN EL TECNOLÓGICO NACIONAL DE MÉXICO CAMPUS DE LOS RÍOS
DISEÑO DE HUMEDALES ARTIFICIALES PARA EL TRATAMIENTO DE LAS AGUAS RESIDUALES EN EL TECNOLÓGICO NACIONAL DE MÉXICO CAMPUS DE LOS RÍOS
Quiroz Mociños Carolina, Instituto Tecnológico de Pachuca. Asesor: Mtro. Antonio de Jesús Vidal Jiménez, Instituto Tecnológico Superior de Los Ríos
PLANTEAMIENTO DEL PROBLEMA
Los humedales artificiales se utilizan para la depuración de aguas residuales en sectores de baja población. Debido a la interacción de sus componentes (especies vegetales, luz solar, sustrato de soporte, agua) son capaces de realizar procesos físicos, químicos y bilógicos. Realizar una propuesta de diseño físico de humedales artificiales subsuperficiales de flujo horizontal con el objetivo de depurar las aguas residuales del Instituto Tecnológico Superior de los Ríos.
METODOLOGÍA
Por medio de un levantamiento topográfico de los antiguos humedales, la recolección de datos de población, un muestreo para conocer la calidad del agua y una serie de cálculos hidráulicos para definir las dimensiones (ancho, largo, profundidad y pendiente) de los humedales, además de establecer el número de unidades necesarias. Tomando los criterios de diseño de los manuales emitidos por la CONAGUA (Manual de Agua Potable, Alcantarillado y Saneamiento) y usando el método de Kadlec y Knight para calcular el área requerida para la reducción de los niveles de los contaminantes de DBO y SST, respetando los parámetros máximos permisibles establecidos en la NOM-001-SEMARNAT-2021.
CONCLUSIONES
Se calculó un área necesaria para el tratamiento de 401.92 metros cuadrados, la cual se distribuyó en 8 humedales con dimensiones finales de 12 metros de largo por 5 metros de ancho, profundidad de 0.9 metros más un bordo libre de 30 centímetros y pendiente necesaria de 1 % para un flujo de 3.93 L/s. Esperando una remoción de 80% de los contaminantes de acuerdo con las cantidades estimadas posterior al tratamiento en comparación con los niveles de contaminantes al entrar. Por ello, es evidente la importancia de realizar un análisis hidráulico previo para generar una propuesta de diseño eficiente.
Ramirez Carrasco Gretel Rebecka, Instituto Tecnológico de Sonora
Asesor:Dr. Jesús Roberto Vidal Solano, Universidad de Sonora
RELACIóN DE LA FLORA NATIVA CON LA GEOIDENTIDAD DE LA RESERVA DE LA BIOSFERA EL PINACATE Y GRAN DESIERTO DE ALTAR.
RELACIóN DE LA FLORA NATIVA CON LA GEOIDENTIDAD DE LA RESERVA DE LA BIOSFERA EL PINACATE Y GRAN DESIERTO DE ALTAR.
Ramirez Carrasco Gretel Rebecka, Instituto Tecnológico de Sonora. Asesor: Dr. Jesús Roberto Vidal Solano, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
La historia, geografía, geomorfología y hábitats de flora y fauna nativas de la reserva es muy diverso y ha ido cambiando durante el tiempo por razones naturales y actividad humana. Con enormes conos volcánicos, grandes flujos y túneles de lava solidificados en distintas geometrías, la vegetación aún está presente con los diferentes tipos de paleosuelos y rocas que se observan. Estando dentro del Desierto de Sonora, donde es posible encontrar la mayor cantidad de especies de plantas y animales que en algún otro desierto, características geológicas notables y representando a Norteamérica con sus grandes dunas. Es de gran importancia el reconocerla no como área paisajística para el beneficio humano, sino como un ecosistema único en el mundo en su estado original con gran diversidad de especies donde interactúan con lo biótico y lo abiótico, al estudiarla se comprende el pasado de nuestro estado y el porque es actualmente como es.
METODOLOGÍA
El punto de inicio del proyecto de investigación fue el Cono Rojo. Donde a partir de esa zona se comenzó a estudiar el área y sus alrededores. Se llevaron a cabo reconocimientos en distintas zonas del área, caminando por kilómetros para observar la diversidad de especies de flora y fauna y los sitios rocosos donde ocurre. Se tomó nota para la realización de escalas estratigráficas y se documentó la vegetación en puntos clave junto con los tipos de suelo y minerales. Se obtuvieron muestras de roca para ser determinadas en laboratorio. Para el entendimiento de estos sitios naturales es importante dedicarle tiempo y tener habilidades para tener el razonamiento bio y geo de la información obtenida. Así se le dedico tiempo y pasión durante el trabajo de campo para obtener resultados de calidad.
CONCLUSIONES
Las Áreas Naturales Protegidas protegen legalmente la conservación de la diversidad biológica y el patrimonio natural para así obtener un desarrollo sostenible del país y en beneficio de la población. Es de importancia el reconocerlas para tener un manejo de calidad en operaciones respecto al área y realizarlas de manera profesional. La Reserva la Biosfera el Pinacate y Gran Desierto de Altar, cabe mencionar igual que otras reservas, como ejemplo; el primer enfrentamiento que tienen es el financiamiento para poder sostenerse y conservarse a través de métodos saludables y que no causen mucho impacto. Se deben detectar los espacios vacíos para salvaguardar la diversidad, tener un aprovechamiento sustentable, zona original y tener la posibilidad de beneficiarse con fines científicos. Es recomendable promover las investigaciones científicas, desarrollar planificaciones y llevar a cabo el proyecto, con el fin de solucionar los problemas físicos, biológicos y geológicos.
Ramírez Contreras Cristobal, Universidad Veracruzana
Asesor:Dra. Norma Angelica Caballero Concha, Benemérita Universidad Autónoma de Puebla
CURCUMINA COMO POTENCIAL INHIBIDOR DE CDK5: UNA PROMETEDORA ESTRATEGIA EN EL ALZHEIMER
CURCUMINA COMO POTENCIAL INHIBIDOR DE CDK5: UNA PROMETEDORA ESTRATEGIA EN EL ALZHEIMER
Ramírez Contreras Cristobal, Universidad Veracruzana. Asesor: Dra. Norma Angelica Caballero Concha, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La enfermedad de Alzheimer, es una enfermedad neurodegenerativa progresiva y devastadora, siendo la principal causa de demencia que afecta a millones de personas. En la actualidad se estima que cerca de 50 millones de individuos alrededor del mundo sufren de demencia y, de acuerdo con la OMS, este número se triplicará para el año 2050. Además de la pérdida gradual de memoria se caracteriza por la pérdidad de las funciones cognitivas, lo que lleva a una disminución significativa de la calidad de vida de los pacientes, y una carga tanto emocional como económica considerable para sus familias y la sociedad en general. Hasta el momento, no existe una cura definitiva para esta enfermedad, y los tratamientos disponibles solo pueden proporcionar alivio sintomático temporal.
La quinasa dependiente de ciclina 5 (Cdk5) es una enzima reguladora clave en el sistema nervioso, que desempeña un papel crucial en el desarrollo neuronal y la plasticidad sináptica. Sin embargo, cuando esta enzima se hiperactiva, como ocurre en enfermedades neurodegenerativas como el Alzheimer, puede desencadenar procesos patológicos que conducen a la degeneración neuronal y al deterioro cognitivo. Por lo tanto, la inhibición selectiva de CDK5 tiene un enfoque terapéutico prometedor para abordar esta enfermedad.
En este contexto, los fitoquímicos, que son compuestos naturales derivados de plantas, han sido objeto de investigación intensiva como una posible alternativa terapéutica para el Alzheimer. La curcumina, un fitoquímico presente en la cúrcuma, ha ganado especial atención debido a sus propiedades antioxidantes, antiinflamatorias y neuroprotectoras potenciales.
METODOLOGÍA
El acoplamiento molecular, también conocido como Molecular Docking, es una técnica ampliamente usada para predecir modos de interacción entre un ligando (generalmente molécula de naturaleza orgánica) y un receptor (generalmente de naturaleza proteíca) con el objetivo de generar información de utilidad en el estudio y diseño de compuestos terapéuticos
La proteína de interés: Quinasa dependiente de ciclina 5 (Cdk5) se identificó ya cristalizada a través de los gestores de búsqueda del Protein Data Bank (PDB). Después de un análisis para seleccionar el mejor modelo, se optó por tomar la Cdk5 con ID 3O0G. De igual manera, se descargó el ligando con el que cristalizó dicha proteína (C16 H11 Cl N4 O3 S) para utilizarlo como control. La preparación de la proteína para el cálculo se realizó en el software UCSF Chimera v1.17.3, eliminando toda molécula de naturaleza no peptídica y ligando de cristalización.
El ligando: La curcumina (C21H20O6) fue obtenida de los gestores de búsqueda del Cambridge Crystallographic Data Centre (CCDC) con el número identificador 1111255. Posteriormente, la estructura molecular fue optimizada a través de un método DFT, con funcional B3LYP y un conjunto de funciones de base 6-31g en el software Gaussian09.
Utilizando el software AutoDockTools 1.5.6, se adicionaron sólo los hidrógenos polares a la proteína y se l asignaron cargas de tipo Kollman. A el ligando se le añadieron las cargas Gasteiger y se generaron dos archivos distintos, uno en donde se eliminaron las torsiones y realizar un docking rígido, y otro en donde se activaron todas las torsiones para llevar a cabo un docking semi-flexible.
Para realizar los cálculos de docking se utilizó AutoDock Vina 1.1.2, realizando una búsqueda exhaustiva de 8 poses para el docking rígido y 9 poses para el caso del docking semi-flexible. Finalmente, se empleó el software BIOVIA Discovery Studio v21.1.0.20298 para la visualización, análisis y comparación de resultados.
CONCLUSIONES
Para el análisis de resultados, se tomó como referencia la energía y el tipo de interacciones que se adquirieron utilizando el ligando de cristalización (al cual denominaremos control) con la Cdk5 y se compararon con todas las poses resultantes de ambos tipos de cálculo utilizando a la curcumina.
Control:
Energía: -10.1 kcal/mol
Puentes de hidrógeno: LYS33, GLU81, CYS83
Pi-Sigma: LEU133
Pi-Pi Conjugado: PHE82
Alquilo: LYS89
Pi-Alquilo: ALA143, VAL18, ALA31, CYS83, ILE10
DOCKING RÍGIDO
Pose 2:
Energía: -11.2 kcal/mol
Puentes de hidrógeno: CYS83, ASN144
Enlace carbono-hidrógeno: GLU8
Desfavorable Aceptor-Aceptor: GLU51
Alquilo: ILE10, LYS20, PHE82, VAL18
Pi-Alquilo: ILE10, LYS89, VAL18, ALA143, LYS33
DOCKING SEMI-FLEXIBLE
Pose 8:
Energía: -6.0 kcal/mol
Puentes de hidrógeno: ASP86, ASN144
Enlace carbono-hidrógeno: GLU8
Pi-Catión: LYS89
Pi-Sigma: LEU133
Alquilo: VAL18
Pi-Alquilo: ALA31, ALA143, VAL18
Conclusiones
Comparando cada pose con el control en el docking rígido, notamos que los aminoácidos más relevantes con los que interactúan son CYS83, ALA31, ALA 143, VAL18, LEU133, destacando que son en su mayoría interacciones con los anillos aromáticos. La pose con mayor número de aminoácidos coincidentes es la pose dos, además cuenta con una energía de -11.2 kcal/mol y tiene una posición cercana al ligando control.
El uso de docking flexible en la curcumina muestra una alta participación de los aminoácidos ALA143, ALA31, VAL18, LEU133, ILE10. Una diferencia relevante comparado con el docking rígido es la disminución de poses con aminoácidos coincidentes y con una posición lejana a control.
La mayoría de las interacciones son generadas con los anillos aromáticos de la curcumina, de acuerdo a la bibliografía se podría sugerir que son relevantes para competir por el sitio activo del ATP, basándonos en que es el sitio probable de ocupación de la adenina.
Estos resultados nos hacen pensar sobre el potencial terapéutico que tendría la curcumina en Alzheimer, tomando en cuenta las limitantes que tiene este fitoquímico, sobre todo su baja biodisponibilidad, la dificultad de cruzar la barrera hematoencefálica y la poca especificidad que posee. Por lo anterior, sería recomendable el uso de nanopartículas, acarreadores y/o protectores que puedan facilitar su paso a través de la barrera hematoencefálica y aumentar su concentración en el cerebro.
Ramírez de Gyves Guillermo, Instituto Politécnico Nacional
Asesor:Dr. Jorge Sánchez Ortiz, Universidad Autónoma de Guerrero
CIRCUITO RC, RL, LC, RLC EN SERIE DE ORDEN FRACCIONARIO
CIRCUITO RC, RL, LC, RLC EN SERIE DE ORDEN FRACCIONARIO
Ramírez de Gyves Guillermo, Instituto Politécnico Nacional. Asesor: Dr. Jorge Sánchez Ortiz, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
En cursos básicos de cálculo se enseña que las operaciones de derivación e integración son de orden entero, sin embargo, existe una rama de las matemáticas que estudia lo que sucedería si en lugar de tener un orden entero, se tuviera un orden fraccionario. Esta rama se denomina "Cálculo fraccionario".
El cálculo fraccionario es una disciplina relativamente nueva que tiene sus inicios a finales del siglo XVII tras una carta de L'Hopital a Leibnitz. Desde ese entonces, matemáticos de gran renombre han hecho sus aportaciones definiendo operadores integro-diferenciales con el propósito de llegar a una definición universal.
Las derivadas fraccionarias poseen la cualidad de la no localidad (ya que se definen por medio de integrales), por lo que estas, contienen información anterior sobre la función; implicando que para conocer el siguiente estado de un sistema, se debe conocer el actual y el anterior. Gracias a esta propiedad, los resultados de la derivada fraccionaria describen fenómenos físicos de una forma más general.
Actualmente existen dos definiciones muy utilizadas, la de Riemann-Liouville y Caputo; aunque la primera es útil para aplicaciones puramente matemáticas, es deficiente para la interpretación física de condiciones iniciales; a diferencia de la segunda (Caputo), que es eficiente en esto, permitiendo un correcto modelado matemático de fenómenos físicos reales como los circuitos eléctricos, por lo que durante el verano de investigación, se analizarán cuatro de estos sistemas físicos simples.
METODOLOGÍA
Primeramente se hace un repaso de los conocimientos previos necesarios para poder aplicar la derivada fraccionaria al sistema deseado; por ejemplo, Cálculo diferencial, Integral, Ley de Ohm, Ley de Mallas de Kirchhoff, Ecuaciones Diferenciales Ordinarias, funcion Mittag-Leffler.
Después, se proponen las ecuaciones diferenciales ordinarias de los cuatro sistemas físicos y se encuentran sus soluciones mediante métodos como Factor Integrante y Transformada de Laplace. Se continua haciendo el cambio de derivada simple a la derivada fraccionaria de Caputo en cada uno de los sistemas y se encuentran sus soluciones utilizando la Transformada de Laplace adaptada a ese nuevo operador.
CONCLUSIONES
Durante el verano de investigación, se logró adquirir conocimientos matemáticos teóricos avanzados del cálculo fraccionario y se pusieron en práctica analizando sistemas físicos simples como los circuitos haciendo uso de las ecuaciones diferenciales.
Ramírez González Edruan Obier, Universidad Autónoma de Sinaloa
Asesor:Dr. Octavio Arizmendi Echegaray, Centro de Investigación en Matemáticas (CONACYT)
MATRICES D-REGULARES Y EXPANSORES
MATRICES D-REGULARES Y EXPANSORES
Ramírez González Edruan Obier, Universidad Autónoma de Sinaloa. Asesor: Dr. Octavio Arizmendi Echegaray, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
En este proyecto se estudió:
Probabilidad Libre (Convolución).
La relación entre Eigenvalores y Expansores.
La importancia del segundo Eigenvalor de una gráfica y su comportamiento.
La importancia del segundo Eigenvalor de una gráfica y su comportamiento.
La Distribución de los Eignevalores de una gráfica regular.
METODOLOGÍA
Se estudió el libro de "Lectures on the Combinatorics of Free Probability - Nica, Speicher"
en particular la Lectura 1, de conceptos básicos de Probabilidad No Conmutativa; la Lectura 5, de definición y conceptos básicos de Independencia Libre; y la Lectura 12, sobre Convolución Libre.
Se leyó el artículo "Eigenvalues and Expanders - N. Alon" junto con el articulo "On the Second Eigenvalue of a Graph" para entender una manera de identificar expansores (con el segundo eigenvalor) y un algoritmo para mejorar sus propiedades de expansión y, así como saber que el segundo eigenvalor está en un intervalo de radio aproximadamente 2(d-1)½, con d el grado de la gráfica.
Por último se estudio el articulo "The Expected Eigenvalue Distribution of a Large Regular Graph", que justifica la existencia de una función de distribución para cualquier familia de gráficas regulares aleatorias con grado fijo.
Se creó un programa en Python para generar matrices de adyacencia aleatorias y mostrar sus respectivas gráficas. En el programa tambien se puden generar directamente gráficas aleatorias y después extraer sus matrices de adyacencia. Al final se realizó parte de un manual sobre Gráficas y Matrices Aleatorias.
A lo largo del periodo se tuvieron varias reuniones tanto presenciales como virtuales.
CONCLUSIONES
En este verano se aprendió sobre matrices aleatorias y el espectro de gráficas y gráficas aleatorias.
Como resultados se tiene un pequeño manual de Python para hacer simulaciones de éstas.
Además, se piensa continuar haciendo un análisis exploratorio de la construcción de Marcus Spilman y Sirivastava.
Ramírez Martínez Luis Antonio, Universidad de Guadalajara
Asesor:Mg. Mauricio Chaparro Parra, Universidad Católica de Colombia
ANáLISIS DE LA PRECISIóN Y ESTIMACIóN DE INCERTIDUMBRE EN LAS MEDICIONES DEL ACELERóMETRO DE UN CELULAR
ANáLISIS DE LA PRECISIóN Y ESTIMACIóN DE INCERTIDUMBRE EN LAS MEDICIONES DEL ACELERóMETRO DE UN CELULAR
Ramírez Martínez Luis Antonio, Universidad de Guadalajara. Asesor: Mg. Mauricio Chaparro Parra, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
Desde su invención, los celulares han evolucionado de sencillos dispositivos de comunicación a complejas herramientas tecnológicas que la mayoria de personas en el mundo llevan en sus bolsillos. Con este avance tecnológico se han ido implementando sensores para que sean capaces brindar multitud de funciones.\
Así mismo, las prácticas de laboratorio de mecánica clásica son escenciales en cualquier curso de física básica, por lo que medidas precisas son indispensables para el buen entendimiento de los fenómenos físicos. \
En este proyecto del extit{Verano Delfín} se utilizará el sensor de aceleración que se ha añadido a los dispositivos móviles para medir aceleraciones en un laboratorio fijando un celular a un carro dinámico.\
Comúnmente en prácticas de laboratorio, para medir la aceleración de la gravedad, no necesariamente se mide la aceleración de un objeto en caída libre, debido a que sería más dificil realizar las respectivas mediciones por la alta velocidad que podría alcanzar el objeto rapidamente, entonces se mide una componente de la gravedad dejando a un objeto deslizarse sobre un plano inclinado, para el que se considera que la fuerza de fricción es tan pequeña que se puede despreciar.
METODOLOGÍA
Usando un riel con inclinaciones de 4°, 6° y 8° se puede medir el tiempo que tarda el carro dinámico en recorrer las 5 distancias establecidas (1 m, 0.9 m, 0.8 m, 0.7 m, 0.6 m), grabando cada lanzamiento, y con el uso del software Kinovea, marcando el inicio y el final del evento para cada video, lo cual permite conocer la duración del intervalo de tiempo de cada prueba.\
Por medio de la ecuación (1) que describe un movimiento acelerado.
egin{equation}
r = r_{0} + v_{0}t + dfrac{1}{2}at^{2}
end{equation}
Considerando que para este experimento $r_{0}$ y $v_{0}$ son igual a 0 (condiciones iniciales), la ecuación (1) queda como:
egin{equation}
r = dfrac{1}{2}at^{2}
end{equation}
Con la ecuación de una recta, se linealiza la ecuación (2)
egin{equation}
y= mx + b
end{equation}
Donde $y = r$ y $x = t^{2}$. \
Esto indica, que realizando un ajuste por mínimos cuadrados para los 3 ángulos, la pendiente de la recta resultante será la mitad de la aceleración (a), o visto de otro modo:
egin{equation}
a = 2m
end{equation}
Los errores en las determinaciones de la pendiente $m$ resultan ser los mismos que los de la aceleración resultante de cada ángulo.
egin{equation}
Delta m = Delta a = sqrt{dfrac{Nsum_{1}(y_{i}-b-mx_{1})^{2}}{(N-2)(Nsum_{1}^{N}x_{i}^{2}-(sum_{1}^{N}x_{i})^{2})}}
end{equation}
Con el mismo sistema, pero ahora fijando el celular al carro dinámico es posible medir la aceleración de forma directa con el uso de la aplicación extit{Arduino Science Journal}, grabando los datos que registra durante las pruebas; esta vez siendo 3 pruebas para cada ángulo para 1 metro de distancia.\
La aplicación registra datos cada 20 milisegundos, por lo que se trabaja con la media aritmética del muestreo completo de cada una de las pruebas y se calcula el promedio de las 3 aceleraciones de cada ángulo.\
Dado que se trabaja con promedios, se usa la desviación típica de la media como error de la medida. La desviación típica viene de la ecuación (6).
egin{equation}
s(a) = sqrt{dfrac{1}{N}sum_{i=1}^{N}(a_{i}-overline{a})^{2}}
end{equation}
Y por tanto, la desviación típica de la media corresponde a:
egin{equation}
s(overline{a}) = dfrac{s(a)}{sqrt{N}}
end{equation}
CONCLUSIONES
De esta investigación se puede concluir que para prácticas de laboratorio para las que se busque medir aceleraciones o estudiar fuerzas aplicadas, resulta más efectivo usar el acelerómetro de un celular; debido a que se encontró que con el uso del celular, los resultados tienen un error alrededor de 10 veces menor en promedio que el método tradicional con ayuda del software Kinovea. \
El uso del sensor de aceleración puede ser útil para evitar que el enfoque de una práctica esté más centrado en el análisis estadístico que en la comprensión del fenómeno físico, ya que el análisis estadístico por sí solo no es suficiente para garantizar una investigación sólida y significativa. La comprensión profunda del fenómeno físico es esencial principalmente para un estudiante porque permite interpretar adecuadamente los resultados obtenidos en el contexto del sistema estudiado y la teoría.\
Si bien el análisis estadístico es vital para evaluar la significancia de los resultados, verificar la validez de las hipótesis y cuantificar la incertidumbre, no reemplaza la importancia de una comprensión sólida del fenómeno físico.
Ramírez Navor Joel, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Alexander Moreno Briceño, Universidad Antonio Nariño
EL QUARK TOP EN EL 2HDM+A
EL QUARK TOP EN EL 2HDM+A
Ramírez Navor Joel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Alexander Moreno Briceño, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
El estudio de las propiedades y de la dinámica del quark top juega un papel muy importante en el entendimiento del Modelo Estándar (ME) y en la búsqueda de física más allá del ME. El quark top, el cual tiene una masa de alrededor de 173 GeV, es fundamental en el estudio del mecanismo del Rompimiento Espontáneo de la Simetría (RES), y también en la búsqueda de señales de física más allá del ME asociadas al RES. El top tiene un muy corto tiempo de vida, menor al tiempo de hadronización, es decir que este decae antes de hadronizarse, antes de formar un estado ligado, y toda la información acerca de, por ejemplo, correlaciones de espín y polarización provenientes del proceso de producción de pares se conserva en su decaimiento. El quark top, el cual es el fermión más pesado en el ME, ha sido observado en colisiones hadrónicas en el Tevatron y en el LHC. Durante esta estancia de investigación se estudia la fenomenología del quark top en el modelo de dos dobletes de Higgs con un pseudoescalar adicional (2HDM+a). Este modelo amplía el espectro de partículas del ME, y por ende los procesos físicos en los cuales está involucrado el quark top. Uno de los aspectos más interesantes de este modelo está asociado con la posibilidad de estudiar la producción del quark top en asocio con materia oscura en colisionadores hadrónicos como el LHC, un objetivo que se plantea a más largo plazo en este proceso investigativo.
METODOLOGÍA
Se ha estudiado el ME de física de partículas, el cual describe todas las mediciones de fenómenos a nivel subatómico a muy alta precisión. El ME es una teoría cuántica de campos renormalizable que está basado en el grupo de simetrías gauge SU(3)×SU(2)×U(1) y en el principio de RES. Se ha estudiado la estructura básica del ME, su contenido de partículas, la teoría de la cromodinámica cuántica y la teoría electrodébil.
Se realizó una exhaustiva revisión del modelo 2HDM+a, así como de la producción del quark top, centrándose principalmente en su asociación con la materia oscura en el contexto de este mismo modelo. Los procesos de producción del quark top más destacados que fueron revisados abarcan desde la generación de un único quark top hasta la producción de un par top-antitop. En este último caso, se observó una falta de energía transversal significativa, la cual podría estar relacionada con la presencia de materia oscura.
Se ha llevado a cabo un análisis detallado del cálculo de la amplitud de probabilidad a partir de diagramas de Feynman en el ME, empleando las reglas propias de Feynman y haciendo uso del truco de Casimir. Este enfoque se aplicará posteriormente al modelo 2HDM+a, específicamente en relación a los procesos mencionados anteriormente.
Se ha procedido a la instalación del software Madgraph y Pythia con el propósito de llevar a cabo un análisis numérico en un futuro. Dicho análisis se enfocará en el proceso de producción del quark top dentro del marco del modelo 2HDM+a. Además, se ha incorporado la librería Feynrules en Wolfram Mathematica para respaldar este análisis y facilitar los cálculos relacionados con los diagramas de Feynman.
CONCLUSIONES
Se ha estudiado la estructura del ME de física de partículas, con el objetivo de adquirir el conocimiento y los conceptos básicos de la física de partículas elementales. Este estudio también se ha extendido al modelo que involucra un doblete de Higgs y un pseudoescalar. Además, se ha investigado la fenomenología relacionada con el proceso de producción del quark top, específicamente en su conexión con la materia oscura. Este análisis busca arrojar luz sobre las características y propiedades que podrían indicar la presencia de materia oscura en el contexto del modelo estudiado.
Ramirez Oxte Hannia Nahomi, Instituto Tecnológico Superior de Ciudad Acuña
Asesor:Dra. Mike Russell, Bellevue University
USING SOUND TO DETECT MACHINE DAMAGE: IMPACT OF OBSERVER EXPERIENCE.
USING SOUND TO DETECT MACHINE DAMAGE: IMPACT OF OBSERVER EXPERIENCE.
Ramirez Oxte Hannia Nahomi, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Dra. Mike Russell, Bellevue University
PLANTEAMIENTO DEL PROBLEMA
La capacidad de oír nos permite conectar con el mundo por muchas razones importantes, incluso vitales.
Los humanos podemos oír una amplia gama de sonidos, podemos oír notas graves y agudas y tanto sonidos tranquilos como fuertes.
En el experimento de William Warren, investigó que los humanos sabían si un objeto rebotaba o se rompía, los participantes acertaron en un 99,3% en el rebote y en un 98,5% en la rotura. Los oyentes pueden detectar aspectos significativos del entorno mediante el oído.
La acústica es importante porque si la mejoramos, podemos mejorar la comunicación, la productividad y el bienestar general.
El efecto del ruido industrial y la productividad se ven afectados por los ruidos fuertes y persistentes, pueden distraer y dificultar la concentración de los trabajadores en su tarea, además de ser física y mentalmente agotadores.
La vibración es un factor importante para identificar daños o problemas de una máquina industrial y sistemas mecánicos.
La influencia del sonido está en todas partes, necesitamos el sonido para identificar objetos, acciones, para comunicarnos.
En este proyecto, queríamos ver si la gente sabía cuándo una máquina industrial estaba dañada únicamente por el sonido, y si la experiencia era un factor importante para detectarlo.
METODOLOGÍA
El total de participantes en el proyecto fueron 60 personas que no trabajaban en la industria y 10 que estaban en la industria maquinaria.
Se utilizaron 10 grabaciones de audio (6 máquina 1, 4 máquina 2), cada una de 15 s de duración
El procedimiento fueron divididos en dos bloques:
Bloque 1: Los participantes escucharon pares de sonidos. Aquí indicaron si la máquina A, B, ninguna o ambas estaban dañadas. Informar de la confianza en una escala de 0 (nada seguro) a 100 (completamente seguro).
Bloque 2: Los participantes escucharon cada grabación de una en una. Se tenía que indicar si la máquina estaba dañada (sí, no, no lo sé). Indicar la confianza en una escala de 0 a 100.
CONCLUSIONES
Llegamos a la conclusión de que los datos no respaldaban la hipótesis de que las personas pueden determinar si una máquina industrial está dañada o no. Tanto los trabajadores como los no trabajadores no difirieron significativamente en su capacidad para detectar daños en las máquinas, pero mostraron diferencias en cuanto a la confianza, siendo mayor la de los trabajadores.
Curiosamente, la experiencia no fue un factor importante para detectarla. Los trabajadores no contaban con esa experiencia sobre el terreno.
A pesar de que los datos no corroboran la hipótesis, este resultado ofrece la oportunidad de explorar explicaciones alternativas y obtener valiosas ideas para futuras investigaciones."
Ramírez Rodríguez Romario, Instituto Tecnológico de Acapulco
Asesor:Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia
PLANIFICACIóN DE LA EXPANSIóN DE LA CAPACIDAD DE GENERACIóN Y TRANSMISIóN
PLANIFICACIóN DE LA EXPANSIóN DE LA CAPACIDAD DE GENERACIóN Y TRANSMISIóN
Ramírez Rodríguez Romario, Instituto Tecnológico de Acapulco. Asesor: Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia
PLANTEAMIENTO DEL PROBLEMA
La planificación de la expansión de la capacidad de generación y transmisión eléctrica se erige como un reto de gran complejidad y relevancia en el panorama energético actual del Sistema Eléctrico de Potencia (SEP). El crecimiento constante de la población, el desarrollo industrial y la creciente demanda de energía eléctrica han colocado a los sistemas de generación y transmisión bajo una presión sin precedentes.
Uno de los desafíos más apremiantes es el continuo aumento de la demanda de energía eléctrica, impulsado por el crecimiento económico y social. La planificación debe ser prospectiva y anticipar las proyecciones de crecimiento de la demanda para asegurar que la infraestructura eléctrica pueda satisfacer estas necesidades de manera eficiente y sin comprometer la estabilidad del sistema.
La Planificación de la expansión de Capacidad se divide en dos subproblemas de optimización: el problema de Planificación de la Expansión de la Capacidad de Generación, que produce modificaciones locales en el problema de operación; y el problema de Planificación de la Expansión de la Capacidad de Transmisión, que genera cambios importantes en la matriz de admitancia de barras del sistema. Se debe considerar que el problema de expansión de capacidad tradicionalmente se formula utilizando una aproximación lineal de Flujo Optimo de Potencia en Corriente Alterna (DC-OPF) la cual omite la componente de potencia reactiva.
El problema de Planificación de la Expansión de la Capacidad de Generación y Transmisión es un problema clásico de los sistemas de energía eléctrica. Por lo que no es una decisión que pueda ser tomada sin los estudios técnico-económicos adecuados para un beneficio a escala global del sistema. Por lo que en esta investigación se propone realizar una revisión de la literatura respecto a distintas formulaciones lineales, que tomen en consideración el problema de potencia reactiva y evaluar su desempeño utilizando el sistema del IEEE de 39 nodos.
METODOLOGÍA
Inicialmente, se llevó a cabo una revisión exhaustiva de artículos y tesis relacionados con la planificación de la expansión de la capacidad de generación y transmisión. El objetivo fue obtener una comprensión sólida del estado del arte en el tema y formulaciones existentes para la optimización simultánea del GCEP (Planificación de la Expansión de Capacidad de Generación y) y TCEP (Planificación de la Expansión de Capacidad de Transmisión) utilizando aproximaciones lineales en el sistema de transmisión en Corriente Alterna (AC).
Se dedicó tiempo a familiarizarse con el funcionamiento del solver de optimización matemática Gurobi y el lenguaje de programación Python.
Se seleccionaron dos formulaciones específicas, "Lossy LP/QP based Optimal Power Flow" (LOLIN) y "Mixed LP/QP based Optimal Power" (MIP), para la planificación de la expansión de la capacidad a largo plazo. Estas formulaciones fueron aplicadas al sistema IEEE de 39 buses.
Para la simulación de modelos y la solución del problema, se utilizaron diferentes versiones del lenguaje de programación Python (3.10.9 - 3.7.0) y el solver Gurobi (10.0.2 - 9.0.0) respectivamente. El entorno de desarrollo integrado Spyder fue empleado para la programación en Python.
Se ejecutaron las formulaciones utilizando las versiones específicas de Python y Gurobi para obtener los resultados de la optimización. Se compararon ambos resultados para asegurarse de que fueran consistentes en ambas versiones. Además, se evaluó el tiempo de solución y se recopiló información sobre el número de variables y restricciones involucradas en cada formulación para medir la complejidad matemática.
Se consideraron los parámetros relevantes para el problema de planificación de la expansión de la red de transmisión, incluyendo un horizonte de 5 años, una tasa de interés anual y reserva del 10%, y un crecimiento anual de demanda y GAP del 3% y 0.1%, respectivamente. También se establecieron los límites mínimos y máximos de tensión en las barras (0.94 y 1.06 [p.u.]).
CONCLUSIONES
Inicialmente, ninguno de los modelos considerados incluía restricciones de predespacho. Sin embargo, para mejorar la precisión y eficiencia de ambos modelos, se procedió a incorporar dichas restricciones, lo que implicó la adición de variables binarias a ambas formulaciones. Como resultado, tanto la formulación LOLIN como la MIP se convirtieron en problemas del tipo lineal entero mixto.
En el análisis de los resultados económicos obtenidos, se observó que ambas versiones utilizadas en esta investigación mostraron una similitud significativa. El modelo LOLIN mostró resultados cercanos en órdenes de magnitud al modelo MIP, demostrando su practicidad en términos de reducción en el número de variables, restricciones y tiempo de solución.
No obstante, es importante destacar que la diferencia más notable entre los dos modelos radicó en el tiempo de solución. La formulación LOLIN presentó un tiempo de resolución considerablemente menor que la MIP, con una diferencia de hasta el 55% en algunos casos.
De lo contrario, si no se hubieran incluido las restricciones de predespacho en ninguno de los modelos, se podrían haber obtenido resultados menos precisos y confiables. La ausencia de estas restricciones podría haber llevado a decisiones subóptimas y menos eficientes en la planificación de la expansión de la capacidad de Generación y Transmisión.
La incorporación de restricciones de predespacho fue fundamental para lograr resultados económicos precisos y prácticos en ambos modelos. La formulación LOLIN mostró ser una opción viable debido a su eficiencia en la resolución, aunque se debe tener en cuenta que cada modelo puede ser más adecuado en diferentes contextos o escenarios específicos.
Ramos Aispuro Luis Alfonso, Universidad Autónoma de Sinaloa
Asesor:Dr. David José Fernández Bretón, Instituto Politécnico Nacional
ESTUDIO DEL TEOREMA FIN_K DE GOWERS Y SU GENERALIZACIóN
ESTUDIO DEL TEOREMA FIN_K DE GOWERS Y SU GENERALIZACIóN
Ramos Aispuro Luis Alfonso, Universidad Autónoma de Sinaloa. Salazar Verastica Crisanto, Universidad Autónoma de Sinaloa. Villegas Bupunari Maria Teresa, Universidad Autónoma de Sinaloa. Asesor: Dr. David José Fernández Bretón, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Los problemas propios de la teoría de Ramsey resultan muy buen objeto de estudio en matemáticas, dado que se pueden plantear en términos sencillos sin perder la complejidad de los mismos. Esto permite el desarrollo de teoría y técnicas que pueden ser utilizadas en otras ramas de estudio, como lo es la teoría de conjuntos.
En particular, el teorema de Gowers es un buen acercamiento a matemáticas más avanzadas porque los artículos existentes usan teoría tan abstracta que el poder entenderlos y traducirlos a resultados más amables es por sí solo un gran avance en la investigación.
METODOLOGÍA
En las primeras semanas de la investigación nos dedicamos a adquirir conceptos y técnicas útiles de la teoría de conjuntos, en particular, lo relacionado a clases, ordinales y el axioma de elección. Esto con las lecturas del libro Teoría de Conjuntos de Hérnandez Hérnandez y notas de clase del investigador.
A la vez, estuvimos estudiando el concepto de clase de finitud con el apoyo del artículo Finiteness classes arising from Ramsey-theoretic statements in set theory without choice del investigador. Esto nos permitió entender la apertura que se obtiene al trabajar sin axioma de elección, así como la dificultad que se presenta.
En las semanas siguientes, centramos la investigación en la teoría de Ramsey. Primeramente vimos los teoremas de Ramsey y de Hindman, así como las clases de finitud que pueden definirse de cada uno.
Propusimos dos demostraciones para el teorema de Ramsey, con y sin axioma de elección. Observando que la prueba se extiende bastante en el segundo caso.
También estudiamos algunos ejemplos de coloraciones para el teorema de Hindman, entre las que surgió por primera vez la de tomar el piso del logaritmo base 2. Esta última resultó importante en la demostración de un resultado que relaciona ser H-finito con la D-finitud.
Luego, nos dedicamos a estudiar el conjunto Fin_k y la función de tetris descritos en el teorema de Gowers. En lugar de ver la demostración, nos pusimos a trabajar exhaustivamente con algunas coloraciones para ver qué tipo de resultados serían necesarios en la demostración.
Además de dos resultados que surgen de definir la clase de finitud que surge del teorema de Gowers, estudiamos una primer generalización del teorema para sucesiones de Fin_k.
En las últimas semanas trabajamos en la demostración del teorema original de Hindman y el investigador nos presento el problema de Owings, mismo que está abierto desde 1967. Con su ayuda, recreamos un resultado que da respuesta (negativa) a una versión más débil de la pregunta.
Para finalizar, estudiamos una segunda generalización del teorema de Gowers introduciendo la función de tetris generalizada. Junto con el investigador, propusimos una demostración para una parte del teorema de Lupini y por nuestra cuenta, intentamos completar la parte que hacía falta.
CONCLUSIONES
El estudio que realizamos a lo largo del verano da un acercamiento a la teoría de Ramsey meramente combinatorio, pues nos dedicamos a trabajar unicamente con argumentos de este tipo.
Para empezar, proponemos una demostración del teorema de Ramsey usando principio de casillas y evitando el axioma de elección.
Damos uno demostración del teorema de Hindman original usando el teorema de Hindman y usamos la coloración descrita en la metodología para ver que este teorema falso para semigrupos.
También mostramos una coloración explicita para demostrar que el problema de Owings tiene respuesta negativa en más de dos colores y otra para demostrar la parte negativa del teorema de Lupini.
Finalmente, seguimos trabajando en encontrar un isomorfismo que nos permita demostrar la parte positiva del teorema de Lupini a partir del teorema de Gowers. Si bien tenemos algunas ideas que podrían resultar útiles, creemos que se necesita más tiempo para dar con algo que funcione.
Ramos Cábel Fátima Marcela, Universidad Autónoma de Ciudad Juárez
Asesor:Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México
SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO
SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO
Castañeda Gil Melanie Sofia, Universidad de Sonora. Ramos Cábel Fátima Marcela, Universidad Autónoma de Ciudad Juárez. Rodríguez Sauceda Sergio Maximiliano, Universidad Autónoma de Coahuila. Servín Pérez Adilene, Universidad de Sonora. Valencia Ortiz Miguel Angel, Universidad de Caldas. Zapata Martínez Dolores Itzel, Universidad de Sonora. Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Las dataciones radiométricas juegan un papel muy importante en las ciencias de la tierra, pues ayudan a tener un mejor entendimiento de la evolución geodinámica de nuestro planeta, de cómo sucedieron los eventos que configuraron la Tierra como la conocemos hoy en día, y tratar de deducir lo que pasará en el futuro. Entre las aplicaciones de estos estudios geocronológicos se encuentran la determinación de edades de cristalización de cuerpos magmáticos y de eventos deformativos y mineralizantes, la cuantificación de tasas de exhumación, y otros análisis que solo con el fechamiento de las rocas se pueden llevar a cabo.
Para llegar a esto es necesario comprender el comportamiento mineralógico de las rocas de interés y determinar qué relojes isotópicos usar de acuerdo con sus características químicas.
Por ello se busca aislar minerales específicos que contienen información valiosa sobre la edad de las muestras o características particulares en estas, permitiendo que las fechas obtenidas sean lo más precisas posible.
METODOLOGÍA
La metodología del trabajo realizado puede clasificarse en tres etapas principales:
Elaboración de secciones delgadas;
Separación de minerales; y
Caracterización de minerales.
La elaboración de secciones delgadas facilita la identificación de minerales contenidos en las muestras e indican si es viable realizar procedimientos posteriores asociados a la disgregación de minerales.
La segunda etapa se enfoca en la separación de minerales con una estructura cristalina adecuada para albergar isótopos radioactivos y radiogénicos conocidos, de los cuales, en función de su relación isotópica, podrá ser extraída la edad asociada. Entre los minerales de interés se encuentran circones, apatitos, hornblendas, biotitas, moscovitas y feldespatos. Esta etapa comienza con la trituración, tamizado, lavado y secado de las muestras.
Cuando el material se haya secado se separa en función de la susceptibilidad magnética de los minerales, por medio de un separador de barrera magnética tipo Frantz. Colocando el separador en diferentes configuraciones se pueden separar los minerales en ferromagnéticos, paramagnéticos y no magnéticos. El target de la separación depende de las edades de interés y de la temperatura de cierre del mineral.
Según sea el objetivo mineral en la separación, se usan diferentes líquidos pesados con densidades específicas conocidas, como yoduro de metileno o MEI, bromoformo y politungstato de litio. Es necesario manipular los líquidos bajo parámetros sanitarios adecuados:una campana de extracción y utilizando vestimentas adecuadas como batas, guantes, gafas y cubrebocas.
Para los circones se utiliza MEI; para el bromoformo se utilizan los minerales del residuo flotante del yoduro de metileno, para obtener a partir de estos los apatitos. En el caso del LST el montaje es diferente, pero el principio es el mismo, en él se requiere recuperar ambas partes (la que se hunde y la que flota), y calibrar hasta obtener una correcta disgregación (como feldespatos potásicos y cuarzos). Posteriormente, en el caso de los minerales separados distintos al circón y apatito se realizan procedimientos de paper shaking para concentración de micas con relación a los rolls (minerales cuyo hábito no permiten que se adhieran a una superficie fácilmente) y efectuar limpieza de minerales no deseados mediante hand picking.
Es importante distinguir los minerales con base en sus características cristalográficas bajo lupa binocular, y así lograr el montaje y separado adecuado. El montaje de circones se hace con ayuda de dos microscopios estereográficos, bajo uno de ellos se coloca un petri Pyrex con la muestra que contiene los circones y, en el otro, el vidrio con el montaje deseado para los circones.
Los circones contenidos en la probeta terminada se caracterizan mediante un microscopio electrónico de barrido con detector de catodoluminiscencia (SEM-CL). Para que el SEM-CL pueda detectar a los circones, la probeta se debe recubrir con carbono. En este paso, se toman fotografías de cada línea montada de circones. y al final se traslapan con un software de edición. A partir del mosaico obtenido se eligen los sitios potenciales para los análisis de U-Pb en función de las características físicas del circón, su tipo y el objetivo de fechamiento
Por último, elegidos los puntos de ablación, fue visitado el Laboratorio de Estudios Isotópicos, donde fue posible presenciar el procedimiento de identificacion y cuantificacion de especies atómicas presentes en la muestra, es este caso con especial interés en los isótopos radioactivos y de origen radiogénico además de otros análisis químicos que son obtenidos como ppm de REE en circón, a partir de ello son emitidos gases los cuales contienen componentes químicos que son medidos por un espectrómetro de masa (LA-ICPMS) el cual se encarga de distinguir los componentes químicos presentes en la parte desintegrada del circón. Una vez limpios los datos, son leídos y graficados, para obtenerlos datos ploteados en curvas concordia y otros esquemas para realizar los análisis correspondientes.
CONCLUSIONES
Durante el verano, se tuvo un cierto número de rocas a trabajar en el transcurso de la estancia, correspondientes a granitos y xenolitos de proyectos del NW de México y SW de Estados Unidos, y se fue partícipe de todos los procesos previos a la datación y aprendiendo una gran cantidad de técnicas, métodos de separación y caracterización de minerales.
Fueron llevadas 5 muestras al Laboratorio de Estudios Isotópicos para la realización del fechamiento U-Pb mediante ablación de los circones; con lo que se calcularon las edades de las rocas provenientes de Baja California.
Con el resultado de todo el trabajo es posible darse una idea de la evolución tectónica, o identificar si están relacionados a zonas de debilidad cortical, generando correlaciones entre las rocas de Estados Unidos y México.
Ramos Galicia Dahiana, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
EL MECANISMO SEESAW INVERSO COMO EXPLICACIóN A LA DESCRIPCIóN DE LA MASA DEL NEUTRINO
EL MECANISMO SEESAW INVERSO COMO EXPLICACIóN A LA DESCRIPCIóN DE LA MASA DEL NEUTRINO
Ramos Galicia Dahiana, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El Modelo Estándar (SM) de física de partículas ha sido probado y confirmado experimentalmente. Sin embargo, el SM fue propuesto sin considerar la masa del neutrino, pero los experimentos Super-Kamiokande y SNO confirmaron que los neutrinos oscilan, lo cual implica que los neutrinos son masivos debido a que la fase de oscilación es proporcional a las diferencias de masas de los neutrinos. Para la explicación de los resultados experimentales, se ha propuesto el mecanismo SeeSaw en diferentes tipos, en particular el SeeSaw tipo I (SS) y el SeeSaw Invertido (ISS).
El mecanismo SS original propuesto por primera vez por Minkowski en 1977 y desarrollado por varios físicos, sugiere una explicación para la pequeña masa de los neutrinos observados en la naturaleza. En el modelo SS,se introduce una partícula hipotética llamada neutrino estéril, que es un neutrino derecho (singlete de neutrino) que no participa en las interacciones débiles como lo hacen los neutrinos izquierdos (dobletes de neutrinos). La interacción entre los neutrinos izquierdos y los neutrinos derechos se establece mediante términos de masa, y esto conduce a la generación de una masa pequeña para los neutrinos observados. Los neutrinos estériles, al no interactuar fuertemente con otras partículas, pueden ser más masivos y explicar la ligereza de los neutrinos observados. Por otro lado, el mecanismo ISS.
METODOLOGÍA
Debido a la pequeñez de la masa del neutrino y su diferencia con la masa de los demás fermiones, se espera que su masa se genere por medio de otro mecanismo distinto al mecanismo de Higgs. Se han propuesto diferentes mecanismos alternativos como el mecanismo SS o el ISS. En este trabajo, se estudian el mecanismo ISS para la generación de la masa del neutrino. Para ello, se realizará una revisión del mecanismo SeeSaw y los diferentes tipos, en particular el SS y el ISS. Así, en estos se analizan las masas de los neutrinos y se comparan los resultados obtenidos.
CONCLUSIONES
El ISS es una extensión del mecanismo SS que introduce nuevas partículas para explicar el comportamiento de los neutrinos. En este, además de los neutrinos izquierdos y derechos y el neutrino estéril, se introducen otros fermiones cargados y bosones escalares adicionales. Estas nuevas partículas interactúan con los neutrinos izquierdos y derechos de una manera específica, lo que resulta en una "inversión" en las masas de los neutrinos. En lugar de tener neutrinos ligeros y neutrinos estériles masivos, el mecanismo ISS puede generar neutrinos masivos y neutrinos estériles ligeros o incluso sin masas. Este modelo es de interés porque puede explicar la observación de neutrinos masivos sin depender de una escala de energía muy alta, lo que podría ser relevante para la física más allá del Modelo Estándar y la comprensión de la naturaleza de la materia oscura en el universo.
Ramos Martínez Axel Shalom, Universidad Autónoma del Estado de México
Asesor:Dr. Nazario Bautista Elivar, Instituto Tecnológico de Pachuca
SECADO DE CERáMICA UTILIZANDO ENERGíA RENOVABLE (SOLAR)
SECADO DE CERáMICA UTILIZANDO ENERGíA RENOVABLE (SOLAR)
Medina Lozano Ángela Monserrat, Benemérita Universidad Autónoma de Puebla. Nuñez Peralta Yareli, Benemérita Universidad Autónoma de Puebla. Ramos Martínez Axel Shalom, Universidad Autónoma del Estado de México. Asesor: Dr. Nazario Bautista Elivar, Instituto Tecnológico de Pachuca
PLANTEAMIENTO DEL PROBLEMA
El proceso de secado de cerámicos es de vital importancia para la obtención de productos de calidad, sin embargo los tiempos de secado pueden llegar a ser muy tardados, provocando problemas en la producción, así mismo si el secado no es lo suficientemente lento existe peligro de la pérdida de piezas, pues si la velocidad de evaporación del agua no es adecuada pueden formarse grietas en los productos. En ambos casos existe la necesidad de controlar el ambiente para tener condiciones ideales que permitan que la fase se lleve a cabo correctamente. Actualmente, se realiza este proceso en condiciones ambientales, dando una duración de aproximadamente veinte días, sin embargo se busca acelerar la producción al tiempo que se cuida la calidad en cada pieza creando condiciones controladas de secado con los requerimientos energéticos mínimos posibles.
METODOLOGÍA
En México, los sistemas colectores de calor han sido de gran consideración para capturar la radiación solar y pasarla a energía térmica. Su avance y desarrollo dependerá de distintos factores como la disponibilidad total de la tecnología.
El sol es la principal fuente de energía para todos los procesos naturales que tienen lugar en el planeta, sin embargo para procesos industriales y comerciales es usado como una fuente de energía renovable, limpia, abundante y gratuita.
Para aprovechar la radiación solar, se emplean colectores solares térmicos para captar y transferir el calor a un fluido, como agua o aire. Este calor se utiliza directamente en el proceso de secado, por lo que es un punto a tomar en consideración para poder reducir el tiempo de secado de cerámicos. El secado de cerámicos con energía solar ofrece varios beneficios, como reducir los costos de energía al aprovechar una fuente renovable y gratuita, disminuye la dependencia de combustibles fósiles y reduce las emisiones de gases de efecto invernadero.
Un prototipo de un sistema de captación de radiación solar ya estaba en marcha en el Departamento de Ingeniería Eléctrica y Electrónica del Instituto Tecnológico de Pachuca que se utilizará para el secado con muestras de piezas cerámicas de la empresa ANFORA, por lo que nuestra aportación fue de mejora y refinamiento del sistema actual.
Este prototipo cuenta con tres partes principales: un colector de aire caliente, un calentador solar y una cabina de secado, se pretende que el sistema trabaje constantemente, aproximadamente 6 horas en el día y con la energía acumulada, otro par de horas durante la noche.
El colector solar se encarga recolectar y calentar el aire durante el día, el sistema es semi cerrado, contando con ventanas de acrílico que a su vez cuentan con lentes de fresnel para aumentar la temperatura del aire en el mismo, la cuál por medio de mangueras especiales se distribuye a la cabina de secado, esta sección del sistema se encuentra equipada con sistemas de control que miden la temperatura del aire constantemente para no rebasar las condiciones ideales que se buscan. El calentador solar contendrá un líquido que irradiará calor en la cabina de secado; este líquido se distribuirá por medio de tubos y un radiador, haciendo que el líquido frío pueda regresar al calentador por medio de un sistema de control. Finalmente la cabina cuenta con un diseño cilíndrico horizontal, esto con el objetivo de que tanto el calor irradiado como el aire que entra tenga un comportamiento envolvente, mientras las piezas se encuentran justamente en medio sobre una plataforma de metal con hoyos distribuidos por toda la superficie para hacer la circulación del calor más uniforme.
Durante la estancia se desarrollaron actividades como el mejoramiento de la extracción de calor en el colector solar y la instalación de un sistema de control usando Arduino para la cabina de secado, donde se pretendía que el líquido frío del radiador fuera extraído y regresado hacia el calentador solar cuando alcanza cierto nivel, se utilizaron sensores, un relé, una bomba de agua de 12V, etc. El sensor ultrasónico tenía el siguiente principio: el sensor emite una onda ultrasónica que se propaga a través del agua hasta que alcanza la superficie. La onda ultrasónica se refleja en la superficie del líquido y vuelve al sensor. El tiempo que tarda la onda ultrasónica en viajar desde el sensor a la superficie del líquido y volver al sensor se utiliza para calcular la distancia entre el sensor y la superficie del agua, presentamos algunas dificultades para programar e instalar este sistema en donde reforzamos nuestros conocimientos de electrónica y coding, fue una buena tarea en la que nosotros aplicamos lo aprendido y aportamos al proyecto.
Además, nos encargamos de conectar los tres elementos del sistema a través de tubos y cables, colocamos la placa de metal e hicimos algunas pruebas de funcionamiento con respecto al movimiento del fluido del calentador solar a la cabina de secado.
CONCLUSIONES
Durante la estancia de verano se obtuvieron conocimientos sobre las aplicaciones de las energías renovables en el secado de cerámicos, así como, aprendizajes teóricos sobre propiedades y la importancia del secado en el proceso. Además de conocimientos prácticos para completar el prototipo ya establecido. Podemos decir que fue posible aplicar y reforzar diversos conocimientos del área del estudio de la carrera en cuestión,que permitieron contribuir con el proyecto, se espera que el prototipo en funcionamiento reduzca al menos el 40% del tiempo de secado en condiciones ambientales, finalmente, este proyecto se alinea con el ODS7 de desarrollo sostenible y energía asequible, debido a su contribución al uso de energías renovables.
Ramos Mercado Edith Alejandra, Universidad Vizcaya de las Américas
Asesor:Dra. Adriana Nava Vega, Universidad Autónoma de Baja California
FABRICACIóN DE CELDAS SOLARES ORGáNICAS
FABRICACIóN DE CELDAS SOLARES ORGáNICAS
González Romero Paola Brigitte, Tecnológico de Estudios Superiores de Tianguistenco. Ramos Mercado Edith Alejandra, Universidad Vizcaya de las Américas. Asesor: Dra. Adriana Nava Vega, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Se fabrican celdas solares con base orgánica, empleando un procedimiento sencillo y de bajo costo (OPVs, por sus siglas en inglés). Se emplea el método de spin-coating para realizar el depósito del material activo y se caracterizan empleando un espectrómetro Infrarrojo. La eficiencia de las OPVs se realiza con mediciones directas de la emisión de luz.
METODOLOGÍA
Preparacion y fabricacion de una OPV en el laboratorio de fotónica- UABC
Las energías renovables son la nueva promesa a futuro del desarrollo humano y es por eso que en la actualidad el desarrollo e innovación de nuevas y viejas tecnologías se ven con más frecuencia, la energía solar, energía renovable obtenida directamente de los rayos de sol y su aprovechamiento conduce a la fabricación de celdas solares para la producción de energía eléctrica, su fabricación, preparación y costo depende de los materiales con los que son elaboradas, ejemplo; las celdas solares orgánicas pueden fabricarse bajo condiciones ambientales poco exigentes y eso presta su elaboración en laboratorios no tan especializados lo que supone un menor costo de fabricación.
Su principio de funcionamiento parte de un fotón incidiendo sobre un material orgánico y si la frecuencia de este es lo suficiente hará posible que esta energía sea absorbida por uno de los electrones del material alcanzando un nivel de excitación que permita que estos electrones cubran los huecos que hay dentro de la capa activa y pueda generar corriente, con esto podemos decir que una celda solar orgánica es el medio que absorbe lo más que puede de la radiación para generar cargas suficientes que puedan ser convertidas en electricidad.
Para generar el circuito adecuado y poder generar energía se utilizó el wood’s metal como cátodo, aleación de metales compuesta por bismuto, plomo, estaño y cadmio por mencionar algunos en diferentes porcentajes respectivamente, esta aleación de metales de fundición baja permite su fácil manipulación para lograr fundirse sobre la celda con ayuda de un encendedor de mecha larga y lograr una distribución uniforme con ayuda de un palito de madera y esperar la solidificación del metal.
Materiales, reactivos y equipo utilizado
La fabricación de las celdas requieren de un sustrato de vidrio cubierto de una película delgada de óxido de titanio (ITO), con una parte cubierta por tape para poder evitar cubrir una zona que tendrá función más adelante y una capa activa de una solución de solventes y polímeros aplicados sobre este por medio de un deposito de spin-coating a 3000 rpm y 10 gotas aplicadas estáticamente y 10 gotas en diferentes tiempos (4 veces), posteriormente el producto se dejaba secar para poder evaporar los alcoholes y solventes y de esta manera asegurar la adhesión de la capa activa sobre el sustrato.
Materiales y equipo
Reactivos:
Alcohol
Acetona
Tolueno
Polímero: MEH:PPV
Wood Metal
Agua Destilada
Cloroformo
Fullerenos: C60
Material:
Substrato de Vidrio con recubrimiento de óxido de Titanio (ITO)
Vasos de precipitado
Espátula
Pinzas
Encendedor
Viales
Pipetas
Qtips
Marcadores permanentes
Equipo:
Spinner
Campana de Extracción
Baño de Ultrasonido
Soporte universal
Pinzas
Limpieza y Preparación del espacio
Para la preparación de las OPVS fue necesario realizar una limpieza minuciosa de los sustratos en un vaso de precipitado con agua destilada en un baño de ultrasonido durante 10 minutos, posteriormente se colocaron las láminas dentro de una caja de petri sobre una placa de calentamiento para acelerar el secado, al terminar este procedimiento se colocó la caja de petri dentro de una bolsa ziploc para evitar el contacto con partículas que pudieran contaminarlos.
Para la elaboración de las soluciones fue necesario limpiar adecuadamente cada uno de los equipos y materiales que se utilizarían como por ejemplo, la limpieza de la balanza analitica para tener un peso más preciso de cada uno de los reactivos sólidos, para el uso de reactivos líquidos fue necesaria la limpieza de la pipeta que se utilizan, así como de las probetas para el correcto depósito de los líquidos en los viales.
Para la limpieza de los viales y moscas fue necesario lavarlos con agua y jabón y para el baño de ultrasonido colocar acetona con la tapa cerrada dentro de un vaso de precipitado con agua destilada y dejar por un tiempo de 60 minutos, con papel secante se eliminaron las gotas sobrantes.
Cálculo de proporciones de reactivos y productos a emplear
Para la fabricación de la capa activa de la celda se hizo una solución de suspensión con los reactivos MEH:PPV y C60, con una proporción de 98:2 (%p/p). Primero se realizaron soluciones individuales para cada reactivo con su respectivo solvente. En la primera solución se usó 29.4mg de MEH:PPV con 10ml de cloroformo (CHCl3). En la segunda solución se usó 1.8mg de C60 con 3ml de Tolueno(C6H5CH3). Por último, se agregó 1ml de la solución 2 en la primera y se mezclaron, obteniendo así la solución final. Después de preparar cada solución, se ponía durante 24h en un agitador magnético y después 20min en un baño de ultrasonido, de esta forma se garantiza que los reactivos quedarán dispersos en la solución de manera uniforme.
5. Método de fabricación
La preparación de la celda comienza desde su limpieza y delimitación de la zona en que se quiere este la solución, poniendo un margen de cinta sobre este para evitar que la solución entre en contacto con esa parte y poder tomar medidas más adelante.
Como último paso se deja secar el material fundido sobre la celda y se retira la cinta que cubre los extremos de la celda para poder ser expuesta al sol y poder tomar mediciones.
CONCLUSIONES
6. Análisis de funcionamiento de una OPV: espectro IR, morfología, generación de fotocorriente.
Como parte final del proyecto se llevó a cabo la medición de corriente de las celdas solares orgánicas, obteniendo años atrás hasta una cantidad de 5 mcA, actualmente los datos que se pudieron tomar rondaron 1 mmA después de su exposición al sol.
Recinos Alvarado Jonathan, Instituto Politécnico Nacional
Asesor:Dr. Juan Manuel Esquivel Martínez, Universidad Autónoma de Guerrero
DETERMINACIóN DEL RENDIMIENTO HíDRICO EN LA CUENCA MEDIA BALSAS, MéXICO.
DETERMINACIóN DEL RENDIMIENTO HíDRICO EN LA CUENCA MEDIA BALSAS, MéXICO.
Recinos Alvarado Jonathan, Instituto Politécnico Nacional. Asesor: Dr. Juan Manuel Esquivel Martínez, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
En diferentes estudios a nivel mundial se estima que el cambio climático impactará sobre los recursos hídricos de todo el mundo. Actualmente, los escenarios de cambio climático indican que la escorrentía aumentará en latitudes altas y en los trópicos húmedos, por el contrario, disminuiría en latitudes medias y en ciertas partes de los trópicos secos. En las últimas décadas, la disponibilidad anual por habitante en México ha pasado de 10 000 m3 promedio en 1960, a 4 000 m3 en el 2000 y 3 200 m3 en 2020. Además, si se considera el deterioro y explotación de cuerpos de agua, el crecimiento poblacional y el cambio climático, se proyecta que la disponibilidad de agua en México descienda por debajo de los 3 000 m3 por habitante para 2030. El norte y centro de México han sido las regiones más afectadas por el cambio climático, ya que, la temperatura media anual ha incrementado entre 1.2 y 2.4 °C del año 2000 a 2020. Esto ha propiciado la variación de lluvias en el país y la baja de la capacidad de las presas.
En la Región Hidrológica Balsas un problema relevante es la presión hídrica, efecto del crecimiento poblacional. En la región sobresale la Cuenca Media Balsas (CMB), actualmente en un estado de déficit. Lo anterior, resalta la importancia de analizar el rendimiento hídrico, ya que permite cuantificar la oferta hídrica superficial, estimar valores en unidades hidrográficas no instrumentadas y establecer comparaciones en diferentes perspectivas de análisis. En este marco, el objetivo del verano de investigación consistió en determinar el rendimiento hídrico a partir de dos fuentes de información geoespacial para la Cuenca Media Balsas en un periodo de cinco años (2018 - 2022) utilizando Sistemas de Información Geográfica (SIG).
METODOLOGÍA
Primeramente, se descargaron variables climáticas de precipitación, temperatura máxima y temperatura mínima. Estas fueron obtenidas de los sitios: TerraClimate (imágenes globales con una resolución espacial de 4 x 4 km) y Daymet (imágenes de Norteamérica con resolución de 1 x 1 km). Esta información fue analizada con diferentes geoprocesos en el software de TerrSet V19.0.6. Posteriormente, en las variables Daymet y TerraClimate se les asignó un sistema de coordenadas geográficas (Latlong), sin embargo, en la segunda variable se utilizó el módulo MetaUpdate para ajustar las unidades utilizadas por el sistema de coordenadas, así como los límites de los ejes X y Y. En seguida, se realizó un reescalamiento, para ajustar los valores correctos en las variables de TerraClimate, utilizando el módulo MacroModeler y la herramienta Scalar para multiplicar las imágenes ráster por un factor de escala, en las variables de precipitación fue de 0.1 y en las variables de temperatura fue de 0.01. Se realizó el recorte del área de estudio para las tres variables analizadas. Finalmente, se realizaron diversas operaciones matemáticas (suma, multiplicación y división) con el módulo de MacroModeler para obtener variables de precipitación media anual acumulada, la temperatura mínima, media y máxima del promedio de cada mes para el periodo 2018 - 2022.
Las variables de ambas fuentes fueron agrupadas en grupos ráster. Posteriormente, se utilizó el módulo Earth Trends Modeler y Explore Temporal Files donde se ingresaron los grupos ráster y se indicaron los límites del periodo de tiempo a analizar y la frecuencia de los datos. Además, se generó un perfil de variación para cada variable y se realizó una correlación con el modelo de Pearson, el cual va integrado en TerrSet.
En el cálculo de la evapotranspiración potencial (ETP) se utilizó el modelo digital de elevación (MDE), este fue ingresado en el módulo Watershed y se obtuvo una capa de las subcuencas, asimismo, con la herramienta Image Calculator se realizó una multiplicación entre las subcuencas con una imagen de la delimitación de la zona de estudio, con el fin de ajustarla. Por otra parte, utilizando la fórmula de Hargreaves, desarrollada dentro de la herramienta Image Calculator, se calculó la ETP para cada mes y luego se sumaron con el módulo de MacroModeler y la herramienta Scalar. El resultado fue la ETP acumulada para los cinco años.
En cuanto al rendimiento hídrico se utilizó la herramienta de Water Yield. Se ingresaron ocho archivos, tanto ráster como CSV, los cuales fueron generados en el desarrollo del proyecto. El resultado fueron imágenes que muestran el rendimiento hídrico de la CMB para cada fuente de información analizada. Finalmente, se utilizó la herramienta Extract para obtener un valor promedio para el área de estudio y se realizó una comparación entre cada resultado.
CONCLUSIONES
El rendimiento hídrico fue determinado con información de TerraClimate y Daymet. El resultado con TerraClimate fue 2.3 veces mayor a lo obtenido mediante la información de Daymet, esto se atribuye a una posible variación o diferencia en el reescalamiento, así como la sensibilidad de sus sistemas y percepción cuantitativa de las variables registradas. La variación de las variables climáticas presentó una tendencia ascendente para la precipitación y un comportamiento descendente para temperaturas máxima y mínima en el periodo de 2018 a 2022. De lo anterior, se obtuvo una correlación positiva fuerte (>0.70) para cada variable entre ambas fuentes de información, con un valor de 0.90, 0.72 y 0.90 para la precipitación, t. máxima y t. mínima, respectivamente, lo que indica que existe una relación lineal fuerte entre las tendencias de las variables.
Regil Cerecero Jonathan, Universidad Autónoma del Estado de México
Asesor:Dr. Carlos de Jesús Ocaña Parada, Universidad de Ciencias y Artes de Chiapas
MANEJO INTEGRAL DE LA MICROCUENCA TENÁN, EN LA REGIÓN SIERRA MARISCAL, CHIAPAS.
MANEJO INTEGRAL DE LA MICROCUENCA TENÁN, EN LA REGIÓN SIERRA MARISCAL, CHIAPAS.
Regil Cerecero Jonathan, Universidad Autónoma del Estado de México. Sánchez Sánchez Ulises, Universidad Autónoma del Estado de México. Asesor: Dr. Carlos de Jesús Ocaña Parada, Universidad de Ciencias y Artes de Chiapas
PLANTEAMIENTO DEL PROBLEMA
MANEJO INTEGRAL DE LA MICROCUENCA TENÁN, EN LA REGIÓN SIERRA MARISCAL, CHIAPAS.
RESUMEN DE LA ESTANCIA
ASESOR: DR. CARLOS DE JESÚS OCAÑA PARADA,
UNIVERSIDAD DE CIENCIAS Y ARTES DE CHIAPAS
ESTUDIANTES: JONATHAN REGIL CERECERO & ULISES SÁNCHEZ SÁNCHEZ,
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO
AGOSTO 2023
Objetivo
Caracterización ambiental y socioeconómica de la microcuenca Tenán, del municipio de Motozintla, Chiapas.
Cronograma de actividades
Semana Actividades
1 • Bienvenida a la UNICACH Subsede Motozintla y asignación de actividades.
• Cursos de capacitación SIG, y aplicación de herramientas para cumplir el objetivo del proyecto.
2 • Salida a campo para caracterización de la microcuenca.
3 • Aplicación de encuestas e implementación de talleres en la localidad de Tenán.
4 • Vaciado y análisis de la información de las salidas de campo.
METODOLOGÍA
Descripción de las actividades realizadas
Semana 1: Se llevo a cabo la capacitación introductoria de lo que son los Sistemas de Información Geográfica, y los conocimientos básicos para la realización de una caracterización ambiental y socioeconómica de una microcuenca.
Semana 2: Se realizo el recorrido por la microcuenca de Tenán, con el propósito hacer un primer acercamiento y conocer la zona de trabajo. También se participó en el taller: “Mapa Digital de México para escritorio”, que llevo a cabo el INEGI, esto como herramienta para cumplir con el proyecto.
Semana 3: Se participo en una junta con pobladores del ejido donde se localiza la microcuenca de Tenán, esto con el propósito de hacer la presentación del proyecto e invitación a la participación de este. De igual forma se dio inicio con la capacitación y practica del uso del SIG Qgis.
Semana 4: Se dio continuidad del uso de los programas Qgis y Arcgis, aplicándolos a la delimitación de la microcuenca.
CONCLUSIONES
Conclusiones
Jonathan R.C.: Durante la estancia, pude aplicar los conocimientos de los SIG como una herramienta útil para el manejo integral de una microcuenca. Sin embargo, debido a la falta de colaboración de los habitantes de la localidad de Tenán, no se logró realizar las encuestas y los talleres que formaban parte del plan de trabajo para la caracterización ambiental y socioeconómica de la microcuenca Tenán. Esto limitó el alcance y los resultados del proyecto, que buscaba mejorar las condiciones de vida y el aprovechamiento sostenible de los recursos naturales en la zona.
Ulises S. S.: Sin duda alguna las estancias de verano, son una actividad que fomenta la investigación y la participación entre estudiantes de distintas universidades, lo cual enriquece el conocimiento y la formación profesional de cada individuo. Si bien, el proyecto buscaba caracterizar, analizar y dar propuestas de mitigación para el manejo integral de la microcuenca así como el aprovechamiento de sus recursos naturales, solo fue posible realizar una parte del trabajo previamente descrito. Por último, resulta una actividad grata y satisfactoria poder compartir conocimientos con compañeros universitarios provenientes de otros estados.
Reyes Bautista Jamila Krystel, Instituto Tecnológico Superior de Tacámbaro
Asesor:Dr. Fredy Ruben Cejudo Ruiz, Universidad Nacional Autónoma de México
PALEOMAGNETISMO: DETERMINACIóN DE LA DIRECCIóN MAGNéTICA O PALEOINTENSIDAD DEL VOLCáN RANCHO SECO, MICHOACáN.
PALEOMAGNETISMO: DETERMINACIóN DE LA DIRECCIóN MAGNéTICA O PALEOINTENSIDAD DEL VOLCáN RANCHO SECO, MICHOACáN.
Reyes Bautista Jamila Krystel, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Fredy Ruben Cejudo Ruiz, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
El Campo Volcánico Michoacán-Guanajuato (CVMG) alberga más de 1,200 volcanes de periodo Cuaternario y es una de las regiones de vulcanismo monogenético más extensas del mundo (>40,000 km2). En él se encuentran principalmente conos de escoria y volcanes en escudo de composición basáltica y andesita basáltica.
El volcán Rancho Seco es un cono de escoria situado dentro del CVMG con 7 flujos de lava y una edad estimada por C14 de 27 a 30 Ka.
Las rocas ígneas contienen minerales capaces de registrar el campo magnético de la Tierra (CMT) y pueden preservarlo por largos periodos de tiempo. El estudio de estos registros permite conocer la variabilidad del CMT en posición e intensidad en el pasado, y da pauta a formar una curva de variación secular que puede ser usada para establecer una edad de materiales líticos.
El comportamiento del CMT en el Cuaternario tiene registros incompletos, por lo que, este estudio tiene la finalidad de aportar nuevos datos de dirección e intensidad del CMT a la curva de variación secular en el intervalo de 27 a 30 Ka.
METODOLOGÍA
Se hicieron dos experimentos uno para obtener la paleointensidad y otro para la dirección magnética de los flujos de lava del volcán Rancho Seco.
Para el primer experimento, se comenzó con la preparación de muestras de los 7 flujos de lava, fragmentándolas para su encapsulamiento en sal y posterior medición del vector magnético con ayuda de un magnetómetro de giro jr6. Se midió la magnetización remanente natural (NRM) de 42 especímenes, el experimento sigue su curso utilizando un horno especializado para calentar dichos especímenes a intervalos de temperatura específicos con y sin campo magnético, y observar las fluctuaciones en la intensidad de cada espécimen, con la proporcionalidad entre la pérdida de la magnetización de la roca con la adquisición de magnetización del laboratorio se calculará la intensidad del campo magnético antiguo.
El segundo experimento se hizo con muestras de roca (en forma cilíndrica) donde, se midió también la NRM de 6 de los 7 flujos, para después desmagnetizar las muestras con campos de 5,10,15,20,25,30,40,45,60,80 y 100 µT. En cada una de las etapas de desmagnetización, se midió la magnetización remanente. Posteriormente, se identificó la presencia de componentes secundarias (fluctuaciones en la dirección magnética) y componente primaria. Por medio de un análisis vectorial, se determinó la inclinación y declinación media, valores que serán usados para la reconstrucción del campo magnético y establecer una cronología relativa de los eventos volcánicos.
CONCLUSIONES
Las direcciones medias obtenidas de los seis flujos de lava del volcán Rancho Seco presentaron direcciones magnéticas diferentes, que sugieren que no fueron emplazados en la misma temporalidad. Según en principio de superposición los flujos fueron acomodados en orden ascendente, lo que los lleva a decir dados sus cambios de polaridad y posición no fueron depositados en la misma temporalidad, sino que se depositaron en distintas temporalidades.
El flujo III presentó un cambio de polaridad que coincide con la inversión magnética propuesta como Mono Lake excursión para 26 Ka.
Reyes Flores Alberto, Universidad de Guadalajara
Asesor:Dr. Marco Antonio Bedolla Hernández, Universidad Autónoma de Chiapas
ANáLISIS DE MODELOS DEL PROPAGADOR DE LOS QUARKS PARA DISTINTAS MASAS.
ANáLISIS DE MODELOS DEL PROPAGADOR DE LOS QUARKS PARA DISTINTAS MASAS.
Reyes Flores Alberto, Universidad de Guadalajara. Asesor: Dr. Marco Antonio Bedolla Hernández, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Dado que el 99% de la masa visible en el universo se debe a las interacciones fuertes de Cromodinámica Cuántica (QCD por sus siglas en inglés), el estudio de la masa dinámica de los quarks y su confinamiento es sumamente importante para entender a los hadrones. Debido a que en la naturaleza es imposible observar quarks libres, ya que estos solo se encuentran unidos a otros quarks para formar hadrones, el estudio de sus interacciones se vuelve más complejos por lo cual se necesitan simuladores o modelos para realizar las predicciones de dichos observables.
METODOLOGÍA
Como se mencionó anteriormente, se requieren de modelos para realizar predicciones de las interacciones de QCD, nos interesa estudiar la función de masa del quark y el fenómeno de confinamiento, así como sus condensados y decaimientos para diferentes hadrones con varios puntos de renormalización. Los hadrones estudiados fueron el pion (pi0) y los mesones etac, etab y un posible etas. Por notación, consideremos la velocidad de la luz c=1.
Los modelos utilizados para la investigación fueron el Modelo de Maris-Tandy y de Qin para el propagador del Gluón. Los quarks involucrados fueron Up y Down con simetría isospín (usando masas de 0 GeV y 0.007 GeV), Strange (con masa de 0.096 GeV), Charm (con masa de 1.25 GeV) y Bottom (con masa de 4.18 GeV); y los puntos de renormalización (mu) de 2, 5, 12 y 19 GeV.
Mediante el software Wolfram Mathematica se realizó el código que se empleó para los cálculos de las funciones de masa, los condensados y decaimientos de los quarks estudiados, para después realizar las respectivas gráficas y tabulaciones de los resultados para cada modelo.
Finalmente se compararon los resultados para cada masa del quark y se hicieron los cálculos de errores entre ambos modelos.
CONCLUSIONES
Con base a los resultados se pudo observar que tanto el modelo de Maris-Tandy como el de Qin son muy útiles y precisos para el caso de quarks ligeros (Up, Down y Strange) pues dichos resultados de la función de masa, condensados y de los decaimientos son muy similares a los reportados en la literatura.
Realizando la comparación de ambos modelos tomando como referencia el modelo de Maris-Tandy (MT) obtuvimos los siguientes resultados:
a) Para m=0 GeV obtuvimos en promedio el valor de la función de masa de 0.51 GeV con un error relativo de 3.21% entre ambos modelos y una constante de decaimiento de 0.086 GeV con un error relativo de 14% respecto al reportado a la literatura de 0.1 GeV.
b) Para m=0.007 GeV obtuvimos en promedio el valor de la función de masa de 0.54 GeV con un error relativo de 3.01% entre ambos modelos y una constante de decaimiento de 0.092GeV con un error relativo de 10.62% respecto al reportado a la literatura de 0.1 GeV.
c) Para m=0.096 GeV obtuvimos en promedio el valor de la función de masa de 0.76 GeV con un error relativo de 1.75% entre ambos modelos y una constante de decaimiento de 0.17 GeV con un error relativo de 27.48% respecto al reportado a la literatura de 0.24 GeV.
d) Para m=1.25 GeV obtuvimos en promedio el valor de la función de masa de 2.24 GeV con un error relativo de 0.09% entre ambos modelos y una constante de decaimiento de 0.98 GeV con un error relativo de 145.4% respecto al reportado a la literatura de 0.4 GeV.
e) Para m=4.18 GeV obtuvimos en promedio el valor de la función de masa de 5.45 GeV con un error relativo de 0.01% entre ambos modelos y una constante de decaimiento de 2.22 GeV con un error relativo de 217.67% respecto al reportado a la literatura de 0.7 GeV.
De esta manera podemos concluir que el modelo de MT y de Qin no es especialmente buenos para quarks pesados como lo fueron Charm y Bottom, los datos obtenidos no coinciden con los datos experimentales de los mismos. Se sugiere que se reduzca la interacción del acoplamiento y se aumente el rango de integración, así como buscar un modelo general que pueda a su vez aproximar de mejor manera los quarks pesados.
Reyes Galván Erick Salvador, Instituto Tecnológico de Puebla
Asesor:Dr. Yeison Alberto Garcés Gómez, Universidad Católica de Manizales
CLASIFICACIóN DE CULTIVOS AGRíCOLAS UTILIZANDO TéCNICAS DE MACHINE LEARNING EN IMáGENES SATELITALES
CLASIFICACIóN DE CULTIVOS AGRíCOLAS UTILIZANDO TéCNICAS DE MACHINE LEARNING EN IMáGENES SATELITALES
Reyes Galván Erick Salvador, Instituto Tecnológico de Puebla. Asesor: Dr. Yeison Alberto Garcés Gómez, Universidad Católica de Manizales
PLANTEAMIENTO DEL PROBLEMA
Manizales, Ciudad de las Puertas Abiertas es conocida por ser la capital del café, cuenta con una gran reserva de recurso hídricos y filtros naturales, por lo que prácticamente el agua de la zona es totalmente potable sin tener la necesidad de utilizar filtros ni químicos.
El aguacate es la quinta fruta tropical más importante en el mundo, medida en términos de volumen y área cultivada. De acuerdo con las estadísticas presentadas por la Food and agriculture organization of the United Nations, el consumo global de aguacate ha experimentado un notable aumento en los últimos años. En el lapso de una década, de 2001 a 2011, el consumo per cápita de esta fruta pasó de 482 gramos a 675 gramos, lo que representa un aumento significativo del 39,9%. Estos números indican que el aguacate ha ganado una posición destacada a nivel mundial en términos de consumo, producción, así como en las actividades de importación y exportación. Esto ha favorecido al País Colombiano en su crecimiento y demanda del aguacate, alcanzó un reconocimiento tanto en los mercados regionales como nacionales. Y como consecuencia directa, ha crecido en gran medida el campo para su cosecha en los diferentes departamentos de Colombia, siendo en gran medida la ciudad de Manizales una de los mayores cosechadores, sin embargo, esto ha causado que exista una desaparición de los cultivos de café, existiendo el riesgo de perder el reconocimiento de ser capital del café.
Según investigaciones (M.M. Mekonnen y A.Y. Hoekstra) se necesitan aproximadamente 1.000 litros de agua para cada kilo de aguacate, y de acuerdo con este dato, se puede concluir de manera rápida que la siembra de aguacate pone en riesgo la pureza del agua por los químicos e insecticidas que se utilizan en su siembra, y además la perdida de grandes cantidades de agua de los diferentes cuerpos hídricos del país de Colombía.
Se estima que el consumo per cápita en Colombia aumentó cerca de 70% en los últimos 5 años, pasando de 6,1 a 12,3 Kg / persona / año.
Por lo que, en el marco del Programa Delfín en la línea de investigación de tecnologías aeroespaciales, se clasificará la siembra de aguacate con técnicas de Machine Learning utilizando la plataforma de Google Earth Engine, para poder definir la tasa de crecimiento de la siembra de aguacate en la zona, que tanto ha desplazado la siembra del café y además se analizara las consecuencias que hay en los recursos hídricos.
METODOLOGÍA
Para esta investigación, es necesario tener claro 3 conceptos de herramientas que son parte esencial de esta investigación:
Machine Learning
El Machine Learning (Aprendizaje Automático) es una rama de la inteligencia artificial que en lugar de seguir reglas e instrucciones detalladas, como en la programación tradicional, los sistemas de Machine Learning utilizan datos para aprender patrones y realizar predicciones o tomar decisiones basadas en esos patrones.
Google Earth Engine (GEE)
Google Earth Engine es una plataforma en la nube desarrollada por Google que ofrece un entorno para el análisis y procesamiento de grandes cantidades de datos geoespaciales provenientes de imágenes de satélite, datos climáticos, datos de sensores remotos y otros tipos de información geoespacial. Esta plataforma está diseñada específicamente para aplicaciones de análisis geoespacial, como monitoreo ambiental, gestión de recursos naturales, estudios agrícolas, seguimiento de cambios en el uso del suelo, y muchas otras aplicaciones relacionadas con la geoinformación.
Bandas
Las "bandas" se refieren a los diferentes canales o espectros de luz que se utilizan para capturar información sobre la superficie de la Tierra. Cada banda en una imagen satelital representa una parte específica del espectro electromagnético, que abarca desde la luz visible hasta la radiación infrarroja y otras longitudes de onda. Las bandas más comunes son las siguientes:
Al combinar estas bandas, se pueden generar diversas composiciones de colores y aplicar técnicas de procesamiento de imágenes para obtener una imagen más completa y útil de la zona observada.
Teniendo claro la idea general de estos conceptos, se define la metodología de la siguiente manera:
1. Recopilar datos relevantes
Identificar fuentes de datos satelitales disponibles en plataforma GEE para el área de estudio.
Obtener imágenes de satélite de alta resolución de la zona de Caldas.
2. Preprocesamiento de datos
Realizar el preprocesamiento de imágenes satelitales para reducir ruido y mejorar la calidad de las imágenes, utilizando diferentes tipos de satélites y diferentes tipos de bandas.
3. Entrenamiento del modelo de Machine Learning
Seleccionar un algoritmo de Machine Learning adecuado para la clasificación y detección de cultivos.
Etiquetar manualmente datos de entrenamiento para el algoritmo.
4. Validación de resultados
Realizar el código de una matriz de confusión.
5. Cálculo de áreas por tipo de suelo
Calcular el área de cada tipo de suelo que clasifique el código de Machine Learning.
CONCLUSIONES
De acuerdo con los datos obtenidos de minagricultura, en el departamento de Caldas (departamento donde se encuentra ubicado Manizales) en el año del 2020, el aguacate tuvo un total de 104.439 toneladas de producción. De acuerdo con M.M. Mekonnen y A.Y. Hoekstra, se necesitan 1.000 litros de agua para cada kilo de aguacate. Realizando cálculos, se necesitó 104,439,000 litros de agua para poder producir aquella cantidad de aguacate.
Aún con el código en desarrollo, actualmente se tiene un 77% de precisión general utilizando imágenes del satélite Sentinel con las bandas NIR, RED Y GREEN, se espera poder mejorar el porcentaje de precisión y poder extrapolarlo a todo Colombia para poder trabajar con cualquier departamento. Con el código de Machine Learning se espera obtener predicciones certeras de cómo afectará en el futuro utilizar esta cantidad de agua y obtener patrones de su crecimiento para prevenir y mejorar el sistema de cosecha.
Reyes Ozuna Jahaziel, Universidad Autónoma de Baja California
Asesor:Mg. Andy Rafael Dominguez Monterroza, Universidad Tecnológica De Bolívar
APLICACIóN DE LA TEORíA DE GRAFOS AL MERCADO DE CRIPTODIVISAS.
APLICACIóN DE LA TEORíA DE GRAFOS AL MERCADO DE CRIPTODIVISAS.
Reyes Ozuna Jahaziel, Universidad Autónoma de Baja California. Asesor: Mg. Andy Rafael Dominguez Monterroza, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
El brote del COVID-19 se ha convertido en una de las mayores amenazas para la economía mundial y los mercados financieros.
De acuerdo con un reporte de Americas Market Intellence y Mastercard, antes del comienzo de la pandemia hubo un 31% al primer acceso a las criptomonedas, mientras que durante la pandemia hubo un 23% de usuarios que con primer acceso a este tipo de producto financiero. Por otro lado, después de la pandemia el porcentaje aumentó un 23% más con respecto al periodo durante la pandemia. Sin embargo, en la actualidad el uso de criptomonedas ha sido crucial para los negocios las cuales le han permitido asegurar transacciones y evitar que alguien haga copias de estas criptomonedas por lo que el uso de criptomonedas se ha vuelto una alternativa muy popular de hacer transacciones en todo el mundo.
Es por esto que, como parte de este estudio, se desea hacer un análisis similar en determinar las conexiones que hay entre los activos financieros del mercado de criptomonedas pues hoy en día existen miles de criptomonedas, entre las que se encontraron como las más influyentes en la lista de criptodivisas en la página de Yahoo Finance tales como Bitcoin, Dolar digital, Ripple, Ethereum, Binance coin, Cardano, Theter y Fantasy Gold.
METODOLOGÍA
Los datos de las series de precio de criptomonedas fueron obtenidas de la web de Yahoo Finance, se seleccionaron las 8 primeras criptomonedas entre las cuales se encuentran Bitcoin, Etherium, Theter entre otras. Los pasos de la investigación se resumen a continuación:
Preprocesamiento de los datos de la serie financiera del precio de los activos y normalización de los datos mediante el retorno logarítmico
Construir la matriz de correlación lineal entre las series
Definir un umbral de correlación como criterio de conexión y construir los grafos en tres momentos: antes, durante y posterior al comienzo del primer año de la pandemia
Calcular las métricas más relevantes del grafo obtenido e interpretar sus resultados.
CONCLUSIONES
Tras el análisis sobre los resultados obtenidos, podemos deducir que durante la pandemia COVID - 19 las 8 criptomonedas seleccionadas están mayormente conectadas entre ellas independientemente que coeficiente de correlación escojamos en el intervalo (0,1) (conexiones débiles). Por otro lado se tiene que la densidad de la red durante la pandemia se mantiene mayor que las densidades antes y después de la pandemia lo que demuestra que para cada nodo (criptomoneda) existe una conexión entre ellas como se puede apreciar en la figura 2. Obsérvese que de las 7 criptomonedas existe una conexión entre otras excepto la criptomoneda Fantasy Gold (FGC - USD) la cual no tiene lazos o conexiones con otras. Además se observa también que al calcular las métricas locales,la criptomoneda bitcoin tiene mayor centralidad de cercanía, es decir tiene distancias más cortas entre cualquier criptomoneda,lo cual significa que tiene mayor facilidad de transmitir información con otras criptomonedas. Por otro lado la criptomoneda con mayor de centralidad de intermediación es la criptomoneda Etherium (ETH-USD) hecho que verifica que tiene mayor influencia en el mercado de criptodivisas únicamente durante y después de la pandemia mientras que antes de que la pandemia comenzara las criptomonedas tales como Bitcoin, Binance Coin y Ripple tenían mayor influencia en el mercado de criptodivisas.
Reyna Ortega Edgar Eduardo, Universidad de Guadalajara
Asesor:Mg. Cesar Augusto Tovio Gracia, Fundación Universitaria Colombo Internacional
ESTIMACIóN DE LA ENERGíA DE GRADIENTE SALINO EN DESEMBOCADURAS POR MEDIO DE AUTOAPRENDIZAJE
ESTIMACIóN DE LA ENERGíA DE GRADIENTE SALINO EN DESEMBOCADURAS POR MEDIO DE AUTOAPRENDIZAJE
Lopez Muñoz Erick Emiliano, Universidad de Guadalajara. Reyna Ortega Edgar Eduardo, Universidad de Guadalajara. Asesor: Mg. Cesar Augusto Tovio Gracia, Fundación Universitaria Colombo Internacional
PLANTEAMIENTO DEL PROBLEMA
A día de hoy, existe una emergencia global debido al aumento de temperatura promedio, que ha traído consigo graves consecuencias como la pérdida de biodiversidad hasta el aumento de desastres naturales. Es preciso responder a esta crisis, Afortunadamente la Organización de la Naciones Unidas (ONU) a tomado cartas en el asunto proponiendo los objetivos de desarrollo sostenible (ODS).
Estos objetivos son un conjunto de objetivos globales para erradicar la pobreza, proteger el planeta y asegurar la prosperidad para todos como parte de una nueva agenda de desarrollo sostenible, estos fueron propuestos por la ONU en el año 2015 con la meta de alcanzarlos para el año 2030.
Bajo el marco del IX Encuentro Internacional de Pasantías de Investigación Delfín 2023, se ha buscado contribuir con los ODS ya mencionados. Más propiamente, este trabajo se centra en el objetivo número siete: Energía Asequible y No Contaminante, el cual busca garantizar que todos los habitantes del mundo tengan acceso a servicios energéticos, duplicar la tasa mundial de eficiencia energética, ayudar con infraestructura y tecnologías mejoradas a países menos desarrollados para su acceso a fuentes de energía modernos y sostenibles, entre otras metas.
Es conocido que entre las fuentes de energía renovables disponibles, se encuentran por ejemplo la eólica, geotérmica, solar y oceánica, entre otras. La energía oceánica, puede obtenerse de distintas formas: por marea, corrientes marinas, oleaje, gradiente de temperatura o gradiente de salinidad.
Desde mediados de la década de los 50´s Pattle demostró por primera vez, que es posible aprovechar este último fenómeno para generar energía, conocido como energía por gradiente salino [1] (EGS por sus siglas en español). Dicha energía se obtiene al mezclar dos soluciones de distinta salinidad, como puede ser agua de río y agua de mar, la cuantificación de esta energía se encuentra en la física de la energía libre de Gibbs. Este tipo de energía limpia y renovable, puede ser extraída en desembocaduras de ríos a lo largo de todo el mundo, siendo una opción viable para cerca del 40 por ciento de la población que vive relativamente cerca de las playas. [2]
Existen diversas técnicas para extraer la energía como lo son ósmosis por presión retardada (PRO), electrodiálisis inversa (RED), entre otras. Siendo estas dos las que más fama e investigación han provocado. [1,3]
Bajo este concepto, este trabajo busca evidenciar el posible uso y aprovechamiento de la energía por gradiente salino que es posible encontrar en desembocaduras de ríos en todo el mundo, no solo de manera cualitativa sino también cuantitativa a través de un modelo de autoaprendizaje.
METODOLOGÍA
Para mostrar los resultados de la siguiente sección, se trabajó con el dataset data_rios.xlsx, el cual es una recopilación de distintas desembocaduras de ríos, las cuales se encargan de observar y medir propiedades de estos, como su morfología (ancho y profundidad relativamente cerca de las desembocaduras), y sus ubicaciones geográficas. El trabajo puede ser dividido en 4 partes: caracterizaron las desembocaduras de los ríos en base a su caudal, estimación de una muestra para la construcción de un modelo de autoaprendizaje, determinaron los hiperpárametros del modelo estadístico y por último la validación del modelo.
La caracterización de las desembocaduras de los ríos fué posible debido a un filtro aplicado a los datos y, dado que una cantidad significativa de ellos no contenían toda la información en cuanto a morfología, de un total de 690 ríos, resultaron 280 ríos: cerca de un 41 por ciento solo poseía los datos completos. De manera siguiente, se realizó un gráfico de correlación entre las longitud y ancho de las desembocaduras buscando comportamientos matemáticos conocidos. Con los mismos datos se obtuvo un gráfico de tipo Raincloud, el cual ayudó a visualizar y filtrar ciertos grupos o clústers de datos de aquellos que se mostraban atípicos, como fué el caso del río Amazonas, dado que contenía el máximo caudal.
Posteriormente, se probó con distintas muestras aleatorias de cierto porcentaje de los ríos filtrados. Como muestra final se utilizó un 70% para la construcción del modelo, y un 30% como datos para validación, como parte de preprocesamiento de los datos, se normalizaron y estandarizaron para que la variabilidad de los datos sea comparable entre las diferentes variables. Utilizando el modelo de autoaprendizaje basado en la regresión de Krigin (DiceKrigin) se obtuvieron los hiperparametros. Para la obtención de estos últimos, se utilizó una función tal, que el modelo brinde el mejor resultado de un total de n iteraciones con la misma muestra. Se utilizaron desde una, luego de diez en diez hasta llegar a cien iteraciones para visualizar el avance del modelo según las iteraciones, guardando los hiperparámetros de cada paso en la iteración.
Los hiperparámetros fueron ingresados a otra función llamada predict que, como su nombre indica, predijo el comportamiento de los datos de los ríos de dicha muestra aleatoria de validación. Finalmente para visualizar la calidad del modelo se obtuvo el coeficiente de correlación Q cuadrado, dando un resultado por encima de 0.9 en todos los pasos, indicando un buen modelo.
En última instancia, únicamente habría que cambiar la variable caudal, que es entrada y salida en el algoritmo utilizado, por la energía de gradiente salino de los ríos de cierta muestra aleatoria y repetir la metodología implementada.
CONCLUSIONES
Durante el desarrollo de este proyecto, se adquirieron conocimientos sobre la energía de gradiente salino. Aplicando técnicas de machine learning y análisis de datos se realizaron pruebas de entrenamiento para un modelo de autoaprendizaje con el objetivo de predecir el caudal de ríos teniendo en cuenta su morfología y caudal. Se espera completar este trabajo cambiando la variable caudal por energía de gradiente salino teórico y obtener un modelo entrenado confiable.
Rico Torres Alejandro, Universidad Autónoma de Nayarit
Asesor:Dra. Lili Guadarrama Bustos, Centro de Investigación en Matemáticas (CONACYT)
PROPUESTA Y VALIDACIóN DE UN INSTRUMENTO DE EVALUACIóN DE ACTIVIDADES DE DIVULGACIóN MATEMáTICA PARA NIñOS Y NIñAS DE PRIMARIA
PROPUESTA Y VALIDACIóN DE UN INSTRUMENTO DE EVALUACIóN DE ACTIVIDADES DE DIVULGACIóN MATEMáTICA PARA NIñOS Y NIñAS DE PRIMARIA
Castañeda Ramos Bryan Mauricio, Universidad Autónoma de Nayarit. Rico Torres Alejandro, Universidad Autónoma de Nayarit. Asesor: Dra. Lili Guadarrama Bustos, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El grupo de divulgación Matehuales del CIMAT sede Aguascalientes organiza talleres de divulgación matemática desde el 2019 los cuales se han impartido en diversas escuelas tanto públicas como privadas, el DIF estatal, museos de ciencia y tecnología, entre otros. Estos talleres se han caracterizado por ser atractivos, obteniendo una respuesta favorable del público, sin embargo, es necesario medir el impacto que estos tienen en la audiencia.
En la actualidad, por la naturaleza de las actividades de divulgación científica, la creación de un instrumento de evaluación estandarizado es un reto a nivel global, por lo que en este verano de investigación el objetivo fue realizar una herramienta de evaluación para valorar las actividades elaboradas, centrándose en el tema de origami en tecnología espacial.
METODOLOGÍA
Se nos presentaron los temas que han usado para divulgación matemática en la institución, como lo es el origami, teselaciones, torres de Hanói, juegos de destreza mental, etc., los cuales fuimos utilizando para familiarizarnos con ellos y poder entender mejor su estructura. Decidimos enfocarnos a realizar un instrumento de evaluación enfocado al aprendizaje de las matemáticas a través del origami, con intención de, posteriormente lograr un instrumento de evaluación generalizado para los demás talleres.
Inicialmente se construyó un instrumento de evaluación inicial en base a la literatura encontrada relacionada a esto (la cual era poca, pues gran parte de ésta no estaba enfocada en evaluar el aprendizaje matemático). Aunado a esto, se llevó a cabo un análisis de los Aprendizajes Clave para una Educación Integral para la Educación Básica, esto para equiparar el tema de Origami con los grados escolares y los aprendizajes esperados dados por ejes temáticos.
El instrumento fue dirigido principalmente para alumnos de primaria mayor (4°, 5° y 6°), y consta de lo siguiente:
Antes del taller
Diagnóstico inicial, 4 preguntas de opción múltiple sobre temas en matemáticas en base a los aprendizaje por ejes de este nivel educativo.
Cuestionario de expectativas sobre el taller, comprendido por 7 ítems (preguntas) con respuesta en escala de Likert de 5 puntos.
Después del taller
Cuestionario de experiencias y satisfacción sobre el taller, comprendido por 13 ítems con respuesta en escala de Likert de 5 puntos y 4 preguntas abiertas.
Diagnóstico final, las mismas preguntas que el inicial cambiando el orden de las respuestas para evitar una respuesta por memorización.
Una vez terminado el instrumento inicial, se planeó e impartió la presentación del taller de origami a niños como una prueba piloto.
Posteriormente, se realizó una recopilación de los datos en crudo de las respuestas de los niños para luego, continuar con un análisis inicial de este primer instrumento. Se produjeron tablas de frecuencia, gráficas de barras (por ítems y por constructos), CloudWorks de las preguntas abiertas y un análisis de la consistencia interna de los ítems de cada constructo a través del Alpha de Cronbach, el cual se calculó por todo el constructo y quitando ítem por ítem, para ver qué tanto aporta cada ítem a la consistencia total. Con esto último, se hizo notable que algunas preguntas reducían la consistencia interna del constructo, por lo que fueron candidatas a revisión para modificarlas o descartarlas.
También, pudimos percatarnos de algunas cosas del taller que podrían mejorarse, esto para perfeccionar el aprendizaje de los niños, como fue el caso de realizar plantillas sobre los productos a realizar (pliegues de miura y el satélite) para impulsar un poco la actitud autodidacta y puedan reproducirlos cuando ellos quieran.
Al mismo tiempo, se seleccionó un panel de expertos con el fin de evaluar la pertinencia de los ítems presentes en los cuestionarios. Dicho panel está integrado por 30 profesionales referentes en el área de matemáticas y afines al aprendizaje y enseñanza de esta ciencia. Aún se está en espera de la respuesta total de este panel para poder continuar con las modificaciones del instrumento de evaluación.
CONCLUSIONES
Durante la estancia de verano logramos adquirir conocimientos teóricos y prácticos de la elaboración de instrumentos de divulgación matemática, aprendimos varias técnicas estadísticas para hacer valorar las herramientas de evaluación hechas y pudimos vivir por experiencia propia que para realizar una actividad de divulgación no solo es hacerla a la ligera, si no que hay que corroborar que sea un material de calidad, que deje un aprendizaje significativo a la audiencia, que sea valorado por expertos en el área, que logremos obtener resultados representativos, y poder conseguir una buena evaluación por parte de los estudiantes para lograr una mejora en el futuro.
Durante el verano se realizó la construcción de la propuesta de la herramienta de evaluación, la validación por parte del panel de expertos está en espera y en cuando se tenga se tendrá un instrumento consistente, repetible y confiable que mida el impacto de la actividad de divulgación.
Rincon Cordero Jasmin Guadalupe, Universidad Autónoma de Ciudad Juárez
Asesor:Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo
ESTIMACIóN EXPERIMENTAL DE LA CONSTANTE DE PLANCK BASADA EN LA UTILIZANDO DE LA PLACA ESP32 EN VARIACIóN DEL VOLTAJE DE ENCENDIDO DE LEDS PARA LA CARACTERIZACIóN DE LONGITUDES DE ONDA.
ESTIMACIóN EXPERIMENTAL DE LA CONSTANTE DE PLANCK BASADA EN LA UTILIZANDO DE LA PLACA ESP32 EN VARIACIóN DEL VOLTAJE DE ENCENDIDO DE LEDS PARA LA CARACTERIZACIóN DE LONGITUDES DE ONDA.
Rincon Cordero Jasmin Guadalupe, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
En este artículo de investigación, se realiza una estimación experimental de la constante de Planck utilizando la placa ESP32 como plataforma de desarrollo. Se establece una relación entre el voltaje aplicado a un LED y la longitud de onda emitida mediante un ajuste gradual de encendido y mediciones de intensidad lumínica. Mediante técnicas de análisis de datos, se logra determinar la constante de Planck basándose en las longitudes de onda y voltajes obtenidos.
El estudio también revisa conceptos teóricos relevantes. Henry Joseph Round, especialista en comunicaciones de radio, observó en 1907 que ciertos materiales semiconductores, como los LED, emiten luz cuando hay corriente eléctrica. Max Planck, en 1900, propuso la existencia de cuantos, cantidades discretas de radiación que se emiten y absorben. Su famosa ecuación E = hf relaciona la energía (E) con la frecuencia (f). Siguiendo la hipótesis de de Broglie, se asocia una longitud de onda (λ) a una partícula en movimiento con masa (m) y cantidad de movimiento (p). Se establece una relación entre la longitud de onda de la luz emitida por un electrón y su longitud de onda de De Broglie durante el proceso de transición, teniendo en cuenta el potencial aplicado y los cuantos de energía. A partir de esta relación y conociendo la longitud de onda y el voltaje aplicado (∆V), es posible obtener un valor cercano a la constante de Planck mediante un despeje adecuado.
METODOLOGÍA
SECCIÓN A - Código para Control del LED y Medición de Voltaje.
La placa ESP32 es un tipo de placa de desarrollo que utiliza el microcontrolador ESP32, fabricado por la empresa china Espressif Systems. La ESP32 viene con una amplia variedad de periféricos, como puertos GPIO (entrada/salida de propósito general), ADC (conversor analógico-digital) y más.
Haciendo uso de la placa ESP32 se realizó un código para controlar el brillo de un LED mediante una variación gradual del voltaje de salida aplicado. Además, se incluye una función para medir el voltaje de entrada, permitiendo obtener una referencia del comportamiento del sistema. El programa fue implementado en un microcontrolador Arduino para facilitar el control y adquisición de datos.
Se declararon 2 constantes "ledPin y voltagePin", las cuales almacenan los números de los pines de Arduino utilizados para controlar el LED y medir el voltaje de entrada.
En la función setup(), se inicia la comunicación serial a una velocidad de 9600 baudios mediante Serial.begin(9600);, con esto se puede enviar datos al Monitor Serial.
Posteriormente, el pin ledPin se configura como una salida mediante pinMode(ledPin, OUTPUT);, esto asegura que el LED esté controlado por el microcontrolador y permita variar su intensidad.
Dentro de la función loop(), se utiliza un bucle for para variar desde 0 hasta 255, con incrementos de uno en cada iteración.Se lee el valor analógico del pin voltagePin utilizando analogRead(voltagePin), se calcula el voltaje de entrada (voltageIn) mediante la relación entre la lectura analógica y el valor de referencia (3.3V), lo que convierte la lectura en una medida de voltaje.
Se utiliza dacWrite(ledPin, i); para enviar un valor de voltaje al pin del LED (ledPin), asi es como se controla la intensidad luminosa del LED.
Se agrega un retardo de 300 milisegundos (delay(300);) y se calcula el voltaje de salida (voltageOut) que se está aplicando al LED en función del valor de i.
Finalmente, se imprimen en el Monitor Serie los valores de voltageIn y voltageOut para cada iteración del bucle, lo que permite visualizar cómo el sistema responde al control del LED.
La cantidad de luz producida está directamente relacionada con la corriente que fluye a través del LED, que a su vez está regulada por la resistencia en serie, es por ello que se utilizó una resistencia de 100 ohms, ya que permite limitar la corriente además de ser más seguro.
La conexión realizada fue sencilla, ya que, si bien se encuentra el GPIO 25 conectado al ánodo del LED, por su parte el cátodo está conectado a una resistencia y a su vez conectada al pin GND (tierra). El pin 34 se encarga de leer cuanto voltaje entra al LED y se encuentra conectado al cátodo. Se realizo una toma de datos para los LEDs de color verde, amarillo y rojo, posteriormente se obtuvieron los valores de a partir de cuanto voltaje el LED encendía y permitía una lectura.
Con esos valores se realizaron los gráficos correspondientes donde se mostraba el voltaje que entra al LED y la corriente de este.
SECCIÓN B - Caracterización de los diodos LEDS y obtención de longitudes de onda.
En base al voltaje obtenido que se obtuvo se busca realizar un ajuste lineal a partir de donde se veía ese encendido del LED y obtener el valor de ∆V. Se caracterizaron los LEDs haciendo uso del equipo Ocean Optics el cual permite ver esas longitudes de onda con el sotfware Spectra Suite.
Como se mencionó anteriormente en la ecuación 3 previamente despejada nos permite tener una forma de sacar el valor de h de manera experimental.
CONCLUSIONES
El ESP32 suministra un voltaje de 3.3 Volts y tomando que da una lectura hasta 3.29 Volts, se realizó un error relativo porcentual. Por lo tanto, el error relativo porcentual entre el valor teórico (3.3) y el valor experimental (3.29) es aproximadamente 0.303 %. Un error relativo porcentual tan bajo indica que la medida experimental es bastante precisa y se acerca mucho al valor teórico esperado
En base a los valores de longitudes que se obtengan se espera poder tener un valor cercano a la constante de Planck.
Este enfoque experimental ofrece una metodología precisa y eficiente para la caracterización de longitudes de onda en LEDs mediante el control de voltaje, permitiendo a su vez una estimación confiable de la constante de Planck.
Rincon Pabon William Alexis, Universidad de Pamplona
Asesor:Mg. Alejandro Alzate Buitrago, Universidad Libre
FORMULACIÓN DE UN MODELO DE TORRENCIALIDAD, MEDIANTE EL MÉTODO HEURÍSTICO, PARA LA QUEBRADA AGUA AZUL, DOSQUEBRADAS, RISARALDA
FORMULACIÓN DE UN MODELO DE TORRENCIALIDAD, MEDIANTE EL MÉTODO HEURÍSTICO, PARA LA QUEBRADA AGUA AZUL, DOSQUEBRADAS, RISARALDA
Rincon Pabon William Alexis, Universidad de Pamplona. Asesor: Mg. Alejandro Alzate Buitrago, Universidad Libre
PLANTEAMIENTO DEL PROBLEMA
En las regiones propensas a eventos torrenciales en climas bimodales con precipitaciones entre 2600 a 3200 mm anuales como la microcuenca de la quebrada Agua Azul en Dosquebradas, Risaralda, se enfrentan a una amenaza natural significativa debido a la rápida acumulación y flujo de agua en quebradas durante eventos de lluvias intensas. La intensidad y corta duración de estos eventos pueden resultar en avenidas torrenciales como flujo hiperconcentrados, lo que representa un riesgo significativo para la microcuenca en cuestión.
Para abordar esta problemática y mitigar los riesgos asociados, se ha desarrollado un enfoque multidisciplinario que involucra la utilización de tecnologías geoespaciales y métodos analíticos avanzados. El objetivo principal es Construir un modelo de torrencialidad para establecer las áreas expuestas ante la ocurrencia de flujos hiperconcentrados, con el fin de brindar información crucial para la gestión del riesgo y la implementación de medidas preventivas.
La metodología adoptada combina diferentes fuentes de datos, como información geológica, geomorfológica, pendientes, usos y cobertura del suelo, inventario de fenómenos de remoción en masa junto con la utilización de Sistemas de Información Geográfica (SIG). Se ha empleado el método heurístico a través de multicriterio Analytic Hierarchy Process (AHP) para modelar la dinámica de la torrencialidad en la zona de estudio. Los datos recopilados a través de análisis multitemporales y fotointerpretación han permitido refinar y zonificar la dinámica de la escorrentía superficial.
METODOLOGÍA
Fase I: Recopilación bibliográfica mediante búsquedas en bases de datos para construir estado del arte, métodos utilizados, avances y tendencias en el tema
Fase II: Fotointerpretación utilizando fotografías aéreas y ortofotomosaico para evaluar multitemporalmente la dinámica erosiva de la microcuenca y rasgos geomorfológicos de mayor interés
Fase III: Trabajo de campo en la microcuenca de la quebrada Agua Azul para definir perfiles estratigráficos; caracterización de depósitos de origen aluvial, coluvial y torrencial; levantamiento y caracterización de formaciones superficiales; muestreo de sedimentos.
Fase IV: Integración de mapas temáticos; definición de clases (variables) y parámetros para estimación de pesos, mediante el método multicriterio (matrices AHP); álgebra de mapas y salidas gráficas
Fase V: Construcción del modelo de torrencialidad utilizando la información recopilada, mediante el uso de SIG. Ajuste y calibración del modelo.
CONCLUSIONES
Los parámetros morfométricos analizados en la microcuenca revelan un índice de Melton (R) de 0,22, lo que indica un nivel bajo de torrencialidad y una mayor susceptibilidad a inundaciones por flujo de corriente.
Los Fenómenos de Remoción en Masa (FRM) están ligados a las avenidas torrenciales en la medida que estos se localicen en zonas próximas a las corrientes, denotando ello una mayor probabilidad que se concentren en los drenajes, originando zonas de represamiento y transporte de sedimentos.
La identificación de FRM y el levantamiento de perfiles de meteorización revela la secuencia de depósito de materiales aluviales y coluviales, lo que permite caracterizar su interacción con el cauce activo. Estos perfiles son un factor crucial para considerar en periodos de retorno con precipitaciones anómalas, ya que influyen en la probabilidad de interacción y desencadenamiento de eventos torrenciales.
Se infiere que las zonas de amenaza alta están concentradas en la parte baja de la microcuenca, en virtud de la capacidad de arrastre de la corriente y la concentración de materiales susceptibles al desplazamiento, representando ello una amenaza para la población e infraestructura.
Rios Aguilar Xquenda Guadalupe, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Norma Angelica Caballero Concha, Benemérita Universidad Autónoma de Puebla
ESTUDIO COMPUTACIONAL DE LA CICLOCURCUMINA Y SU POTENCIAL INHIBITORIO DE CDK5 EN LA ENFERMEDAD DE ALZHEIMER
ESTUDIO COMPUTACIONAL DE LA CICLOCURCUMINA Y SU POTENCIAL INHIBITORIO DE CDK5 EN LA ENFERMEDAD DE ALZHEIMER
Rios Aguilar Xquenda Guadalupe, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Norma Angelica Caballero Concha, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Las enfermedades neurodegenerativas forman un grupo de trastornos crónicos y progresivos que afectan el sistema nervioso, generando un deterioro gradual de las funciones cognitivas y motoras en los pacientes. El Alzheimer se caracteriza por la pérdida progresiva de memoria y funciones cognitivas. Hasta la fecha no existe una cura definitiva para esta enfermedad y los tratamientos disponibles solo ofrecen un alivio sintomático temporal. La Quinasa dependiente de ciclina 5 (Cdk5) desempeña un papel fundamental en procesos neuronales relevantes, como la migración neuronal, la plasticidad sináptica y la formación de la memoria. Esta proteína ha sido un objetivo clave debido que, al presentar una función anormal en la fosforilación de la proteína tau, puede llevar a la formación de ovillos neurofibrilares dentro de las neuronas. La ciclocurcumina, un fitoquímico presente en la cúrcuma, el cual, debido a sus propiedades antioxidantes, antiinflamatorias y neuroprotectoras potenciales, puede ser un inhibidor competitivo con el ATP en la Cdk5.
METODOLOGÍA
El acoplamiento molecular o molecular docking es una técnica ampliamente usada para predecir modos de interacción entre ligando y proteínas, con el objetivo de generar información de utilidad en el estudio y diseño de compuestos terapéuticos. Usando esta técnica podemos obtener conocimiento sobre el comportamiento de la ciclocurcumina con Cdk5. La proteína de interés Quinasa dependiente de ciclina 5 (Cdk5) se identificó ya cristalizada utilizando los gestores de búsqueda del Protein data bank seleccionando la Cdk5 con ID 3O0G. Se descargó el ligando con el que cristalizó (C16 H11 Cl N4 O3 S) para su uso como control. Para la preparación de Cdk5 se utilizó el software UCSF CHIMERA 1.16, eliminando toda aquella molécula de naturaleza no peptídica y el ligando cristalizado. La ciclocurcumina (C21H20O6) obtenida de los gestores de búsqueda de PubChem con CID 69879809, fue optimizada a un nivel de teoría B3LYP con una base 6-311 en el programa Gaussian09. de igual forma estos parámetros fueron utilizados para el ligando cristalizado. Utilizando el software AutoDockTools 1.5.7, a la proteína Cdk5 se le adicionaron los hidrógenos polares y se realizó la asignación de cargas utilizando las cargas de Kollman, Para el ligando cristalizado y la ciclocurcumina se añadieron las cargas Gaisterger y se eliminaron las torsiones para generar un docking rígido, posteriormente los ligandos fueron generados con toda sus torsiones para un docking semi-flexible, por último se generó un tercer ligando de ciclocurcumina dejando libre el enlace de los carbonos 19 - 20 . El docking se realizó en Autodock Vina 1.1.2 con una búsqueda exhaustiva de 9 poses, tanto para el ligando cristalizado el cual sería tomado como control y para la ciclocurcumina en sus tres configuraciones. La visualización, análisis y comparación se realizó utilizando BIOVIA Discovery Studio v21.1.0.20298.
CONCLUSIONES
Control:
Energía:
Puentes de hidrogeno: Cys 83, GLU 81
Pi - sigma: Leu 133
Pi - pi: Phe 82
Pi- alquilo: ALA 31, VAL 18, ALA 143, ILE 10
Alquilo:
Rígido:
Pose 2:
Energía -9.2 kcal/mol
Pi - sigma: LEU 138
Alquilo: VAL 64, ALA 31
Pi- Alquilo: LYS 89, ALA143, VAL 18
Semi - flexible:
Pose 2:
Energía: -9.1 kcal/mol
Puentes de hidrogeno: ASP 86
Carbono - hidrogeno: ASP 86
Pi - sigma: VAL 18
Alquilo: LYS 89, VAL 18
Pi - Alquilo: LYS 33, ILE 10
Enlace rotable carbonos 19 - 20:
Pose 1:
Energía: -9.1
Puentes de hidrogeno: CYS 83
Pi anion: ASP 86
Alquilo: VAL 18
Pi - Alquilo: LYS 89, ILE 10, ALA 143, VAL 18
CONCLUSIONES
Podemos observar de las poses generadas del docking rígido los aminoácidos más relevantes con los cuales interactúan son LEU 133, VAL 18, ILE 10 y ALA 31. Destacando son en su mayoría interacciones con los anillos aromáticos. La pose seleccionada sería la número dos con energía de -9.1 kcal/mol la cual tiene una posición cercana al ligando control. Una diferencia relevante comparado con el docking semi-flexible es la disminución de la formación de puentes de hidrogeno.
El uso de docking semi-flexible en la curcumina dejando libres todas los enlaces con torsiones muestra resultados favorecedores en las interacciones comparando las poses generadas con el docking rígido, se puede observar una alta participación de a los aminoácidos VAL 18, ILE 18, ALA 143 y CYS 83 este último siendo relevante para la formación de puentes de hidrogeno. En los resultados generamos no encontramos una pose lo suficientemente satisfactoria. Realizando un segundo docking semi-flexible con las observaciones anteriores se decidió dejar libre solo el enlace de los carbonos 19 - 20, al ser un enlace simple con hibridación sp3 lo cual permitiría una rotación sin alterar al enlace. El carbono 20 al formar parte del anillo aromático del extremo nos permite buscar mejores interacciones con este anillo, a diferencia del enlace simple entre los carbono 9-7 el cual se encuentra entre dos anillos lo cual dificultaría la rotación con mayor libertad. Como resultado de este docking se obtiene la pose uno la cual tiene una posición semejante al ligante cristalizado, además de tener mejores interacciones a diferencia de la pose 2 del docking rígido, con una energía de -9.1 kcal/mol.mLa mayoría de las interacciones son generadas con los anillos aromáticos de la ciclocurcumina, lo cual revisando la bibliografía podemos sugerir son relevantes para competir por el sitio del ATP, basándonos en que es el sitio probable de ocupación de la adenina, así evitando la hiperfosforilación de Tau. La ciclocurcumina tendría un posible potencial terapéutico sobre el Alzheimer, a pesar de esto hay que tener en cuenta sus limitantes, entre ellas su baja biodisponibilidad y su alta hidrofílidad lo cual dificultaría actuar en la proteína destino. Por lo cual es necesario buscar alternativas como en nanoencapsulamiento, lo que nos permitiría su protección y acarreamiento para permitir el paso a través de la membrana hematoencefálica y aumentar su concentración en el cerebro.
Ríos Salas Juana María, Instituto Tecnológico de Acapulco
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PINTURA A BASE DE MUCíLAGO DE NOPAL CON EFECTO REPELENTE DE INSECTOS.
PINTURA A BASE DE MUCíLAGO DE NOPAL CON EFECTO REPELENTE DE INSECTOS.
Aguilar Mézquita María Fernanda, Consejo Quintanarroense de Ciencia y Tecnología. Ríos Salas Juana María, Instituto Tecnológico de Acapulco. Vinalay Mejía Valeria Michelle, Universidad Autónoma de Guerrero. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
Actualmente la existencia de las edificaciones que deben ser impermeabilizadas, a la vez que los elementos de madera existentes dentro y fuera de ellos que deben de ser conservadas, mantenidas y protegidas de agentes atmonféricos y de otros componentes biológicos como hongos, la carcoma y otros insectos que atacan la madera ha ido en aumento, generando una demanda de mayor impacto en el entorno ambiental y económico.
La cuestion es la formación de plagas dentro de la vivienda, y el uso de plaguicidas es otrofactor contaminante debido a que pueden contaminar suelos, agua, sedimentos y aire.
Podemos decretar que el uso del impermeabilizante es cada 4 años, generando un daño ambiental debido a las sustancias químicas y tóxicas que lo conforman junto con la aplicación de pinturas impermeabilizantes y en la utilización de insecticidas o plaguicidas para el hogar. En base a esta problemática se plantea como alternativa orgánica el uso de una pintura impermeabilizante a base de micílago de nopal con efecto insecticida; con el objetivo de buscar un impacto positivo en el medio ambiente y en la economía del país.
METODOLOGÍA
La metodología utilizada en este estudio fue experimental, empírica, cuantitativa y explicativa-descriptiva. Las técnicas e instrumentos de recolección de datos fue búsqueda de la información se realizó de manera electrónica en base a estudios comprobados y artículos científicos en relación al tema; y pruebas en laboratorio con los materiales necesarios a utilizar para cada procedimiento y realizando diferentes muestras de la pintura a base del mucilago de nopal con la citronela las cuales fueron aplicadas a diferentes superficies tales como madera y concreto.
Las fuentes de consulta utilizadas fueron artículos digitales e impresos, productos académicos de Congresos Nacionales e Internacionales, Tesis de Licenciatura, Maestría y Doctorado. Se consultaron sitios con credibilidad académica como Google Académico o Google Escolar, Scielo, Sci-Hub, ScienceDirect y Perplexy.ai. Se descartó la información de Wikipedia y de medios impresos como periódicos y revistas.
En base a los resultados obtenidos por medio de las pruebas en laboratorio para la creación de la pintura natural a base de mucilago de nopal con efecto repelente de insectos, se determinó que efectivamente cumple con el objetivo específico número cuatro que corresponde a realizar el proyecto ejecutivo.
Preparación del Mucilago de Nopal:
1.- En la cubeta coloca 6 litros de agua, agrega los nopales previamente picados y tapa. Deja reposar durante 2 días para que suelten la baba.
2.- Cuela o retira los nopales y conserva en botellas de plástico previamente lavadas.
Preparación del repelente de Citronela:
Prueba 1
1 taza de agua.
½ taza de agua.
1 licuadora.
2 tazas de hojas de citronela frescas
Frasco de vidrio de 250 ml.
Procedimiento:
Vaciar dos tazas de citronela y licuar en seco hasta obtener un tipo de polvo granulado.
Vertir el polvo en el frasco de vidrio de 250 ml.
Agregar agua al tiempo al frasco y dejar reposar 24hrs.
Prueba 1/ Pintura 4
250 ml de la mezcla final de citronela de la prueba 2
100 gramos de piedra de alumbre.
400 ml de mucilago de nopal.
Probeta.
Bascula.
Bowl de metal.
Frasco de vidrio de 250 ml.
Abatelenguas.
Procedimiento:
Se pesan 100 gramos de piedra de alumbre en una báscula.
Se miden los 400 ml de mucilago de nopal en la probeta.
Se miden los 250 ml de la mezcla de citronela de la prueba 2 (Con todo y las hojas que fueron previamente trituradas).
En un bowl de metal o en un recipiente hondo se vierten los 250ml de citronela prueba 2 y los 400 ml de mucilago de nopal.
Se revuelve con un bate lenguas hasta crear una mezcla heterogénea.
Se agregan los 100 gramos de piedra de alumbre en el mismo bowl de la mezcla previa por medio de un colador fino.
Se revuelve hasta tener una mezcla heterogénea y se vierte en un frasco de vidrio (en este caso en uno de 250 ml) y se aplica en la superficie de su elección.
CONCLUSIONES
La propuesta que se plantea reafirma la importancia del rescate de una tradición ancestral en desuso pero con una vialidad de incorporación dentro de las prácticas actuales. El beneficio de tener el conocimiento de las prácticas locales y de los recursos propios del municipio, tal es el caso del nopal y la citronela, dan la apertura de vivir bajo otra realidad que permita alcanzar una mejor calidad de vida y bienestar dentro del ámbito económico y medio ambiental del país. El breve trayecto que se realizó en el municipio de Valle de Bravo, nos permite reconocer que el lado estético de este lugar es colonial; dado que las viviendas no solo forman parte de la imagen de las mismas y que estas son un distintivo claro del turismo parcial que existe en el municipio, si no de la arquitectura y estilos coloniales, que de cierta forma están correlacionadas con algunas prácticas ancestrales. En lo que se refiere al producto, es importante decir que no obstante la pintura de mucilago de nopal con efecto repelente de moscos es un producto nuevo dentro del mercado que está asociado a las pinturas naturales u ecológicas que han estado creando un impacto positivo dentro de los nuevos materiales para la construcción; los resultados obtenidos en este trabajo permiten impulsar el uso sin riesgo de la pintura a una categoría de vivienda digna con un mínimo costo, sin sacrificar la calidad en un margen amplio y cercano a las pinturas comerciales.
Rios Velazquez Ian Ricardo, Instituto Politécnico Nacional
Asesor:Dr. Jesús Guillermo Falcón Cardona, Instituto Tecnológico y de Estudios Superiores de Monterrey
UN ANáLISIS DE FUNCIONES DE POTENCIAL MANY-BODY PARA OPTIMIZACIóN EVOLUTIVA MULTI-OBJETIVO
UN ANáLISIS DE FUNCIONES DE POTENCIAL MANY-BODY PARA OPTIMIZACIóN EVOLUTIVA MULTI-OBJETIVO
Rios Velazquez Ian Ricardo, Instituto Politécnico Nacional. Asesor: Dr. Jesús Guillermo Falcón Cardona, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
En este proyecto, se abordará el problema de optimización de un sistema de N partículas representado por un conjunto A = {⃗a1, ⃗a2, ..., ⃗aN}, donde cada ⃗ai ∈ ℝ^m para i = 1, 2, ..., N. La energía potencial interatómica U del sistema A se define mediante la siguiente fórmula:
U(A) = ∑_{i=1}^{N} K1(⃗ai) + ∑_{i=1}^{N} ∑_{j=1, j≠i}^{N} K2(⃗ai, ⃗aj) + ∑_{i=1}^{N} ∑_{j=1, j≠i}^{N} ∑_{k=1, k≠i, k≠j}^{N} K3(⃗ai, ⃗aj, ⃗ak) + ...
donde Kp : ℝ^m × ℝ^m × ... × ℝ^m (p veces) → ℝ es una función de potencial que describe las interacciones entre p partículas. Las funciones K2 son funciones de potencial por pares, mientras que las funciones Kp con p ≥ 3 son funciones de potencial many-body.
El objetivo de este proyecto es proponer y diseñar una heurística basada en funciones de potencial many-body (por ejemplo, K3) para resolver el siguiente problema de optimización:
Dado un conjunto S de M partículas (o puntos) en el espacio ℝ^m, se busca encontrar un subconjunto A∗ de cardinalidad N << M que minimice la energía potencial interatómica U2(A) definida anteriormente:
A∗ = arg min_{A⊂S, |A|=N} U2(A). (2)
El tamaño del espacio de búsqueda es M_Choose_N, lo cual lo hace sumamente grande si N << M. Para abordar este problema de optimización, se propone una heurística basada en la contribución C de cada partícula ⃗a ∈ A, definida como:
C(⃗a, A) = U2(A) - U2(A {⃗a}),
donde U2(A) es la energía potencial del conjunto A completo y U2(A {⃗a}) es la energía potencial del conjunto A sin la partícula ⃗a. La heurística consistirá en eliminar iterativamente de S la partícula ⃗a con el máximo valor de contribución C en cada iteración, recalculando las contribuciones para las partículas restantes en A, hasta que el subconjunto A tenga el tamaño deseado N.
El uso de funciones de potencial many-body en esta heurística busca proporcionar una visión más completa y precisa de la distribución de puntos en el subconjunto resultante en comparación con el uso de funciones de potencial por pares. Se pretende explorar cómo estas funciones many-body afectan la calidad de la solución y si permiten obtener subconjuntos más diversos y representativos.
El desarrollo de esta heurística y el análisis de los subconjuntos generados proporcionarán una contribución importante al área de optimización evolutiva multiobjetivo, especialmente en el contexto de sistemas de partículas y en la búsqueda de soluciones que mantengan la diversidad y la calidad de la población.
METODOLOGÍA
1. Investigación de Modelos Potenciales Many-Body:
Se realizó una exhaustiva investigación sobre modelos potenciales many-body, centrándose en particular en la interacción entre tres partículas (K3). Se consultaron libros de física cuántica, páginas de optimización no lineal y recursos en línea relevantes para comprender las bases teóricas y aplicaciones prácticas de estos modelos.
2. Importación de Librerías y Configuración del Entorno Python:
Se importaron las librerías necesarias para llevar a cabo el análisis y desarrollo en Python. Se configuró el entorno de trabajo con las herramientas adecuadas para manipular y visualizar datos, incluyendo NumPy, Pandas, Matplotlib y otras bibliotecas relevantes.
3. Implementación del Algoritmo Fast Greedy Removal:
Se procedió a programar el algoritmo Fast Greedy Removal (FGR), basado en la heurística de eliminación iterativa para obtener el subconjunto óptimo A* de tamaño N. Se diseñó la lógica para calcular las contribuciones C(⃗a, A) de cada partícula ⃗a en el conjunto A.
4. Definición de la Función de Potencial Many-Body:
Se definió la función de potencial many-body (K3) que describe la interacción entre tres partículas. Se utilizó el conocimiento adquirido durante la investigación para desarrollar una función adecuada que modele las interacciones entre las partículas de manera precisa.
5. Experimentación con Diferentes Cardinalidades:
Se llevaron a cabo experimentos utilizando diferentes cardinalidades, como N = 25, 50, 100 y 200, para evaluar el rendimiento y la eficiencia del algoritmo en distintos escenarios.
6. Análisis de los Parámetros Rho:
Se activó y desactivó el parámetro rho en el algoritmo para estudiar su contribución al cálculo de los potenciales many-body y entender cómo afecta la calidad de las soluciones obtenidas.
7. Pruebas con Vectores de Puntos:
Se realizaron pruebas utilizando diferentes vectores de puntos proporcionados por el asesor o generados con fines de experimentación. Se evaluaron los resultados y se compararon con otros enfoques, como el uso de funciones de potencial por pares.
8. Visualización de Resultados:
Se utilizó Matplotlib u otras bibliotecas de visualización para graficar y representar los resultados obtenidos. Se crearon gráficos que mostraban la convergencia del algoritmo, la variación de la energía potencial con respecto al tamaño del subconjunto y otros aspectos relevantes.
CONCLUSIONES
Se analizaron los resultados obtenidos a través de las pruebas y se llevaron a cabo discusiones sobre la eficacia de la heurística basada en funciones many-body en comparación con otros enfoques conocidos.
Se consideraron posibles mejoras y limitaciones del método propuesto.Se extrajeron conclusiones del análisis realizado y se destacaron las contribuciones del proyecto en el campo de la optimización evolutiva multiobjetivo y su aplicación en sistemas de partículas. Se identificaron posibles direcciones para futuras investigaciones en esta área.
Rios X Christian, Instituto Tecnológico de Querétaro
Asesor:Dra. Vianney Muñoz Jimenez, Universidad Autónoma del Estado de México
REVISIóN BIBLIOGRáFICA DE ALGORITMOS DE SEGMENTACIóN PARA CLASIFICACIóN DE CáNCER EN GLáNDULA MAMARIA
REVISIóN BIBLIOGRáFICA DE ALGORITMOS DE SEGMENTACIóN PARA CLASIFICACIóN DE CáNCER EN GLáNDULA MAMARIA
León López Manuel Alexis, Instituto Politécnico Nacional. Rios X Christian, Instituto Tecnológico de Querétaro. Asesor: Dra. Vianney Muñoz Jimenez, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
El cáncer de mama es una enfermedad maligna originada en las células del tejido mamario. Esta patología afecta principalmente a mujeres, pero también puede manifestarse en hombres en menor proporción. La incidencia del cáncer de mama ha ido en aumento en los últimos años, causando un impacto significativo en la vida de las pacientes afectando tanto en su bienestar físico como emocional, por lo tanto, la detección temprana y precisa del cáncer mamario es fundamental para aumentar las tasas de supervivencia y mejorar la calidad de vida de las pacientes.
Dentro de este contexto, los algoritmos de segmentación han demostrado ser herramientas muy valiosas en la identificación, caracterización y clasificación de tumores en imágenes de glándulas mamarias. Sin embargo, a pesar de los avances en el desarrollo de algoritmos de segmentación, aún existen desafíos que obstaculizan su eficacia y precisión. Problemas como la complejidad morfológica de las glándulas mamarias, la variabilidad en la apariencia de los tumores y la presencia de ruido e imperfecciones en las imágenes dificultan la obtención de resultados consistentes y confiables.
De esta forma dentro de la presente estancia de investigación se tuvo como principal objetivo realizar una revisión bibliográfica detallada de los algoritmos de segmentación utilizados en la clasificación de cáncer de mama, analizando posibles fortalezas y limitaciones con el fin de implementar alguno de estos para poder desarrollar una clasificación de un conjunto de imágenes de glándula mamaria.
METODOLOGÍA
Se seleccionaron artículos y trabajos previos, los cuales sirven como guía para el desarrollo del trabajo de investigación. Definiendo la siguiente metología:
Entrada de imagen.
Preprocesamiento.
Segmentación.
Extracción de características.
Selección de características.
Clasificación.
Evaluación.
La etapa de evaluación es importante, pues permitió conocer áreas de oportunidad incluso desde la fase de segmentación y así realizar un reajuste para obtener mejores resultados en la base de reconocimiento.
El conjunto de datos elegido fue CBIS-DDMS que es un dataset disponible en el sitio web Kaggle, que contiene una base de datos de 5GB de almacenamiento.
En este dataset se puede observar una carpeta de imágenes y algunos documentos en formato .csv, los cuales tienen un identificador para cada masa sospechosa y una etiqueta indicando la patología.
Con estas imágenes se buscó reducir la complejidad y el tiempo de ejecución mediante una segmentación previa de las imágenes con la finalidad de obtener únicamente la glándula de las imágenes y posteriormente trabajar sobre esta.
Posterior a la segmentacion, se necesitaba binarizar las mismas con el fin de poder observar las posibles regiones que no pertenecieran al tejido normal de la glándula mamaria; para una correcta binarización se obtuvo en cada imagen su histograma de frecuencias en niveles de grises con el fin de visualizar de forma gráfica el contraste, la luminosidad y la presencia de detalles en diferentes partes de cada imagen para encontrar un patrón y binarizar la imagen para obtener posibles regiones de interés.
Con el histograma se identificó que la tonalidad con mayor frecuencia en nuestra imagen podría representar a una región de interés, además se decidió añadir un porcentaje de error del 15% para definir nuestro umbral de binarización.
Tras haber obtenido la imagen binarizada con nuestras regiones de interés fue posible realizar operaciones morfológicas, así como encontrar todas las posibles agrupaciones de pixeles mediante la búsqueda de contornos cerrados.
Una vez encontrados los contornos de la imagen se procedió a filtrar cada uno de ellos, el proceso de filtrado tuvo como finalidad eliminar aquellos contornos que se encontraran al borde de la imagen ya que estos en su mayoría no pertenecían a la glándula mamaria; consecuentemente, los contornos restantes y pertenecientes a la glándula tendrían diferentes áreas por lo que aquel con mayor área será la agrupación de pixeles con las que buscaremos quedarnos.
Una vez completada la segmentación se extrajeron características de las regiones de intéres de los siguientes tipos:
Morfológicas.
De textura.
Distribución espacial.
Calcificaciones.
Estas características se obtuvieron de las imágenes segmentadas, y fueron almacenadas en un documento .csv.Con ayuda de la librería Pandas de Python se hizo una correcta limpieza y procesamiento de este documento. Finalmente se obtuvo una tabla de 1003 registros de 18 columnas, incluyendo el tipo de patología.
Se ingresó a una red neuronal generada con Keras, la cuál se definió modelo secuencial, con dos capas de 64 y 32 nodos. Adicionalmente una capa final para la clasificación, con una función de activación softmax.
Se realizaron distintas pruebas, pero en la validación del modelo se solo obtener solo 0.57 de exactiud, incluso cuando los datos de entrenamiento mostraban valores de exactitud mayores a 0.7.
CONCLUSIONES
En la estancia de verano se logró tener una introducción al sector de la investigación, permitiéndonos conocer las distintas etapas para un proyecto de investigación, en específico para la segmentación y extracción de características de masas. Fue un proyecto enriquecedor con distintos retos que fuimos tomando.
Al no contar con información que nos indique la posición de la anomalía validar las características de la región de interés podría demandar mayor tiempo. Por lo que para obtener mejores resultados sería necesario comparar algunos ejemplos y verificar rigurosamente la segmentación de masas. Así mismo, evaluar el modelo de clasificación y ajustar los parámetros de la red neuronal.
Rivera Aguilera Josué, Universidad de Guadalajara
Asesor:Dra. Karla Paola Valdez Núñez, Universidad Politécnica de Sinaloa
OBTENCIóN DEL IMFP A PARTIR DE REELS PARA MUESTRAS DE TA Y TAN A DIVERSAS ENERGíAS INCIDENTES.
OBTENCIóN DEL IMFP A PARTIR DE REELS PARA MUESTRAS DE TA Y TAN A DIVERSAS ENERGíAS INCIDENTES.
Rivera Aguilera Josué, Universidad de Guadalajara. Asesor: Dra. Karla Paola Valdez Núñez, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Los espectros de pérdida de energía REELS son útiles para evaluar propiedades de la materia, como pueden ser ópticas y/o electrónicas. El análisis de los materiales por medio de espectroscopias es de vital importancia en la ciencia y la industría, pues aprender a aprovechar de las cualidades de cada material permite entender más sobre su naturaleza y hacer uso de sus facultades de una manera más óptima y eficiente.
El IMFP es una medida promedio de la distancia que recorre un electrón en el interior de un material sin colisionar con ninguna otra partícula.
En este tenor, el análisis del IMFP cumple un papel de importancia dentro del repertorio de propiedades electrónicas de materiales, pues conocer el IMFP de un material en específico permite estipular que tan efectivas podrían ser otras espectroscopias de caracterización o anñalisis de otras cualidades físicas.
METODOLOGÍA
La preparación de las películas de Ta y TaN fue realizada previamente por la asesora, posterior a ello el análisis de las muestras se realizó por X-ray photoelectron spectroscopy y REELS a energías de 0.5, 1 y 2 KeV respectivamente. El método consiste en comparar las secciones transversales inelásticas de los electrones, tanto experimental como teóricamente con una simulación para cada energía incidente, de esta manera, obteniendo la función dieléctrica de la cual se puede derivar el IMFP.
Para llevar a cabo este procedimiento se hizo uso del software OPREELS, desarrollado por el Dr. Wencel de la Cruz y el Dr. Francisco Yubero. Este programa facilita la búsqueda de este función con un modelo teórico establecido en la literatura, conocido como el modelo de Drude el cual simula el comportamiento de las intensidades de pérdidas de energía debidas a los plasmones del cuerpo.
En el software se establecen manualmente n osciladores que tienen forma de función gaussiana a la cual es posible ajustar sus parametros de altura, posición y anchura hasta encontrar una envolvente de los n osciladores que se ajuste a los datos experimentales. Una vez se ajusta la simulación, el valor de IMFP asociado a la energía incidente del espectro se obtiene.
Finalmente, luego de ajustar la ecuación de Bethe a los 3 valores de IMFP obtenidos correspondientes a las 3 energías incidentes es posible compararlo con el modelo teórico TPP-2M. Del ajuste de Bethe se obtiene la energía del plasmón y la densidad indirectamente al ajustar.
CONCLUSIONES
El trabajo realizado durante la estancia ha permitido obtener resultados óptimos para el IMFP de Tantalio y Nitruro de Tantalio.
El resultado obtenido presenta una discrepancia de 47% para el Ta y 50% para el TaN, que según la literatura consultada [Castillo, H. A. (2008)] se encuentra dentro del rango aceptable para la obtención de resultados por este medio, siendo satisfactoriamente cumplidos los objetivos.
Cabe resaltar que este método permite extrapolar el valor del IMFP a cualquier energía incidente desde 100 eV.
Rivera Camacho America Andrea, Universidad de Sonora
Asesor:Dr. Roberto Alonso Saenz Casas, Universidad de Colima
EFECTO DEL CAMBIO DEL PH EN LOS PARáMETROS CINéTICOS DE LA CGTASA CLDA
EFECTO DEL CAMBIO DEL PH EN LOS PARáMETROS CINéTICOS DE LA CGTASA CLDA
Rivera Camacho America Andrea, Universidad de Sonora. Asesor: Dr. Roberto Alonso Saenz Casas, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
Las cicloglucanotransferasas CGTasas son enzimas que pertenecen a la familia 13 de las glicosil-hidrolasas, es decir, cuentan con la capacidad de romper los enlaces alpha-1,4 del almidón para luego formar un intermediario glocosilo-enzima que por medio de las reacciones de transglicosilación es tranferido a una molécula aceptora produciendo una de las cuatro reacciones que catalizan esta enzima (hidrólisis, desproporción, ciclación y acoplamiento). Transformando así el almidón en productos de alto valor agregado como las ciclodextrinas y una gran variedad de oligosacáridos lineales. Una de estas CGTasas recientemente caracterizada es una enzima termoacidófilica denominada CldA (Caldanaerobacter subterraneus), la cual por su estructura y propiedades moleculares tienen un gran potencial para su uso en diversas industrias.
Previamente en el trabajo de Rosales-Castañeda (2023) se presentan una serie de modelos cinéticos basados en sistemas de ecuaciones diferenciales ordinarias que describen el mecanismo de las reacciones que surgen de la actividad de la enzima CldA con el sustrato inicial (almidón), los cuales en su mayoría muestran un buen ajuste a los datos experimentales provenientes de concentraciones iniciales de almidón de 2%, 4% y 6% a pH7. Además, se cuenta con datos experimentales correspondientes a pH4 que no han sido analizados previamente. Es bien conocido que la velocidad de una reacción depende de las concentraciones de los reactivos y de las condiciones fisicoquímicas del medio de reacción (como temperatura y pH), por lo que se espera que los datos correspondientes a una acidez distinta varíen. Sin embargo, lo que no es evidente es la manera en que varía dicha velocidad y la implicación que tiene en la red de reacciones completa. En este proyecto se busca identificar el efecto que tiene el cambio de acidez en cada reacción que forma parte de la actividad de la enzima.
METODOLOGÍA
Para este proyecto se tomaron los datos experimentales provenientes de concentraciones iniciales de almidón de 2%, 4% y 6% a pH4, y fueron comparados directamente con los datos correspondientes a las concentraciones iniciales de almidón de 2%, 4% y 6% a pH7. Los datos experimentales muestran la concentración de glucosa (G1), maltosa (G2) y de los diferentes oligosacáridos (G3-6, G7-9) y las ciclodextrinas (CDs) en periodos de tiempo de 0 a 2hrs para el experimento con una concentración inicial de almidón al 2% y de 0 a 4hrs para las concentraciones iniciales de almidón de 4% y 6%.
La primera comparación fue realizada directamente con los datos experimentales separados por pH, es decir, se comparó cada concentración de sustrato en los datos a pH7 con su correspondiente sustrato a pH4 para cada concentración inicial de almidón. Después de un análisis preliminar, se descartó del resto del estudio la concentración del 2% dado que no mostraban un cambio significativo en los datos. Por otro lado, los datos que corresponden a las concentraciones del 4% y 6% mostraban diferencias significativas en la producción de algunos oligosacáridos y ciclodextrinas.
Posteriormente, haciendo uso de un código para estimación paramétrica (que utiliza el método de Cadenas de Markov y Monte Carlo) previamente creado en MATLAB, con los datos nuevos se parametrizó el modelo de Rosales-Castañeda que mostraba mejor ajuste, el cual usando la misma notación fue:
M-010: No considera la formación de cadenas intermedias, hace la suposición de que el grupo saliente puede ser glucosa o maltosa y presenta desproporción escalonada.
Una vez asegurados que el modelo se ajustaban a los datos, se realizó el análisis de parámetros. A partir de los resultados obtenidos en la estimación de parámetros con los datos nuevos se graficaron diagramas de cajas de los parámetros (para los dos valores de pH) para con ello hacer la comparación de estos, centrando la atención en los parámetros que influían directamente en las reacciones que afectan a los sustratos que varían entre los dos valores de pH.
CONCLUSIONES
Lo primero que notamos al comparar los datos nuevos con los datos anteriores fue que para la concentración inicial de almidón de 4% a pH4 hay un aumento en la producción de G1 y G2, mientras que el resto de los sustratos no cambia. La comparación de parámetros indica que el aumento de G1 no es por hidrólisis ya que los parámetros que intervienen directamente en esta reacción (k2, k6, k10 y k14) no se muestran consistentes ya que aumentan y disminuyen sin seguir un patrón aparente. Por lo tanto, este aumento de G1 podría atribuirse al aumento de la producción de complejos, ya que los parámetros que se encargan de la formación de intermediarios para los complejos aumentan. Algo parecido ocurre con G2. Por otro lado, se puede apreciar que G3-6 no aumenta como G1 y G2 lo que parece deberse que las tasas de desproporción disminuyen.
Seguidamente, con la concentración de 6% a pH4 notamos nuevamente que G1 y G2 aumentan, pero contrario a lo que sucede en las pruebas con 4% a pH4, hay un leve aumento también de G3-6 y hay una disminución notoria en la producción de CDs. El ligero aumento de G3-6 aparentemente se debe a la reacción de hidrólisis dado que el parámetro que interviene principalmente en esta reacción (k10) aumenta. Además, esta reacción parece afectar indirectamente a la síntesis de CDs dado que deja una menor cantidad de sustrato para su producción, sin contar que la reacción de ciclación disminuye.
En términos generales, nuestro análisis de parámetros dan indicios de que el comportamiento de la enzima es menos eficiente y no logra terminar la reacción con una acidez más alta, es decir la enzima forma los complejos rápido, pero no sigue avanzando con las reacciones.
Rivera Rios Hanna Elizabeth, Instituto Politécnico Nacional
Asesor:Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
EVALUACIóN DETERMINISTA DE LA VULNERABILIDAD SíSMICA EN PUERTO VALLARTA MEDIANTE ENCUESTAS REMOTAS
EVALUACIóN DETERMINISTA DE LA VULNERABILIDAD SíSMICA EN PUERTO VALLARTA MEDIANTE ENCUESTAS REMOTAS
Rivera Rios Hanna Elizabeth, Instituto Politécnico Nacional. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Evaluación Determinista de la vulnerabilidad Sísmica en Puerto Vallarta Mediante Encuestas Remotas
Asesor: Dr. Christian Rene Escudero Ayala, Universidad De Guadalajara. Centro Universitario De La Costa
Estudiante: Rivera Ríos Hanna Elizabeth, CECyT No. 1 Gonzalo Vázquez Vela
Línea de Trabajo: Riesgos Naturales
ODS: Ciudades y Comunidades Sostenibles
Los sismos son una sucesión de vibraciones de la superficie terrestre causadas por un movimiento brusco y repentino partes de la litosfera. El municipio de Puerto Vallarta, del estado de Jalisco se encuentra ubicado en una zona de actividad sísmica, donde históricamente se han registrado importantes terremotos y tsunamis. Los efectos de un sismo pueden desencadenar peligros naturales (sacudimiento del suelo, tsunamis, derrumbes) así como la interrupción de los servicios vitales. Por lo tanto, es indispensable evaluar la vulnerabilidad sísmica ya que los daños que causa un sismo en edificios han motivado para que se establezcan pautas sobre el comportamiento de las instalaciones buscando reducir pérdida de funcionalidad.
METODOLOGÍA
. El área de estudio en la zona metropilitana de Puerto Vallarta; en particular las comunidades de Valle Dorado. Se utilizó el programa Global Earthquake Model (GEM), para realizar inventarios de edificaciones que permite conocer sus características de material, estructura, sistema de resistencia sísmica, número de pisos, ubicación geográfica y costo de reposición. GEM parmite identificar área de estudio en la herramienta de Google Maps, observar la estructura mediante Google Street View y almacenar las características de la edificación. La encuesta remota consistio en datos como el tipo de concreto, regularidad de la estructura, tipo de ductilidad, ocupación, numero de pisos, y forma del edificio. Una vez que se llenaban las encuestas, los datos se debían exportar en Excel.
CONCLUSIONES
Después ya se podía ir a campo a realizar lo que llevábamos haciendo todas estas semanas. Durante la estancia de verano se logró adquirir conocimientos sobre la geofísica, exposición sísmica, entender un nuevo programa, como utilizarlo y como nos serviría para poder realizar nuestro trabajo.
Rivero Oliver Amairany, Instituto Politécnico Nacional
Asesor:Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional
ANáLISIS DE BIOACTIVIDAD DE LOS COMPóSITOS PVDF/NKBT-NURSE OBTENIDOS MEDIANTE MANUFACTURA ADITIVA
ANáLISIS DE BIOACTIVIDAD DE LOS COMPóSITOS PVDF/NKBT-NURSE OBTENIDOS MEDIANTE MANUFACTURA ADITIVA
Rivero Oliver Amairany, Instituto Politécnico Nacional. Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La prevalencia de problemas relacionados con la degeneración ósea y articular ha aumentado en las últimas décadas. El aumento de las condiciones degenerativas de las articulaciones, que suelen requerir el reemplazo de prótesis y los reemplazos posteriores a lo largo del tiempo, está asociado con un aumento en la esperanza de vida en la sociedad y el envejecimiento gradual de la población.
Por lo tanto, existe la necesidad de llevar a cabo estudios referentes a materiales polímero/cerámico (material bioactivo) en el cual la ingeniería de tejidos busca la aplicación de los principios de la ingeniería y las ciencias para desarrollar biomateriales que reparen la función biológica a través de la formulación y caracterización de dichos materiales que cumplan con los requerimientos mecánicos y de biocompatibilidad, de igual forma , que tengan similitud con entornos del cuerpo permitiendo que el material interactúe con el organismo sin reacciones crónicas o permanentes, que sean capaces de sustituir o regenerar hueso vivo y así, en un futuro, llegar a fabricar implantes óseos que sustituyan perfectamente la función del hueso natural.
METODOLOGÍA
Obtención de las muestras
Para el análisis de bioactividad de los compósitos PVDF/NKBT-Nurse se realizó la obtención de probetas normadas(ASTM D638) mediante un proceso de moldeo por inyección las cuales contienen diferentes proporciones aumentando el material cerámico en la matriz polimérica de PVDF, obteniendo así con relación: (100-Z)PVDF KYNAR /(X)NKBT-(Y)Nurse que fueron procesados en diferentes proporciones (X=25, 50 y 75%); (Y=100-X; Z=7.5%)
Caracterización
Al obtener las probetas se realizó la preparación de muestras para microscopia electrónica de barrido (SEM) , realizando dos diferentes técnicas de preparación de estas, para determinar su morfología transversal y su composición química.
El primer método fue la preparación de muestras en resina para una mejor manipulación colocando las cuatro muestras de forma transversal , una vez endurecida la resina se pulió la superficie con una pasta de diamante de tal forma que las muestras no presenten deformaciones .En la segunda técnica se dejaron las muestras en congelación 24 hr para ser fracturadas fácilmente, posteriormente se fijaron con cinta de grafito sobre un porta muestras y se recubrieron por erosión catódica Au/Pd (Sistema Denton Vacuum DeskV) para su análisis. Se obtuvieron al menos cuatro micrografías de cada muestra con diferentes aumentos (100x,1000x,2000x y 5000x).
En conjunto se realizó una espectroscopia de rayos x de energía dispersiva(mapeo EDX) que nos permitió la caracterización química , la identificación de los elementos que componen los cerámicos inmersos en las probetas y la observación de la distribución dimensional de elementos.
Los cambios estructurales para la obtención de la fase Ca7Si2P2O16 fueron determinados usando el difractómetro de rayos X (XRD) Rigaku TX, Dmax 2100 (Rigaku Corp, Tokio, Japan) con radiación monocromática CuKα (λ = 1.5406 Å) operando a 30kV y 20mA. Los patrones de difracción de las muestras se recopilaron usando la óptica de haces paralelos en el rango de 20 a 80° con escala 2θ (°) y tamaño de paso de 0.01.
Para el análisis de tamaño de partículas se consideraron los polvos de NKBT y Nurse ,posteriormente se tomaron tres muestras de cada uno usando un difractómetro láser (HELOS) .Las mediciones se realizaron utilizando una técnica RODOS para polvo seco, donde las muestras se colocaron en el dosificador de polvo para ser analizadas y obtener las gráficas con la distribución acumulativa del tamaño de partícula en um.
Para la caracterización de propiedades mecánicas se realizó un ensayo de micro dureza Vickers (Thv-1D) para obtener la dureza del material, con un tiempo de indentación de 10 segundos en la superficie a analizar considerando un promedio de 3 huellas en cada tipo de muestra.
Hidrogel
Preparación de las soluciones
El hidrogel se realizó a partir de dos soluciones preparadas por separado debido a las condiciones de elaboración. En la primera solución 0.505g PVA (ALDRICH chemistry ,99+% hydrolyzed) se disolvieron lentamente en 50 mL de agua desionizada para evitar cualquier reacción a 50° C en agitación constante ,se cubrió con papel Parafilm y se dejó en agitación constante durante toda la noche. Para la segunda solución se agregaron 50 mL de agua desionizada y se le fue añadiendo 1 mL de ácido acético al vaso de precipitados, se agregó lentamente 1.30 g de Chitosan(ALDRICH, bajo peso molecular) manteniéndolo en agitación constante a temperatura ambiente, asimismo ,se cubrió con Parafilm y se dejó calentando en agitación constante durante toda la noche para 24 hr después de su preparación mezclar ambas soluciones.
Se realizaron diferentes concentraciones de HAp() para la preparación de 6 hidrogeles (17 g, 20 g, 15g, 10g y 27g). Para cada hidrogel se propuso obtener muestras con diferentes condiciones: con agitación después de un día a temperatura ambiente, la segunda condición con agitación a 60°C durante cuatro horas cubierto con Parafilm y la ultima dejando el hidrogel abierto a 70°C por 25 min en agitación constante.
Una vez obtenidas las diferentes muestras se realizaron pruebas de extrusión para revisar la consistencia de cada una a través de una jeringa , simulando el filamento de una bioimpresora.
CONCLUSIONES
Durante la estancia de verano en el Centro de Investigación y de Estudios Avanzados del IPN en Queretaro adquirí conocimientos teóricos y puestos en práctica para estudiar los compósitos PVDF/0.6 (Na0.5Bi0.5) TiO3 - 0.4 (K0.5Bi0.5) TiO3 /Ca7Si2P2O16 bioactivos y biocompatibles para aplicaciones biomédicas
Robles Alvarado Natalia, Universidad Autónoma de Zacatecas
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
OSCILACIóN DE NEUTRINOS
OSCILACIóN DE NEUTRINOS
Robles Alvarado Natalia, Universidad Autónoma de Zacatecas. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Los neutrinos son de las partículas mas misteriosas que existen en el universo, debido a su casi nula interacción. Dentro de todas las investigaciones que se han hecho con respecto a los neutrinos, destacan las realizadas por Raymond Davis. y John Bahcall: al ser un recuento de neutrinos emitidos por el sol (también conocidos como neutrinos solares) se percataron que los neutrinos que llegaban a la Tierra era un número menor al que se creaban por las reacciones electrodébiles del Sol, este hecho se vio confirmado en 2001 por las investigaciones realizadas por el SON.
De esta manera se busca explicar el porqué de este interesante suceso. Describiendo las características principales de esta partícula, sobre todo la relación masa-sabor. Los neutrinos pueden estar en una basa de sabor o interacción, en la que los neutrinos Ve,Vu,Vt interacciona con el resto de partículas, a su vez también tenemos los neutrinos descritos en una base de masa, la cual tiene la siguiente nomenclatura: V1,V2, y V3. Estas dos bases son totalmente diferentes siendo los estados de sabor combinaciones lineales del estado de masa.
METODOLOGÍA
En la estancia, se revisó diversa bibliografía relacionada a los neutrinos, su papel en el modelo estándar, su construcción y sus interacciones con otras partículas para llegar al entendimiento de la oscilación de los neutrinos.
CONCLUSIONES
De esta manera, se llega a la conclusión de que el sabor es una combinación lineal del estado de masa. Lo que pasa con el neutrino es que va oscilando, es decir conforme avanza se va transformando periódicamente de sabor, cambiando de esta manera su índice de refracción y su asociación a un leptón.
Robles Andrade Feliciano, Universidad de Sonora
Asesor:Dr. Paulo César Cárdenas Montoya, Universidad Autónoma de Manizales
CALCULO NUMERICO PARA SISTEMAS CUANTICOS ABIERTOS USANDO QUTIP COMO HERRAMIENTA
CALCULO NUMERICO PARA SISTEMAS CUANTICOS ABIERTOS USANDO QUTIP COMO HERRAMIENTA
Robles Andrade Feliciano, Universidad de Sonora. Asesor: Dr. Paulo César Cárdenas Montoya, Universidad Autónoma de Manizales
PLANTEAMIENTO DEL PROBLEMA
Los sistemas cuanticos abiertos son sistemas cuánticos que estan en interacción con un sistema cuántico externo, el ambiente. Lo que buscamos en esta investigación es analizar el comportamiento de esta interacción en una simulación a través de QuTiP, por lo que se comenzará a estudiar la dinámica de la interacción entre dos sistemas formados por cavidad-atomo en interacción con entornos térmicos, para despues explorar cantidades termodinámicas así como otras líneas de investigación.
METODOLOGÍA
Se inició la estancia analizando el funcionamiento de QuTiP, una biblioteca de software de física computacional que fue necesaria para simular sistemas cuánticos abiertos con los que trabajaremos. Al estar ya familiarizados hasta cierto nivel con el entorno, empezamos a simular casos para asi tener una referencia del correcto uso de éste, asi como ver la documentacion y lecutras de estas simulaciones. Durante este proceso también se dio lectura a articulos cientificos de relevancia con el tema a tratar, para asi tener el fundamento del codigo escrito para la simulacion a realizar.
Teniendo ahora las bases suficientes iniciamos simulando el modelo Jaynes-Cumming, el cual describe la interaccion de un atomo con el modo de cavidad. Al tener claro como funciona dicho código, se empezó a explorar el comportamiento del modelo cuando se introduce otro atomo con modo correspondiente, así como un termino que representa la interacción entre estos.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de la interaccion entre qubits y modos, así como el uso de QuTiP como herramienta de simulación, lo cual nos permitio hacer simulaciones para confirmar lo cual se sabia, sin embargo, al ser un trabajo extenso, se necesitará más tiempo para poder terminar de simular correctamente la interacción que se busca analizar y por lo tanto no se puede exponer resultados relacionados con el planteamiento original. Mas bien se espera que en un futuro, al seguir trabajando con esta investigación, podamos llegar a simular el caso de interes y analizarlo.
Rocha Carrera Yazmín Aydeé, Instituto Politécnico Nacional
Asesor:Dr. José Luis Maldonado Rivera, Centro de Investigaciones en Óptica (CONACYT)
DISEñO, FABRICACIóN Y CARACTERIZACIóN ELéCTRICA-óPTICA DE CELDAS FOTOVOLTAICAS ORGáNICAS.
DISEñO, FABRICACIóN Y CARACTERIZACIóN ELéCTRICA-óPTICA DE CELDAS FOTOVOLTAICAS ORGáNICAS.
Rocha Carrera Yazmín Aydeé, Instituto Politécnico Nacional. Asesor: Dr. José Luis Maldonado Rivera, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Las celdas solares orgánicas (OPVs) surgen como una alternativa prometedora a las células solares convencionales debido a su bajo costo, flexibilidad, fabricación, etc. Sin embargo, a pesar de los avances en su desarrollo y mejora en los últimos años, la eficiencia de conversión de energía de las OPVs sigue siendo relativamente baja al comparar con las tecnologías fotovoltaicas establecidas.
En el proceso de síntesis se deben considerar muchas variables, como la elección de los materiales orgánicos, el diseño de la estructura de la celda, las condiciones de fabricación y el proceso que se le da a los materiales que pueden dificultar su optimización.
El problema radica en la necesidad de mejorar la eficiencia de las celdas solares orgánicas optimizando procesos de síntesis y para lograr esto, se deben identificar las combinaciones óptimas de materiales, métodos de procesamiento y condiciones de fabricación que maximicen la eficiencia de conversión de energía de las OPVs y así impulsar el desarrollo de tecnologías fotovoltaicas más sostenibles y económicamente viables, contribuyendo al uso de la energía solar y, a su vez, a la disminución del cambio climático.
METODOLOGÍA
Para la síntesis de las OPVs se utilizó una heteroestructura constituida por un sustrato que le de soporte a la propia heteroestructura, en este caso se empleó vidrio, que al ser un material rígido y además, transparente, permite que la radiación solar ingrese en el dispositivo. La siguiente capa es un ánodo (transportador de huecos), para ello se trabajó con un óxido conductor transparente (TCO, por sus siglas en inglés), en específico el óxido de indio y estaño (ITO, por sus siglas en inglés). La siguiente es una capa transportadora de huecos, y el material más utilizado para esta tarea es el poli(estirenosulfonato) de poli(3,4-etilendioxitiofeno) (PEDOT:PSS) por su transparencia, conductividad, solubilidad y estabilidad.
Como cuarta capa del dispositivo se propone una capa activa para la fotogeneración de corriente eléctrica compuesta por dos materiales, uno donador y otro aceptor de electrones, los polímeros semiconductores utilizados fueron el poli(3-hexiltiofeno) (P3HT) (donador de electrones) y el PC71BM (aceptor de electrones).
La siguiente capa corresponde al poli[(9,9 bis(3’(N,N-dimetilamino)propil)2,7-fluoreno)alt-2,7(9,9-dioctilfluoreno)] (PFN), que actúa como capa transportadora de electrones y a su vez permite eficientizar la OPV, evitando la degradación de la capa activa y limitando el paso de la humedad y oxígeno a ésta última. La última capa consiste en un cátodo (contacto eléctrico) como el Field’s Metal (FM), que es una aleación 32.5% de Bismuto, 51% de Indio y 16.5% de Estaño.
La estructura propuesta completa se describe de la siguiente forma: VIDRIO/ITO/PEDOT:PSS/P3HT:PC71BM/PFN:FM
Cada una de las capas o películas que componen a la estructura de la celda son depositadas con una micropipeta en un equipo de Spin Coating, técnica que se basa en el fenómeno físico conocido como esparcimiento centrífugo o esparcimiento por fuerza centrífuga, a una velocidad y tiempo específicos que se resultaron ser los más eficientes y además brindan el espesor deseado de la película propiciando en conjunto una buena respuesta eléctrica. Es importante mencionar que a cada capa depositada se les realizó un tratamiento térmico para asegurar la permanencia de la película al depositar la siguiente.
Después de la síntesis de la OPV se le realizaron diferentes caracterizaciones como: Microscopía de Fuerza Atómica (AFM, por sus siglas en inglés) para determinar las topologías, rugosidades y espesores de los depósitos, medición de densidad de corriente con el simulador solar, método en el que se hace incidir una luz, en un ambiente controlado, con la intensidad a la que lo haría el sol naturalmente y se observa con otro equipo de medición, la corriente generada al suministrar un voltaje a las condiciones de luz previamente mencionadas; otra técnica es la Espectrofotometría UV-VIS que permite determinar el rango de luz visible en el que las moléculas de la capa interactúan. Las últimas caracterizaciones correspondientes a la medición de fotoluminiscencia y resistencia se hicieron principalmente a las películas hechas con una solución de materiales candidatos a ser utilizados como capara activa, Bodipy:PC71BM, se midió la emisión de luz producida por éste al ser irradiado por luz ultravioleta y la resistencia por cuadro al aplicar una corriente y voltaje determinados.
CONCLUSIONES
El diseño, síntesis y caracterización de celdas solares orgánicas son un campo de investigación prometedor para la generación de energía renovable. Con la heteroestructura propuesta se logró una eficiencia considerable, de aproximadamente 0.7%, valor que permite usar esta estructura para la fabricación de OPVs, por otro lado, con la segunda propuesta de capa activa no se lograron eficiencias que compitan con las obtenidas con los polímeros mencionados inicialmente; con las caracterizaciones realizadas a este material se concluyó que no hubo una correcta disolución del material con el solvente como para tener una capa homogénea y con baja rugosidad, además de que el espesor logrado no fue el más recomendado para una capa activa, por lo que aún existe el desafío en términos de eficiencia, estabilidad y durabilidad a largo plazo.
Con la mejora continua de la ciencia y tecnología, así como de los materiales empleados y su procesamiento, se espera que las celdas solares orgánicas tengan un papel clave en la transición hacia una sociedad más sostenible y respetuosa con el medio ambiente.
Rocha Torres Isaac, Instituto Tecnológico de Jiquilpan
Asesor:Dr. Jesús Guillermo Falcón Cardona, Instituto Tecnológico y de Estudios Superiores de Monterrey
ANáLISIS DE MODELOS DE APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE UN PARáMETRO DE FUNCIONES DE POTENCIAL POR PARES.
ANáLISIS DE MODELOS DE APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE UN PARáMETRO DE FUNCIONES DE POTENCIAL POR PARES.
Rocha Torres Isaac, Instituto Tecnológico de Jiquilpan. Asesor: Dr. Jesús Guillermo Falcón Cardona, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
El problema de selección óptima de subconjuntos basada en energía potencial (PSOSEP) es un problema de optimización combinatoria que trata sobre encontrar un subconjunto A de tamaño N de tal forma que este optimice una función dada.
El objetivo de este problema es seleccionar un subconjunto óptimo de elementos de un conjunto dado de tal manera que se maximice o minimice una función de energía potencial asociada a los elementos seleccionados.
La energía potencial es una medida de la energía almacenada en un sistema debido a las interacciones entre sus elementos. En el contexto de este problema, la energía potencial puede representar la calidad, la coherencia o alguna otra métrica de interés para los elementos seleccionados. En este caso nos interesó observar qué modelo provee una predicción de “Alpha” a partir de las funciones propuestas con el fin de mejorar la calidad de los subconjuntos encontrados por el Algoritmo 1 dado.
Este problema es de naturaleza combinatoria y, en general, es computacionalmente costoso de resolver, ya que el número de posibles combinaciones de subconjuntos puede ser exponencial en el tamaño del conjunto original.
Para atacar este problema, se ha optado por la optimización evolutiva multiobjetivo (OEMO), en el cual, las funciones de potencial por pares, han sido empleadas para definir mecanismos de preservación de diversidad.
La preservación de diversidad hace referencia a la capacidad de los modelos de aprendizaje automático de mantener una variedad de soluciones o representaciones en el conjunto de datos o en el proceso de entrenamiento. La diversidad es importante porque asegura que el modelo sea capaz de capturar diferentes patrones y características de los datos, lo que puede resultar en una mejor generalización y rendimiento en datos no vistos.
METODOLOGÍA
La base de esta investigación es analizar el desempeño de diferentes modelos de aprendizaje automático para la predicción del parámetro α y evaluar su desempeño frente al Data Set obtenido de las funciones con las que se contaba, para así mejorar la calidad de los subconjuntos encontrados por el Algoritmo 1. Como primera instancia se procedió a revisar bibliografía de la evolución evolutiva multiobjetivo propuesta en el artículo “On the utilization of pair-potential energy functions in multi-objective Optimization”, además se contó con el apoyo del libro Hands-On Machine Learning with Scikit-Learn and TensorFlow.
La predicción actualmente se hace con una red neuronal profunda, utilizando un conjunto de datos el cual está compuesto por 3 columnas y la etiqueta. El objetivo es buscar otros modelos de aprendizaje automático pueden usarse para mejorar la predicción y qué mejoras se le pueden hacer a la estructura del conjunto de datos para sacarle mayor provecho.
Inicialmente se reconocieron los modelos que ofrece la librería Scikit-learn, posteriormente para problemas de regresión lineal, de acuerdo a la naturaleza del problema, se identificó que debían ser modelos capaces de manejar relaciones no lineales y complejas entre las características presentadas. Se llegó a la conclusión que los modelos que aportan esta cualidad son: DecisionTreeRegressor, MLPRegressor y RandomForestRegressor por lo cual se optó en trabajar sobre ellos.
La dinámica para probar los modelos anteriormente vistos es:
Paso 1: Preparación de los datos
1. Cargar los datos de entrenamiento que incluyan valores del parámetro α y las características asociadas.
2. Dividir los datos en un conjunto de entrenamiento y un conjunto de prueba.
Paso 2: Selección y entrenamiento del modelo
3. Importar la biblioteca de Machine Learning (scikit-learn en Python).
4. Seleccionar algoritmos adecuados que permitan el análisis del problema de regresión.
5. Inicializar el modelo y ajustar los datos de entrenamiento utilizando el método fit().
Paso 3: Evaluación del modelo
6. Utilizar el data set brindado prueba para evaluar el rendimiento de los modelos.
7. Calcular métricas de evaluación, como el error cuadrático medio (MSE) o el coeficiente de determinación (R^2).
Paso 4: Predicción de nuevos valores
8. Utilizar el modelo entrenado para predecir el valor del parámetro α en nuevos datos.
Una vez aplicados estos modelos correspondientemente, haciendo pruebas con todos los data set de las distintas funciones, se procede a revisar el error cuadrático medio e identificar donde es menor, para en lo consiguiente modificar parámetros (de ser posible) y así ver su ajuste y comportamiento sobre los conjuntos de datos dados respecto a Alpha.
CONCLUSIONES
A lo largo de la estancia de verano se obtuvo conocimiento fundamental teórico del aprendizaje evolutivo multi-objetivo enfocado a la preservación de diversidad. Se puso en práctica habilidades de programación para hacer uso de librerías que permitieran la implementación, así como un análisis de las funciones de Energía Potencial por pares. Se consiguió evaluar diversos modelos de aprendizaje automático enfocados en la regresión lineal, sin embargo, debido a la complejidad del trabajo y su extensión, la propuesta de un nuevo modelo, que minimice costos aún se encuentra en fase de trazado de ideas, por lo cuál no se puede mostrar un código fuente de experimentación. Se espera encontrar una combinación de posibles modelos que no vayan encaminados a las relaciones no lineales (la naturaleza del problema), que mediante el ajuste de sus parámetros se consiga un buen valor de Alpha que contribuya a la identificación de un subconjunto óptimo, aun así se obtuvo que el modelo MLPregressor brindado por Scikit-Learn, brinda buenos resultados para trabajar.
Rodríguez Cutiño Nervelio, Universidad Autónoma de Chiapas
Asesor:Dr. Victor Hugo Márquez Ramírez, Universidad Nacional Autónoma de México
VIBRACIONES SISMOLóGICAS EN EVENTOS DEPORTIVOS
VIBRACIONES SISMOLóGICAS EN EVENTOS DEPORTIVOS
Rodríguez Cutiño Nervelio, Universidad Autónoma de Chiapas. Asesor: Dr. Victor Hugo Márquez Ramírez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
En el fascinante mundo del deporte, el fútbol es sin duda uno de los eventos más apasionantes y populares a nivel mundial. Los partidos de fútbol no solo generan emociones intensas entre los fanáticos, sino que también tienen el poder de desencadenar fenómenos sorprendentes e inesperados en la Tierra. En los últimos años, la sismología, una rama de la geofísica dedicada al estudio de los terremotos y las vibraciones de la tierra, ha revelado que los eventos deportivos, en especial los partidos de fútbol, pueden generar vibraciones y movimientos detectables en la corteza terrestre.
Este fenómeno es de gran interés en la comunidad científica, ya que nos brinda la oportunidad de comprender mejor los mecanismos que intervienen en la generación de vibraciones sísmicas y su relación con la actividad humana. Además, el estudio de la sismología en eventos deportivos puede tener aplicaciones prácticas en términos de seguridad estructural de los estadios y la evaluación del impacto sísmico en áreas urbanas densamente pobladas durante eventos deportivos masivos.
METODOLOGÍA
Recolección de Datos: Se recopilaron datos sísmicos detallados de las estaciones ubicadas en las proximidades del Estadio Corregidora durante los partidos en cuestión. Estos datos incluyeron registros de vibraciones sísmicas antes, durante y después de los encuentros, junto con información contextual sobre los partidos, como la cantidad de espectadores presentes y la intensidad emocional observada.
Análisis Temporal y Espacial: Se realizó un análisis exhaustivo de los datos sísmicos para determinar si había patrones temporales o espaciales que pudieran explicar la aparente falta de variación en las vibraciones. Se evaluaron los momentos de mayor actividad emocional, como goles o momentos de tensión en el juego, para identificar si existía una correlación con las mediciones sísmicas.
Comparación con Eventos de Control: Se compararon las mediciones sísmicas de los partidos con aficionados en el estadio con eventos de control, como días en los que el estadio no estaba en uso o cuando la actividad en el estadio no generaba multitudes significativas. Esto permitió identificar si las vibraciones eran consistentes con los niveles de ruido ambiental y las vibraciones naturales.
Análisis de Factores Emocionales: Se examinó la relación entre la intensidad emocional de los aficionados y las mediciones sísmicas. Se consideraron datos subjetivos, como la euforia percibida por los espectadores y las reacciones ante momentos clave del partido. Esto se combinó con los registros sísmicos para identificar si las emociones influían en las vibraciones detectadas.
CONCLUSIONES
Según los datos recopilados durante los partidos en los que los aficionados pudieron ingresar al estadio a partir de la jornada 8, se observa que no se detectó una variación significativa en las vibraciones registradas por el sismógrafo. Esta ausencia de cambios notorios podría deberse a dos posibles causas que merecen ser analizadas con mayor detalle.
En primer lugar, es posible que la cantidad de personas que asistieron a los partidos no haya sido lo suficientemente significativa como para generar un impacto detectable en las vibraciones sísmicas cercanas al estadio. Los sismógrafos son dispositivos altamente sensibles diseñados para medir movimientos sutiles en la corteza terrestre. Sin embargo, las vibraciones generadas por un pequeño grupo de aficionados podrían no haber sido lo bastante intensas para sobrepasar la barrera del ruido ambiental y las vibraciones naturales del entorno.
Además, la distancia entre el estadio y las estaciones de sismógrafos también podría influir en la capacidad para detectar cualquier efecto sísmico relacionado con la presencia de los aficionados. Si las estaciones sísmicas se encontraban a una distancia considerable del estadio, las vibraciones podrían haberse dispersado y atenuado significativamente antes de ser registradas, dificultando su detección.
Rodriguez Gomez Danilo Jose, Servicio Nacional de Aprendizaje SENA - Regional Atlántico
Asesor:Dr. Xavier Mathew, Universidad Nacional Autónoma de México
CIENCIA Y TECNOLOGÍA FOTOVOLTAICA
CIENCIA Y TECNOLOGÍA FOTOVOLTAICA
Almazan Ramírez José Abraham, Universidad de Sonora. Lugo Fragozo Jesus David, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Rodriguez Gomez Danilo Jose, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Asesor: Dr. Xavier Mathew, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La radiación solar puede convertirse en electricidad mediante la tecnología fotovoltaica, que ha demostrado ser una fuente de energía fiable y limpia. Sin embargo, aumentar la eficiencia de conversión y reducir los costos asociados es uno de los obstáculos fundamentales para la adopción generalizada de esta tecnología. Las células solares más populares en el mercado hoy en día están hechas de silicio cristalino, que es eficiente, pero tiene restricciones en su flexibilidad de aplicación. Por lo tanto, existe la necesidad de una amplia investigación y desarrollo de nuevos materiales que puedan sortear estas limitaciones y maximizar la producción de energía solar.
METODOLOGÍA
En este proyecto, se desarrollo en el estudio de la ciencia y la tecnología fotovoltaica, abarcando desde los fundamentos más básicos hasta las más complicados de este campo. La exploración de materiales ideales y apropiados para la tecnología fotovoltaica, con un enfoque principal en el silicio, recibió especial atención durante el curso, ya que tenía como objetivo comprender en profundidad la aplicación del conocimiento en esta área. Como resultado de su papel crucial en la eficacia y estabilidad del sistema fotovoltaico, también se examinó la importancia de los diodos en el proceso de absorción de la radiación solar y además de cómo se debe colocar el panel solar dependiendo de nuestra ubicación en el planeta.
Se realizo diversos estudios sobre los mejores materiales para la tecnología fotovoltaica. Debido a sus cualidades semiconductoras y abundancia en la corteza terrestre, el silicio se ha convertido en uno de los materiales más esenciales en la producción de las celdas solares. La composición cristalina del silicio y su capacidad para producir electricidad cuando se expone a la luz solar se examinaron minuciosamente durante el curso. Los resultados de numerosos estudios científicos respaldan la idea de que el silicio es fundamental para la eficacia y la estabilidad de las células fotovoltaicas; Por lo tanto, unos de componentes más importantes son los diodos pues cumple con la función absorber la radiación solar porque realiza la conversión de la radiación solar en electricidad mediante la absorción, que son esenciales para el funcionamiento de los sistemas fotovoltaicos. Con base en lo anterior, se estudiaron diversos cálculos matemáticos, físicos y químicos para afirmar que la tecnología fotovoltaica tiene mucha ciencia y si se ejecuta de la mejor manera correcta se aprovechara toda la radiación solar posible para tener una excelente eficiencia en las celdas fotovoltaicas.
CONCLUSIONES
En este proyecto de verano del programa DELFÍN, aprendimos muchas cosas que nos parecía que la tecnología fotovoltaica no tenía a simple vista pues detrás de él tiene mucha ciencia aplicada y ejecutada.
Hemos adquirido conocimiento sobre la importancia que juega los cristales de silicio y los semiconductores en las celdas solares. Con los cálculos matemáticos, graficas e incluso con ensayos en un laboratorio, que en un futuro cuando se nos dé la posibilidad en nuestra carrera profesional ya tengamos ciertos conocientos mucho más claros al momento de hacer esos cálculos matemáticos, físicos y químicos, buscando siempre la eficiencia al momento de trabajar con la tecnología fotovoltaica.
Rodriguez Grandas Andrea Julieth, Universidad de Investigación y Desarrollo
Asesor:M.C. Derlis Hernández Lara, Universidad Politécnica de Texcoco
MODELO DE IA PARA LA CARACTERIZACIóN DE ANIMALES MEDIANTE SEñALES DE AUDIO
MODELO DE IA PARA LA CARACTERIZACIóN DE ANIMALES MEDIANTE SEñALES DE AUDIO
Rodriguez Grandas Andrea Julieth, Universidad de Investigación y Desarrollo. Asesor: M.C. Derlis Hernández Lara, Universidad Politécnica de Texcoco
PLANTEAMIENTO DEL PROBLEMA
En un ecosistema, la biodiversidad de aves y flora es fundamental para comprender la dinámica del entorno. Sin embargo, la identificación de las especies de aves presentes en el área puede resultar un desafío, especialmente cuando las observaciones visuales son limitadas o no factibles en ciertos entornos inaccesibles.
Para abordar el problema, se plantea la implementación de un clasificador de aves utilizando señales de audio y técnicas de inteligencia artificial con el fin de identificar la flora asociada a cada especie y obtener una visión integral de la biodiversidad del ecosistema.
El ecosistema alberga una amplia variedad de especies de aves, cada una con distinto patrones de canto. Lograr una clasificación precias de estas especies de cada una de ellas. Sin embargo, las grabaciones de audio de aves pueden verse afectadas por ruido de fondo, interferencias o calidad deficiente, lo que dificulta la extracción de información relevante para la clasificación.
Por otro lado, el modelo de clasificación de aves debe ser capaz de generalizar y clasificar correctamente especies en diferentes contextos ambientales y condiciones acústicas, dado que las vocalizaciones pueden variar según el hábitat y las condiciones climáticas. La identificación de aves no solo es relevante por sí misma, sino también porque cada especie puede estar asociada a una flora especifica, permitiendo una visión integral de la biodiversidad en su entorno natural.
METODOLOGÍA
El Design Thinking se centra en las necesidades de los usuarios y promueve un enfoque colaborativo y colectivo. Todos los miembros del equipo participan en la generación de ideas y soluciones, sin importar su posición o experiencia, fomentando una cultura de inclusión y empatía. Las lluvias de ideas son una parte esencial del proceso, permitiendo que fluyan diversas perspectivas para encontrar resultados eficaces.
El Pensamiento de Diseño destaca el valor de los equipos de trabajo, ya que cada integrante aporta conocimiento, experiencia y valores únicos. Es fundamental crear ambientes laborales armoniosos y positivos, con espacios físicos agradables y recursos logísticos adecuados, que impulsen la creatividad y el trabajo en equipo.
Esto implica un proceso iterativo y de aprendizaje continuo. Las soluciones propuestas son probadas, comparadas y retroalimentadas hasta lograr la solución óptima para el problema planteado. Todo este proceso se lleva a cabo en un ambiente laboral seguro y saludable, independientemente de la ubicación del equipo, fomentando la creatividad y la colaboración en cada etapa del diseño. (Guilford, 1989)
Para realizar el proyecto de implementar un clasificador de aves mediante señales de audio y herramientas de Inteligencia Artificial con el fin de identificar las especies de aves de un ecosistema utilizando la metodología Design Thinking, se pueden seguir las siguientes fases:
• Fase 1: Empatizar
Realizar investigaciones de campo y entrevistas con expertos de conservación animal y usuarios interesados en biodiversidad del ecosistema para comprender las necesidades y los desafíos específicos de la identificación de aves, las expectativas y requisitos de los usuarios en términos de precisión, facilidad de uso y aplicabilidad en la conservación de las mismas.
• Fase 2: Definir
Analizar la información recopilada y definir claramente el problema a resolver, crear un clasificador que identifique especies. Estableciendo objetivos del modelo y la capacidad de generalización de diferentes entornos acústicos.
• Fase 3: Idear
Organizar sesiones de lluvia de ideas y talleres de diseño multidisciplinario para generar soluciones creativas y abordar los desafíos identificados, explorando diferentes técnicas para la clasificación precisa de aves diseñando una interfaz intuitiva y amigable para facilitar el uso de la herramienta.
• Fase 4: Prototipar
Crear prototipos del clasificador de aves y la interfaz de usuarios para poner a prueba las ideas y soluciones generadas, realizando pruebas de usuario para evaluar la eficacia, usabilidad y satisfacción del mismo. Recopilando interacciones para mejorar y refinar los prototipos.
• Fase 5: Testear
Se realizarán pruebas exhaustivas del clasificador de aves en entornos reales para validar su precisión y capacidad de identificación de especies, implementando la versión final del clasificador con una interfaz de usuario mejorada, teniendo en cuenta las iteraciones y retroalimentación recibida.
Durante todo el proceso, es importante mantener una mentalidad de empatía y apertura al aprendizaje continuo. La metodología Design Thinking enfatiza la colaboración, la creatividad y la iteración, lo que permitirá desarrollar una solución efectiva y significativa para identificar aves y su relación con la flora en el ecosistema, contribuyendo así a la conservación y comprensión de la biodiversidad en el área.
CONCLUSIONES
En esta estancia se logró obtener conocimientos teóricos y practico sobre la implementación de la inteligencia artificial para la clasificación de audios, poniéndolos en práctica el modelo matemático de un perceptrón, para poder diseñar una aplicación móvil en Android Studio junto con una con una base de datos libre de canto de aves. Teniendo en cuenta que es un trabajo muy extenso y debido al poco tráfico de aves que se encuentran en la ciudad de Homedale, se obtuvieron una baja cantidad de datos donde la mayoría están respaldados de grabaciones encontradas en foros de internet.
Rodriguez Jimenez Nancy Guadalupe, Instituto Tecnológico Superior del Sur de Guanajuato
Asesor:Dr. Daniel Jiménez García, Benemérita Universidad Autónoma de Puebla
DIVERSIDAD DE GRAMíNEAS Y CAMBIOS DE LA ZONA ARBóREA EN LOS BOSQUES DE ARGENTINA
DIVERSIDAD DE GRAMíNEAS Y CAMBIOS DE LA ZONA ARBóREA EN LOS BOSQUES DE ARGENTINA
Rodriguez Jimenez Nancy Guadalupe, Instituto Tecnológico Superior del Sur de Guanajuato. Asesor: Dr. Daniel Jiménez García, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En la actualidad nuestros ecosistemas como naturalmente los conocíamos se están perdiendo y cada vez ha modificado la variedad de especies, Es de suma importancia estudiar el cambio en este paisaje es importante tenerlo en cuenta para determinar para qué es óptima cierta región en materia de conservación, manejo o urbanización. Un factor que influye en el cambio de los ecosistemas son las especies que se han introducido pues una gran parte de estas especies terminan siendo invasoras, afectando así gran parte del equilibrio del ecosistema.
En este proyecto nos enfocaremos en las especies de gramíneas nativas de América. Y con una serie de datos de años anteriores centrar la información determinar la situación en la que se encuentra la zona no arbórea en Argentina.
METODOLOGÍA
Se realizó una investigación sobre las especies de gramíneas nativas que se encuentran en todo el continente americano, en materia de conservación, manejo o urbanización específica en qué países se encuentra esta especie para generar un resumen de esta investigación y tener una base de datos para el siguiente paso.
Se tomó una base de datos proporcionada por el investigador con ciertas ocurrencias de gramíneas en el cual se especifica el lugar exacto en donde se realizó el avistamiento de cada especie y la fecha de tal ocurrencia. De la base de datos solo dejaremos los de nuestro interés (nativas de América) el trabajo se realizó con tres divisiones; América del Norte, América central y Suramérica.
Realizamos una comparación con la tabla base que realizamos y con las especies de la base de datos del investigador realizamos un archivo de Excel en donde solo colocamos los avistamientos de las especies endémicas y nativas con sus coordenadas geográficas y el año en el que se realizó para poder pasar estos datos a sistema de información geográfica (ArcMap 10.5).
En el software de ArcMap colocamos un mapa de américa dividido por cuadros, con la herramienta de unión espacial y con herramientas de Excel (tablas dinámicas) logramos determinar cuáles son las especies que se encuentran en cada cuadro del mapa.
Pasamos a la parte de Argentina, con mismo mapa de américa dividido solo tomamos el país y realizamos un promedio con ayuda de datos proporcionados por el investigador acerca de zonas arbóreas y no arbóreas del país tomado una serie de tiempo desde el 2000 hasta el 2020, Analizamos los promedios e identificar cómo ha variado la zona arbórea y no arbórea de Argentina.
CONCLUSIONES
Localizamos la distribución de especies de gramíneas nativas del continente americano las cuales resultaron ser 440 especies en Argentina. Analizando los mapas que nos arroja el sistema de información geográfica podemos notar un cambio en la zona arbórea de Argentina, pues en los últimos años el paisaje se torna cada vez más crítico pues cierta parte de estas zonas se están perdiendo y gracias a los mapas podemos localizar las zonas de pedida que son más notorias en la parte sur del país y en la parte noreste.
.
Rodríguez Pérez José Alfredo, Instituto Tecnológico Superior de Tierra Blanca
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PROTOTIPO INTEGRADO DE MONITOREO Y REGISTRO DE DATOS METEOROLOGICOS EN EDIFICACIONES DEL SIGLO XVI
PROTOTIPO INTEGRADO DE MONITOREO Y REGISTRO DE DATOS METEOROLOGICOS EN EDIFICACIONES DEL SIGLO XVI
Rodríguez Pérez José Alfredo, Instituto Tecnológico Superior de Tierra Blanca. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Este trabajo resalta la importancia de preservar el patrimonio histórico y garantizar la estabilidad de edificaciones. Se destaca el caso de la iglesia "Santuario de Nuestra Señora de la Merced" en el Centro Histórico de Puebla, que ha resistido eventos como la Batalla de Puebla y terremotos. A pesar de esto, no se comprenden completamente los factores que han asegurado su supervivencia ante terremotos. Se propone un proyecto de investigación que utiliza un circuito de monitoreo para medir la intensidad de sismos, registrando detalles precisos y supervisando condiciones ambientales. Este enfoque se busca aplicar en varios contextos para mejorar la seguridad de edificaciones. El objetivo es contribuir al conocimiento sobre conservación del patrimonio histórico, seguridad estructural y planificación urbana. Los resultados pueden influir en diseños de edificios resistentes a desastres naturales y en la gestión de patrimonio histórico en Puebla Centro y otras áreas culturales e históricas.
METODOLOGÍA
En este proyecto, se abordó la preservación del patrimonio histórico a través del análisis detallado de una iglesia particular, el "Santuario de Nuestra Señora de la Merced", ubicada en el Centro Histórico de Puebla. Se destacó la resistencia de esta iglesia a lo largo del tiempo, incluyendo eventos históricos y desastres naturales, como la Batalla de Puebla y terremotos.
Para lograr un entendimiento más profundo de los factores que han contribuido a la supervivencia de esta iglesia, se propuso un proyecto de investigación basado en la implementación de tres prototipos. Cada prototipo constaba de una Raspberry Pi 4, una memoria SD de 32GB y varios sensores, como el giroscopio MPU6050, el sensor de temperatura DHT22, el sensor de humedad FC-28 y el sensor de temperatura LM35. Para permitir que la Raspberry Pi analizara y almacenara los datos de los sensores FC-28 y LM35, se utilizó un convertidor de señales analógicas a digitales A/D MCP3008.
El proceso comenzó con la instalación del sistema operativo Raspbian en la memoria SD y la configuración de periféricos como teclado, mouse, cable Ethernet y monitor. A través del entorno de Raspbian OS, similar a Linux, se activaron las comunicaciones I2C y SCH en la Raspberry Pi para habilitar la transmisión de datos entre los sensores y el procesador.
Se realizaron pruebas iniciales con el giroscopio MPU6050, programando en Python para obtener datos precisos de aceleración y ángulos en tres ejes. A medida que se depuraba el código, los resultados se volvieron más precisos y significativos. Luego, se agregaron sensores de temperatura y humedad DHT22 para capturar las condiciones ambientales y se incorporaron sensores FC-28 y LM35 para medir valores analógicos. La limitación de que la Raspberry Pi solo pudiera leer datos digitales se resolvió mediante la conversión de señales analógicas con el MCP3008.
La información recopilada de los sensores se almacenó en archivos CSV, con el giroscopio generando archivos en respuesta a movimientos y los sensores de temperatura y humedad creando archivos nuevos cada 10 minutos. Como un extra, se implementó la capacidad de enviar los archivos CSV a un servidor si había una red WiFi disponible, lo que permitiría el análisis remoto de datos.
Finalmente, para consolidar los componentes en un solo lugar, se diseñó una placa PCB utilizando el software ISIS de PROTEUS. Esta placa se creó mediante el proceso de "planchado", donde el circuito impreso se adhirió a una placa fenólica y se eliminó el cobre sobrante mediante un químico llamado "Cloruro férrico". Luego se perforaron los orificios para los componentes y se procedió a soldarlos.
En resumen, el proyecto involucró la implementación de tres prototipos para analizar diferentes áreas de una iglesia histórica. Se utilizaron una variedad de componentes y sensores, junto con programación en Python y técnicas de conversión de señales, para recopilar y analizar datos que podrían contribuir al conocimiento de la conservación del patrimonio histórico y la seguridad de las estructuras.
CONCLUSIONES
En conclusión, se lograron obtener datos consistentes en la edificación ya que se encuentra mal las estructuras y puede que en un futuro este pueda afectar la vida de las personas que asisten a tomar sus sesiones religiosas y en algunos casos a realizar alguna ceremonia importante, así que se esperaría que las personas encargadas del área y así como los secretarios de seguridad tomen cartas en el asunto y no se tenga que lamentar alguna vida humana en un futuro.
Rodríguez Sauceda Sergio Maximiliano, Universidad Autónoma de Coahuila
Asesor:Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México
SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO
SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO
Castañeda Gil Melanie Sofia, Universidad de Sonora. Ramos Cábel Fátima Marcela, Universidad Autónoma de Ciudad Juárez. Rodríguez Sauceda Sergio Maximiliano, Universidad Autónoma de Coahuila. Servín Pérez Adilene, Universidad de Sonora. Valencia Ortiz Miguel Angel, Universidad de Caldas. Zapata Martínez Dolores Itzel, Universidad de Sonora. Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Las dataciones radiométricas juegan un papel muy importante en las ciencias de la tierra, pues ayudan a tener un mejor entendimiento de la evolución geodinámica de nuestro planeta, de cómo sucedieron los eventos que configuraron la Tierra como la conocemos hoy en día, y tratar de deducir lo que pasará en el futuro. Entre las aplicaciones de estos estudios geocronológicos se encuentran la determinación de edades de cristalización de cuerpos magmáticos y de eventos deformativos y mineralizantes, la cuantificación de tasas de exhumación, y otros análisis que solo con el fechamiento de las rocas se pueden llevar a cabo.
Para llegar a esto es necesario comprender el comportamiento mineralógico de las rocas de interés y determinar qué relojes isotópicos usar de acuerdo con sus características químicas.
Por ello se busca aislar minerales específicos que contienen información valiosa sobre la edad de las muestras o características particulares en estas, permitiendo que las fechas obtenidas sean lo más precisas posible.
METODOLOGÍA
La metodología del trabajo realizado puede clasificarse en tres etapas principales:
Elaboración de secciones delgadas;
Separación de minerales; y
Caracterización de minerales.
La elaboración de secciones delgadas facilita la identificación de minerales contenidos en las muestras e indican si es viable realizar procedimientos posteriores asociados a la disgregación de minerales.
La segunda etapa se enfoca en la separación de minerales con una estructura cristalina adecuada para albergar isótopos radioactivos y radiogénicos conocidos, de los cuales, en función de su relación isotópica, podrá ser extraída la edad asociada. Entre los minerales de interés se encuentran circones, apatitos, hornblendas, biotitas, moscovitas y feldespatos. Esta etapa comienza con la trituración, tamizado, lavado y secado de las muestras.
Cuando el material se haya secado se separa en función de la susceptibilidad magnética de los minerales, por medio de un separador de barrera magnética tipo Frantz. Colocando el separador en diferentes configuraciones se pueden separar los minerales en ferromagnéticos, paramagnéticos y no magnéticos. El target de la separación depende de las edades de interés y de la temperatura de cierre del mineral.
Según sea el objetivo mineral en la separación, se usan diferentes líquidos pesados con densidades específicas conocidas, como yoduro de metileno o MEI, bromoformo y politungstato de litio. Es necesario manipular los líquidos bajo parámetros sanitarios adecuados:una campana de extracción y utilizando vestimentas adecuadas como batas, guantes, gafas y cubrebocas.
Para los circones se utiliza MEI; para el bromoformo se utilizan los minerales del residuo flotante del yoduro de metileno, para obtener a partir de estos los apatitos. En el caso del LST el montaje es diferente, pero el principio es el mismo, en él se requiere recuperar ambas partes (la que se hunde y la que flota), y calibrar hasta obtener una correcta disgregación (como feldespatos potásicos y cuarzos). Posteriormente, en el caso de los minerales separados distintos al circón y apatito se realizan procedimientos de paper shaking para concentración de micas con relación a los rolls (minerales cuyo hábito no permiten que se adhieran a una superficie fácilmente) y efectuar limpieza de minerales no deseados mediante hand picking.
Es importante distinguir los minerales con base en sus características cristalográficas bajo lupa binocular, y así lograr el montaje y separado adecuado. El montaje de circones se hace con ayuda de dos microscopios estereográficos, bajo uno de ellos se coloca un petri Pyrex con la muestra que contiene los circones y, en el otro, el vidrio con el montaje deseado para los circones.
Los circones contenidos en la probeta terminada se caracterizan mediante un microscopio electrónico de barrido con detector de catodoluminiscencia (SEM-CL). Para que el SEM-CL pueda detectar a los circones, la probeta se debe recubrir con carbono. En este paso, se toman fotografías de cada línea montada de circones. y al final se traslapan con un software de edición. A partir del mosaico obtenido se eligen los sitios potenciales para los análisis de U-Pb en función de las características físicas del circón, su tipo y el objetivo de fechamiento
Por último, elegidos los puntos de ablación, fue visitado el Laboratorio de Estudios Isotópicos, donde fue posible presenciar el procedimiento de identificacion y cuantificacion de especies atómicas presentes en la muestra, es este caso con especial interés en los isótopos radioactivos y de origen radiogénico además de otros análisis químicos que son obtenidos como ppm de REE en circón, a partir de ello son emitidos gases los cuales contienen componentes químicos que son medidos por un espectrómetro de masa (LA-ICPMS) el cual se encarga de distinguir los componentes químicos presentes en la parte desintegrada del circón. Una vez limpios los datos, son leídos y graficados, para obtenerlos datos ploteados en curvas concordia y otros esquemas para realizar los análisis correspondientes.
CONCLUSIONES
Durante el verano, se tuvo un cierto número de rocas a trabajar en el transcurso de la estancia, correspondientes a granitos y xenolitos de proyectos del NW de México y SW de Estados Unidos, y se fue partícipe de todos los procesos previos a la datación y aprendiendo una gran cantidad de técnicas, métodos de separación y caracterización de minerales.
Fueron llevadas 5 muestras al Laboratorio de Estudios Isotópicos para la realización del fechamiento U-Pb mediante ablación de los circones; con lo que se calcularon las edades de las rocas provenientes de Baja California.
Con el resultado de todo el trabajo es posible darse una idea de la evolución tectónica, o identificar si están relacionados a zonas de debilidad cortical, generando correlaciones entre las rocas de Estados Unidos y México.
Rojas Meléndez José Noé, Instituto Politécnico Nacional
Asesor:Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara
REALIDAD AUMENTADA
REALIDAD AUMENTADA
Rojas Meléndez José Noé, Instituto Politécnico Nacional. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El control de simulaciones por medio de aplicaciones móviles tiene gran potencial en el campo de la robótica debido a que va de acuerdo con el principio de esta, es decir el de reducir el riesgo al que se ven expuestos los seres humanos cuando realizan ciertas tareas que puedes resultar en algún accidente debido al descuido del operador. Así, la simulación de un brazo robótico tendrá como objetivo el cuidar al robot antes de realizar el trabajo que le pueda resultar dañino debido a una mala programación. Así, sucede que la simulación con realidad aumentada tiene como finalidad crear un escenario en donde se pueda manejar a un brazo robótico por medio de una aplicación móvil. Mi parte del proyecto fue crear un carro que pueda ser conducido con ayuda de una aplicación móvil, en el sistema operativo Android y
con ayuda de la plataforma Unity.
METODOLOGÍA
Se comenzó realizando una investigación sobre la plataforma Unity y la interfaz que tiene, los elementos que hay dentro de ella y las herramientas para poder interactuar con los objetos de mejor manera. Posteriormente se vieron tutoriales sobre creación de proyectos por lo cual se comenzaron a descargar editores y motores que son necesarios para el desarrollo de una aplicación para el sistema operativo Android con Unity. Es este punto se realizaron algunas pruebas para poder iniciar un proyecto en un celular con sistema operativo Android hasta que se tuvo éxito.
Enseguida se buscó la manera de colocar objetos hijos en Unity, es decir que tengan dependencia de otros y así se comenzó debido a que el coche que se visualiza en realidad aumentada depende de la superficie en donde se posicione la cámara del celular en donde se tiene la aplicación. Así se logró que se pudiera visualizar un objeto con ayuda de realidad aumentada en el celular sobre cierta superficie.
CONCLUSIONES
Durante mi estancia virtual en el congreso Delfín aprendí a agregar objetos a un espacio de realidad virtual de manera que sea más fácil poder verlos dimensionados en espacios que necesitemos con el tamaño que queramos entonces para mí es bastante útil debido a que se pueden visualizar objetos que antes solo se podían imaginar. Es decir, a lo largo de la carrera aprendes simulación de elementos y máquinas pero con realidad aumentada no solo puedes diseñarlos si no que puedes verlos
Rojas Preciado Naomy Evelin, Universidad de Guadalajara
Asesor:Dr. José Roberto Rivera Hernández, Universidad Politécnica de Sinaloa
ABUNDANCIA Y CARACTERIZACIóN DE MICROPLASTICOS EN SEDIMENTOS DE PLAYAS DE MAZATLáN, SINALOA, CON INFLUENCIA ANTROPOGéNICA
ABUNDANCIA Y CARACTERIZACIóN DE MICROPLASTICOS EN SEDIMENTOS DE PLAYAS DE MAZATLáN, SINALOA, CON INFLUENCIA ANTROPOGéNICA
Rojas Preciado Naomy Evelin, Universidad de Guadalajara. Asesor: Dr. José Roberto Rivera Hernández, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Asesor: Dr. José Roberto Rivera Hernández1,2, Instituto de Ciencias del Mar y Limnología, UA. Mazatlán, Universidad Nacional Autónoma de Mexico1. Universidad Politécnica de Sinaloa2.
Estudiante: Naomy Evelin Rojas Preciado, Universidad De Guadalajara.
Desde su descubrimiento en el siglo XX los polímeros plásticos se han convertido en una parte esencial de nuestra vida, todo esto debido a su versatilidad, durabilidad y bajo costo de producción. Lo que alarmantemente a llevado que la producción de plástico aumente 10 millones de toneladas año con año y tan solo en el 2019 su producción haya alcanzado las 368 millones de toneladas (Plastics Europe, 2020). Esta rápida expansión en la producción y uso de plásticos ha dado lugar a un problema ambiental cada vez más preocupante: la contaminación por microplásticos (MP). Los sedimentos marinos, incluidos los sedimentos de playas, costeros y de aguas profundas, constituyen el compartimento más afectado por la contaminación por MP. Los microplásticos son fragmentos de plástico de tamaño reducido, generalmente inferiores a 5 mm, que se originan a partir de la degradación de plásticos más grandes (MP secundarios) o que son agregados directamente a productos de consumo (MP primarios). Su pequeño tamaño y persistencia los hacen difíciles de eliminar y se acumulan en diversos entornos. Además de que estudios recientes sugieren que la abundancia de MP en las áreas costeras está altamente influenciada por los patrones de lluvia y la densidad de población (Pelamatti et al., 2019; Pinon-Colin et al., 2020), lo que implica que estos ambientes son propensos a estar más contaminados durante períodos lluviosos y temporada alta de turismo. El sitio de estudio se encuentra dentro del puerto de Mazatlán, Sinaloa, México constituido principalmente por un cuerpo de agua denominado estero de Urías y su áreas adyacentes localizadas en la costa norte del pacifico mexicano entre los 23° 10’25’ y 10’25’ y 23° 13’ 00’ de latitud norte y los 106° 20’00’ y 106° 26’00’ de la longitud oeste. En este estero se localiza una zona de vida silvestre muy importante como los manglares, además de instalaciones industriales de procesamiento de pescado, granjas agrícolas y la gran planta termoeléctrica Rafael Buelna, así como un importante número de la población que ahí reside. El gran número de actividades antropogénicas convierte al estero de Urías en receptor de las principales descargas de aguas negras municipales, aguas residuales y de enfriamiento de algunas industrias y de la planta termoeléctrica, además de descargas de desechos urbanos sin tratamiento que van directamente a la laguna (Villalba Loera et al. 1983).
METODOLOGÍA
Se recogieron cuatro puntos de muestra de sedimento alrededor del estero de Urías (A, B, C y D). Aproximadamente 1 kg de sedimento fue colectado sobre la línea de la marea más alta con ayuda de una cuchara de acero inoxidable, y posteriormente cada muestra se reservó en bolsas de cierre hermético totalmente nuevas y lavadas. Cada bolsa con sedimento se conservó en congelación hasta su procesamiento y análisis. Para encontrar microplasticos en el sedimento costero se aplicó un método sencillo y rentable sin el uso de agentes químicos (Gimiliani et al. 2020) el cual consistía en utilizar mallas de tamiz apiladas con tamaños del mayor al menor. Por separado cada muestra fue homogeneizada en un recipiente de cerámica. Des cada muestra se obtuvieron 100g de sedimento que fueron previamente secados en un horno a 50°C por 24 horas. Una vez secos los 100g de cada muestra se realizaron 3 triplicados de 20g para luego proceder a realizar el tamizado de cada uno con mallas de tamiz de 1.41, 0.5 y 0.25 mm. Para el tamizado se preparó agua milliQ filtrada con un poro de 0.7 μm Whatman grado GF/F. Los tamizados se realizaron básicamente colocando cada muestra seca en la fracción mayor (1.41 mm) y se roció agua potable desde arriba para que el sedimento se separara y situara según su tamaño en cada fracción. Las muestras húmedas de sedimentos extraídas en cada tamiz incluidas las muestras obtenidas del fondo de los tamices se colocaron en placas de porcelana para ser secadas en un horno a 50°C durante 24 horas; una vez secas fueron almacenadas en placas Petri para su observación y análisis. Al final de todo el proceso se obtuvieron 4 muestras por cada punto de muestreo pues se incluyeron las tres fracciones de tamiz y el fondo. Las cajas Petri que contenían el sedimento recuperado de cada tamiz fueron caracterizadas visualmente y observadas en un estereoscopio con aumentos de 0.65 a 5.0 x. Se utilizaron pinzas de acero inoxidable para ayudar en la búsqueda activa de microplásticos y para separarlos de otros fragmentos de sedimentos con el fin de hacerlos más visibles. Los fragmentos de plástico se clasificaron por su color, tipo y categoría. Como parte del método de cuantificación, se calculo un promedio total de microplásticos encontrados y fueron alrededor de 800 MP’s, donde mayoritariamente fueron fibras de color azul que se encontraban en un 24% y transparentes que se encontraban en un 67% del promedio total de microplasticos encontrados, además de fibras de otros colores como rojo, verde, amarillo, rosa y gris, pero en menores cantidades. Estas pequeñas fibras se encontraban en todos los niveles de tamices, pero en su mayoría en la fracción de 0.25mm lo que nos da una idea de su pequeño tamaño.
CONCLUSIONES
En este pequeño estudio se utilizó un método simple y de bajo costo que considero es una gran estrategia para poder cuantificar los microplasticos de una manera más sencilla y rápida en el estero de Urias. Fácilmente podemos llegar a la conclusión de que si encontramos mayormente fibras en las muestras fue debido a que el muestreo en un principio fue hecho sobre la línea de la marea y eso pudo evitar que se encontraran fragmentos de plásticos un poquito más grandes. Y el hecho de que fueran casi en su totalidad fibras puede deberse a que la laguna al ser una fuente de desagüé de aguas residuales estas se encuentren contaminadas por fibras de lavado (Browne et al. 2011).
Romero López Miguel Ángel, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla
MACHINE LEARNING EN EL ESTUDIO DE RAYOS CóSMICOS USANDO SIMULACIONES DE MONTE CARLO
MACHINE LEARNING EN EL ESTUDIO DE RAYOS CóSMICOS USANDO SIMULACIONES DE MONTE CARLO
Pomares Valdés Pablo Jibrán, Benemérita Universidad Autónoma de Puebla. Romero López Miguel Ángel, Benemérita Universidad Autónoma de Puebla. Santiago Márquez Aldo, Benemérita Universidad Autónoma de Puebla. Toral Gamez Jorge Luis, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Desde todas direcciones del universo llegan cada segundo a la Tierra unas diez mil partículas por metro cuadrado, a muy altas energías, a estas partículas se les conoce como rayos cósmicos. Ahora bien, antes de llegar a nosotros, las partículas primarias, generalmente núcleos, colisionan en nuestra atmósfera y forman lo que nosotros llamamos lluvias, o showers, de otras partículas secundarias generadas en dicha colisión. A su vez, estas también colisionan en la atmósfera repitiendo el proceso hasta que su energía baje lo suficiente para ser absorbidas.
En el estudio de rayos cósmico de altas energías existe el problema de que, en algún metro cuadrado determinado, cualquiera en el mundo, la ocurrencia de eventos es exponencialmente menos común. Es decir, dependiendo de la energía del rayo puede ocurrir aproximadamente una vez cada cierto número de años, décadas ¡o incluso siglos! Lo cual claramente dificulta su estudio. Para contrarrestar el problema se ha optado por construir observatorios de varios miles de kilómetros cuadrados, como el Observatorio Pierre Auger en Malargüe, Argentina el cual tiene una extensión de 3,000 km2 . No obstante, sigue sin ser suficiente, por lo que se ha introducido el uso de herramientas digitales como CORSIKA que, a través de modelos como EPOS-LHC, SIBYLLL, QGSJETI y QGSJETII, simulan, con diferentes grados de precisión, eventos de rayos cósmicos a través del uso de métodos Monte Carlo y simulaciones numéricas rápidas que nos permiten hacer observaciones de todo el trayecto del evento. Adicionalmente se ha buscado la implementación de modelos de Machine Learning para el análisis de los datos y para buscar una reducción en el número de datos requeridos para el estudio de los eventos. Específicamente, en este proyecto se busca realizar un ajuste lineal para los valores llamados Xmax, que se define como la densidad de masa máxima del shower.
METODOLOGÍA
Para poder realizar las simulaciones, primero nos tuvimos que instalar los softwares de ROOT y CONEX (derivado de CORSIKA). El primero es necesario para el correcto funcionamiento y la lectura de los archivos emitidos por CONEX y el segundo es para la realización de las simulaciones en sí. Después, tuvimos que acceder a la supercomputadora del Laboratorio Nacional de Supercómputo y familiarizarnos con el entorno y el administrador de trabajo (SLURM). Por últmo, mandamos a realizar las simulaciones en dicho equipo.
Originalmente, se realizaron 110 simulaciones, o jobs, en 11 bines, i. e., 10 jobs por bin, con 1000 eventos cada uno en el rango de energía de 16.875 a 19.625LgE (logaritmo de la energía en Ev) con un ángulo azimutal de 0 grados para los núcleos de hidrógeno y de hierro con los modelos EPOS, SIBYLL y QGSJETII. No obstante, cuando llegaron los resultados iniciales nos dimos cuenta de que varias de las simulaciones llegaron corruptas por lo cual se tuvo que reiniciar el proceso. Para la segunda vuelta, se optó por repetir el proceso, pero con 55 jobs de 20000 eventos cada uno en lugar del plan original.
Como software necesario para red neuronal, se usó Ananconda como administrador de entornos, Jupyter como IDE y Tensorflow/Keras, Pandas y Numpy como librerías, así como Uproot para la lectura de los archivos .root.
Para el tratamiento de datos, primero se leyeron los archivos y las ramas Xmax, Nmax, Xfirst, LgE fueron exportadas a un archivo csv para un acceso más rápido. Después, se separaron las columnas Nmax, Xfirst, LgE de la Xmax y fueron puestas en DataFrames de Pandas. Por último, se hizo un sampleo randomizado del 20% de los datos para testeo.
Para la red en sí, se hizo con 3 datos de entrada, una capa oculta de 128 nodos, otra con 512, una última de 256 y una de salida. Todos los nodos fueron de tipo Dense. Como método de compilación, usamos el error cuadrático medio y como optimizador usamos a Adam con una tasa de aprendizaje de 0.001 por 100 epochs.
CONCLUSIONES
A través de la estancia obtuvimos habilidades necesarias en el área de física experimental y computacional y fuimos parcialmente exitosos en la obtención de resultados. Como se mencionó anteriormente, tuvimos que repetir la parte de simulación de datos por lo que, al momento de escritura, solo se han terminado de realizar las simulaciones de hierro y protón con el modelo de SIBYLL y por lo tanto solo se ha podido aplicar la red neuronal a estas. Sin embargo, estos resultados fueron alentadores con una precisión del 86% para el hierro y una del 75% para el protón, de tal manera que esperamos resultados similares para el resto de los modelos. Además, podríamos mejorar estos resultados con la adición de otros parámetros incluidos en la simulación. Por ello, aún quedan áreas de oportunidad en el proyecto.
Rosales Rios Claudia Ana Maria, Universidad de Guadalajara
Asesor:Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
CARACTERIZACIÓN DEL SUELO A PARTIR DEL ANALISIS DE ONDAS SUPERFICIALES EN PUERTO VALLARTA, JALISCO.
CARACTERIZACIÓN DEL SUELO A PARTIR DEL ANALISIS DE ONDAS SUPERFICIALES EN PUERTO VALLARTA, JALISCO.
Alvarado Izarraras Roberto, Universidad de Guadalajara. Portillo Lujan Ana Paula, Universidad Estatal de Sonora. Rosales Rios Claudia Ana Maria, Universidad de Guadalajara. Zúñiga Cueva Wendy Lizbeth, Universidad de Guadalajara. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La ciudad de Puerto Vallarta se encuentra en el occidente de México, la cual es una zona de alta sismicidad por consecuencia de la subducción de la placa Rivera con la Norteamericana. Históricamente han ocurrido sismos importantes que dejaron grandes daños en edificios, además del sismo las causas de esto podrían estar asociadas a los efectos de sitio, de ahí la importancia de estos estudios previos al desarrollo de estructuras de ingeniería civil. La capacidad de las estructuras para resistir una vibración provocada por un sismo depende de la intensidad del movimiento del terreno, su amplitud y duración. Ya que estos comportamientos pueden aumentar tanto la probabilidad de daños estructurales como el riesgo en la seguridad de las personas. Con la aplicación de los diversos métodos sísmicos y técnicas de análisis, como MASW (Multichannel Analysis of Surface Waves) y MAM (Microtremor Array Measurement), se puede obtener la caracterización del suelo. Estos estudios permiten inferir cómo las ondas sísmicas se pueden propagar y amplificar durante un evento sísmico. Estos métodos se basan en el análisis de ondas superficiales, el arreglo MAM es relativamente nuevo pero ha ganado bastante popularidad en la geofísica por su capacidad de resolución y penetración, además de ser más económico al utilizar el ruido ambiental.
METODOLOGÍA
La investigación se basó en la adquisición de datos sísmicos utilizando tanto el método de sísmica activa (MASW) como el método de sísmica pasiva (MAM). Se implementaron equipos y técnicas adecuadas para cada enfoque y se llevaron a cabo pruebas en diversas ubicaciones representativas de Puerto Vallarta. Los datos recopilados se analizaron y compararon para determinar las diferencias y similitudes entre ambos métodos en la caracterización del suelo.
Para el método MASW:
Selección de varios puntos para el área de estudio.
Definición de la trayectoria de la línea de adquisición de datos.
Ondas generadas a partir del golpe de un marro de 20 libras hacía una placa metálica.
Registro de ondas por medio de geófonos colocados cada 2 metros.
Para la adquisición de datos se registra un conjunto de datos suficiente para cubrir un rango de frecuencias que permita una resolución adecuada de las capas subsuperficiales. Al procesar los datos se buscó realizar la corrección de tiempo para alinear las señales registradas, así como aplicar filtros para mejorar la relación señal-ruido y eliminar el ruido no deseado. También se buscó calibrar las amplitudes de las señales para obtener mediciones precisas de la amplitud de las ondas.
Destacando que la metodología del MASW puede requerir ajustes específicos según las condiciones del terreno y los objetivos del estudio. Además, el procesamiento y análisis de datos se lleva a cabo utilizando softwares especializados.
En el caso del método MAM se utilizaron las vibraciones naturales del suelo, como el viento, el tráfico y la actividad humana, conocidas como microtemblores. En el diseño de la práctica se seleccionó el sitio de estudio y el área en el que se realizaron las mediciones, para después colocar una matriz de sensores sísmicos en el suelo (varios geófonos distribuidos en un patrón específico). De la misma manera en la adquisición de datos se recopilaron suficientes microtemblores para un análisis preciso. Para el procesamiento de datos se calcula el espectro de frecuencia de las señales para cada punto en la matriz y para diferentes componentes (horizontal y vertical) así como realizar la corrección de tiempo y aplicar filtros para eliminar ruido no deseado. Al momento de analizar los datos se identifican las frecuencias naturales del suelo (modos de vibración) a partir del espectro de frecuencia.
La metodología de MAM es una herramienta valiosa para la caracterización del subsuelo y la evaluación del riesgo sísmico, especialmente en áreas urbanas donde las fuentes sísmicas naturales son abundantes.
CONCLUSIONES
El uso de ambos métodos permitió obtener una visión más completa de las propiedades del suelo, lo que es esencial para comprender cómo las ondas sísmicas se propagan y amplifican durante un evento sísmico. El método MASW, que se basa en ondas generadas activamente, proporcionó información valiosa sobre las capas subsuperficiales y la velocidad de propagación de las ondas. Por otro lado, el método MAM, que utiliza vibraciones naturales del suelo, permitió identificar las frecuencias naturales y los modos de vibración del suelo. Mencionando que el método MAM tiene mayor costo y complejidad además de un mayor tiempo de procesamiento, mientras que en el método MASW tiene una menor resolución en profundidad y también presenta limitaciones en suelos muy heterogéneos.
La combinación de ambos métodos puede aumentar la precisión y confiabilidad de los resultados y ofrecer una mayor comprensión de la estructura del suelo, lo que es esencial para la planificación y el diseño de nuevas construcciones y para la evaluación de la vulnerabilidad de las estructuras existentes frente a eventos sísmicos.
Al comprender mejor las características del subsuelo, se pueden evaluar los riesgos geotécnicos, como la susceptibilidad a la licuefacción del suelo durante un terremoto, la posibilidad de deslizamientos de tierra u otros fenómenos relacionados con la geodinámica. La información obtenida a través de estos métodos puede ser utilizada para optimizar el diseño y la planificación de proyectos de construcción, reduciendo los costos y los riesgos asociados con la ingeniería geotécnica.
Durante la estancia de verano se logró obtener conocimientos teóricos y ponerlos en práctica a lo largo del verano. Al crear un manual de uso para el equipo geode, las practicas fueron de mayor provecho, una vez teniendo estas herramientas a disposición el proceso es fácil de implementar si el equipo necesario se encuentra disponible.
Rosas Benavides Natalia Jackeline, Universidad de Guadalajara
Asesor:Dr. Bernardino Barrientos Garcia, Centro de Investigaciones en Óptica (CONACYT)
INTERFEROMETRíA EN LA EVALUACIóN DE LENTES OFTáLMICAS
INTERFEROMETRíA EN LA EVALUACIóN DE LENTES OFTáLMICAS
Arellano Valdenebro Janeth, Universidad de Guadalajara. Rosas Benavides Natalia Jackeline, Universidad de Guadalajara. Asesor: Dr. Bernardino Barrientos Garcia, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Como se sabe más del 50% de la población mexicana hace uso de lentes oftálmicas, donde se les dice que la graduación de la lente que usaran es de una gran calidad. Pero realmente no siempre es como lo hacen saber.
El motivo por el que se realizó nuestra investigación fue dado a que muchas tiendas oftalmólogas no tienen un gran control al momento de graduar el radio de curvatura de las lentes oftálmicas, dado que este radio puede quedar solamente en el centro de la lente y no esparcida en toda la lente. Es importante saber que el radio de curvatura puede mejorar el panorama de la vista dado por la lente oftálmica.
Paro esto se encontró la manera de medir su radio de curvatura de píxel en píxel, donde la persona se podrá dar cuenta si hay algún error al momento de que el lente haya sido graduado. Al momento de encontrar su radio fue posible poder calcular su potencia y las dioptrías que este tiene.
METODOLOGÍA
Para comenzar con esta aplicación se hizo una investigación de los conceptos básicos de la óptica, donde se conoció las fuentes de luz, lentes, cámaras e interferómetros.
Nos basamos en el interferómetro de Mach Zehnder el cual está compuesto por un láser, dos espejos y dos divisores de haz. Para la toma de las imágenes dadas por el interferómetro se hizo uso de una cámara. El comportamiento de este interferómetro empieza desde una fuente de luz, en este caso el láser, el cual incide por un divisor de haz que divide un rayo de luz los cuales se dirigen a dos espejos, por último, son juntados por el ultimo divisor de haz, que manda los dos rayos juntos a la cámara y otro parte de esos dos rayos a una pantalla, sin perder información.
Primero se tomaron cinco imágenes con diferentes características, la primera no introducíamos la lente oftálmica, ni le debamos una inclinación a uno de los lentes, con el motivo de poder ver las aberraciones que tenía el arreglo. La segunda imagen se colocó la lente interfiriendo en uno de los caminos de los dos rayos, por lo que esto nos dejaba ver cuál era la posición del centro de la lente. La en la tercera se quitó la lente y se introdujo una inclinación en una de las lentes, esto para poder tener una frecuencia espacial de 100 franjas. En la siguiente imagen se introdujo la lente ya puesta con la inclinación. Por último, se tomó la foto del tamaño de la imagen.
La últimas tres imágenes mencionadas, nos ayudaron en el procesamiento de imágenes, donde se aplicó el método de Takeda el cual consta de lo siguiente.
Se aplica la transformada rápida de Fourier tanto para la imagen con tilt y sin lente, así como la imagen con tilt y con lente.
Por segundo lugar tenemos la aplicación de un filtro en ambas imágenes, el cual nos dejara pasar ciertas frecuencias que nos apoyaran a atenuar las demás frecuencias.
Se le aplica la transformada inversa de Fourier a ambas imágenes. Al obtener el resultado nos daremos cuenta de que nos arrojara números de pixeles reales al igual que imaginarios.
Al obtener los números reales e imaginarios se les aplicará un arcotangente de dos parámetros que será el uso de los números imaginarios entre el de los reales.
Por consiguiente, hacemos una resta de los resultados dados por el arcotangente en ambas imágenes por lo que obtenemos la imagen donde se encuentra el radio de la lente.
Por último, se hace un desenvolvimiento de fase de esta última imagen, de sus columnas y sus renglones. Esto nos ayuda a eliminar discontinuidades en la fase y poder recuperar su fase original, lo cual nos ayudó a poder calcular R o el radio de curvatura. Para finalizar con este proceso solo se cálculo la potencia que es la inversa de R.
Para esto se tuvo que simular las imágenes tomadas por el interferómetro, para poder trabajar de manera eficaz en el código dado que en estas imágenes no se tenía ningún tipo de ruido y esto no nos complicaba el software desarrollado para este método. Anteriormente se sabía que la lente que se estaba midiendo tenía un radio de curvatura de 7 metros. Por lo que en el radio de curvatura calculado en estas imágenes simuladas daba un aproximado a 7 metros, con muy poco error porcentual. Se consiguió una estabilidad en el desarrollo del software y se procesaron las imágenes experimentales. Lo cual como promedio se obtuvo un radio de curvatura de 7 metros de píxel en píxel y una potencia de +0.14 D.
CONCLUSIONES
Durante la estancia de verano en el CIO,se logró aprender más acerca de la interferometría, al igual que el comportamiento de la luz que se tuvo en el interferómetro de Mach Zehnder. Dado a este comportamiento se logró calcular el radio de curvatura de una lente oftálmica, la cual tenia una gran importancia dado que nos ayudó en el momento de calcular la potencia de una lente de pixel por pixel.
Rosas Fuentes Leonardo David, Universidad de Guadalajara
Asesor:Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
DETECCIóN Y ANáLISIS DE SEñALES DE INFRASONIDO PARA SU CLASIFICACIóN Y ESTUDIO DE FENóMENOS SíSMICOS.
DETECCIóN Y ANáLISIS DE SEñALES DE INFRASONIDO PARA SU CLASIFICACIóN Y ESTUDIO DE FENóMENOS SíSMICOS.
Casillas Romero Mariana, Universidad de Guadalajara. Rosas Fuentes Leonardo David, Universidad de Guadalajara. Zaragoza Aceves Andrea Gabriela, Universidad de Guadalajara. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Una señal es una magnitud asociada a un fenómeno físico. Matemáticamente es una función de una o más variables que son forzosamente independientes. Puede ser medida por un instrumento o percibida directamente por el ser humano y su finalidad es transmitir información en espacio y tiempo. Como menciona: Es una magnitud cuya variación en el tiempo representa una información.
El sonido cómo una señal analógica es un fenómeno que involucra la propagación de información por medio de ondas mecánicas producidas por las variaciones de presión de forma vibratoria en un medio elástico. Entre las variaciones de presión existe un parámetro llamado "frecuencia audible" que permite que sean percibidas por el oído humano, siendo el rango de 20 Hz a 20KHz.
En el campo de la geofísica, se ha planteado la posibilidad de desarrollar un algoritmo capaz de clasificar las ondas detectadas, con el objetivo de obtener una mayor especificidad en el estudio de fenómenos que emiten este tipo de señales, como los sismos. Esta investigación podría brindar una valiosa herramienta para comprender mejor la naturaleza y comportamiento de las fuentes de señales infrasónicas.
En resumen, las señales de infrasonido, aunque inaudibles para los seres humanos, presentan un potencial significativo en diversas aplicaciones científicas, y el desarrollo de algoritmos para su análisis puede abrir nuevas perspectivas en el estudio de fenómenos naturales como los sismos.
El objetivo del proyecto consistió en desarrollar un programa para implementar un algoritmo de detección de señales de infrasonido. El algoritmo permite la clasificación de las señales y conocer las características de las señales antropogénicas. En este caso, resultó fundamental estudiar detenidamente las señales captadas por lo distintos sensores para generar los ajustes del algoritmo de detección a fin de automatizar la clasificación de las señales. Para ello hemos estudiado las señales recabadas en el año 2019.
METODOLOGÍA
Se instalaron tres sensores Raspberry Boom (RBOOM) en diferentes lugares con suministro continuo de energía, conexión a internet y condiciones seguras. Estos sensores registraron series de tiempo a 100 Hz y se usaron para detectar señales de infrasonido. Utilizamos un algoritmo que calcula el promedio de la amplitud de la señal usando dos ventanas de longitud diferente (STA y LTA); STA siendo el de corto plazo es sensible a cambios en la amplitud de la señal, y LTA siendo el de largo plazo nos brinda información del ruido sísmico de fondo. La detección de señales ocurre cuando la relación STA/LTA supera un umbral específico. La calibración de los parámetros del algoritmo STA/LTA no es trivial, pero se ajustaron manualmente para aislar y ajustar señales especificas con el fin de facilitar su estudio, semejante a lo implementado.
Para el análisis de las señales sólo tomamos en cuenta aquellas que fueron detectadas por los tres sensores. La recolección de datos se llevan a cabo con un arreglo especial el cual consiste en colocar las estaciones de forma que este arreglo nos deje averiguar de donde proviene la señal, con lo cual nos puede dar mas información acerca del tipo de señal que se ha detectado. Los datos recabados fueron procesados utilizando ObsPy con transformadas rápidas de Fourier.
CONCLUSIONES
Mediante las herramientas de 'ObsPy', fueron ajustados individualmente los parámetros que permitían encontrar el ajuste para caracterizar cada señal. En este caso, encontramos ajustes adecuados para cada tipo de señal, sin embargo, al utilizar el algoritmo 'cross correlate', no fue posible encontrar una gran cantidad de señales que se relacionaran, aún con la variación de los parámetros establecidos en el algoritmo.
Se han podido detectar señales captadas en los tres sensores y aislarlas con los ajustes propuestos, sin embargo, no se pudo encontrar correlación. Esto pudiera ser debido a que el método aún no está optimizado, que la señal no fue comparada en un rango de tiempo suficiente para que esta se repitiera, o alguna incertidumbre asociada en la medición.
No descartamos la posibilidad de encontrar una correlación en el futuro que pudiera brindar nueva información sobre los fenómenos de interés o sus fuentes como pudieran ser sismos, señales antropogénicas, o la topografía de la zona.
Se pretende explorar la posibilidad de utilizar un algoritmo que nos permita aislar y estudiar las señales, de esta forma obtener más información para su estudio, como de dónde proviene la señal. Para ello es necesario explorar la geometría utilizada en el arreglo de los sensores, la mejora del algoritmo, o reconocer alguna incertidumbre asociada en la toma de señales que nos permita mejorar la diferenciación entre ellas.
Rubio Galán Mariana, Universidad de Colima
Asesor:Dr. Rosendo Romero Andrade, Universidad Autónoma de Sinaloa
ANáLISIS DE LAS OBSERVACIONES GPS/GNSS CON RECEPTORES DE ORDEN GEODéSICO Y DE BAJO COSTO PARA TRABAJOS TOPOGRáFICOS-GEODéSICOS.
ANáLISIS DE LAS OBSERVACIONES GPS/GNSS CON RECEPTORES DE ORDEN GEODéSICO Y DE BAJO COSTO PARA TRABAJOS TOPOGRáFICOS-GEODéSICOS.
Briseño Morán José Manuel, Universidad de Guadalajara. Rubio Galán Mariana, Universidad de Colima. Asesor: Dr. Rosendo Romero Andrade, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Los receptores de bajo costo, si bien son una tecnología con algunos años, son relativamente nuevos en su aplicación a trabajos topográfico-geodésicos; estos receptores logran precisiones muy cercanas a las obtenidas con equipo de orden geodésico con tan solo una fracción del costo de estos últimos. El abanico de posibilidades de aplicación es cada vez mas amplio toda vez que se realizan experimentaciones que permiten exponer la viabilidad y confiabilidad de estos.
METODOLOGÍA
Se llevo a cabo una serie de experimentos para observar el comportamiento del equipo en distintas condiciones y bajo diferentes aplicaciones.
Equipo de bajo costo como estación de monitoreo continuo: Este experimento se lleva a cabo en las instalaciones de la Facultad de Ciencias de la Tierra y el Espacio de la Universidad Autónoma de Sinaloa. Consistió en la instalación de una antena Beitian (BEIBT300 NONE) antena de bajo costo con calibración de NGS en conjunto con un receptor de bajo costo Ublox ZED-F9P, en un punto de centrado forzoso por periodos de 24 horas continuas durante 3 dias. A dichas observaciones se les realizara un análisis de calidad mediante el uso de software TEQC de UNAVCO, considerando los parámetros de calidad del IGS para estaciones de monitoreo continuo.
Equipo de bajo costo para determinar el nivel medio del mar: Este experimento se lleva a cabo sobre el muelle en Altata, Sinaloa. Consistió en la instalación de una antena Beitian (BEIBT300 NONE) antena de bajo costo con calibración de NGS junto con un par de antenas de bajo costo ANN-MB-00 montadas en una extensión sobre el mar, cada una conectada a un receptor de bajo costo Ublox ZED-F9P, en un punto en el extremo sur del muelle por periodos mínimos de 10 horas. Para dicho experimento se requerirán 12 compañas a razón de una por mes, por lo que las realizadas durante la estancia corresponde a la campaña 7; una vez terminadas las campañas de medición se hará su procesado, análisis y contraste con los datos obtenidos por el mareógrafo, propiedad de la SEMARNAT, instalado en el extremo norte del muelle.
Equipo de bajo costo para control de precisión en ortomosaicos: Este experimento se lleva a cabo en dos partes; ambas sobre la cortina de la presa Sanalona, en Culiacán, Sinaloa. La primer parte consistió en la observación de quince puntos solicitados a lo largo y ancho de toda la cortina de la presa cuya finalidad es el control de vuelo fotogramétrico realizado con dron Mavic Mini 2, la observación se hace con una antena Leica LEIAT502 o Leica LEIAS10 en conjunto con un receptor de bajo costo Ublox ZED-F9P por un periodo de una hora en cada uno de los quince puntos; simultáneamente se instala un equipo de orden geodésico GeoMax ZENITH25 en un punto de centrado forzoso (GRIS) sobre la cortina de la presa para control y referencia. Se realizó un análisis de calidad mediante el uso del software TEQC de UNAVCO, considerando los parámetros de calidad del IGS para estaciones de monitoreo continúo, una vez obtenido el análisis de calidad los datos son procesados con software comercial TOPCON Tools bajo la técnica de Posicionamiento Relativo Estático obteniendo de ellos coordenadas y elevaciones en dos supuestos, el primero utilizando la estación de referencia CULC de INEGI para todos los puntos, y el segundo utilizando el punto denominado GRIS, como estación de referencia para todos los puntos observados con equipo de bajo costo. Para la segunda parte del experimento se llevo a cabo una campaña de mediciones con equipo GeoMax ZENITH25 por un periodo de 15 minutos en cada punto, simultáneamente se instala un equipo de orden geodésico GeoMax ZENITH25 en un punto de centrado forzoso (GRIS) sobre la cortina de la presa para control y referencia. . Se realizó un análisis de calidad mediante el uso del software TEQC de UNAVCO, considerando los parámetros de calidad del IGS para estaciones de monitoreo continúo, una vez obtenido el análisis de calidad los datos son procesados con software comercial TOPCON Tools bajo la técnica de Posicionamiento Relativo Estático obteniendo de ellos coordenadas y elevaciones en dos supuestos, el primero utilizando la estación de referencia CULC de INEGI para todos los puntos, y el segundo utilizando el punto denominado GRIS, como estación de referencia.
CONCLUSIONES
La realización de estos experimentos tiene como finalidad, exponer a los equipos de bajo costo a aplicaciones topográfico-geodésicas, para observar su comportamiento y desempeño en comparación con equipos implementados actualmente.
En el análisis de calidad los equipos de bajo costo tienen un desempeño equiparable a los receptores de orden geodésico en los parámetros de intensidad de la señal y efecto multitrayectoria y una diferencia destacable en la integridad de la señal y saltos de ciclo, parámetros que mejoran con el cuidado al momento de la instalación o un mayor tiempo de observación.
El procesado de datos es fundamental para alcanzar las precisiones que demandan los trabajos de orden topográfico-geodésico.
Un equipo de bajo costo tendrá un buen desempeño en trabajos topográfico-geodésicos, basándonos en pruebas y comparativas realizadas con los datos obtenidos con equipos de orden geodésico, que corroboraron una diferencia entre coordenadas sobre las décimas de segundo. Así mismo los procesos arrojaron correcciones inferiores a los 10 mm siendo un margen tolerable para su aplicación.
Los experimentos llevados a cabo forman parte de estudios más amplios cuyos resultados se utilizaran para sustentar dos tesis de licenciatura y una de maestría, con su respectiva publicación en una revista de divulgación científica; dichos experimentos no han sido concluidos puesto que se requiere redundancia en la obtención de los datos para una comparativa mas precisa.
Ruelas Cueva Francisco Martín, Universidad de Guadalajara
Asesor:Dra. Claudia Moreno González, Universidad de Guadalajara
SIMULACIóN NUMéRICA DE LA ECUACIóN DE KLEIN-GORDON MEDIANTE DIFERENCIAS FINITAS
SIMULACIóN NUMéRICA DE LA ECUACIóN DE KLEIN-GORDON MEDIANTE DIFERENCIAS FINITAS
Ruelas Cueva Francisco Martín, Universidad de Guadalajara. Asesor: Dra. Claudia Moreno González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
En este trabajo, se aborda la importancia de las ecuaciones de onda en la descripción de fenómenos físicos, especialmente en el contexto relativista. Se enfoca en la ecuación de Klein-Gordon, que es una ecuación diferencial parcial relativista que describe el comportamiento de partículas cuánticas sin espín (espín cero). Resolver esta ecuación en espacios-tiempo generales es un reto debido a la complejidad de las métricas no planas, lo que dificulta el análisis analítico en algunos casos. Por lo tanto, se recurre a técnicas numéricas avanzadas para abordar este problema y obtener información valiosa sobre la propagación de ondas en contextos complejos.
El objetivo principal de este trabajo es llevar a cabo una simulación numérica de la ecuación de Klein-Gordon en diversas métricas del espacio-tiempo utilizando el método de diferencias finitas y el formalismo 3+1. Para ello, se estudian métricas específicas y se varían los parámetros alfa y beta para analizar cómo afectan la propagación de las ondas. El uso del formalismo 1+1 de la relatividad general descompone el espacio-tiempo en una dimensión espacial y una dimensión temporal, lo que facilita la evolución temporal de las ecuaciones y el estudio de las ondas en espacios-tiempo curvos.
METODOLOGÍA
Para comenzar, se define la ecuación de onda en un espacio-tiempo curvo utilizando el formalismo 3+1, que permite descomponer el espacio-tiempo en tres dimensiones espaciales y una dimensión temporal. Esta descomposición facilita la evolución temporal de las ecuaciones y el estudio de las ondas en espacios-tiempo curvos.
Se introduce la métrica del espacio-tiempo mediante los parámetros alfa (lapso) y beta (vector de corrimiento), que son fundamentales en su descripción y varían para analizar diversas configuraciones. Además, se utilizan las coordenadas de Eddington-Finkelstein para eliminar la singularidad de la métrica de Schwarzschild debida a las coordenadas.
Se discretiza el espacio-tiempo mediante una malla bidimensional y utilizamos el método de diferencias finitas con esquemas numéricos adecuados para aproximar las derivadas espaciales y temporales de la ecuación de onda. Esto permite obtener resultados precisos y estables en la simulación.
Se definen las condiciones iniciales para la simulación, estableciendo la configuración inicial de las ondas en el espacio-tiempo curvo la cual se tomó como una gaussiana. También se establecen las condiciones de contorno adecuadas para los bordes de la malla, en este caso la condición de onda saliente.
Se realizan iteraciones temporales utilizando el método de diferencias finitas para avanzar en el tiempo y obtener la evolución de las ondas en el espacio-tiempo curvo. En cada paso temporal, son actualizados los valores de las variables en la malla discretizada, teniendo en cuenta los valores actuales de alfa y beta en cada punto.
Posteriormente, se analizan los resultados obtenidos de la simulación numérica. Se examinan cómo se propagan las ondas en el espacio-tiempo curvo y estudian cómo los parámetros alfa y beta influyen en la evolución de las ondas.
Se realizan comparaciones entre las soluciones obtenidas para diferentes valores de los parámetros alfa y beta. Se estudian las diferencias en la propagación de las ondas e identificamos las características distintivas en cada caso, lo que permite entender mejor el comportamiento de las ondas en espacios-tiempo curvos.
Finalmente, se validan la precisión y exactitud de la simulación comparando los resultados numéricos con soluciones analíticas conocidas en métricas planas o en condiciones específicas.
CONCLUSIONES
Los resultados demostraron que la variación de los valores de alfa y beta causó cambios notables en la forma y propagación de las ondas en el espacio-tiempo curvo, confirmando su impacto significativo en la evolución de los fenómenos estudiados. Las gráficas mostraron claramente cómo alfa y beta afectan la forma y amplitud de las ondas a medida que avanzan en el tiempo, resaltando la sensibilidad de las ondas a la métrica utilizada. Estos hallazgos subrayan la importancia de considerar la métrica adecuada al analizar fenómenos en espacios-tiempo curvos y su efecto en la propagación de ondas.
En el caso específico de las métricas de Schwarzschild, se presentaron tres escenarios distintos al considerar diferentes condiciones iniciales:
Cuando la condición inicial está dentro del radio de Schwarzschild (rs), la parte de la onda que va hacia afuera regresa después de un tiempo hacia el centro del agujero negro, lo que indica una curvatura significativa del espacio-tiempo cerca del horizonte de eventos.
Cuando la condición inicial se encuentra justo en rs, la parte que va hacia afuera se mantiene en rs, mientras que la otra parte sigue comportándose como en el caso anterior. Esto revela una característica peculiar de la métrica de Schwarzschild cerca del horizonte de eventos.
Finalmente, con la condición inicial fuera de rs, la parte que se aleja del agujero negro lo hace a una velocidad menor en comparación con la parte que se aleja en una dirección opuesta. Esto sugiere una dilatación del tiempo en presencia de una fuerte curvatura gravitacional.
Estos resultados son consistentes con las teorías establecidas en la relatividad general y resaltan la complejidad y riqueza del comportamiento de las ondas en espacios-tiempo curvos, particularmente en las métricas de Schwarzschild.
En conclusión, la simulación numérica con el formalismo 1+1 y la variación de los parámetros alfa y beta ha proporcionado información valiosa sobre la propagación de ondas en espacios-tiempo curvos. El análisis de las métricas de Schwarzschild con diferentes condiciones iniciales ha profundizado en la comprensión de los efectos gravitacionales en la cercanía de agujeros negros. Estos resultados son relevantes en la relatividad y la astrofísica, y abren nuevas perspectivas para futuras investigaciones en el estudio de fenómenos en espacios-tiempo curvos.
Ruiz Cervantes Anahí, Universidad de Sonora
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
ESTUDIO DEL MODELO INFLACIONARIO EN COSMOLOGíA-CUáNTICA SUPERSIMéTRICA CON DOS CAMPOS ESCALARES.
ESTUDIO DEL MODELO INFLACIONARIO EN COSMOLOGíA-CUáNTICA SUPERSIMéTRICA CON DOS CAMPOS ESCALARES.
Ruiz Cervantes Anahí, Universidad de Sonora. Ruiz Hernández Porfirio, Universidad de Sonora. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Analizamos la evolución efectiva de un modelo fenomenológico de la cosmología cuántica supersimétrica FLRW con dos campos escalares. El primer campo escalar actúa como un reloj e inflatón. El segundo, por su parte, es contenido de materia y se consideran varios tipos de potenciales. Examinamos una familia de superpotenciales que generan potenciales de interacción entre los campos bosónicos presentes dando así a un periodo de inflación.
METODOLOGÍA
Primeramente, nos enfocamos en la obtención de la función lagrangiana del sistema, para esto partimos del principio de acción construido a partir de la solución de las ecuaciones de Einstein.
Una vez formulada la lagrangiana, hacemos uso del método tradicional para la obtención del Hamiltoniano.
Implementando el método de Dirac, cuantizamos el Hamiltoniano, resultando así ecuaciones diferenciales parciales, que a partir de métodos matemáticos, obtuvimos la función de onda del universo.
CONCLUSIONES
En nuestra estancia del verano, llegamos a obtener las ecuaciones que rigen al sistema. Se espera que al resolver dichas ecuaciones nos resulte una función de onda del universo. La cuál, varía dependiendo de la familia de potenciales que se implemente.
Ruiz Hernández Porfirio, Universidad de Sonora
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
ESTUDIO DEL MODELO INFLACIONARIO EN COSMOLOGíA-CUáNTICA SUPERSIMéTRICA CON DOS CAMPOS ESCALARES.
ESTUDIO DEL MODELO INFLACIONARIO EN COSMOLOGíA-CUáNTICA SUPERSIMéTRICA CON DOS CAMPOS ESCALARES.
Ruiz Cervantes Anahí, Universidad de Sonora. Ruiz Hernández Porfirio, Universidad de Sonora. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Analizamos la evolución efectiva de un modelo fenomenológico de la cosmología cuántica supersimétrica FLRW con dos campos escalares. El primer campo escalar actúa como un reloj e inflatón. El segundo, por su parte, es contenido de materia y se consideran varios tipos de potenciales. Examinamos una familia de superpotenciales que generan potenciales de interacción entre los campos bosónicos presentes dando así a un periodo de inflación.
METODOLOGÍA
Primeramente, nos enfocamos en la obtención de la función lagrangiana del sistema, para esto partimos del principio de acción construido a partir de la solución de las ecuaciones de Einstein.
Una vez formulada la lagrangiana, hacemos uso del método tradicional para la obtención del Hamiltoniano.
Implementando el método de Dirac, cuantizamos el Hamiltoniano, resultando así ecuaciones diferenciales parciales, que a partir de métodos matemáticos, obtuvimos la función de onda del universo.
CONCLUSIONES
En nuestra estancia del verano, llegamos a obtener las ecuaciones que rigen al sistema. Se espera que al resolver dichas ecuaciones nos resulte una función de onda del universo. La cuál, varía dependiendo de la familia de potenciales que se implemente.
Ruiz Ruiz Arturo, Universidad Veracruzana
Asesor:Dra. Carolina Andrea Ochoa Martínez, Universidad Veracruzana
LA PERCEPCIóN DEL CAMBIO CLIMáTICO EN INSTITUCIONES DE EDUCACIóN SUPERIOR.
LA PERCEPCIóN DEL CAMBIO CLIMáTICO EN INSTITUCIONES DE EDUCACIóN SUPERIOR.
Ruiz Ruiz Arturo, Universidad Veracruzana. Asesor: Dra. Carolina Andrea Ochoa Martínez, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
El cambio climático es uno de los problemas más importantes que actualmente está enfrentando la humanidad pues atenta contra el sostenimiento de las condiciones generales que aseguran la vida y la seguridad no sólo del ser humano sino cualquier especie en general. Sin embargo, la respuesta social al cambio climático no es proporcional a la gravedad del mismo porque pareciera que no se le está percibiendo como un problema que amerite realizar cambios en la vida cotidiana para contribuir en la mitigación de dicha problemática, pues no se percibe un riesgo inminente. Partiendo de estas premisas, con el objetivo de comprender qué importancia se le ha dado al cambio climático en la educación superior, el presente trabajo se presentan los resultados de una investigación que analizó la percepción que tiene del cambio climático estudiante, catedráticos e investigadores de educación superior pertenecientes a la Universidad Veracruzana.
METODOLOGÍA
Veracruz, por su posición geográfica, la extensión de su litoral, la distribución de sus asentamientos humanos en zonas de riesgo, la amplitud de su biodiversidad y otros factores, es propenso a una creciente vulnerabilidad a los efectos del cambio climático. Por otra parte, la Universidad Veracruzana (UV), por ser una de las más grandes del sureste del país cuenta con una población estudiantil de 79, 617 alumnos, y se ofertan 354 programas educativos de los cuales 197 son programas de licenciatura y 142 corresponden a estudios de posgrado en 77 Facultades, 42 Centros e institutos de Investigación y un Sistema de Enseñanza Abierta.
Así, para el desarrollo de este estudio se revisó bibliografía sobre los temas de cambio climático y percepciones en México. Enseguida se llevó a cabo el trabajo de recopilar información a través de tres páginas pertenecientes a la Universidad Veracruzana (Sistema de información para la vinculación universitaria SIVU, Sistema de registro y evaluación de la investigación SIREI, Programa de Estudios de Cambio Climático de la Universidad Veracruzana PECCUV). SIVU y SIREI son páginas en donde se encuentran registrados proyectos, investigaciones, actividades, foros y congresos que han realizados estudiantes, catedráticos e investigadores de cualquier programa educativo que integra la Universidad Veracruzana. Mientas que el PECCUV es responsable de contribuir al desarrollo de la investigación, propiciar el diálogo entre diferentes disciplinas, servir como espacio de intercambio de conocimiento, impulsar el trabajo colectivo, y vincularse con planes y programas de estudios para incorporar transversalmente al cambio climático como objeto de estudio en licenciatura y posgrado, todo lo anterior con la misión de constituirse en un organismo de referencia, en materia de cambio climático, dentro del estado de Veracruz.
La recopilación de datos consistió en buscar información a través de las páginas mencionadas anteriormente, por medio de palabras claves (cambio climático, medio amiente, sustentabilidad, contaminación, entre otras) sobre como los distintitos programas educativos que integran a la UV se han ido involucrando en temas de cambio climático por medio de las distintas actividades, foros, congresos, investigaciones y proyectos que suelen realizar.
Para una mejor organización y con el fin de ir construyendo una base de datos, la información obtenida se fue registrando en una hoja de cálculo de Excel, en donde se fue clasificando de la siguiente manera: Campus o región de la UV, área académica, Entidad o dependencia, tipo de registro (proyectos, foro, investigación, etc.), título del proyecto, objetivo general y participantes.
Una vez teniendo la información ya organizada y depurada se sometió a un análisis estadístico con la finalidad de contabilizar las distintas actividades realizadas en materia de cambio climático, y elaborando un diagnóstico preliminar sobre la percepción del cambio climático en las 5 regiones que integran Universidad Veracruzana.
CONCLUSIONES
En conclusión, la percepción del cambio climático en la educación superior es de gran relevancia y tiene implicaciones significativas para la formación de futuros profesionales y la sostenibilidad del territorio. Las percepciones, conocimientos y creencias sobre este fenómeno ambiental proporcionan información valiosa para desarrollar estrategias de mitigación y adaptación en el contexto geográfico regional.
La educación superior desempeña un papel fundamental en la configuración de escenarios de formación, información y apropiación social, lo que puede influir en la manera en que los futuros profesionales aborden y enfrenten los desafíos del cambio climático. Es crucial que las universidades integren explícitamente el tema del cambio climático en los planes de estudio y en la formación profesional, para preparar a los estudiantes y futuros líderes con una comprensión sólida de los impactos ambientales y la necesidad de acciones sostenibles.
Asimismo, es esencial propiciar espacios para la educación y comunicación efectiva sobre el cambio climático, ya que la concientización y comprensión de la problemática son fundamentales para encontrar soluciones adecuadas. La colaboración entre diferentes áreas de conocimiento y la sociedad en general, incluyendo gobiernos, empresas y organizaciones, es necesaria para enfrentar el cambio climático de manera integral y efectiva.
La percepción del cambio climático en la educación superior debe ir más allá de la mera información y comprenderse como una oportunidad para generar conciencia, acciones y políticas concretas que contribuyan a mitigar los efectos y adaptarse a este desafío global. Solo a través de una educación comprometida y orientada hacia la sostenibilidad, podremos afrontar el cambio climático y construir un futuro más resiliente y equitativo para las próximas generaciones.
Ruiz Salinas Lizbeth Alicia, Universidad Autónoma del Estado de México
Asesor:Dr. Alejandro Perez Larios, Universidad de Guadalajara
OBTENCION DE NITRATO DE NIQUEL A DIFERENTES CONCENTRACIONES
OBTENCION DE NITRATO DE NIQUEL A DIFERENTES CONCENTRACIONES
Ruiz Salinas Lizbeth Alicia, Universidad Autónoma del Estado de México. Asesor: Dr. Alejandro Perez Larios, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Obtencion de nitrato de niquel a diferentes concentraciones
METODOLOGÍA
En primer lugar se realizaron los calculos de cuanto nitrato de niquel se necesitaba por cada muestra, posteriormente se obtuvieron los militritos correspondientes de la solucion de alcohol con agua.Una vez pesado el compuesto se diluyo en la solucion de alcohol con agua y se agitaron las muestras por algunos segundos. Todo esto se llevo a cabo mediante una sintesis que duro aproximadamente 12 horas, la cual se repitio durante 3 veces, una vez que se acabo el tiempo se calcino y se obtuvieron mezcla solidas del compuesto inicial.
CONCLUSIONES
Al termino de la metodologia se obtuvieron mezclas solidas del compuesto inicial.
Ruiz Sandoval Mariana Lucia, Universidad Autónoma de Baja California
Asesor:Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia
DESPACHO ECONóMICO CON RESTRICCIONES DE CONTROL GENERADO AUTOMáTICAMENTE
DESPACHO ECONóMICO CON RESTRICCIONES DE CONTROL GENERADO AUTOMáTICAMENTE
Ruiz Sandoval Mariana Lucia, Universidad Autónoma de Baja California. Asesor: Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia
PLANTEAMIENTO DEL PROBLEMA
El despacho económico en el sistema eléctrico busca minimizar los costos de generación para satisfacer la demanda de electricidad de forma eficiente. Para lograrlo, se deben incluir las restricciones de Control Automático de Generación (AGC). El AGC es esencial para mantener la estabilidad del sistema eléctrico, ya que ajusta automáticamente la generación de energía en tiempo real para equilibrar la oferta y la demanda, evitando fluctuaciones indeseables en la frecuencia eléctrica y asegurando que se cumplan los requisitos normativos. Además, el AGC permite integrar de manera más eficiente las energías renovables, como la eólica y solar, que son intermitentes y requieren un control preciso para mantener la estabilidad del sistema eléctrico. En resumen, la inclusión de las restricciones de AGC en el despacho económico es crucial para garantizar un suministro de electricidad confiable, eficiente y seguro.
Minimizar el costo total de generación.
Sujeto a: Balance global del sistema
Límite máximo de transmisión en el elemento l
Requerimientos de reserva de regulación del sistema
Requerimientos de reserva rodante del sistema
Límite máximo de generación de potencia
Límite mínimo de generación de potencia
METODOLOGÍA
Al comenzar el plazo de tiempo se instruyó en los temas de investigación, dándose unas pláticas sobre el despacho económico. Se proporcionó un código de GAMS con el cual se resuelve el despacho económico con restricciones de red. En base al modelo reportado en el artículo An AGC Dynamics-Constrained Economic Dispatch Model, se incluyeron las restricciones de reserva de regulación y reserva rodante, máxima capacidad de reserva de regulación sujeta a las rampas de 5 minutos y la máxima capacidad de reserva rodante sujeta a las rampas de 10 minutos.
El sistema PJM de 5 nodos se utilizó para fines de simulación. Los parámetros de generación son:
PMin PMax b RR
G1 40 110 14 02
G2 200 600 10 01
G3 40 100 15 02
G4 100 520 28 05
G5 50 200 40 10
Límites de líneas 1-5=1000MW
Límite de línea 6 = 240MW
Donde:
G# es el número de generador
PMin y PMax son los límites de potencia
B es el costo MW/Hr
RR es la tasa de rampa de cada generador
Se obtuvieron los resultados siguientes:
Costo: 17216.3623$
Potencias:
Generador 1 = 110 MW
Generador 2 = 474.6465 MW
Generador 3 = 100 MW
Generador 4 = 265.3535 MW
Generador 5 = 50 MW
Flujos:
Línea 1 (De nodo 5 a nodo 4) = 234.6465 MW
Línea 2 (De nodo 1 a nodo 4) = 178.6832 MW
Línea 3 (De nodo 4 a nodo 3) = 63.3598 MW
Línea 4 (De nodo 3 a nodo 2) = 28.7132 MW
Línea 5 (De nodo 2 a nodo 1) = -271.2868 MW
Línea 6 (De nodo 1 a nodo 5) = -240 MW
Se puede ver de los resultados que el generador con mayor generación es el generador 2, el cual a su vez es el de menor costos variables. El generador cinco resulta con la menor generación (límite mínimo), pues es el de mayores costos variables. La línea 6 opera a su capacidad máxima (240MW).
CONCLUSIONES
Durante este verano se elaboró en GAMS un despacho económico tradicional, que incluye las restricciones de reserva de regulación y reserva rodante, máxima capacidad de reserva de regulación sujeta a las rampas de 5 minutos y la máxima capacidad de reserva rodante sujeta a las rampas de 10 minutos. Al ser un trabajo tan extenso, siete semanas no son suficientes para obtener resultados; los conocimientos que se adquirieron en este verano serán buenos cimientos para trabajos futuros.
Saavedra Carbajal Cynthia, Benemérita Universidad Autónoma de Puebla
Asesor:Mg. Antonio Ramos Murillo, Universidad La Gran Colombia
APLICACIÓN DE LA METODOLOGÍA JUMP MATH EN LA ENSEÑANZA DE LA FÍSICA A ALUMNOS DE 10 Y 11 GRADO EN EL COLEGIO LAURA VICUÑA
APLICACIÓN DE LA METODOLOGÍA JUMP MATH EN LA ENSEÑANZA DE LA FÍSICA A ALUMNOS DE 10 Y 11 GRADO EN EL COLEGIO LAURA VICUÑA
Martinez Peralta Roberto Emiliano, Benemérita Universidad Autónoma de Puebla. Saavedra Carbajal Cynthia, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Antonio Ramos Murillo, Universidad La Gran Colombia
PLANTEAMIENTO DEL PROBLEMA
La metodología JUMP Math es un modelo de enseñanza-aprendizaje, propone un aprendizaje fluido pero pautado, da tiempo para reflexionar, compartir y conectar; evita el estrés y las lagunas de aprendizaje pues le da mucha importancia a la atención individualizada que busca aumentar la confianza y la habilidad matemática de los estudiantes. Su propósito es que todo el alumnado adquiera la base matemática suficiente para poder desenvolverse ante los retos sociales y profesionales de la sociedad contemporánea. JUMP Math proporciona un itinerario de aprendizaje desde Educación Infantil hasta Secundaria.
Con esta metodología se busca atacar el problema que presentan los estudiantes en sus clases de física ya que para algunos se vuelve aburrido o complicada. En esta investigación se busca determinar si la aplicación y adaptación de esta metodología puede ser favorable para enseñar otras áreas de la enseñanza relacionadas con la matemática. Además de comparar si los conocimientos adquiridos corresponden a un aprendizaje significativo para los estudiantes
METODOLOGÍA
Utilizando los recursos metódicos de JUMP Math se planearon 2 semanas de clases de física para alumnos de 10 y 11 grado de bachillerato, sin embargo, por problemas externos sólo se pudo realizar una semana de clases, por lo que se acortaron los temas por ver. Para observar si los alumnos aprendieron, se realizará una evaluación tomando en cuenta los temas que se trataron. A continuación, se presentará la metodología para cada grado.
Para decimo grado se abordó el tema de las Leyes de Newton, enfocándolo más en la Primera y Segunda Ley de Newton. Para poder realizar las clases se basó en el formato de planeación que ofrece JUMP Math; el objetivo general de estas clases era que los alumnos pudieran comprender los temas y cómo los pueden relacionar en la vida cotidiana. Al comienzo de cada clase se les presentó una “Evaluación de Conocimientos” sin valor para evaluación, su propósito es ver qué conocimientos tienen los alumnos del tema y esta misma la contestaron al final de cada tema para poder llevar un registro de su aprendizaje, y si algún punto no quedó claro retomarlo en la siguiente clase.
En la primera clase se explicó la Primera Ley de Newton, dando tiempo al inicio y final de la clase para que contestaran sus hojas; analizando las respuestas de las hojas se pudo ver que lograron comprender el tema. En la segunda clase se abordó la Segunda Ley de Newton, se presentaron los conceptos de forma resumida y presentando ejemplos para mejor comprensión; se presentaron diversos ejercicios con diferentes dificultades que se fueron adaptando dependiendo del avance de los alumnos. En la tercera clase se repasó lo visto en la clase pasada y se explicó qué es un diagrama de cuerpo libre. Los objetivos de las clases de la Segunda Ley de Newton era que entendieran la relación entre la fuerza, aceleración y masa; cómo se relacionan las fuerzas entre sí y cómo usar un diagrama de cuerpo libre.
Al finalizar todas las clases, se presentó una evaluación de todos los temas que se trataron. Esto ayudó a comparar si mantuvieron los conocimientos; se ven sus respuestas de la evaluación de conocimiento que eran inmediatamente después de presentar el tema, y la última evaluación que ya había pasado tiempo, esta ayudó a observar si existió algún cambio.
Por otro lado, para onceavo grado, los temas abordados en el curso fueron la refracción y reflexión de la luz. Al comenzar la primera clase, se evaluó el nivel de conocimientos previos de los alumnos mediante una hoja de ejercicios que abordaba diferentes demostraciones sobre el comportamiento de la luz al incidir en un espejo o atravesar materiales como el vidrio. Esta actividad nos proporcionó un punto de partida para medir el aprendizaje de los alumnos.
Durante la primera clase, se llevaron a cabo una serie de ejercicios sobre la ley de reflexión, donde se fomentó la participación de todos los alumnos. El enfoque principal fue permitir que cada uno construyera su propio conocimiento, utilizando preguntas estimulantes para reflexionar sobre diversos casos que ocurren cuando un haz de luz incide en la superficie de un espejo. El objetivo de esta clase fue que los alumnos adquirieran una comprensión sólida de la ley de reflexión de la luz y la forma de calcular el índice de refracción de un material.
En la segunda clase, se abordaron diversas situaciones que exploraban qué sucede con diferentes ángulos de incidencia cuando un medio tiene un índice de refracción mayor o menor que el medio por el cual la luz se transmite. También se analizó la relación entre el índice de refracción y la velocidad de la luz. Estos conceptos se ilustraron mediante una demostración práctica utilizando un láser y una lente óptica rectangular.
En la tercera clase, se realizó una recapitulación de todo lo visto en las clases anteriores y se introdujo el concepto de reflexión total interna, utilizando una analogía con las lámparas de fibra óptica.
Finalmente, para evaluar el progreso de los alumnos, se les aplicó un cuestionario al final de la semana de clases para comparar sus conocimientos previos con lo aprendido durante el curso. Esta evaluación nos permitió medir el éxito del proceso de enseñanza y asegurarnos de que los alumnos alcanzaran los objetivos de aprendizaje establecidos
CONCLUSIONES
Esta metodología se centró en la participación de los alumnos a través de ejercicios prácticos y preguntas reflexivas. Se buscó que los estudiantes construyeran su propio conocimiento y los aplicaran en diversas situaciones. La evaluación final permitió medir el progreso alcanzado durante la semana de clases; para décimo se comparó la evaluación final con las evaluaciones realizadas en clases y muestra que un 76% comprendió completamente los temas mostrados, mientras que el 14% comprendió pero necesitan reforzarlo, y el porcentaje restante mejoró pero faltó comprensión de los temas; para décimo se mostró que un 82% mejoraron la comprensión de los conceptos vistos en clase comparado con los conocimientos previos que tenían. Además, un 78% relacionó de buena manera el concepto abstracto con el fenómeno físico.
JUMP Math ayudó a que los alumnos comprendieran temas laboriosos en un corto periodo de tiempo, mostró que realizar las programaciones basándose en su formato ayuda a los docentes a tener mejor control del progreso de la clase y de los estudiantes. Sin embargo, se hubiera observado un mejor resultado si se implementara a lo largo de todo el ciclo escolar. Dado a el corto tiempo, un área de oportunidad observada fue que los alumnos les costaba adaptarse a esta metodología, ya que el conocimiento guiado requiere de mayor atención y presencia dentro del salón de clases. Por lo que, teniendo en consideración esas observaciones, sí se puede implementar esta metodología en otras áreas de las ciencias que estén relacionadas con la matemática
Salazar Piñon Maria Carolina, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Mg. Andy Rafael Dominguez Monterroza, Universidad Tecnológica De Bolívar
APLICACIONES CIENCIA DE REDES EN EL MERCADO FINANCIERO DE MéXICO
APLICACIONES CIENCIA DE REDES EN EL MERCADO FINANCIERO DE MéXICO
Salazar Piñon Maria Carolina, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Andy Rafael Dominguez Monterroza, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
La pandemia del COVID-19 en 2020 desencadenó una crisis sanitaria global sin precedentes, afectando a todos los sectores de la sociedad, incluyendo el sector económico y financiero. El brote del virus se está convirtiendo en el evento económico y social más definitorio en la historia humana con implicaciones económicas de largo alcance (Laing, 2020). Desde entonces, las empresas mexicanas no fueron la excepción y enfrentaron diversos desafíos. En este contexto, se plantea la necesidad de analizar el impacto del Covid 19 en el sector financiero. En esta investigación se propone aplicar la ciencia de redes para evaluar el grado y las relaciones de conectividad de las principales empresas que componen el mercado de valores de mexico y así derivar conclusiones que arrojen luces sobre la adaptación de las compañías por choques exógenos como una pandemia o una crisis.
METODOLOGÍA
En este estudio se rastreó y analizó acciones de empresas Mexicanas construyendo grafos o redes para describir a través de algunas métricas los cambios estructurales en las conexiones de las empresas analizadas. Para llevar a cabo este análisis, se tomaron series de 25 empresas del mercado de enero del 2018 a diciembre del 2022, las empresas seleccionadas son de diferentes tamaños y sectores.
Los pasos metodológicos de la investigación se resumen a continuación y fueron ejecutados en lenguaje Python haciendo uso de varias librerias:
Preprocesamiento de los datos de la serie financiera del precio de los activos y normalización de los datos mediante el retorno logaritmico.
Construir la matriz de correlación lineal entre las series.
Definir un umbral de correlación como criterio de conexión y construir los grafos en tres momentos: antes, durante y posterior al comienzo del primer año de la pandemia.
Calcular las métricas más relevantes del grafo obtenido e interpretar sus resultados.
CONCLUSIONES
Se observaron cambios en las propiedades estructurales del grafo antes, durante y después de la crisis del Covid 19. Puntualmente, al analizar cada una de las empresas seleccionadas se determinó magnitud de densidad con un cálculo de 0.2 como bajo, 0.4 medio y 0.6 fuerte, de esta manera se midió la capacidad de conexión con otras empresas, según el porcentaje obtenido antes de la pandemia, las empresas tenían enlaces considerables, sin embargo, durante la pandemia las conexiones disminuyeron. Después de la pandemia se perdieron conexiones con algunas pequeñas, medianas y grandes empresas, al calcular el grado de centralidad se obtuvieron los principales agentes o activos financieros más importantes o influyentes en la red financiera para identificar las empresas con mayor tendencia antes, durante y después de la pandemia, cabe destacar que las empresas más grandes eran punto fundamental para la comunicación. Por otro lado, para fundamentar lo antes mencionado se calculó la centralidad de intermediación que destacó una lista de empresas de mayor relevancia dentro del mercado y que actúan como intermediario para la comunicación como son PEMEX, TLEVISACPO y CX. Por último, se calculó la centralidad de cercanía con el propósito de analizar la importancia y las interconexiones entre los participantes activos financieros los principales fueron PEMEX, TLEVISACPO y CX.
En resumen, la pandemia afectó las relaciones en el mercado mexicano, estos impactos variaron según la industria, el tamaño de la empresa y su capacidad para adaptarse a las circunstancias cambiantes. En general, la pandemia llevó a muchas empresas a replantearse sus estrategias y a adoptar enfoques innovadores para enfrentar los desafíos presentados por la situación sin precedentes del COVID-19.
Salazar Verastica Crisanto, Universidad Autónoma de Sinaloa
Asesor:Dr. David José Fernández Bretón, Instituto Politécnico Nacional
ESTUDIO DEL TEOREMA FIN_K DE GOWERS Y SU GENERALIZACIóN
ESTUDIO DEL TEOREMA FIN_K DE GOWERS Y SU GENERALIZACIóN
Ramos Aispuro Luis Alfonso, Universidad Autónoma de Sinaloa. Salazar Verastica Crisanto, Universidad Autónoma de Sinaloa. Villegas Bupunari Maria Teresa, Universidad Autónoma de Sinaloa. Asesor: Dr. David José Fernández Bretón, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Los problemas propios de la teoría de Ramsey resultan muy buen objeto de estudio en matemáticas, dado que se pueden plantear en términos sencillos sin perder la complejidad de los mismos. Esto permite el desarrollo de teoría y técnicas que pueden ser utilizadas en otras ramas de estudio, como lo es la teoría de conjuntos.
En particular, el teorema de Gowers es un buen acercamiento a matemáticas más avanzadas porque los artículos existentes usan teoría tan abstracta que el poder entenderlos y traducirlos a resultados más amables es por sí solo un gran avance en la investigación.
METODOLOGÍA
En las primeras semanas de la investigación nos dedicamos a adquirir conceptos y técnicas útiles de la teoría de conjuntos, en particular, lo relacionado a clases, ordinales y el axioma de elección. Esto con las lecturas del libro Teoría de Conjuntos de Hérnandez Hérnandez y notas de clase del investigador.
A la vez, estuvimos estudiando el concepto de clase de finitud con el apoyo del artículo Finiteness classes arising from Ramsey-theoretic statements in set theory without choice del investigador. Esto nos permitió entender la apertura que se obtiene al trabajar sin axioma de elección, así como la dificultad que se presenta.
En las semanas siguientes, centramos la investigación en la teoría de Ramsey. Primeramente vimos los teoremas de Ramsey y de Hindman, así como las clases de finitud que pueden definirse de cada uno.
Propusimos dos demostraciones para el teorema de Ramsey, con y sin axioma de elección. Observando que la prueba se extiende bastante en el segundo caso.
También estudiamos algunos ejemplos de coloraciones para el teorema de Hindman, entre las que surgió por primera vez la de tomar el piso del logaritmo base 2. Esta última resultó importante en la demostración de un resultado que relaciona ser H-finito con la D-finitud.
Luego, nos dedicamos a estudiar el conjunto Fin_k y la función de tetris descritos en el teorema de Gowers. En lugar de ver la demostración, nos pusimos a trabajar exhaustivamente con algunas coloraciones para ver qué tipo de resultados serían necesarios en la demostración.
Además de dos resultados que surgen de definir la clase de finitud que surge del teorema de Gowers, estudiamos una primer generalización del teorema para sucesiones de Fin_k.
En las últimas semanas trabajamos en la demostración del teorema original de Hindman y el investigador nos presento el problema de Owings, mismo que está abierto desde 1967. Con su ayuda, recreamos un resultado que da respuesta (negativa) a una versión más débil de la pregunta.
Para finalizar, estudiamos una segunda generalización del teorema de Gowers introduciendo la función de tetris generalizada. Junto con el investigador, propusimos una demostración para una parte del teorema de Lupini y por nuestra cuenta, intentamos completar la parte que hacía falta.
CONCLUSIONES
El estudio que realizamos a lo largo del verano da un acercamiento a la teoría de Ramsey meramente combinatorio, pues nos dedicamos a trabajar unicamente con argumentos de este tipo.
Para empezar, proponemos una demostración del teorema de Ramsey usando principio de casillas y evitando el axioma de elección.
Damos uno demostración del teorema de Hindman original usando el teorema de Hindman y usamos la coloración descrita en la metodología para ver que este teorema falso para semigrupos.
También mostramos una coloración explicita para demostrar que el problema de Owings tiene respuesta negativa en más de dos colores y otra para demostrar la parte negativa del teorema de Lupini.
Finalmente, seguimos trabajando en encontrar un isomorfismo que nos permita demostrar la parte positiva del teorema de Lupini a partir del teorema de Gowers. Si bien tenemos algunas ideas que podrían resultar útiles, creemos que se necesita más tiempo para dar con algo que funcione.
Salgado Díaz America, Universidad Autónoma del Estado de México
Asesor:Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
DOSIMETRíA EN FANTOMA Y USO DE MATERIALES CRISTALINOS EN DOSIMETRíA.
DOSIMETRíA EN FANTOMA Y USO DE MATERIALES CRISTALINOS EN DOSIMETRíA.
Hernández Carrillo Anette Sofía, Universidad Autónoma de Ciudad Juárez. Inzunza Lugo Alejandra, Universidad Autónoma de Sinaloa. Morelos Lozada Jesus, Instituto Politécnico Nacional. Ochoa Sánchez Daniela, Universidad de Guadalajara. Salgado Díaz America, Universidad Autónoma del Estado de México. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La radioterapia es un tratamiento esencial en la lucha contra el cáncer, pero es crucial garantizar que la dosis de radiación se administre con precisión en el área objetivo y se minimice la exposición en tejidos circundantes. Para ello, se utilizan dosímetros para medir la distribución de la radiación y evaluar la eficacia del tratamiento. Además, es relevante investigar y seleccionar los materiales cristalinos más adecuados para desempeñar esta función de dosimetría.
El objetivo de este estudio es analizar la distribución de la radiación en un fantoma durante la radioterapia y evaluar la eficacia de diferentes materiales cristalinos como dosímetros.
METODOLOGÍA
1. Se prepararon dosímetros, dispositivos diseñados para medir la dosis de radiación absorbida.
2. Se colocó el fantoma, que es una simulación de un paciente, en un acelerador lineal para simular un tratamiento de cáncer cervico-uterino.
3. Se distribuyeron los dosímetros en posiciones estratégicas dentro del fantoma.
4. Se programó el equipo del acelerador lineal para administrar la dosis de radiación de acuerdo con el tratamiento simulado.
5. Se realizaron mediciones y análisis de los resultados obtenidos por los dosímetros para evaluar la distribución de la radiación en el fantoma.
Materiales cristalinos:
1. Se seleccionaron compuestos químicos y se prepararon con sus respectivos dopantes para actuar como materiales cristalinos para dosimetría.
2. Se identificaron los cristales preparados y se los preparó para la lectura de sus respuestas a la radiación.
3. Se programó el equipo necesario para llevar a cabo la lectura de los cristales y obtener resultados de dosimetría.
4. Se analizaron los resultados obtenidos por los materiales cristalinos para evaluar su eficacia como dosímetros.
CONCLUSIONES
1. Distribución de la radiación en el paciente: Se observó que la dosis de radiación recibida por el paciente durante el tratamiento depende del tamaño del tumor y de la energía empleada. Es fundamental garantizar una distribución precisa de la radiación para evitar daños innecesarios en tejidos sanos circundantes.
2. Importancia de la precisión en las mediciones: Se recomienda tomar dosímetros del mismo lote para asegurar la precisión y consistencia en las medidas de dosimetría. La exactitud en la administración de la dosis es esencial para mejorar la efectividad del tratamiento y evitar posibles complicaciones.
3. Protocolos de radioterapia personalizados: Se sugiere la implementación de nuevos protocolos de radioterapia que se adapten a las características individuales de cada paciente. Un enfoque personalizado puede aumentar la efectividad del tratamiento y reducir los efectos secundarios.
4. Reducción de la radiación en zonas periféricas: Se propone desarrollar instrumentos y materiales superficiales para disminuir los niveles de radiación en las áreas circundantes del tumor. Esto puede ayudar a evitar el riesgo de desarrollar un segundo cáncer en tejidos cercanos a la zona tratada.
5. Eficacia de los materiales cristalinos: Los materiales cristalinos, en particular, los LaAl03 dopados con Dy o Pr, mostraron una alta respuesta termoluminiscente (TL). Estos materiales demostraron ser excelentes para capturar la energía absorbida en los centros de trampa, lo que los convierte en opciones prometedoras para su uso como dosímetros.
En conclusión, este estudio destaca la importancia de la dosimetría en fantoma y el uso de materiales cristalinos en dosimetría para garantizar la precisión y efectividad de los tratamientos de radioterapia. La investigación continua en este campo puede conducir a mejoras significativas en el cuidado y el tratamiento de pacientes con cáncer.
Salomón Amador Ian Vladimir, Universidad Autónoma de Sinaloa
Asesor:Dr. Victor Hugo Márquez Ramírez, Universidad Nacional Autónoma de México
COMPORTAMIENTO DEL RUIDO SíSMICO DURANTE LA PANDEMIA POR COVID-19: CASO QUERéTARO
COMPORTAMIENTO DEL RUIDO SíSMICO DURANTE LA PANDEMIA POR COVID-19: CASO QUERéTARO
Salomón Amador Ian Vladimir, Universidad Autónoma de Sinaloa. Asesor: Dr. Victor Hugo Márquez Ramírez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
México es reconocido por poseer una gran actividad sísmica a lo largo su territorio por lo cual universidades como la UNAM se han encargado de establecer redes sísmicas que estudian los diferentes comportamientos tectónicos a lo largo del país. A su vez también existen espacios en donde las investigaciones van más enfocadas al estudio de ruido sísmico por causas urbanas.
Las redes sismológicas brindan, entre otros datos, información para el estudio del comportamiento del terreno de un lugar en específico debido a causas antropológicas, permitiendo hacer proyectos sobre movilidad poblacional. Un evento que ocasionó un incremento en el estudio del ruido sísmico fue el confinamiento por Coronavirus en 2020.
La pandemia causó un decrecimiento en la movilidad poblacional, presentando la oportunidad para hacer estudios con respecto al decrecimiento de ruido sísmico en zonas urbanas y su relación con la movilidad de las personas.
El centro de Investigación de Geociencias de la UNAM en Querétaro se ha encargado de realizar diversas investigaciones sobre los efectos observados en el ruido sísmico a lo largo de la pandemia. La gran densidad de estaciones sísmicas ubicadas en Querétaro y la poca actividad sísmica presente en esta área, lo hacen un lugar idóneo para esta clase de estudio.
Los trabajos realizados por Lecocq (2020) y De Plaen (2021) son ejemplos de proyectos que analizaron datos sísmicos en tiempos de pandemia. El trabajo que se está describiendo tiene influencia por lo generado por los autores mencionados al tratar datos sísmicos y su comportamiento a lo largo de la crisis sanitaria por COVID-19.
METODOLOGÍA
Utilizando información otorgada por autoridades nacionales se establecieron periodos para el estudio de ruido sísmico. Se tomaron como muestra dos semanas de los siguientes meses; entre enero y febrero del 2020 para conocer los datos de días anteriores a la llegada del virus a México, de julio de 2020 posteriores a la llegada de la variante Delta al país, de diciembre de 2020, de diciembre de 2021 luego de la llegada de la variante Ómicron a México y de septiembre de 2022 siguiente a la entrada presencial a escuelas de nivel básico en Querétaro.
Utilizando la estación R6BB7 de la red sismológica UNAM, se pudo recopilar datos de los periodos anteriormente descritos, estación seleccionada debido a su ubicación céntrica en la capital Queretana permitiendo un mejor análisis de los datos arrojados.
La metodología para a descarga y procesamiento de datos fue la misma que la utilizada por Lecocq (2020) y que después fue retomada por De Plaen (2021). Se utilizaron algoritmos desarrollado en el lenguaje Python manejado en un entorno de Google Colab, aplicando distintas galerías proporcionadas por Obspy se dio la posibilidad de tratamiento de datos sísmicos permitiendo la representación gráfica de movilidad del terreno en las distintas ventanas de tiempo para así relacionar incrementos o decrecimientos en la movilidad con las diferentes etapas de la pandemia. A su vez observar datos de manera más detallada en días dentro de los periodos utilizados como muestra de estudio, para así conocer la movilidad de la población en un día cotidiano antes de la pandemia, en la pandemia y después del confinamiento.
CONCLUSIONES
Tras obtener los gráficos y realizarse la comparativa de los periodos planteados, se notaba como antes de pandemia se mantenía un nivel de movimiento alto en comparación de los periodos Julio 2020, diciembre 2020 y diciembre 2021 cuyos valores recopilados tuvieron un decrecimiento muy grande con causa directa de las medidas COVID-19. En cuanto a lo recopilado en septiembre 2022 ya se notaba como los datos ya alcanzaban valores similares a los que se podían obtener en días prepandemia, esto relacionado con la reapertura de centros educativos y apertura de negocios en la ciudad.
Al haberse seleccionado dos días de las ventanas de tiempo mencionadas con anterioridad, se interpretó el comportamiento de la población en un día común en las diferentes etapas de evolución de la pandemia. Utilizando viernes y sábado como días de muestra para el estudio de los periodos en cuestión, salvo por diciembre 2020 donde se tomaron jueves y viernes ya que eran los días correspondientes a las festividades navideñas.
Se pudo identificar como alrededor de las 6:00 am empieza a registrarse ruido sísmico generado por el inicio de movilización de la población. Alrededor a las 8:00 el ruido sísmico incrementa y se mantiene toda la mañana por la entrada a escuelas, trabajos, transporte, entre otros. Mientras más se acerca el horario de 9:00 pm se ve un decrecimiento en el movimiento del terreno y en las horas posteriores ya se percibe un ruido casi nulo. Lo anterior se puede notar en cada uno de los periodos tomados en las diferentes etapas del confinamiento.
Los resultados obtenidos tras el tratamiento de datos arrojan un comportamiento similar a lo definido por Lecocq (2020) y De Plaen (2021), que describen como los tiempos de confinamiento vinieron a reducir de manera considerable los patrones de movilidad de la población en las distintas etapas de la emergencia sanitaria a nivel mundial.
Como conclusión se tiene que el estudio de ruido sísmico en tiempos de confinamiento en la ciudad de Querétaro permitió conocer que la población tuvo un recibimiento favorable a las indicaciones de las autoridades sanitarias al verse reducida la movilidad del terreno en periodos de Julio y diciembre de 2020, y diciembre de 2021. Mientras que el periodo de septiembre de 2022 tras el regreso a las actividades escolares presenciales ya se podían encontrar datos comparables a lo obtenido antes de las medidas Covid-19 en México.
Los datos recopilados son una muestra de la evolución del confinamiento a nivel nacional, aunque no se hayan tomado los datos que conforman el confinamiento en su totalidad, si establece un inicio para esta clase de investigaciones con respecto a la pandemia y los efectos en la sociedad en las ciencias de la tierra.
Sánchez Caballero Mariela, Benemérita Universidad Autónoma de Puebla
Asesor:M.C. Maria Nayeli González Cruz, Universidad Tecnológica de Tehuacán
MÉTODO NO INVASIVO PARA DETECTAR LOS NIVELES DE GLUCOSA EN PACIENTES CON DIABETES.
MÉTODO NO INVASIVO PARA DETECTAR LOS NIVELES DE GLUCOSA EN PACIENTES CON DIABETES.
Sánchez Caballero Mariela, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Maria Nayeli González Cruz, Universidad Tecnológica de Tehuacán
PLANTEAMIENTO DEL PROBLEMA
La diabetes es una enfermedad crónica que se produce por falta de insulina, lo que hace que la glucosa se quede en la sangre y provoque graves problemas de salud en el organismo. Si la diabetes no se controla, el corazón, la vejiga, el estómago, los intestinos, los órganos sexuales o los ojos pueden dañarse. Sin embargo, con el tratamiento adecuado contra la diabetes, estas graves complicaciones pueden retrasarse o evitarse por completo.
La FID (Federación Internacional de Diabetes) estima que en 2019 había 463 millones de personas con diabetes. Se estima que este número aumentará a 578 millones para 2030 y 700 millones para 2045. Cada año, un número creciente de niños y adolescentes (hasta los 19 años) desarrollan diabetes. A partir de 2019, más de un millón de niños y adolescentes tienen diabetes tipo 1.
Los métodos clínicos comúnmente utilizados para diagnosticar y controlar la diabetes implican pruebas invasivas y dolorosas, como una extracción de sangre, en la que se pincha un dedo para extraer sangre y analizar la glucosa. El análisis de compuestos presentes en el aliento o la orina es una herramienta útil ya que permite un diagnóstico rápido y no doloroso así como el seguimiento y control de muchas enfermedades de forma no invasiva para el paciente.
METODOLOGÍA
Se planteó un sistema de medición para determinar los niveles de concentración de glucosa en las personas, como método no invasivo, a través de la captación de compuestos orgánicos de origen sistémico o endógeno como las cetonas (OC (CH3)2), que emite con mayor presencia un paciente diagnosticado con diabetes, ya sea en la orina o en el aliento.
La muestra puede ser ingresada a la cámara de medición por medio del aliento o por las moléculas que desprende una muestra de orina del paciente, posteriormente una matriz compuesta por 4 sensores MQ-138 del tipo semiconductor recibirá las partículas volátiles en su superficie, dando como respuesta un cambio en la resistencia que, por medio del transductor ubicado dentro del sistema de adquisición de señales permitirá convertir esta respuesta en una señal de tipo eléctrica como el voltaje o corriente, misma que podrá ingresar con las características necesarias a la etapa de acondicionamiento de señal, para amplificar, filtrar y convertir en una señal de tipo digital que pueda ser procesada en la siguiente etapa utilizando un microcontrolador, seleccionando la tarjeta arduino nano, configurando el arreglo matemático para realizar los cálculos en partes por millón (ppm) que la matriz de sensores es capaz de detectar, presentando finalmente el resultado de la medición en una pantalla.
Para seleccionar los sensores se consideraron características estáticas y dinámicas como; rango de medición, histéresis, saturación, sensibilidad, selectividad, exactitud, linealidad, repetibilidad, estabilidad y tiempo de respuesta de estos. Algunos de los sensores recomendados para la medición de las cetonas son: TGS2600 y TGS2620 del fabricante Fígaro, siendo estos los que presentan mejores características que aseguran la calidad en la medición, por ejemplo el rango de medición del TGS2600 es de 1~30 ppm (partes por millón) y el rango de medición que presenta el TGS2620 es 50~5,000 ppm, estos sensores son sensibles a alcohol, disolventes y contaminantes del aire como el hidrógeno, etanol, cetonas. El precio de estos sensores ronda entre los 400 y 500 pesos mexicanos por pieza. El sensor BME680 del fabricante BOSCH tiene un rango de medición de 5~500 ppm, es sensible al etano, isopreno, cetonas y monóxido de carbono, el precio de este sensor oscila entre los 350 a 430 pesos mexicanos. Los sensores MQ-135 y MQ-138 del fabricante Wisen Electronics presentan un rango de medición entre 10 ~1000 ppm y 5~500 ppm respectivamente, estos sensores son sensibles al amoniaco, sulfuro, tolueno, acetona, alcohol e hidrógeno. El precio de estos sensores es aproximadamente entre 200 a 300 pesos. Comparando todas las características de los sensores mencionados, se decidió seleccionar a los sensores MQ-138
Se seleccionó el microcontrolador arduino nano debido a que se requieren 4 entradas de tipo analógicas y por sus especificaciones técnicas, ya que posee un microcontrolador ATmega328, puerto serie TTL, pines de entradas analógicas (8), pines de entradas/salidas digitales (14), voltaje de alimentación a 5 volts, pines para señal pwm (6), entre otras. Se determinó realizar el análisis estadístico de los datos recibidos por la matriz de sensores utilizando la técnica de Análisis de Componentes Principales (PCA).
CONCLUSIONES
A lo largo de la estancia de verano se obtuvieron conocimientos sobre la diabetes y componentes (por etapas) que conforman un sistema de medición, como los sensores medidores de gases, microprocesadores, etc. A través de la revisión de investigaciones ya realizadas se determinó que no es posible medir los niveles de glucosa por medio de un sistema de medición como la nariz electrónica, ya que este dispositivo actualmente solo brinda información sobre la presencia de niveles altos de concentraciones de cetonas en la orina o en el aliento, pero falta por realizar investigaciones médicas y comparaciones con otros métodos o sistemas validados.
De acuerdo a investigaciones revisadas una concentración alta de cetona en la sangre es de 5~7 ppm (considerado un paciente diagnosticado con diabetes), por lo tanto se concluye que es importante conocer todas las características y comportamientos de la variable a medir ya que esta información es determinante para la selección adecuada del dispositivo de medición (sensor) y posteriormente el tratamiento que se le debe dar a la señal para realizar el procesamiento de los datos.
Sánchez Durán Esteban, Universidad Autónoma de Baja California
Asesor:Dr. Joel Antonio Trejo Sánchez, Centro de Investigación en Matemáticas (CONACYT)
COMPARACIóN DE DOS HEURíSTICAS PARA EL PROBLEMA DE ENRUTAMIENTO DE VEHíCULOS CON RESTRICCIóN POR CAPACIDAD
COMPARACIóN DE DOS HEURíSTICAS PARA EL PROBLEMA DE ENRUTAMIENTO DE VEHíCULOS CON RESTRICCIóN POR CAPACIDAD
Sánchez Durán Esteban, Universidad Autónoma de Baja California. Asesor: Dr. Joel Antonio Trejo Sánchez, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El problema de enrutamiento de vehículos (VRP por sus siglas en inglés) es un problema computacional en el que se toma una flota de vehículos, un almacén y un número de clientes y se busca encontrar la ruta óptima para llegar a estos clientes y regresar al almacén con los vehículos disponibles. También existen diferentes restricciones adicionales que se pueden aplicar, como ventanas de horarios, capacidad, distancia, etc. Este problema y sus soluciones tienen muchas aplicaciones prácticas en el área de administración de sistemas de transportes y entrega de productos. En este problema se representan los sitios de entrega como los vértices de un grafo y las rutas que las conectan entre si como sus aristas. Usualmente se realiza en grafos dirigidos y pesados, pero existen variantes para grafos no dirigidos o no pesados. El objetivo de este trabajo es resolver la variante restringida por capacidad del VRP (CVRP) en instancias que utilicen datos geográficos de la ciudad de Mérida. Para resolverlo se utilizará Programación Lineal para encontrar la solución óptima para cada instancia; posteriormente se aplicarán dos heurísticas distintas a las instancias y se compararán las soluciones encontradas, así como el tiempo usado por cada método.
METODOLOGÍA
El archivo con los métodos de solución detallados se encuentra en:
https://github.com/EstSanchez/CVRP-Merida
Instancias:
Para la obtención de datos geográficos se utilizará la herramienta OpenStreetMap, una herramienta gratuita para obtener datos de calles, carreteras, tráfico, etc. Para ello se descarga un archivo osm que después será manejado con el software SUMO, específicamente el editor gráfico de redes incluido llamado netedit. Una vez que se tienen los datos de red de carreteras de la zona geográfica elegida, se crearán las instancias de los problemas. Se crearán instancias con 5, 8, 10 y 12 clientes. Cada cliente tendrá asignada aleatoriamente una demanda; también se asignarán arbitrariamente la cantidad de vehículos para cada instancia y la capacidad de cada vehículo. Usando la librería de sumolib, un set de módulos para python dedicados a trabajar con redes de SUMO, se obtendrán los datos para cada instancia. Para ello se requiere obtener un arreglo de demandas para los vértices (los clientes del problema) y una matriz de costos que representen los costos de las aristas que conectan a los vértices. Cada instancia es generada aleatoriamente con parámetros definidos: número de clientes, número de vehículos, capacidad de vehículos. Para generar esta instancia se situará el almacén en el centro de la red. Luego se generarán puntos con coordenadas aleatorias definidas dentro del tamaño de la red, estos serán los clientes. Estos puntos se asignarán a la calle más cercana en la red de SUMO. A estos puntos se les asignará aleatoriamente una demanda entera en un intervalo entre 1 y 5. Con esto se puede generar el arreglo de demandas para los vértices. Por último, se necesita generar la matriz de costos de las aristas entre los vértices, para lo cual se requiere obtener las distancias que tienen todos los vértices entre si. Pero la distancia euclidiana no es lo suficientemente correcta, ya que no toma en cuenta las direcciones y sentidos de las calles reales de una ciudad. Por este motivo se utilizará un método de sumolib para encontrar el camino más corto entre dos vértices, respetando las direcciones y sentidos de las calles utilizadas en el camino. Al obtener este valor, se utilizará para crear la matriz de costos de las aristas. Una vez que se generan estos datos, se puede resolver el problema con los métodos elegidos. Además, se crearán instancias usando distancias euclidianas para los costos de las aristas. De igual manera se crearán instancias para 5, 8, 10 y 12 clientes.
CONCLUSIONES
Los resultados y discusión a detalle se encuentran en:
https://github.com/EstSanchez/CVRP-Merida
Conclusión:
La realización de este trabajo mostró varios retos y limitaciones, pero también brindó resultados interesantes y una apertura a subsecuentes investigaciones respecto al tema. En cuanto a las limitaciones, el problema principal fue en el momento de generar instancias utilizando los datos geográficos. Estas instancias se generan con el objetivo de comparar los resultados de las heurísticas con el resultado óptimo. Esto resultó relativamente sencillo para instancias pequeñas, pero para instancias más grandes demostraría ser una gran limitación de los estudios realizados sobre este tema. Como los datos geográficos son específicos de la zona tomada, no existen instancias estándar que hayan sido estudiadas durante años a las que se les haya encontrado una solución óptima. Por esto mismo, tenemos que generar nuestras propias soluciones óptimas. Por otro lado, las herramientas desarrolladas para este trabajo nos permitirían trabajar con datos geográficos de cualquier lugar en el mundo, y al ver el buen comportamiento del algoritmo de Clarke y Wright (que es probablemente la heurística más fácil de implementar para el CVRP) nos permitiría explorar las aplicaciones prácticas del uso de esta heurística. También sería interesante para trabajos futuros explorar el comportamiento de otras heurísticas e incluso metaheurísticas y observar si el fenómeno que consiste en un mejor comportamiento para instancias de datos geográficos que en instancias euclidianas se sigue presentando.
Sánchez Gutiérrez Cristian Alejandro, Universidad de Guadalajara
Asesor:Dr. Jose Humberto Camacho Garcia, Benemérita Universidad Autónoma de Puebla
CáLCULO DE LAS PROPIEDADES ELCTRóNICAS Y MECáNICAS DE LA FASE 31 DEL SIC
CáLCULO DE LAS PROPIEDADES ELCTRóNICAS Y MECáNICAS DE LA FASE 31 DEL SIC
Sánchez Gutiérrez Cristian Alejandro, Universidad de Guadalajara. Asesor: Dr. Jose Humberto Camacho Garcia, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El carburo de silicio (SiC) es un material semiconductor ampliamente utilizado en diversas aplicaciones tecnológicas debido a sus propiedades electrónicas y mecánicas. Sin embargo, a medida que avanzamos hacia la era de la nanotecnología y materiales avanzados, es necesario explorar y diseñar nuevas estructuras cristalinas de SiC con propiedades mejoradas para adaptarse a las demandas emergentes.
A pesar de los avances experimentales en la síntesis de nuevas estructuras cristalinas de SiC, el conocimiento sobre sus propiedades electrónicas y mecánicas sigue siendo limitado. La caracterización experimental de estas propiedades en materiales enfrenta desafíos significativos debido a su tamaño y a la falta de herramientas experimentales adecuadas para mediciones precisas.
Este estudio se enfocó en calcular teóricamente las propiedades electrónicas y mecánicas de una selección de nuevas estructuras cristalinas de SiC. Los resultados obtenidos no solo proporcionarán una comprensión más profunda de las propiedades fundamentales de estos materiales, sino que también contribuirán a la identificación de estructuras prometedoras con potencial para aplicaciones específicas en dispositivos electrónicos, optoelectrónicos y mecánicos.
METODOLOGÍA
Para la metodología de este proyecto fue necesario recurrir a herramientas teóricas avanzadas para calcular y predecir las propiedades electrónicas y mecánicas de estas nuevas estructuras cristalinas de SiC. Mediante el uso de métodos de simulación y cálculos de primeros principios, como la teoría del funcional de la densidad (DFT).
Previamente se tenía un archivo de información cristalográfica (.cif) el cual fue visualizado a través del software VESTA, esto tanto con el fin de visualizar la estructura como de obtener sus parámetros de celda y su grupo espacial, los cuales fueron obtenidos al exportar en un archivo de texto las posiciones y especies atómicas, con esta información obtenida se creó la entrada para el software Quantum Espresso (QE).
La construcción del archivo de entrada de QE contenía información completa de la estructura cristalina como su red de Bravais, parámetros de celda, coordenadas y especies atómicas, directorio a pseudopotenciales, puntos K entre otros parámetros que requirió la entrada. Para ejeutar la entrada se usó un script donde se uso el respectivo comando para correr en paralelo los cálculos.
Se procedió a obtener una optimización de la geometría y los parámetros de red mediante cálculos vc-relax. En dichos cálculos se buscaba confirmar si los parámetros asignados previamente eran correctos o existía un arreglo de menor energía. En esta parte se realizó el cálculo varias veces variando la energía cinética de corte hasta obtener un estado de convergencia donde la energía total difiriera menos de 0.01 eV. Obtenida esta parte se repitió el procedimiento pero ahora se cambiaron los puntos K.
Posteriormente se creó otra entrada para realizar cálculos de campo autoconsistente (SCF), en estos cálculos se buscó cambiar el volumen de la celda en 0.1 Å por cada dimensión de la celda, obteniéndose una curva de energía contra volumen, en dicha parte se comprobó que las dimensiones de la celda efectivamente representaban un mínimo de potencial.
Además se realizaron cálculos de estructura de bandas y densidad de estados, ambos usando cálculos de campo autoconsistente y no autoconsistente para cada uno de ellos, obteniéndose resultados que posteriormente fueron graficados. Además para el determinar la estructura de bandas fue necesario el uso de XCrySDen donde se abrió un archivo de salida de un cálculo SCF para visualizar la zona de Brillouin y trazar una ruta de puntos K con el fin de obtener dichos puntos, la distancia de estos puntos se tomó de la bibliografía y solo se usó el programa para visualizar las coordenadas de puntos K.
Finalmente para calcular propiedades mecánicas se usó la extensión Thermo_pw para calculara algunas constantes mecánicas del material.
Como trabajo pendiente se planea concluir los cálculos de constates mecánicas como módulo de Young, dureza entre otras. También se está a la espera de concluir los cálculos de Thermo_pw para representar los cálculos de convergencia en gráficas usando MATLAB, para su posterior uso en el cartel de presentación del congreso.
CONCLUSIONES
Esta investigación ha permitido conocer las propiedades electrónicas y mecánicas para la fase 31 de SiC; se determinó el band GAP, los estados HOMO y LUMO, las energías de corte a las que converge un estado de menor energía, se obtuvo la energía de Fermi, una gráfica de densidad de estados. Con toda esta información es posible determinar si el material trabajado posee una mejora potencial para su uso en nuevos avances que involucren SiC.
Los resultados presentan la posibilidad de desarrollar más a fondo la búsqueda de nuevas estructuras cristalinas de SiC con mejoras en propiedades de interés y enfatizar la importancia del trabajo en áreas de física de la materia condensada y química computacional en la búsqueda de nuevos materiales con aplicaciones modernas.
Sánchez Lopez Ariel Morgan, Universidad Autónoma de Baja California
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
MATRIZ DE MEZCLA DE NEUTRINOS
MATRIZ DE MEZCLA DE NEUTRINOS
Sánchez Lopez Ariel Morgan, Universidad Autónoma de Baja California. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Los neutrinos durante mucho se habían considerado como partículas sin masa, pero los resultados experimentales del fenómeno de la oscilación de neutrinos demostró que la única manera de que ellos pudieran oscilar era por medio de tener una masa asociada.
Resulta ser que existe una forma de poder relacionar a los neutrinos de algún estado de sabor a un estado de masa, esta matriz se conoce como matriz de mezcla de neutrinos y resulta fundamental para poder entender como se transforman los neutrinos.
La finalidad de este verano de investigación fue el entender un método alternativo propuesto en este año para obtener las matrices de mezcla de neutrinos (Neutrino mass matrix in neutrino-related processes, M. I. Krivoruchenko ,National Research Centre Kurchatov Institute, Moscow, Russia ), este método consiste en la utilización de los covariantes de Frobenius como una conexión entre los estados de masa de un neutrino y su matriz de mezcla de en neutrinos
METODOLOGÍA
Investigar en diferentes bibliografías sobre las herramientas necesarias para poder entender las partes matemáticas del artículo.
Esto implicó tener que estudiar la ecuación de Dirac para fermiones, entender el espacio spinorial en el que viven sus soluciones, al mismo tiempo fue necesario entender las simetrías discretas que existen en la mecánica cuántica relativista: C,P y T ; esto debido a que su utilización es necesaria para poder expresar a neutrinos de Majorana ( neutrinos que son su misma antipartícula) , que son la base para el estudio de neutrinos masivos.
Por último fue necesario estudiar la fórmula de Sylvester y los covariantes de Frobenius (que son las herramientas que se proponen para obtener la matriz de mescla de neutrinos).
CONCLUSIONES
Se puede concluir que los covariantes de Frobenius logran de manera exitosa relacionar a las matrices de masa de un sistema de neutrinos con su matriz de mezcla a través de una proyección matricial puramente geométrica, siendo una consecuencia de las propiedades asociadas a transformaciones unitarias y por las facilidades conceptuales que implica trabajar con operadores de masa hermitianos , cumpliendo con el objetivo principal del artículo anteriormente mencionado.
Sanchez Lopez Carlos Alfonso, Instituto Tecnológico Superior de Irapuato
Asesor:Dr. Gabriel Herrera Pérez, Instituto Tecnológico Superior de Irapuato
REACTIVIDAD DEL ÁCIDO HIDROXIPROPANOICO
REACTIVIDAD DEL ÁCIDO HIDROXIPROPANOICO
Sanchez Lopez Carlos Alfonso, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Gabriel Herrera Pérez, Instituto Tecnológico Superior de Irapuato
PLANTEAMIENTO DEL PROBLEMA
El Ácido hidroxipropanoico (HP) con fórmula condensada (C3H6O3) es una molécula orgánica que contiene dentro de su estructura al grupo carbonilo confiriéndole su naturaleza de ácido de modo que tendrá la reactividad de este , dentro de la estructura también está presente un grupo hidroxilo que confiere ciertas características de los alcoholes.
Cabe mencionar que el grupo carboxilo esta idealmente estructurado para formar dos puentes de hidrogeno entre un par de moléculas. Un par de moléculas de ácido carboxílico, unidas por un enlace de hidrogeno se llama con frecuencia dinero de ácido carboxílico. A causa de la fuerza de estos enlaces de hidrogeno los ácidos carboxílicos se encuentran como dímeros en proporción limitada aun en fase vapor.
El HP puede formar dos isómeros geométricos: ácido 2-hidroxipropanoico (2-HP) o comúnmente llamado ácido láctico y el ácido 3-hidroxipropanoico (3-HP), de los cuales únicamente el 2-HP tiene dos isómeros ópticos, el ácido L-láctico el cual tiene un papel como metabolito de Escherichia coli y como metabolito humano y el ácido D-láctico el cual tiene un papel como metabolito de Daphnia magna y como metabolito de algas.
La poli(L-lactida) o poli(ácido láctico) (PLA), es un polímero sintetizado por la polimerización por apertura de anillo de L-lactida o policondensación de ácido L-láctico.
Históricamente en las décadas de 1980 y 1990 se obtuvo información básica sobre la síntesis, propiedades físicas, comportamiento de cristalización y aplicaciones biomédicas y farmacéuticas del PLA y sus copolímeros. Una gran cantidad de investigación se ha centrado en la síntesis y caracterización molecular de PLA y sus copolímeros, y la cristalización, el hilado y las propiedades físicas de los materiales basados en PLA se han investigado intensamente. Además, los estudios se han centrado en una amplia variedad de aplicaciones biomédicas y farmacéuticas y la degradación in vitro e in vivo de PLA y sus copolímeros. Además, la formación de estereocomplejos de poli(L-lactida), es decir, poli(ácido L-láctico) (PLLA), con poli(D-lactida), es decir, poli(ácido D-láctico) (PDLA), se informó en 1987. Los materiales estereocomplejados tienen altas prestaciones mecánicas, buena resistencia a la degradación hidrolítica/térmica y propiedades de barrera contra gases. Desde la segunda mitad de la década de 1990, el PLA y sus copolímeros han atraído una atención significativa en términos de aplicaciones industriales y de productos básicos y han sido reconocidos como sustitutos de los polímeros comerciales a base de petróleo debido a su producción rentable a partir de recursos vegetales renovables.
En condiciones normales, el ácido L-láctico se disuelve rápidamente en una solución acuosa de ácido L-láctico y, por lo tanto, el ácido L-láctico se suministra normalmente como una solución acuosa. El rendimiento, la forma enantiomérica dominante y la pureza óptica del ácido láctico están determinados por el tipo de lactobacillus utilizado y las condiciones de fermentación. Desde el punto de vista industrial y material, un alto rendimiento y pureza óptica y una baja concentración de impurezas son cruciales en la producción de ácido láctico.
Las lactidas son los dímeros cíclicos de los ácidos lácticos y tienen tres formas diferentes: L lactida [temperatura de fusión (Tm) = 95-99 °C], que comprende dos ácidos L-lácticos, D -lactida (Tm = 95-99 °C), que comprende dos ácidos D-lácticos, y meso-lactida (MLA), que comprende un ácido L-láctico y un ácido D-láctico.
La lactida racémica o DL-lactida (Tm = 124 °C) es una mezcla física 1:1 o un compuesto racémico 1:1 (estereocomplejo) de L- y D-lactidas. El método industrial y de laboratorio utilizado para la síntesis de lactidas es la despolimerización térmica de PLAs de bajo peso molecular obtenidos por policondensación de ácidos lácticos. Las lactidas brutas obtenidas deben purificarse para la síntesis de PLA de alto peso molecular y PLA con un peso molecular estrictamente controlado.
METODOLOGÍA
Para la realización del trabajo se tuvo enn cuenta la metodologia de Zhang Y (2019) Ab initio Molecular Dynamics simulation study of dissociation electron atachmetn to lactic acid and isomer. En la cual se hace uso del el paquete de software Gaussian 09 y los resultados se visualizan a través de GaussView529. La geometría del estado fundamental del ácido láctico y el isómero se optimiza empleando el funcional Lee-Yang-Parr (B3LYP) del parámetro Becke3 de la teoría del funcional de la densidad30 junto con el 6-31+G(d,p), 6-311++ Conjuntos de bases G(2d,2p) y Aug-cc-pVDZ. Este nivel de teoría, que es altamente efciente y se ha convertido en uno de los métodos teóricos preferidos para la optimización de la geometría y el proceso de disociación DEA en sistemas de biomoléculas complicados, predice con éxito el proceso de disociación observado experimentalmente21. Se realizan cálculos de frecuencia vibratoria para verificar que el ácido láctico optimizado y su isómero corresponden a un mínimo local en el nivel teórico B3LYP. Las frecuencias vibratorias se calculan en los niveles de la teoría B3LYP y los conjuntos de bases 6-31+G(d,p), 6 311++G(2d,2p) y Aug-cc-pVDZ utilizando las geometrías optimizadas. No se aplican restricciones de simetría para la optimización de la geometría y los cálculos de frecuencia vibratoria.
CONCLUSIONES
Durante la estancia de verano no se logró obtener resultados por medio del software Gaussian 09 por complicaciones con la licencia, sin embargo se logró realizar el estado del arte del ácido hidroxipropanoico para futuras investigaciones relacionadas al mismo.
Sanchez Marquez Gerardo Alfonso, Universidad de Sonora
Asesor:Dr. Francisco Javier Mendoza Torres, Benemérita Universidad Autónoma de Puebla
INTEGRAL GENERALIZADA Y ECUACIONES DIFERENCIALES
INTEGRAL GENERALIZADA Y ECUACIONES DIFERENCIALES
Sanchez Marquez Gerardo Alfonso, Universidad de Sonora. Asesor: Dr. Francisco Javier Mendoza Torres, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Las integrales en el sentido de Riemann y de Lebesgue son bien conocidas. La integral de Riemann es bastante intuitiva, incluso sencilla de entender; la de Lebesgue, por otro lado, tiene una construcción que requiere elementos teóricos más complejos, por ejemplo, la teoría de la medida. Con dos sutiles cambios en la definición de Riemann, llegamos a una integral más general que contiene a ambas integrales, dicha integral es la integral de Henstock-Kurzweil. Estos cambios consisten en usar una función positiva en lugar de la constante delta dependiente del epsilon dado, la cual se llama función medidora. También las particiones etiquetadas deben ser delta-finas, esto es: una partición es delta fina si los subintervalos de ella están contenidos en los intervalos centrados en las etiquetas con radio delta evaluada en la etiqueta.
La integral de Henstock-Kurzweil (HK) fue definida de forma separada por Jarozlav Kurzwiel en 1957, y en 1960 por Ralph Henstock. Poco tiempo después se demostró que eran equivalentes, de ahí que el nombre de esta integral involucra los dos apellidos. Una característica importante de esta integral es que integra a toda función derivada, lo cual es muy útil en la solución de ecuaciones diferenciales, por ejemplo.
Las ecuaciones diferenciales permiten el estudio de fenómenos físicos y de otras indoles. Generalmente las funciones representan cantidades físicas y las derivadas de la función su tasa de cambio, entonces dichas ecuaciones relacionan una función desconocida con sus derivadas. El empleo de la integral de Henstock-Kurzweil en las ecuaciones diferenciales permite una mayor flexibilidad en cuanto a su solución, puesto que admite la integración de funciones más generales que las que pueden ser integradas por las de Riemann y de Lebesgue.
METODOLOGÍA
Después de haber definido con precisión el trabajo, iniciamos un seminario donde el alumno exponía los avances de las lecturas de los artículos que se habían definido para llevar acabo el proyecto. Este seminario nos permitió puntualizar los conceptos teóricos y definir tareas complementarias para avanzar en la apropiación de los temas y, a la vez, puntualizar la información que se exponía. De esto, surgían dudas que iban siendo resueltas, pero también surgían ideas que se discutían y enriquecían la teoría expuesta.
Un ejemplo de lo anterior, es que llegamos a plantearnos discusiones referentes a cómo emplear dicha integral puesto que no es una integral que se vea muy a menudo.
En las primeras semanas discutimos aspectos teóricos fundamentales de la integral de Henstock-Kurzweil, respondimos las preguntas: ¿Cómo surge?, ¿Por qué contiene al resto de integrales?, etc.
Después pasamos a trabajar con problemas que muestran que la integral de Henstock-Kurzweil es más general, estudiando algunos problemas teóricos. Este proceso demuestra con creces la importancia que tiene la integral de Henstock-Kurzweil.
Posterior al estudio descrito anteriormente, se planteó el empleo de la integral HK en la resolución de ecuaciones diferenciales. Para esto, leímos el artículo: ON x' = f(t,x) AND HENSTOCK-KURZWEIL INTEGRALS, de T. S. Chew y F. Flordeliza. Esto nos permitió estudiar un teorema de existencia de solución de una ecuación diferencial en donde se ven involucradas funciones que no son Lebesgue integrables pero sí son HK.
También, buscamos aplicaciones directas a la física. En particular trabajamos con la ecuación diferencial de calor sobre una varilla con ciertas condiciones. La resolución se trabajó mediante la Transformada de Fourier, si bien no involucramos directamente a la integral de Henstock-Kurzweil, dicha integral surgió naturalmente debido a las condiciones iniciales y de frontera, es decir, surgió debido a la forma de la solución en el espacio de las frecuencias.
Se mencionaron características y se analizó el comportamiento de las funciones que son la razón por la que se encuentren dentro de la integral de Henstock-Kurzweil y no de las otras integrales.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la integral de Henstock-Kurzweil y encontrarle aplicaciones, desde un punto de vista más teórico y desde un punto de vista más práctico.
Con esto vemos que dicha integral, además de ser sencilla, es de suma importancia, pues admite muchas funciones que no son integrables en un sentido clásico ni intuitivo.
Si bien obtuvimos lo que buscábamos con ciertos problemas aún hay mucho qué puede ser trabajado con la integral de Henstock-Kurzweil.
Sánchez Sánchez Ulises, Universidad Autónoma del Estado de México
Asesor:Dr. Carlos de Jesús Ocaña Parada, Universidad de Ciencias y Artes de Chiapas
MANEJO INTEGRAL DE LA MICROCUENCA TENÁN, EN LA REGIÓN SIERRA MARISCAL, CHIAPAS.
MANEJO INTEGRAL DE LA MICROCUENCA TENÁN, EN LA REGIÓN SIERRA MARISCAL, CHIAPAS.
Regil Cerecero Jonathan, Universidad Autónoma del Estado de México. Sánchez Sánchez Ulises, Universidad Autónoma del Estado de México. Asesor: Dr. Carlos de Jesús Ocaña Parada, Universidad de Ciencias y Artes de Chiapas
PLANTEAMIENTO DEL PROBLEMA
MANEJO INTEGRAL DE LA MICROCUENCA TENÁN, EN LA REGIÓN SIERRA MARISCAL, CHIAPAS.
RESUMEN DE LA ESTANCIA
ASESOR: DR. CARLOS DE JESÚS OCAÑA PARADA,
UNIVERSIDAD DE CIENCIAS Y ARTES DE CHIAPAS
ESTUDIANTES: JONATHAN REGIL CERECERO & ULISES SÁNCHEZ SÁNCHEZ,
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO
AGOSTO 2023
Objetivo
Caracterización ambiental y socioeconómica de la microcuenca Tenán, del municipio de Motozintla, Chiapas.
Cronograma de actividades
Semana Actividades
1 • Bienvenida a la UNICACH Subsede Motozintla y asignación de actividades.
• Cursos de capacitación SIG, y aplicación de herramientas para cumplir el objetivo del proyecto.
2 • Salida a campo para caracterización de la microcuenca.
3 • Aplicación de encuestas e implementación de talleres en la localidad de Tenán.
4 • Vaciado y análisis de la información de las salidas de campo.
METODOLOGÍA
Descripción de las actividades realizadas
Semana 1: Se llevo a cabo la capacitación introductoria de lo que son los Sistemas de Información Geográfica, y los conocimientos básicos para la realización de una caracterización ambiental y socioeconómica de una microcuenca.
Semana 2: Se realizo el recorrido por la microcuenca de Tenán, con el propósito hacer un primer acercamiento y conocer la zona de trabajo. También se participó en el taller: “Mapa Digital de México para escritorio”, que llevo a cabo el INEGI, esto como herramienta para cumplir con el proyecto.
Semana 3: Se participo en una junta con pobladores del ejido donde se localiza la microcuenca de Tenán, esto con el propósito de hacer la presentación del proyecto e invitación a la participación de este. De igual forma se dio inicio con la capacitación y practica del uso del SIG Qgis.
Semana 4: Se dio continuidad del uso de los programas Qgis y Arcgis, aplicándolos a la delimitación de la microcuenca.
CONCLUSIONES
Conclusiones
Jonathan R.C.: Durante la estancia, pude aplicar los conocimientos de los SIG como una herramienta útil para el manejo integral de una microcuenca. Sin embargo, debido a la falta de colaboración de los habitantes de la localidad de Tenán, no se logró realizar las encuestas y los talleres que formaban parte del plan de trabajo para la caracterización ambiental y socioeconómica de la microcuenca Tenán. Esto limitó el alcance y los resultados del proyecto, que buscaba mejorar las condiciones de vida y el aprovechamiento sostenible de los recursos naturales en la zona.
Ulises S. S.: Sin duda alguna las estancias de verano, son una actividad que fomenta la investigación y la participación entre estudiantes de distintas universidades, lo cual enriquece el conocimiento y la formación profesional de cada individuo. Si bien, el proyecto buscaba caracterizar, analizar y dar propuestas de mitigación para el manejo integral de la microcuenca así como el aprovechamiento de sus recursos naturales, solo fue posible realizar una parte del trabajo previamente descrito. Por último, resulta una actividad grata y satisfactoria poder compartir conocimientos con compañeros universitarios provenientes de otros estados.
Sanchez Seguame Gala Itan-dehui, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Jonas D. de Basabe Delgado, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)
ESTUDIOS DE POROSIDAD, DENSIDAD Y ENVOLVENTE DE FUERZA DE ROCA ARENISCA ARCILLOSA
ESTUDIOS DE POROSIDAD, DENSIDAD Y ENVOLVENTE DE FUERZA DE ROCA ARENISCA ARCILLOSA
Sanchez Seguame Gala Itan-dehui, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Jonas D. de Basabe Delgado, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El estudio de las propiedades de los macizos rocosos o rocas firmes es relevante en campos cono la ingeniería civil para la construcción de estructuras ya que un cálculo incorrecto de estas puede provocar colapsos en construcciones. Cuando se aplican cargas a un sistema, este responde reactivamente a esas cargas. Las fuerzas en cualquier componente particular del sistema son una función de las cargas sobre la estructura y del lugar en que están aplicadas esas cargas. A partir del análisis de la respuestaa esas fuerzas diversas podemos determinar las fuerzas máxima y mínima que puedan existir en cualquier componente. Este rango de fuerza se llama envolvente de fuerzas. Las envolventes de fuerzas son muy importantes para el diseño, porque ellas definen el rango total de respuesta para el cual deberá diseñarse la estructura.
El espacio poroso del suelo se refiere al porcentaje del volumen del suelo no ocupado por sólidos. Dentro del espacio poroso se pueden distinguir macro poros y micro poros donde agua, nutrientes, aire y gases pueden circular o retenerse. Por otro lado, mediante la determinación de la densidad se puede obtener la porosidad total del suelo. Se refiere al peso por volumen del suelo. Estas propiedades permiten caracterizar la resistencia de los materiales a los agentes de deterioro. Esto último gobierna la vida útil del material, que a fin de cuentas es equivalente a la vida útil de las partes del edificio construidas con el mismo y, para determinados elementos constructivos, del edificio mismo.
En este estudio se analizan las propiedades de porosidad, densidad y envolvente de fuerza de muestras de roca sedimentaria arenisca arcillosa, tomadas de la playa Tres Emes en Ensenada, Baja California, México y ensayadas en la máquina triaxial del Laboratorio de Propiedades Físicas de las Rocas de CICESE.
METODOLOGÍA
El primer paso fue la recolección de las muestras en el sitio, playa Tres Emes, con la ayuda de marros y cinceles, procurando especímenes adecuados, sin fracturas, de tamaño suficiente para obtener como mínimo 6 núcleos (cilindros) y manejables para facilitar su transportación.
Posteriormente se hizo uso de una máquina de corte para crear caras planas en la roca y reducir sus dimensiones de manera que esta pudiera ser procesada en la máquina nucleadora, de donde se obtuvieron 17 cilindros de roca de 37 mm de diámetro. Empleando la máquina de corte se redujeron sus dimensiones a cilindros de 77 mm de largo. Después, con ayuda de la máquina rectificadora, se rectificaron las dos caras de cada cilindro, de manera que estas fueran completamente planas y perpendiculares al eje del cilindro.
El siguiente paso fue la verificación de dimensiones, en la cual se corrobora que las muestras cumplan con lo establecido en la norma ASTM D4543 08 de preparación de muestras para ensayos triaxiales por medio de pruebas de planitud y dimensiones utilizando vernier e indicador de dial.
Para obtener las densidades, las pruebas fueron secadas en un horno a 100°C durante 24 horas y posteriormente saturadas en agua destilada durante 72 horas. Fueron pesadas antes y después de este proceso, y también fueron pesadas suspendidas en una canasta metálica bajo agua destilada.
El porcentaje de porosidad fue calculado con la fórmula (Va/VT)*100, donde Va es el volumen de agua absorbida y VT es el volumen total de la muestra. La densidad se calculó con la fórmula m/V en donde m es la masa original de la muestra y V el volumen de la misma. La gravedad específica se obtuvo con ms/(msat-msum) en donde ms es la masa de la muestra después de ser secada en el horno, msat es la masa de la muestra después de ser saturada con agua destilada y msum es la masa de la muestra suspendida en agua destilada.
Finalmente se realizó el ensayo triaxial en el Rapid Rock Triaxial Testing System de la marca GCTS, en donde las muestras son cubiertas con una capa de plástico termoencogible y sumergidas en aceite de silicona para después ser sometidas a presión axial y radial hasta que sufren una fractura mientras se mide su deformación y la presión a la que esto sucede.
CONCLUSIONES
En esta estancia, además de adquirir y poner en práctica conocimientos acerca del estudio de suelos, las propiedades físicas de las rocas y de sus procesos, se encontró que las muestras de roca sedimentaria arenisca arcillosa recolectada para este trabajo en la playa Tres Emes de Ensenada, Baja California tuvieron una gravedad específica promedio de 2.492, un porcentaje de porosidad promedio del 5.31% y una densidad promedio de 2.58 g/cm3. En el ensayo triaxial sufrieron fractura a una presión axial máxima de 104.6 MPa. Por motivos de formato, no es posible adjuntar la gráfica de envolvente de fuerza de las muestras.
Sandoval Robles Oscar Gamaliel, Universidad de Sonora
Asesor:Mtra. Sol María Hernández Hernández, Benemérita Universidad Autónoma de Puebla
REALIZACIóN DE MATERIAL DIDáCTICO PARA CURSOS DE FíSICA EDUCACIóN MEDIA SUPERIOR
REALIZACIóN DE MATERIAL DIDáCTICO PARA CURSOS DE FíSICA EDUCACIóN MEDIA SUPERIOR
Sandoval Robles Oscar Gamaliel, Universidad de Sonora. Asesor: Mtra. Sol María Hernández Hernández, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El presente trabajo de investigación tiene como objetivo principal desarrollar material didáctico para mejorar la enseñanza de la física en alumnos de nivel media superior. Se busca crear recursos pedagógicos efectivos y atractivos que faciliten la comprensión de conceptos fundamentales y motiven el interés por la disciplina científica, cultivando así el conocimiento científico en forma de divulgación.
METODOLOGÍA
Para el desarrollo del material didáctico de física destinado a alumnos de escuela preparatoria, se siguió una metodología basada en tres fases principales. En primer lugar, se llevó a cabo una revisión exhaustiva de los programas de estudio y los contenidos curriculares vigentes para identificar los conceptos clave y áreas problemáticas. En la segunda fase, se realizó un análisis de las preferencias y estilos de aprendizaje de los estudiantes mediante las obersaviciones del investigador. Esta información será crucial para adaptar los recursos didácticos de manera efectiva. Finalmente, se creó el material didáctico, utilizando una combinación de explicaciones claras, ejemplos relevantes, recursos multimedia y prácticas interactivas que nutrieron por distintos enfoques el tema seleccionado. Se realizará una prueba piloto con un grupo de estudiantes de escuela preparatoria para evaluar su efectividad y realizar ajustes si es necesario.
CONCLUSIONES
El material didáctico desarrollado busca ser efectivo en la mejora del proceso de enseñanza-aprendizaje de la física en escuelas preparatorias. Se espera un mayor interés y participación en las clases, lo que se traducirá en una mejora en sus calificaciones y comprensión de los temas no solo de la solución matemática, sino la del entendimiento de la naturaleza utilizando la física como medio. Este enfoque tiene el potencial de enriquecer la educación en física y fomentar un mayor interés en la ciencia entre los alumnos.
Santiago Luis Erik Abimelec, Universidad Autónoma Benito Juárez de Oaxaca
Asesor:Dra. Yuridia Arellano García, Universidad Autónoma de Guerrero
IDEAS FUNDAMENTALES ESTOCáSTICAS EN PROFESORES EN FORMACIóN DEL INSTITUTO EN CIENCIAS DE LA EDUCACIóN (UABJO).
IDEAS FUNDAMENTALES ESTOCáSTICAS EN PROFESORES EN FORMACIóN DEL INSTITUTO EN CIENCIAS DE LA EDUCACIóN (UABJO).
Santiago Luis Erik Abimelec, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dra. Yuridia Arellano García, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
La siguiente investigación tiene como objetivo, identificar las ideas estocásticas que logran desarrollar un grupo de Profesores en formación de la licenciatura en Ciencias de la Educación de la universidad autónoma Benito Juárez de Oaxaca. Apoyado de una simulación de un modelo de urna.
METODOLOGÍA
Como base metodológica se usa la ingeniería didáctica, con la aplicación de 2 actividades a profesores en formación de la licenciatura en ciencias de la educación, desde la plataforma de Google Meet. Se espera que el grupo identifique al menos algunas de las 10 ideas fundamentales que propone Heitele (1975) las cuales son: medida de probabilidad, regla de la suma, regla del producto e independencia, variable aleatoria, modelo de urna y simulación y ley de los grandes números.
CONCLUSIONES
Esto a fin de facilitar el acceso a un conocimiento significativo en su formación académica, en específico en el área de matemáticas, un tema del cual poca presencia tienen en sus planes de estudio.
Santiago Márquez Aldo, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla
MACHINE LEARNING EN EL ESTUDIO DE RAYOS CóSMICOS USANDO SIMULACIONES DE MONTE CARLO
MACHINE LEARNING EN EL ESTUDIO DE RAYOS CóSMICOS USANDO SIMULACIONES DE MONTE CARLO
Pomares Valdés Pablo Jibrán, Benemérita Universidad Autónoma de Puebla. Romero López Miguel Ángel, Benemérita Universidad Autónoma de Puebla. Santiago Márquez Aldo, Benemérita Universidad Autónoma de Puebla. Toral Gamez Jorge Luis, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Desde todas direcciones del universo llegan cada segundo a la Tierra unas diez mil partículas por metro cuadrado, a muy altas energías, a estas partículas se les conoce como rayos cósmicos. Ahora bien, antes de llegar a nosotros, las partículas primarias, generalmente núcleos, colisionan en nuestra atmósfera y forman lo que nosotros llamamos lluvias, o showers, de otras partículas secundarias generadas en dicha colisión. A su vez, estas también colisionan en la atmósfera repitiendo el proceso hasta que su energía baje lo suficiente para ser absorbidas.
En el estudio de rayos cósmico de altas energías existe el problema de que, en algún metro cuadrado determinado, cualquiera en el mundo, la ocurrencia de eventos es exponencialmente menos común. Es decir, dependiendo de la energía del rayo puede ocurrir aproximadamente una vez cada cierto número de años, décadas ¡o incluso siglos! Lo cual claramente dificulta su estudio. Para contrarrestar el problema se ha optado por construir observatorios de varios miles de kilómetros cuadrados, como el Observatorio Pierre Auger en Malargüe, Argentina el cual tiene una extensión de 3,000 km2 . No obstante, sigue sin ser suficiente, por lo que se ha introducido el uso de herramientas digitales como CORSIKA que, a través de modelos como EPOS-LHC, SIBYLLL, QGSJETI y QGSJETII, simulan, con diferentes grados de precisión, eventos de rayos cósmicos a través del uso de métodos Monte Carlo y simulaciones numéricas rápidas que nos permiten hacer observaciones de todo el trayecto del evento. Adicionalmente se ha buscado la implementación de modelos de Machine Learning para el análisis de los datos y para buscar una reducción en el número de datos requeridos para el estudio de los eventos. Específicamente, en este proyecto se busca realizar un ajuste lineal para los valores llamados Xmax, que se define como la densidad de masa máxima del shower.
METODOLOGÍA
Para poder realizar las simulaciones, primero nos tuvimos que instalar los softwares de ROOT y CONEX (derivado de CORSIKA). El primero es necesario para el correcto funcionamiento y la lectura de los archivos emitidos por CONEX y el segundo es para la realización de las simulaciones en sí. Después, tuvimos que acceder a la supercomputadora del Laboratorio Nacional de Supercómputo y familiarizarnos con el entorno y el administrador de trabajo (SLURM). Por últmo, mandamos a realizar las simulaciones en dicho equipo.
Originalmente, se realizaron 110 simulaciones, o jobs, en 11 bines, i. e., 10 jobs por bin, con 1000 eventos cada uno en el rango de energía de 16.875 a 19.625LgE (logaritmo de la energía en Ev) con un ángulo azimutal de 0 grados para los núcleos de hidrógeno y de hierro con los modelos EPOS, SIBYLL y QGSJETII. No obstante, cuando llegaron los resultados iniciales nos dimos cuenta de que varias de las simulaciones llegaron corruptas por lo cual se tuvo que reiniciar el proceso. Para la segunda vuelta, se optó por repetir el proceso, pero con 55 jobs de 20000 eventos cada uno en lugar del plan original.
Como software necesario para red neuronal, se usó Ananconda como administrador de entornos, Jupyter como IDE y Tensorflow/Keras, Pandas y Numpy como librerías, así como Uproot para la lectura de los archivos .root.
Para el tratamiento de datos, primero se leyeron los archivos y las ramas Xmax, Nmax, Xfirst, LgE fueron exportadas a un archivo csv para un acceso más rápido. Después, se separaron las columnas Nmax, Xfirst, LgE de la Xmax y fueron puestas en DataFrames de Pandas. Por último, se hizo un sampleo randomizado del 20% de los datos para testeo.
Para la red en sí, se hizo con 3 datos de entrada, una capa oculta de 128 nodos, otra con 512, una última de 256 y una de salida. Todos los nodos fueron de tipo Dense. Como método de compilación, usamos el error cuadrático medio y como optimizador usamos a Adam con una tasa de aprendizaje de 0.001 por 100 epochs.
CONCLUSIONES
A través de la estancia obtuvimos habilidades necesarias en el área de física experimental y computacional y fuimos parcialmente exitosos en la obtención de resultados. Como se mencionó anteriormente, tuvimos que repetir la parte de simulación de datos por lo que, al momento de escritura, solo se han terminado de realizar las simulaciones de hierro y protón con el modelo de SIBYLL y por lo tanto solo se ha podido aplicar la red neuronal a estas. Sin embargo, estos resultados fueron alentadores con una precisión del 86% para el hierro y una del 75% para el protón, de tal manera que esperamos resultados similares para el resto de los modelos. Además, podríamos mejorar estos resultados con la adición de otros parámetros incluidos en la simulación. Por ello, aún quedan áreas de oportunidad en el proyecto.
Santos Rebolledo Efraín Mauricio, Universidad Autónoma de Manizales
Asesor:Dra. Astrid Lorena Giraldo Betancur, Instituto Politécnico Nacional
ESTUDIO Y CARACTERIZACIÓN DE BIOPELÍCULAS DE ACETATO DE CELULOSA REFORZADAS CON NANOPARTÍCULAS DE SÍLICE
ESTUDIO Y CARACTERIZACIÓN DE BIOPELÍCULAS DE ACETATO DE CELULOSA REFORZADAS CON NANOPARTÍCULAS DE SÍLICE
Santos Rebolledo Efraín Mauricio, Universidad Autónoma de Manizales. Asesor: Dra. Astrid Lorena Giraldo Betancur, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El agua es parte fundamental del desarrollo sostenible y es fundamental para la producción de alimentos, el desarrollo socioeconómico y para la supervivencia de los seres humanos. Tanto el uso racional como la reutilización del agua son aspectos de suma importancia, esto debido a múltiples factores, el uso de la misma para producir productos industriales y el uso de esta materia prima en el diario vivir del ser humano [1]. En los últimos años, la Asamblea General de las Naciones Unidas reconoció como derecho humano el acceso al agua y al saneamiento, donde se ratifica el derecho de todos los seres humanos a acceder a una cantidad de agua suficiente para el uso doméstico y personal. Para garantizar dicho derecho, se debe asegurar la disponibilidad del agua, su gestión sostenible, y el saneamiento para todos [2].
METODOLOGÍA
Previamente al verano de investigación se obtuvieron biopelículas de acetato de celulosa cargadas con diferentes concentraciones de nanopartículas de sílice, las cuales según estudios previos de nuestro grupo de investigación, son matrices porosas. A diferencia con reportes previos encontrados en la literatura, en este trabajo se buscó la inmovilización de las nanopartículas en dichas matrices. En nuestro caso, se varió la concentración de nanopartículas en cuatro valores:
Biopelícula con 0% de nanopartículas de sílice - Biopelícula 0%
Biopelícula con 5% de nanopartículas de sílice - Biopelícula 5%
Biopelícula con 10% de nanopartículas de sílice - Biopelícula 10%
Biopelícula con 20% de nanopartículas de sílice - Biopelícula 20%
Además de esto, también se realizaron ensayos de adsorción de azul de metileno con las biopelículas de acetato de celulosa reforzadas con nanopartículas de sílice y se caracterizaron por medio de las técnicas que se describen a continuación.
MICROSCOPÍA ÓPTICA
Inicialmente, se realizó el análisis de las diferentes películas a nivel macroscópico con la finalidad de poder entender si existían porosidades a nivel macro sobre las películas. El análisis se realizó con resoluciones que variaron entre 0.2mm, y 1mm.
ÁNGULO DE CONTACTO
Se realizaron mediciones de ángulo de contacto con el equipo de ángulo de contacto OCA-50, agregando una gota de 2uL en un cuadrado de 2cm X 2cm de biopelícula. Esta gota se agregó sobre la superficie de la muestra y se evaluó el tiempo en que la biopelícula llega a la saturación y no adsorbe más agua; pasado este tiempo, se tomó captura fotográfica del proceso y se anotó el tiempo que tardó en llegar a la saturación
DIFRACCIÓN DE RAYOS X (XRD)
Se realizó análisis de Difracción de Rayos X con la finalidad de poder determinar la estructura cristalina de las diferentes películas. Para ello se tomó un cuadrado de 2cm X 2cm y se utilizó el equipo Dmax2100 de RIGAKU con un rango de medición desde los 5° hasta los 40°, debido a la naturaleza de las muestras. Se usó un tubo de Co (Lambda = 1.79 A.) con una corriente de 40 mA y un voltaje de 40 kV . El mismo proceso se realizó con las biopelículas después de adsorber azul de metileno para identificar los cambios cristalográficos de las biopelículas al tener contacto con este contaminante orgánico modelo.
ESPECTROSCOPÍA INFRARROJA POR TRANSFORMADA DE FOURIER (FTIR)
Una vez realizado los ensayos de XRD, se procedió a analizar la estructura y enlaces característicos de las biopelículas mediante Espectroscopía Infrarroja por Transformada de Fourier. En este proceso de medición, se utilizó el equipo Spectrum GX de Perkin Elmer con la técnica Reflectancia Total Atenuada con Punta de Diamante. Las biopelículas fueron analizadas en dos zonas diferentes, donde los poros son más y menos abundantes. También, se analizó el espectro obtenido cuando las biopelículas han adsorbido azul de metileno. Estas medidas se realizaron desde los 500cm-1 a los 4000cm-1.
MICROSCOPÍA RAMAN
Para corroborar y complementar la técnica de FTIR, se realizó Microscopía de Raman que permite determinar y analizar la composición química y estructura molecular de las biopelículas. Esta medida se realizó en el equipo Micro espectrómetro RAMAN Labram II con un rango de intervalo de número de onda de 400cm-1 a los 3500cm-1.
MICROSCOPÍA ELECTRÓNICA DE BARRIDO (SEM)
Finalmente, se realizó el análisis por microscopía electrónica de barrido (SEM) para poder observar las porosidades de las biopelículas y la distribución espacial de las nanopartículas de sílice. Además, de entender qué pasa en la estructura de la biopelícula cuando se incrementa el porcentaje de nanopartículas presentes en la biopelícula. Para cumplir este objetivo, se utilizó un Microscopio Electrónico JEOL para Microanálisis (EPMA) JXA - 8530F con resoluciones de X500, X1500 y X5000 para cada una de las biopelículas.
CONCLUSIONES
Con todos los análisis realizados durante el verano, se corroboró la incorporación de las nanopartículas de sílice en las biopelículas de acetato de celulosa mediante las técnicas de Difracción de Rayos X (XRD), Microscopia Infrarroja por Transformada de Fourier (FTIR) y Microscopía Raman. Además de esto se corroboró la capacidad hidrofílica de las biopelículas con el análisis por ángulo de contacto y se encontró que las biopelículas poseen zonas más porosas que otras mediante los análisis de Microscopio óptico y Microscopio electrónico de barrido (SEM). También con SEM se pudo encontrar el tamaño medio de poro para las biopelículas y el tamaño medio de aglomerado presente en las biopelículas de 10% y 20%. Por otro lado, también se verificó la adherencia de azul de metileno (biopelículas con azul de metileno) y cómo este proceso cambia la estructura cristalina y enlaces característicos de las biopelículas.
Santos Rico Ismael, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Magnolia Botello Marquez, Instituto Tecnológico Superior de Tacámbaro
EXPLORACIóN GEOQUIMICA POR LITIO EN EL SUR DE MéXICO
EXPLORACIóN GEOQUIMICA POR LITIO EN EL SUR DE MéXICO
Gomez Gomez Samuel, Instituto Tecnológico Superior de Tacámbaro. Santos Rico Ismael, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Magnolia Botello Marquez, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
La extracción directa de litio ofrecen una promesa significativa de aumentar el suministro de litio, reducir la huella ambiental, social y de gobernanza de la industria, y disminuir los costos.
Actualmente en el país no se cuenta con ningún yacimiento de litio en explotación; no obstante, a la fecha se encuentran en etapa de exploración tres yacimientos que contienen este mineral en los estados de: Baja California, San Luis Potosí- Zacatecas y Sonora.
Los yacimientos económicos de Li se han caracterizado por la obtención del elemento ya con cierto grado de concentración como son los procesos naturales de alteración por intemperismo, lixiviación, transporte y depósito, generalmente en cuencas alcalinas.
Existen otros tipos de yacimientos en donde el Li se encuentra de manera importante en minerales formadores de rocas, en rocas pegmatíticas y en zonas de granito perturbado por procesos hidrotermales, se les conoce como yacimientos en roca.
METODOLOGÍA
1. Compilación bibliográfica de textos y mapas: (geologia, geoquimica, topografía), búsqueda web: SGM, INEGI.
2. Análisis del datos geológicos para tener una base de conocimiento previo en los marcos teóricos y cartográficos.
3. Determinar un marco teórico conceptual que permitan determinar zonas geológicamente favorables de estudio.
4. Interpretación a detalle geológico, estructural y minera de las zonas prospectivas.
5. Integrar información especializada del material cartográfico en el software ArcGIS y generar mapas preliminares de trabajo que se utilizaran en recorridos de verificación de campo.
6. Los mapas geológicos preliminares se interpolan con los mapas geoquímicos de anomalías geoquímicas y se identifican zonas potenciales.
CONCLUSIONES
La geoquimica es una técnica para reducir el area para una posible exploración a un margen más pequeño, es decir nos acerca a donde puede existir una anomalía geoquimica, utilizando los elementos a indicadores que son necesarios ya que estos nos hacen tener un análisis más cercano a lo que podríamos encontrar en esa zona. Así mismo estás anomalías geoquimicas nos acercaron para poder verificar en campo que dicha zona parece interesante para la exploración por Litio en rocas pegmatitas.
Santos Rios Karent Jyneth, Universidad de la Guajira
Asesor:Dra. María del Socorro Menchaca Dávila, Universidad Veracruzana
DISPONIBILIDAD HíDRICA EN CANTIDAD Y CALIDAD Y SU RELACIóN CON EL SUELO EN LA MICROCUENCA DEL RíO PIXQUIAC, VERACRUZ MéXICO.
DISPONIBILIDAD HíDRICA EN CANTIDAD Y CALIDAD Y SU RELACIóN CON EL SUELO EN LA MICROCUENCA DEL RíO PIXQUIAC, VERACRUZ MéXICO.
Passo Riquett Catalina Andrea, Universidad de la Guajira. Santos Rios Karent Jyneth, Universidad de la Guajira. Asesor: Dra. María del Socorro Menchaca Dávila, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
Una cuenca se define como el espacio limitado que incluye desde los aspectos que abarcan las formas geológicas de la Tierra que captan, concentran y distribuyen los distintos flujos hídricos, que provienen de las precipitaciones de la región, hasta los aspectos relacionados con los ecosistemas, los seres humanos que habitan espacios y territorios, así como los relativos a la economía en cuanto a los sistemas y modos de producción de bienes y servicios (Menchaca & Bello, 2015).
La Microcuenca del Río Pixquiac es una fuente importante de agua potable para la ciudad de Xalapa y para las localidades de los municipios de Acajete, Tlalnelhuayocan, Perote, Las Vigas de Ramírez y Coatepec; pero el crecimiento poblacional ha traído consigo implicaciones en la contaminación, lo cual conlleva a la disminución en la disponibilidad del recurso para el consumo humano (Zapata, 2009).
En consecuencia, en el Observatorio del Agua para el Estado de Veracruz, OABCC (Agua, Bosques, Cuencas y Costas) se han llevado a cabo investigaciones desde el año 2006 en la microcuenca del río Pixquiac, en dónde se identifican problemas medioambientales principalmente en los servicios ambientales y en el agua para su uso y consumo; debido a los cambios en sus características fisicoquímicas y microbiológicas, y la presencia de metales pesados por el uso de agroquímicos en los cultivos (Menchaca & Ríos, 2018).
Lo anterior, ha provocado impactos y afectaciones en los recursos, ya que los usuarios del agua agrícolas (aplicación de agroquímicos), pecuarios (manejo inadecuado de las heces fecales) y domésticos (falta de drenaje y tratamiento de las aguas residuales) son factores que afectan directamente el recurso agua, mediante procesos de escurrimiento, arrastre e infiltración en el suelo, transportando los contaminantes a los cuerpos de agua naturales. Asimismo, se señala que en la microcuenca se identifican afectaciones tanto en sistema eco hidrológico como en la salud de la población (Menchaca & Ríos, 2020).
Con base a lo anterior, la pregunta de conocimiento en el verano de investigación que se plantea es la siguiente:
¿Cuál es la disponibilidad hídrica en cantidad y calidad y su relación con el suelo, en la Microcuenca del Rio Pixquiac?
METODOLOGÍA
A. Descripción del aréa de estudio
La microcuenca del río Pixquiac se encuentra ubicada en el Estado de Veracruz, México, nace en la vertiente nororiental de Cofre de Perote, entre las coordenadas 19°33´35 y 19°26´05 de latitud Norte y 96°54´39 y 97°08´45 de longitud oeste, presenta una extensión aproximada de 107 km2; al mismo tiempo está constituida parcialmente por los territorios de los municipios de Las Vigas de Ramírez, Acajete, Coatepec, Perote y San Andrés Tlalnelhuayocan (Menchaca et al; 2015).
B. Procedimiento
Para la obtención de la información se tuvieron en cuenta dos tipos de fuentes:
Fuentes Primarias
Base de datos Sequía (CONAGUA.gob.Mx).
Base de datos calidad del OABCC
Base de datos Cantidad del OABCC
Revisión Biliografica
Fuentes Secuendarias
Revisión Biliografíca de artículos en publicada en la plataforma de OABCC.
Revisión de artículos.
Inicialmente, se revisó literatura científica para identificar la problemática del agua respecto a la disponibilidad hídrica en cantidad y calidad y su variabilidad en relación con el suelo, por efectos de las actividades naturales y antrópicas. Se revisaron distintas temáticas sobre los recursos agua y suelo tales como:(calidad, cantidad, usos, servicios ecosistémicos, contaminación, degradación del suelo, micro plásticos, relación agua-suelo y procesos de escurrimiento, arrastre e infiltración)
Se procesó la base de datos del Observatorio del Agua para el Estado de Veracruz, OABCC (Agua, Bosques, Cuencas y Costas) en relación al comportamiento y/o la variación de los parámetros fisicoquímicos, metales y cianuros y microbiológicos; específicamente de las características (nitritos, detergentes, cadmio, plomo, cromo, arsénico, coliformes totales y coliformes fecales) en las presas de Cinco Palos, Cofre de Perote, Medio Pixquiac y Socoyolapan ubicadas en la microcuenca del Río Pixquiac. La información que se analizó de manera diacrónica es desde el año 2005 hasta el 2016 exceptuando el año 2013; se señala que dicha base de datos se elaboró a partir de los reportes cuatrimestrales. Para realizar el procedimiento estadístico, se desarrolló el data tidying teniendo en cuenta una serie de criterios, las cuales se construyeron en base a la NOM-127-ssa1-1994 la cual, establece los límites permisibles de calidad y los tratamientos de potabilización del agua para uso y consumo humano.
Por otra parte, se llevó a cabo un análisis exploratorio descriptivo de la información sobre la calidad del agua, donde se obtuvieron resultados tabulados y gráficos teniendo en cuenta los períodos de sequía y precipitación.
CONCLUSIONES
Se determinaron una serie de criterios, teniendo en cuenta la normativa Mexicana NOM-127-ssa1-1994; donde se pudieron establecer las siguientes:
Dentro del límite permisible (o contaminada)
Al limite permisible (Limite contaminada)
Por encima del límite permisible (contaminada)
Los metales y cianuros, presentan 357 registros, establecidos dentro del límite permisible (no contaminada) a su vez, se reportan 20 registros que se encuentran por encima del límite (contaminada).
A partir de los datos analizados en la base de datos de calidad se puede interpretar que las características de los coliformes totales y fecales presentan altos niveles de concentración, superando así, el límite permisible establecido por la NOM-127-ssa1-1994.
Conforme a los datos ausentes se puede determinar que el parámetro de metales y cianuros presento la mayor frecuencia con un valor de 320 datos registrados en las presas de estudio.
Conforme a la categoría uno establecida como dentro del límite permisible, específicamente del parámetro fisicoquímico (nitritos y detergentes) presenta la mayor frecuencia con un valor de 239 datos.
Sarabia Martinez Juan Elias, Universidad Tecnologica de León
Asesor:Dr. Alan David Blanco Miranda, Universidad Tecnologica de León
DISEÑO DEL PROTOTIPO PARA LA APLICACIÓN DE REALIDAD VIRTUAL -REAL INTERACTION-
DISEÑO DEL PROTOTIPO PARA LA APLICACIÓN DE REALIDAD VIRTUAL -REAL INTERACTION-
Aguilar Lavín Mauricio, Universidad Tecnologica de León. Delgado Sánchez Edgar Daniel, Universidad Tecnologica de León. Sarabia Martinez Juan Elias, Universidad Tecnologica de León. Asesor: Dr. Alan David Blanco Miranda, Universidad Tecnologica de León
PLANTEAMIENTO DEL PROBLEMA
La principal problemática resulta dentro de las limitaciones con las que cuentan muchas instituciones, ya sean educativas o ya dentro del ámbito empresarial.
Al existir limitaciones dentro de la práctica física se recurre al uso de equipos reales para ser utilizados en el ámbito educacional y de aprendizaje, cosa que resulta de gran utilidad, sin embargo, es algo con lo que no se puede contar siempre gracias a los costos elevados de los equipos y a la disponibilidad con la que pueda contar la institución o empresa.
En este caso, la limitación de equipo y herramientas no permite en su totalidad un desarrollo completo de habilidades.
Agregando a todo esto la posibilidad que puede llegar a existir el daño o deterioro de los equipos debido a los errores que pueden existir por ser exigidos dentro del ámbito educacional donde justamente están para ello, aprender.
Al tener costos y disponibilidades limitadas, se busca la manera de reemplazar, agregar y mejorar la práctica convencional, es aquí donde entra la simulación por medio de realidad virtual en donde todos los entornos pueden ser reutilizados cuantas veces sean necesarias y sin el riesgo de que exista una posibilidad de dañar equipos por fallas eléctricas, golpes, mal conexiones o fallos de programación.
METODOLOGÍA
La metodología del proyecto fue desarrollada en base a la proposición de un total de 7 objetivos a realizar dentro de las 7 semanas establecidas en el plan de trabajo.
En este proyecto se utilizaron meramente recursos tecnológicos los cuales pudiesen brindar la innovación y la gran adaptabilidad que se busca conseguir en el desarrollo de proyectos modernos, es por ello que dentro de los principales pasos seguir era el hecho de comenzar con una investigación y pequeña capacitación con respecto a los recursos bibliográficos necesarios, dentro de los cuales se encuentran: el uso del software Unity, programación en lenguaje C# (para uso dentro del mismo) y la interconexión entre Unity y el software para desarrollo de programación en PLC.
Una vez tenidas las bases para poder comenzar con el desarrollo material del proyecto se comenzaron a generar los diseños 3D para el uso dentro de la simulación.
Puesto que la idea era generar un ambiente industrial para hacer la práctica lo más familiar posible con la realidad se buscó generar e importar diversos modelados que pudieran influenciar en lograr la experiencia lo más real posible dentro de los entornos de realidad virtual.
Los elementos modelados:
Banda transportadora
PLC
Botones (para diversas actividades)
Sensores
Objetos de prueba
Elementos decorativos
Área de trabajo
Con los diseños ya generados se procedió a la importación dentro del plano de trabajo del proyecto, así como a la programación de las físicas de la simulación y la programación del comportamiento que tendría cada elemento dependiendo de la situación.
Una vez con los elementos correctamente generados con sus propiedades es momento de asignar las actividades:
Generar una simulación que sirva como capacitación en base a una banda transportadora la cual será operada desde un panel de control para representar un proceso industrial dentro de una línea de producción.
Realizar un examen interactivo que tenga como fin el corroborar los conocimientos sobre las partes que conforman un PLC y su funcionamiento básico.
Las actividades anteriormente mencionadas se generaron dentro del área de trabajo de tal manera que además pueden llegar a generar un puntaje que daría la calificación obtenida con respecto al resultado del examen.
Con las actividades ya establecidas es momento de hacer la interconexión entre la comunicación por parte del software Unity hacía el software de PLC en ambientes industriales.
Esta interconexión viene directamente desde la programación base del proyecto la cual fue desarrollada en lenguaje C#, dentro de este lenguaje se facilita el uso de librerías que permiten hacer la comunicación deseada, en este caso, NetToPLCsim. Y con ello ahora es posible hacer que las instrucciones dentro de ambos lenguajes de programación sean efectuadas con la toma de variables entre ambos programas.
Dada que la vinculación es únicamente de manera back end y la interacción entre el usuario y el software no será con la programación ahora es necesario la creación de una interfaz de usuario gráfica o un panel de control, para ello, se utilizaron los elementos 3D ya modelados anteriormente los cuales permiten directamente la ejecución de comandos por medio del uso de equipo de realidad virtual.
Puesto a que todos los elementos ahora cuentan con sus propiedades definidas, actividades, interconexiones, comunicación e interacción con el usuario únicamente quedaría pendiente el realizar la simulación de las actividades para obtener una representación de los resultados con respecto a la interfaz gráfica, el manejo del equipo y la experiencia del usuario.
CONCLUSIONES
Durante la estancia de verano se logró definir que este tipo de proyectos representan una innovadora solución para la capacitación y entrenamiento de los estudiantes, técnicos y operarios encargados del mantenimiento, operación que involucran estos entornos y reparación de los equipos.
La realidad virtual permite recrear situaciones y escenarios de forma interactiva y segura, sin tener que utilizar equipos reales y sin interrumpir la producción.
Los resultados obtenidos en proyectos de este tipo demuestran la efectividad de la realidad virtual para mejorar la comprensión de los procesos productivos y optimizar los tiempos y costos asociados al entrenamiento tradicional. Además, el uso de la realidad virtual permite la simulación de situaciones de emergencia y la toma de decisiones en tiempo real.
En definitiva, la interconexión de la realidad virtual con un PLC representa una solución innovadora y valiosa para la industria, que puede mejorar significativamente el proceso de entrenamiento y mantenimiento de estos equipos y, por ende, mejorar la eficiencia en la producción en la industria.
Scott Luévano Catherine Lee, Universidad de Sonora
Asesor:Dra. Hortensia Josefina Reyes Cervantes, Benemérita Universidad Autónoma de Puebla
HáBITOS DE LA SALUD EN LOS ESTUDIANTES UNIVERSITARIOS DE LA CIUDAD DE HERMOSILLO SONORA
HáBITOS DE LA SALUD EN LOS ESTUDIANTES UNIVERSITARIOS DE LA CIUDAD DE HERMOSILLO SONORA
Scott Luévano Catherine Lee, Universidad de Sonora. Asesor: Dra. Hortensia Josefina Reyes Cervantes, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En el contexto de los estudiantes universitarios de las carreras de Matemáticas y Físicas en la ciudad de Hermosillo, Sonora, se ha identificado la necesidad de mejorar los hábitos de salud que adoptan durante su etapa universitaria. Se ha observado que existe una preocupación creciente debido a los patrones de alimentación poco saludables, los niveles bajos de actividad física, la falta de responsabilidad hacia su propia salud y las dificultades para manejar el estrés que enfrentan muchos de estos estudiantes.
METODOLOGÍA
Para llevar a cabo este estudio, se seleccionó una muestra de estudiantes de las carreras de Matemáticas y Física en el estado de Sonora. Durante el período establecido del 15 al 29 de Mayo del año 2023, se realizaron 150 entrevistas individuales a los participantes, en las cuales se les preguntó sobre sus hábitos de salud y se recopilaron datos relevantes. Se tuvo en cuenta la información relacionada con la nutrición, el ejercicio, la responsabilidad con la salud y el manejo del estrés.
Posteriormente, se aplicó un análisis de regresión logística utilizando los datos recopilados. La regresión logística permitió determinar las asociaciones significativas entre las variables predictoras (nutrición, ejercicio, responsabilidad con la salud y manejo del estrés) y la variable dependiente (hábitos de salud de los estudiantes). Se calcularon los coeficientes correspondientes a cada variable predictora y se evaluó su significancia estadística.
CONCLUSIONES
Los resultados obtenidos mediante el análisis de regresión logística revelaron asociaciones significativas entre las variables estudiadas (nutrición, ejercicio, responsabilidad con la salud y manejo del estrés) y los hábitos de salud de los estudiantes universitarios de las carreras de Matemáticas y Física en el estado de Sonora.
Estos hallazgos resaltan la importancia de promover estilos de vida saludables entre los estudiantes universitarios, ya que se encontró que las variables relacionadas con una buena nutrición, la práctica regular de ejercicio, la responsabilidad con la salud y el adecuado manejo del estrés están asociadas con hábitos de salud más positivos.
Estos hallazgos respaldan la necesidad de implementar programas de promoción de la salud dirigidos a los estudiantes universitarios, con el objetivo de fomentar estilos de vida saludables y prevenir posibles problemas de salud en el futuro.
Serrano Bernardo Xavier Alejandro, Instituto Politécnico Nacional
Asesor:Dr. Simon Eduardo Carranco Lozada, Instituto Politécnico Nacional
ACONDICIONADOR TéRMICO SOLAR HíBRIDO CON IMPACTO SOSTENIBLE
ACONDICIONADOR TéRMICO SOLAR HíBRIDO CON IMPACTO SOSTENIBLE
Serrano Bernardo Xavier Alejandro, Instituto Politécnico Nacional. Asesor: Dr. Simon Eduardo Carranco Lozada, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Es un hecho conocido que día con día el nivel de temperatura aumenta en todos los rincones del mundo, sin bien en ciertas estaciones del año tal aumento es poco considerado, en situaciones de calor resulta un gran problema debido a los golpes de calor sofocante. Los aires acondicionados son dispositivos diseñados para contrarrestar tal calor, creando corrientes de viento lo suficientemente frescas para sus respectivos usuarios; sin embargo, su uso no es el todo benefactor, pues emplear un sistema de aire acondicionado no solamente requiere de un gasto considerable, sino que además el uso de energía eléctrica fomenta un mayor uso de combustibles fósiles para la producción de la misma, lo cual termina por afecta el ambiente, provocando un aumento mínimo, pero constante de temperatura.
Por ello es que surgen ideas con tal de resolver varias de las desventajas del sistema en cuestión, de ahí inicia el acondicionador térmico, un modelo el cual estará diseñado no solo como aire acondicionado, sino también como calentador para usos más allá de simplemente refrescar, que además se verá respaldado por un sistema de paneles solares, los cuales se encargarán de disminuir en forma notoria el gasto, así como consumo de energía a partir de combustibles fósiles.
METODOLOGÍA
El acondicionador térmico reduce los consumos de combustibles fósiles así como el gasto por sus respectivos servicios. Debido a su fuente alterna de energía solar dicho sistema permite generar energía por cuenta propia debido a la luz del sol, reduciendo el consumo de energía no renovable a gastos menores. Recordemos que la quema de combustibles es una de las principales fuentes de energía, a pesar de que los gases contaminantes que libera son excesivos. Con un acondicionador térmico como el propuesto se puede reducir indirectamente la quema de dichos combustibles.
Por otro lado, la función del acondicionador permite de igual forma funcionar como calentador, de modo que se permite un ahorro económico en servicios de gas, debido a que se aprovecha la energía solar como fuente de calor.
CONCLUSIONES
Se puede optimizar el uso de acondicionadores, al usar fuentes de energía alternativa y potenciar sus funciones. El costo de los materiales aumenta más, sin embargo, se ahorran gastos en otros aspectos, incluidos servicios de gas y electricidad, lo que al final del día implica un ahorro económico mayor, potenciando la eficiencia del producto.
Aunque es un hecho la contaminación, porque ya se sabe los contras de sistemas
acondicionados, así como la contaminación indirecta por los materiales y energía. Esta propuesta procura reducir los daños en gran escala a comparación de sistemas simples, reducción la cual a la larga de vuelve más relevante.
Serrano Zermeño Jose Luis, Instituto Politécnico Nacional
Asesor:M.C. Jorge Otero González, Benemérita Universidad Autónoma de Puebla
REACTIVOS DE OPCIÓN MÚLTIPLE PARA LA EDUCACIÓN DE CONTENIDOS MATEMÁTICOS
REACTIVOS DE OPCIÓN MÚLTIPLE PARA LA EDUCACIÓN DE CONTENIDOS MATEMÁTICOS
Serrano Zermeño Jose Luis, Instituto Politécnico Nacional. Valentinez Rodriguez Lesly Zoe, Instituto Politécnico Nacional. Asesor: M.C. Jorge Otero González, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La valoración de los aprendizajes es necesaria, por lo que implica el cumplimiento de los objetivos de enseñanza establecidos y el logro de los aprendizajes esperados con la finalidad de obtener los conocimientos previos a una evaluación de la escuela nivel medio superior "Benemérita Universidad Autónoma de Puebla" .
El objetivo de la evaluación consiste en aplicar los temas de "MATEMÁTICAS EDUCATIVAS", es importante tener en cuenta la elaboración de los reactivos a aplicar. En el presente proyecto se compilan planteamientos conceptuales y técnicos que ayudan a entender el proceso de elaboración de reactivos.
El propósito de un reactivo es diagnosticar el nivel de desempeño del alumno, a través de la puesta en marcha de sus conocimientos, habilidades o destrezas, la intención de un reactivo es valorar a qué nivel se desempeña el alumno para dar respuesta a la demanda que se le pone y si éste aplica o no el conjunto de sus conocimientos, habilidades y destrezas en su entorno.
METODOLOGÍA
Al inicio del proyecto se planteó el propósito el cual fue evidenciar si el alumno posee el conocimiento, la habilidad o la competencia que forma parte del objeto de medición del examen a través del uso de reactivos de opción múltiple, se dió a conocer que estos miden conocimientos específicos especializando en las MATEMÄTICAS EDUCATIVAS.
En nuestra explicación de lo que son los reactivos se obtuvieron diversos temas de los tipos de reactivos el cual destacamos por su facilidad los reactivos de opción múltiples, los cuales están compuestos por:
La base. Es un enunciado que plantea explícitamente un problema o tarea.
Las opciones. Son alternativas de respuesta a la base, de las cuales solo una es correcta; las restantes son distractores.
Las argumentaciones. Son explicaciones que dan sustento a cada una de las opciones de respuesta.
Posteriormente, iniciamos con los lineamientos generales para la elaboración de reactivos de un exámen, se evalúa un contenido matemático de nivel medio superior, está redactada de tal forma que se entiende sin necesidad de leer las opciones de respuesta, es afirmativa; en caso de que la especificación solicite que el alumnado
identifique elementos que no cumplen con alguna condición o regla, se deberá emplear la palabra.
Después, se dieron a conocer los lineamientos para elaborar las opciones que tendrán los reactivos matemáticos, los temas a conocer se centraron en álgebra, geometría y trigonometría, compuesto anteriormente por un problema, no presentan alternativas como: todas las anteriores, ninguna de las anteriores, A y C o no sé, stán ordenadas de manera ascendente si son numéricas, se inclueron distractores, los cuales son los errores más comunes del alumnado.
Al concluir con los conocimientos de la elaboración, se realizaron pruebas subjetivas, las cuales nos ayudó a comprobar la eficiencia del uso de este tipo de reactivos, obteniendo una visión clara y sencilla.
Transcurrido este tiempo, se dijo respecto al diseño del exámen recalcando preguntas comunes, logrando que no es más que una prueba de aptitudes y habilidades físicas que hacen referencia al aprovechamiento de los estudios, recabando el nivel de capacidad para lograr una buena evaluación de las MATEMÁTICAS EDUCATIVAS, la profundidad que alcanza cada tema es la elección y síntesis de cada uno con la finalidad de alcanzar más conocimiento.
Para finalizar, recabamos los distintos reactivos llevados a cabo de la elaboración de problemas, logrando concluir la evaluación requerida de los estudiantes.
CONCLUSIONES
Durante la estancia adquirimos conocimientos básicos de la elaboración de un exámen con reactivos de opción múltiple, para la facilidad de elaboración de este con temas extensos a los diferentes tipos de reactivos, las pruebas subjetivas sirvieron de apoyo para verificar una buena elaboración con el objetivo de estos tipos de reactivos.
Servín Pérez Adilene, Universidad de Sonora
Asesor:Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México
SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO
SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO
Castañeda Gil Melanie Sofia, Universidad de Sonora. Ramos Cábel Fátima Marcela, Universidad Autónoma de Ciudad Juárez. Rodríguez Sauceda Sergio Maximiliano, Universidad Autónoma de Coahuila. Servín Pérez Adilene, Universidad de Sonora. Valencia Ortiz Miguel Angel, Universidad de Caldas. Zapata Martínez Dolores Itzel, Universidad de Sonora. Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Las dataciones radiométricas juegan un papel muy importante en las ciencias de la tierra, pues ayudan a tener un mejor entendimiento de la evolución geodinámica de nuestro planeta, de cómo sucedieron los eventos que configuraron la Tierra como la conocemos hoy en día, y tratar de deducir lo que pasará en el futuro. Entre las aplicaciones de estos estudios geocronológicos se encuentran la determinación de edades de cristalización de cuerpos magmáticos y de eventos deformativos y mineralizantes, la cuantificación de tasas de exhumación, y otros análisis que solo con el fechamiento de las rocas se pueden llevar a cabo.
Para llegar a esto es necesario comprender el comportamiento mineralógico de las rocas de interés y determinar qué relojes isotópicos usar de acuerdo con sus características químicas.
Por ello se busca aislar minerales específicos que contienen información valiosa sobre la edad de las muestras o características particulares en estas, permitiendo que las fechas obtenidas sean lo más precisas posible.
METODOLOGÍA
La metodología del trabajo realizado puede clasificarse en tres etapas principales:
Elaboración de secciones delgadas;
Separación de minerales; y
Caracterización de minerales.
La elaboración de secciones delgadas facilita la identificación de minerales contenidos en las muestras e indican si es viable realizar procedimientos posteriores asociados a la disgregación de minerales.
La segunda etapa se enfoca en la separación de minerales con una estructura cristalina adecuada para albergar isótopos radioactivos y radiogénicos conocidos, de los cuales, en función de su relación isotópica, podrá ser extraída la edad asociada. Entre los minerales de interés se encuentran circones, apatitos, hornblendas, biotitas, moscovitas y feldespatos. Esta etapa comienza con la trituración, tamizado, lavado y secado de las muestras.
Cuando el material se haya secado se separa en función de la susceptibilidad magnética de los minerales, por medio de un separador de barrera magnética tipo Frantz. Colocando el separador en diferentes configuraciones se pueden separar los minerales en ferromagnéticos, paramagnéticos y no magnéticos. El target de la separación depende de las edades de interés y de la temperatura de cierre del mineral.
Según sea el objetivo mineral en la separación, se usan diferentes líquidos pesados con densidades específicas conocidas, como yoduro de metileno o MEI, bromoformo y politungstato de litio. Es necesario manipular los líquidos bajo parámetros sanitarios adecuados:una campana de extracción y utilizando vestimentas adecuadas como batas, guantes, gafas y cubrebocas.
Para los circones se utiliza MEI; para el bromoformo se utilizan los minerales del residuo flotante del yoduro de metileno, para obtener a partir de estos los apatitos. En el caso del LST el montaje es diferente, pero el principio es el mismo, en él se requiere recuperar ambas partes (la que se hunde y la que flota), y calibrar hasta obtener una correcta disgregación (como feldespatos potásicos y cuarzos). Posteriormente, en el caso de los minerales separados distintos al circón y apatito se realizan procedimientos de paper shaking para concentración de micas con relación a los rolls (minerales cuyo hábito no permiten que se adhieran a una superficie fácilmente) y efectuar limpieza de minerales no deseados mediante hand picking.
Es importante distinguir los minerales con base en sus características cristalográficas bajo lupa binocular, y así lograr el montaje y separado adecuado. El montaje de circones se hace con ayuda de dos microscopios estereográficos, bajo uno de ellos se coloca un petri Pyrex con la muestra que contiene los circones y, en el otro, el vidrio con el montaje deseado para los circones.
Los circones contenidos en la probeta terminada se caracterizan mediante un microscopio electrónico de barrido con detector de catodoluminiscencia (SEM-CL). Para que el SEM-CL pueda detectar a los circones, la probeta se debe recubrir con carbono. En este paso, se toman fotografías de cada línea montada de circones. y al final se traslapan con un software de edición. A partir del mosaico obtenido se eligen los sitios potenciales para los análisis de U-Pb en función de las características físicas del circón, su tipo y el objetivo de fechamiento
Por último, elegidos los puntos de ablación, fue visitado el Laboratorio de Estudios Isotópicos, donde fue posible presenciar el procedimiento de identificacion y cuantificacion de especies atómicas presentes en la muestra, es este caso con especial interés en los isótopos radioactivos y de origen radiogénico además de otros análisis químicos que son obtenidos como ppm de REE en circón, a partir de ello son emitidos gases los cuales contienen componentes químicos que son medidos por un espectrómetro de masa (LA-ICPMS) el cual se encarga de distinguir los componentes químicos presentes en la parte desintegrada del circón. Una vez limpios los datos, son leídos y graficados, para obtenerlos datos ploteados en curvas concordia y otros esquemas para realizar los análisis correspondientes.
CONCLUSIONES
Durante el verano, se tuvo un cierto número de rocas a trabajar en el transcurso de la estancia, correspondientes a granitos y xenolitos de proyectos del NW de México y SW de Estados Unidos, y se fue partícipe de todos los procesos previos a la datación y aprendiendo una gran cantidad de técnicas, métodos de separación y caracterización de minerales.
Fueron llevadas 5 muestras al Laboratorio de Estudios Isotópicos para la realización del fechamiento U-Pb mediante ablación de los circones; con lo que se calcularon las edades de las rocas provenientes de Baja California.
Con el resultado de todo el trabajo es posible darse una idea de la evolución tectónica, o identificar si están relacionados a zonas de debilidad cortical, generando correlaciones entre las rocas de Estados Unidos y México.
Sesma Carrillo Stephanie Judith, Universidad Autónoma de Baja California
Asesor:Dra. Gisela Montiel Espinosa, Instituto Politécnico Nacional
ENTORNOS TECNOLóGICOS DEL APRENDIZAJE DE LAS MATEMáTICAS
ENTORNOS TECNOLóGICOS DEL APRENDIZAJE DE LAS MATEMáTICAS
Sesma Carrillo Stephanie Judith, Universidad Autónoma de Baja California. Asesor: Dra. Gisela Montiel Espinosa, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Durante la estancia de investigación se buscaba indagar sobre entornos tecnológicos del aprendizaje en las matemáticas, esto para profundizar en la interacción de los estudiantes y estímulos de tecnología, así como entender la construcción de su conocimiento desde esa perspectiva, tanto como desarrollo de conceptos propios y modelaciones de la trigonometría así como en contextos socio epistemológicos.
METODOLOGÍA
Esta investigación en primera fase tuvo bases en autores como Ricardo Cantoral y Rosa María Farfán en MATEMÁTICA EDUCATIVA: UNA VISIÓN DE SU EVOLUCIÓN, en la cual se entiende el porqué del estudio de la matemática educativa así como que es y sus cimientos, en segunda instancia María Camila Correa Valcarcel, Verónica Molfino Vigo y Valeria Schaffel con Matemática educativa: una visión -ilustrada-de su evolución en la cual hay una explicación a mayor detalle de la investigación de Cantoral y Farfán; como una de las últimas fases nos dimos a la tarea de estudiar los diseños de intervención didáctica, de la tesis Doctoral que presenta Olivia Alexandra Scholz Marbán, DESARROLLO DEL PENSAMIENTO TRIGONOMÉTRICO, EN EL TRÁNSITO DE LO GEOMÉTRICO A LO VARIACIONAL, en la cual nos dimos a la tarea de revisar puntualmente 8 tareas que se encuentran dentro de la tesis.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos sobre los que son los entornos tecnológicos del aprendizaje de las matemáticas, mayormente en el área de trigonometría, así como ampliar conocimientos de investigación y autores que se especializan en el área de la matemática educativa.
Sierra Gualdrón Camilo, Universidad de Pamplona
Asesor:Dra. Ma. Catalina Gómez Espinosa, Universidad Autónoma de Guerrero
ESTUDIO DE LOS MICROFóSILES MARINOS CALCáREOS, CON éNFASIS EN LOS FORAMINíFEROS Y OSTRáCODOS, DEL PLIOCENO DEL ESTADO DE GUERRERO, MéXICO
ESTUDIO DE LOS MICROFóSILES MARINOS CALCáREOS, CON éNFASIS EN LOS FORAMINíFEROS Y OSTRáCODOS, DEL PLIOCENO DEL ESTADO DE GUERRERO, MéXICO
Sierra Gualdrón Camilo, Universidad de Pamplona. Asesor: Dra. Ma. Catalina Gómez Espinosa, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
La Paleontología como disciplina científica se inicia a mediados del siglo XVII, gracias al trabajo del geólogo Niels Stensen (Nicolas Steno).
El objeto de estudio de la paleontología son los fósiles, se considera que un fósil (del griego fodere excavar) es cualquier evidencia de vida con una antigüedad mayor a 10 mil años (Buitrón et al., 2018)
Particularmente la micropaleontología estudia a los fósiles de un tamaño menor a 2 mm, y surge como una disciplina en la que confluyen múltiples ciencias que permiten evaluar y determinar el comportamiento, evolución y respuesta de los microfósiles (Howard y Brasier, 2005).
Los microfósiles son importantes en el ámbito de la paleontología porque los organismos planctónicos son importantes como índices bioestratrigráficos (permiten determinar la edad), mientras que los bentónicos permiten reconstruir el ambiente de depósito (condiciones ambientales en las que quedó sepultado), (Howard y Brasier, 2005).
Para reconstrucciones paleoambientales de ambientes marinos son de particular interés los foraminíferos bentónicos y los ostrácodos, los que permiten reconstruir la profundidad, niveles de oxígeno, temperatura, salinidad, tipo de sustrato y paleobatimetría (Holmes 2001).
En el sureste de México, dentro de los límites del estado de Guerrero y Oaxaca, en el Municipio de Cuajuinicuilapa, afloran rocas pertenecientes al Plioceno (Piacenziano) que forman parte de la Formación Punta Maldonado. Esta formación está dividida de manera informal en siete unidades. En la localidad de El Faro las rocas presentan un alto contenido fosilífero conformado por rodolitos, icnofósiles de crustáceos, invertebrados (corales, briozoarios, moluscos (gasterópodos, bivalvos y escafópodos, balanos y equinodermos), vertebrados (dientes de tiburón, fragmentos de huesos) y microfósiles (radiolarios, foraminíferos y ostrácodos). Las condiciones paleoambientales del Plioceno se considera que son las más cercanas a las que se tendrán para el 2100 de acuerdo a los pronósticos de temperatura del IPCC, además que paleobiogeográficamente esta zona es particularmente importante pues aún se encontraba un intercambio entre la fauna del Caribe y del Pacífico y fueron los inicios de la delimitación de la actual Provincia Panamánica (Ortíz-Jerónimo, 2021; Gómez-Espinosa, 2021).
METODOLOGÍA
Se procesó una muestra recolectada por los alumnos de micropaleontología de la ESCT durante el 2022 de la unidad 7 de la Formación Punta Maldonado (Plioceno) de los afloramientos costeros de la población de El Faro. Se pesaron 100 g de la lutita semiconsolidada que conforma esta unidad.
La muestra se tamizó en húmedo, con agua corriente, en tamices micropaleontológicos con aberturas de malla del número 20, 40, 60, 80 y 100, la muestra se tamizó. Los sedimentos que quedaron en cada tamiz se depositaron en cajas Petri y se dejaron secar a temperatura ambiente.
Una vez secas las muestras se revisaron bajo un microscopio estereoscópico a un aumento de 4x con la finalidad de recuperar los ejemplares de ostrácodos y foraminíferos. La búsqueda se realizó en el tamaño de malla de 60. Para recuperar los ejemplares se utilizó un pincel de pelo de camello de número 000. Los ejemplares fueron separados en cajas de petri.
Posteriormente a la separación losa ejemplares fueron montados en celdas de plumber y se pegaron con una solución de goma de tragacanto y aceite de clavo (este último para evitar la aparición de hongos), para realizar una preparación semipermanente que permita mover a los ejemplares sin dañarlos.
Con apoyo del trabajo de Juárez-Arriaga et al. (2006), y las ilustraciones de Salto-Arroyo (2021) se realizaron las identificaciones taxonómicas a niveles taxonómicos superiores, pudiendo identificarse de manera general dentro de los foraminíferos a ejemplares planctónicos de la familia Globigerinidae, y organismos bentónicos de las familias Uvigerinidae, Bolivinidae y Miliolinidae. En los ostrácodos de acuerdo a la ornamentación de las valvas se identificaron organismos de una salinidad baja (valvas lisas y sin ornamentación) y de salinidad normal (33 ppm), (valvas gruesas y con ornamentación de nódulos).
Los ejemplares montados en las celdasa de Plumber fueron observados en un microscopio digital y se tomaron algunas fotografías como evidencia del trabajo realizado, puesto que, de manera formal, los microfósiles deben ser fotografiados en un microscopio electrónico de barrido (MEB), para lo cual se necesitaba agendar una cita en el laboratorio de Microscopia Electrónica de la ESCT-UAGro.
Como parte del proceso y de la producción académica del Verano de Investigación se espera generar un artículo de investigación en una revista arbitrada en donde se realice un modelo paleoecológico, basado en los ostrácodos y foraminíferos, de acuerdo con las condiciones de sedimentación que prevalecieron en la unidad superior de la Formación Punta Maldonado.
CONCLUSIONES
Durante la estancia del Verano de Investigación en la Universidad Autónoma de Guerrero se aprendieron y aplicaron de manera general las técnicas de limpieza, separación, preparación y montaje de microfósiles calcáreos, en material semiconsolidado.
Además, se aprendieron de manera bibliográfica temas generales sobre micropaleontología y tipos de microfósiles.
Particularmente de los foraminíferos y ostrácodos, se aprendió a identificar las características diagnósticas para su identificación, y a relacionar a los taxones con sus tipos de hábitat con la finalidad de usarlos como proxies medioambientales para las reconstrucciones paleoambientales y paleoecológicas.
Durante el lapso del verano de investigación se adquirieron las nociones básicas para el trabajo, estudio y aplicación de los microfósiles calcáreos, lo que se considera aporta las bases académicas para su uso.
Sierras Figueroa Ana Lizeth, Universidad Estatal de Sonora
Asesor:Dr. Carlos Chávez Negrete, Universidad Michoacana de San Nicolás de Hidalgo
REVISIóN DE ESTABILIDAD DEL TALUD AUTOPISTA ENSENADA-TIJUANA
REVISIóN DE ESTABILIDAD DEL TALUD AUTOPISTA ENSENADA-TIJUANA
Sierras Figueroa Ana Lizeth, Universidad Estatal de Sonora. Asesor: Dr. Carlos Chávez Negrete, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Los deslizamientos son movimientos de masa de suelo y/o roca que se deslizan sobre suelos o superficies débiles, una vez que las fuerzas de resistencia al corte han sido superadas por las fuerzas desestabilizadoras o a favor del movimiento. Por lo regular estas masas se mueven como una unidad en su desplazamiento. Es uno de los procesos geológicos más destructivos, afectan por lo regular a la sociedad, la economía y medio ambiente, de forma directa o indirecta. Ocasionan: pérdida de vidas humanas, destrucción de estructuras y vías de comunicación (afectando las actividades de las personas), alteración del habitad de especies, cambios en la topografía, etc.
Durante la estancia de verano de investigación se trabajó sobre el deslizamiento de la Autopista Tijuana - Ensenada en el km 93+000, el cual ocurrió el 28 de diciembre del 2013, en la zona de la Bahía de Salsipuedes. La autopista escénica Tijuana-Ensenada sufrió un deslizamiento de tierra provocado por las lluvias y las condiciones sísmicas. El hundimiento inició con un desnivel de apenas 30 centímetros, mismo que se convirtió en un colapso de 40 metros, dejando atrapados varios tráileres de carga que circulaban en ese momento; asimismo, quedó incomunicada no sólo Ensenada sino al resto de Baja California, ya que se trata de la autopista federal Transpeninsular que llega hasta Cabo San Lucas luego de un recorrido de mil 711 kilómetros.
Con la finalidad de tener una comprensión más clara del movimiento presente en dicho deslizamiento se realizó un análisis cinemático a través de una modelación. Adicionalmente se desarrollaron en laboratorio las pruebas necesarias para caracterizar física y mecánicamente a los suelos.
METODOLOGÍA
Existen diferentes métodos para el análisis de la estabilidad de un deslizamiento; los cuales son alimentados de los diversos parámetros conocidos previamente, obtenidos de ensayos de laboratorio o en situ de los materiales. En esta investigación se centró a obtener envolventes de resistencia, con datos previamente obtenidos; y en un análisis de equilibrio limite (simplificado de bloques).
Evolventes de resistencia:
Para sacar el envolvente de resistencia es necesario realizar una prueba triaxial en laboratorio que determina la resistencia a la compresión no drenada y no consolidada de suelos cohesivos en compresión triaxial. Esta prueba también se denomina prueba triaxial rápida. Muestras de suelo en condiciones no drenadas (húmedas) se someten a compresión, pero con una determinada presión de confinamiento en torno a la muestra. La prueba suele llevarse a cabo en tres especímenes distintitos y con tres presiones de confinamiento diferentes. Durante la compresión no se permite el drenaje de agua de la muestra. Esta prueba normalmente se lleva a cabo en muestras de suelo que se presuponen completamente saturadas o casi completamente saturadas al cargarse, de manera que se carguen rápidamente y no haya suficiente tiempo para que se produzca el drenaje y la consolidación del suelo.
Análisis simplificado:
Falla plana para el factor de seguridad
El coeficiente de seguridad en la rotura plana se define como el cociente entre las fuerzas que se opone al deslizamiento del bloque y las fuerzas que lo inducen. El valor de dicho cociente debe ser superior a la unidad para que el talud sea estable. Normalmente, son hipótesis de cálculo conservadoras, se considera que el talud es suficientemente estable si el coeficiente de seguridad es del orden de 1,3 o 1,1 si se considera el efecto sísmico
La fuerza de fricción es consecuencia de la reacción normal efectiva en el plano del deslizamiento. esta reacción depende de las fuerzas que actúan sobre el bloque que son su peso y los empujes de agua en el plano de discontinuidad y la grieta de tracción
Análisis con el software Hyrcan
Evalúa el factor de seguridad de la superficie de falla circular en taludes de suelo o roca. HYRCAN ofrece un sistema de ventanas autónomo que es muy fácil de usar, pero que permite crear y analizar modelos complejos de forma rápida y sencilla. La interfaz gráfica de usuario permite la generación rápida de modelos avanzados y las funciones de salida mejoradas proporcionan una presentación detallada de los resultados computacionales.
El diseño confiable de taludes en proyectos de minería e ingeniería civil no solo puede mejorar la seguridad, sino que también puede evitar sobrecostos de construcción inesperados como resultado de fallas en taludes. El método de equilibrio límite (LEM) se ha utilizado ampliamente para el análisis de estabilidad de taludes en la práctica de la ingeniería. En LEM, se calcula el factor de seguridad (FOS) para un gran número de superficies de deslizamiento potenciales, y la superficie de deslizamiento con el FOS mínimo se define como la superficie de deslizamiento crítica, a lo largo de la cual es más probable que ocurra el deslizamiento.
Así como se realizaron pruebas de suelo en el laboratorio para poder sacar los envolventes de falla y así poder llegar a una conclusión
CONCLUSIONES
El cierre de la carretera Tijuana-Ensenada por el deslizamiento generó pérdidas de aproximadamente 100 millones de dólares para el sector turístico, el sector productivo y en el transporte de mercancías, adicionalmente a los 900 millones pesos que invirtió el gobierno para reparar una zona menor.
Con estos análisis que se realizaron, se obtuvo la envolvente de falla que esta determina la cohesión y el así como un análisis cinemático. Se realizaron análisis simplificado análisis de estabilidad de falla plana donde se obtuvo el factor de seguridad que este incluía un coeficiente sísmico y agua en las grietas, también se realizó en el software de Hyrcan un plano del talud todo esto con el objetivo de saber cómo se encontraban los valores al momento que se produjo la falla.Con los análisis simplificados se obtuvieron los siguientes datos: Cohesión = 1.45,Fi =11.99 grados y un coeficiente sísmico de 0.064 para obtener un factor de seguridad a 1.
Siordia Garcia Leonardo Uriel, Universidad de Guadalajara
Asesor:Dra. Elizabeth Galindo Linares, Universidad Autónoma de Sinaloa
ECONOFíSICA: MODELANDO LA COMPLEJIDAD DE LOS SISTEMAS FINANCIEROS
ECONOFíSICA: MODELANDO LA COMPLEJIDAD DE LOS SISTEMAS FINANCIEROS
Siordia Garcia Leonardo Uriel, Universidad de Guadalajara. Asesor: Dra. Elizabeth Galindo Linares, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Las sociedades contemporáneas enfrentan problemas de creciente complejidad. Incontables relaciones y variables son representados con modelos simples y reduccionistas. Los desórdenes sociales, las turbulencias políticas y el caos financiero, son términos utilizados con mayor frecuencia para describir a la sociedad que enfrenta una crisis, particularmente en Economía es evidente que la desigualdad en la distribución de la riqueza es una crisis que tratar. En ese contexto, las tensiones, inestabilidad y turbulencias que caracterizan a los sistemas reales han desencadenado una fractura en la credibilidad sobre la predicción, y que obliga a introducir nuevos modelos de pensamiento científico.
En ese sentido la econofísica funge como un área interdisciplinar de la ciencia que hace uso de las técnicas y métodos propios de la física con el objetivo de modelar los sistemas financieros, y aunque en sus inicios, incluso antes de su formalización, tenía como principal impulsor utilizar analogías con sistemas físicos ésta ha evolucionado a formar parte de la ciencia de la complejidad en dirección de convertirse en un área transdisciplinar.
El estudio y la divulgación de la econofísica en México con perspectiva transdisciplinar a futuro, resulta entonces un bien necesario, puesto que las herramientas y conocimientos que produce no se limitan a la descripción y predicción de los activos financieros, si no, que además permite estudiar el comportamiento de los agentes, la macroeconomía y los fenómenos colectivos que surgen en los mercados financieros. Sin embargo, a pesar de su potencial, la econofísica aún no ha alcanzado un nivel de difusión y aplicación amplio en México.
La creencia de que modelos económicos tradicionales bastan para abordar complejidades financieras limita enfoques innovadores. Partiendo de lo anterior, durante el verano de investigación se estudiaron las generalidades de la econofísica, los puntos de contacto con entre las ciencias económicas y sociales, su origen y las técnicas de actualidad.
METODOLOGÍA
Para comprender el surgimiento de la econofísica, se revisaron distintas referencias. Se comenzó con el trabajo de Louis Bachelier quien propuso la aplicación de la teoría de probabilidad a bonos del estado francés, lo que dio lugar a conceptos matemáticos fundamentales como la caminata aleatoria.
Además de las ideas de Bachelier, se analizaron desarrollos posteriores en la economía y finanzas, como el Modelo de Fijación de Precios de Activos Financieros (CAPM) y la ecuación de Black-Scholes.
Se estudiaron las similitudes de los modelos antes mencionados con aquellos utilizados en física y que resultan similares en su forma matemática, tal como la ecuación de difusión.
Se cuestionaron los supuestos de la teoría económica tradicional, especialmente la Hipótesis de Mercado Eficiente (HME), la cual supone que toda la información relevante para el sistema está incorporada en los precios en cada momento, y es accesible. Además, se consideran a los racionales y que interpretan la información inmediatamente.
Se buscaron artículos que presentaban argumentos de que la Hipótesis de Mercado Eficiente no puede ser del todo cierta. En la realidad, la utilidad teórica medible no es el único factor considerado, y los agentes no siempre actúan de manera racional o en su propio interés, los cambios de precios no son siempre continuos; hay saltos modelables con teoría de valores extremos.
Se profundizó en el análisis empírico y se rescataron estudios que apoyaban la idea de que la HME no es completamente cierta en la realidad financiera, especialmente ante eventos atípicos. En particular la HME asigna como probabilidad a un crash como el de octubre de 1987, una entre 1035 posibilidades: es decir, para la teoría clásica, semejante ocurrencia es imposible.
Además, se estudiaron los trabajos de figuras clave en la econofísica, Stanley y Mantegna, cuyas contribuciones en la aplicación de la física estadística para abordar cuestiones económicas, impulsaron la disciplina revolucionaria de la econofísica y proporcionaron una nueva perspectiva con un enfoque que se destaca por el uso de leyes de potencia en lugar de distribuciones gaussianas.
Se buscó reproducir los resultados de distintos artículos, en los cuales se presenta la recomendación del uso de distribuciones gaussianas. Se utilizaron técnicas estadísticas y el programa Matlab. Posteriormente se procedió a buscar datos actuales de índices financieros tanto de la bolsa mexicana, como la estadounidense con la intención de replicar los resultados con datos más actuales.
Un análisis minucioso del comportamiento de los rendimientos de activos muestra una distribución similar a la campana de Gauss, pero con colas que no se estrechan, es decir, siguen una ley de potencia. Esta peculiaridad también se encuentra en el ámbito económico, donde la Ley de Pareto describe la concentración de riqueza en unos pocos individuos. En contraste, una distribución gaussiana tendría mayor equidad, distribuyendo los ingresos de manera más simétrica alrededor de la media.
Se utilizaron los índices IPC MEXICO, NASDAQ, FEMSAUBD y MSFT, con el fin de contrastar los resultados en cotizaciones de la bolsa de valores mexicana y estadounidense. Dado que el acceso a los datos de los precios con una resolución de minutos no es de acceso libre, se utilizaron datos diarios de precio de 5 años iniciando el 01 de Junio 2018, algo que se consideraría un periodo largo de tiempo.
CONCLUSIONES
Durante la estancia de verano se logró entender la relevancia de las ideas que propone la econofísica, además se consiguió contrastar teórica y empíricamente los modelos y los supuestos de la teoría económica clásica con los modelos que la econofísica plantea. Se propone a futuro emplear la inteligencia artificial con la finalidad de comparar los resultados obtenidos con los de sus respuestas, indagar que otras bibliografías nos propone e intentar que nos realicé un análisis financiero.
Soberanes Cuevas Evelia, Universidad Autónoma de Baja California
Asesor:Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
ANáLISIS DEL CAMPO DE VIENTOS SUPERFICIALES Y SU RELACIóN CON EL DESPEGUE Y ATERRIZAJE DE LOS AVIONES DE LA CD. DE PUERTO VALLARTA, JALISCO Y EN LA CD. DE MEXICALI, BAJA CALIFORNIA
ANáLISIS DEL CAMPO DE VIENTOS SUPERFICIALES Y SU RELACIóN CON EL DESPEGUE Y ATERRIZAJE DE LOS AVIONES DE LA CD. DE PUERTO VALLARTA, JALISCO Y EN LA CD. DE MEXICALI, BAJA CALIFORNIA
Soberanes Cuevas Evelia, Universidad Autónoma de Baja California. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La meteorología es un aspecto crucial en el despegue y aterrizaje de aviones, ya que las condiciones climáticas tienen un impacto significativo en el comportamiento y desempeño de la aeronave. En primer lugar, la velocidad y dirección del viento son fundamentales para garantizar la seguridad en los procesos de despegue y aterrizaje. Los pilotos deben conocer la velocidad y dirección del viento antes de despegar o aterrizar, ya que esto les permitirá ajustar el ángulo de ascenso o descenso apropiadamente, reducir el consumo de combustible y evitar posibles emergencias.Además, la visibilidad es un factor primordial que influye en la seguridad de los procedimientos de despegue y aterrizaje, por lo que los pilotos deben estar al tanto de la presencia de nubes, niebla u otros fenómenos que puedan limitar su capacidad visual.
Estudiar el despegue y aterrizaje de las aeronaves, es sumamente importante, para poder manejar de mejor manera y mayor potencial el espacio aéreo mexicano. Por ello, el objetivo fue analizar el campo de vientos superficiales en la Cd. De Puerto Vallarta, Jalisco y en la Cd. De Mexicali, Baja California y su relación con el despegue y aterrizaje en los aeropuertos de estas ciudades.
Este análisis brinda a los controladores de tráfico aéreo y pilotos información esencial para asegurar operaciones y lograr mejor eficiencia de las operaciones de despegue y aterrizaje de aviones en ambos aeropuertos.
Además, puede ayudar en la planificación de rutas y horarios de vuelo, así como en la toma de decisiones sobre la gestión del tráfico aéreo en ambas ciudades.
METODOLOGÍA
Para alcanzar el objetivo, se realizaron las rosas de viento para evaluar y comprender los patrones de dirección predominante del viento en ambas ciudades durante el período de estudio.Se utilizaron datos meteorológicos de estaciones meteorológicas automáticas ubicadas, una en ciudad de Puerto Vallarta, Jalisco y la otra en Mexicali, Baja California de Mayo, Junio y Julio del 2023. A partir de esta información se utilizó la dirección y velocidad del viento promedio para realizar las rosas de viento mensuales de dichas localidades.
En Puerto Vallarta, Jalisco se registraron las variables meteorológicas clave, incluyendo la dirección y velocidad del viento, la temperatura, la humedad y la presión atmosférica. Estos datos se obtuvieron a través de Estaciones Meteorológicas Automáticas (EMAS) Davis Vantage Pro plus 2. En cuanto a Mexicali, Baja California se siguieron las mismas variables de una estación del Servicio Meteorológico Nacional.
CONCLUSIONES
En conclusión, el análisis de las rosas de viento en ambas ciudades.En Puerto Vallarta, Jalisco se observó que la dirección predominante del viento es hacia el oeste, Por ello la pista de aterrizaje de Puerto Vallarta está orientada 040° (casi NE) y 220° (casi SO). Esto implica que los aviones deberán despegar y aterrizar en pistas orientadas en este sentio. Y se registraron velocidades moderadas del viento entre 0 y 5km/h, lo que es beneficioso para el despegue y aterrizaje seguros de las aeronaves. En Mexicali, Baja California los vientos están orientados mayormente hacia al noroeste (315 ), por esta razón, la pista de aterrizaje de esta ciudad tiene esta orientación. El viento es más intenso, pues mayor porcentaje del viento registrado teien velocidades mayores a 5km/h. Se deben tener en cuenta las velocidades más altas del viento al planificar los movimientos de las aeronaves.
Sotelo Carrillo Diego Ariel, Universidad Autónoma de Zacatecas
Asesor:Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo
INTRODUCCIóN HEURíSTICA AL MODELO DE QUARKS UTILIZANDO PYTHON: ESTUDIO DE MESONES CHARMONIUM, BOTTOMONIUM Y BS.
INTRODUCCIóN HEURíSTICA AL MODELO DE QUARKS UTILIZANDO PYTHON: ESTUDIO DE MESONES CHARMONIUM, BOTTOMONIUM Y BS.
Sotelo Carrillo Diego Ariel, Universidad Autónoma de Zacatecas. Asesor: Dr. Alfredo Raya Montaño, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
El modelo de Quarks es fundamental en la física de partículas, pero su comprensión requiere de matemáticas y física cuántica avanzada, lo que dificulta su divulgación. Se necesita un enfoque heurístico y accesible para introducir el modelo de Quarks y facilitar su entendimiento. Además, el análisis de partículas subatómicas con herramientas como Scikit-hep Particle carece de representaciones visuales intuitivas. Por lo tanto, esta investigación se propone desarrollar un enfoque heurístico y utilizar Scikit-hep Particle para analizar mesones charmonium, bottomonium y Bs, creando diagramas multiplete para una mejor comprensión y divulgación del modelo de Quarks. Esto contribuirá a fomentar el interés en la física de partículas y proporcionar herramientas útiles para la comunidad científica.
METODOLOGÍA
Investigación y revisión de literatura: Se inició el proceso con una exhaustiva investigación y revisión de literatura científica relacionada con la física de partículas, el modelo de Quarks y los multipletes. Se utilizaron fuentes confiables, como artículos científicos, libros y la página oficial del Particle Data Group, para obtener una comprensión sólida y actualizada del tema.
Familiarización con Scikit-hep Particle: Se adquirió un conocimiento profundo de la librería Scikit-hep Particle y todas las herramientas que ofrece para el análisis de partículas subatómicas. Se exploraron las funciones y características proporcionadas por la librería para manipular y visualizar datos relevantes sobre mesones charmonium, bottomonium y Bs.
Estudio e introducción a la física de partículas y modelo de Quarks: Se realizó un estudio detallado de los conceptos fundamentales de la física de partículas y el modelo de Quarks. Se comprendieron los principios básicos de la estructura subatómica de la materia y la organización de partículas en multipletes, lo que facilitó una mejor interpretación y análisis de los datos obtenidos.
Extracción de información de mesones: Utilizando Scikit-hep Particle, se extrajo y recopiló toda la información disponible sobre los mesones charmonium, bottomonium y Bs. Esto incluyó datos sobre sus propiedades, masas, cargas, espines y otras características relevantes.
Organización de la información en diagramas multiplete: Se desarrolló una metodología para organizar la información recopilada en diagramas multiplete considerando la masa, el momento angular total J y los numeros cuanticos L de los mesones. Estos diagramas permitieron una representación visual clara y comprensible de las relaciones entre las partículas estudiadas.
Interpretación y discusión de resultados: Se interpretaron los resultados obtenidos de los diagramas multiplete y se discutió su relevancia en el contexto del modelo de Quarks y la física de partículas. Se identificaron patrones y tendencias importantes en los datos.
Conclusiones y divulgación: Se elaboraron conclusiones basadas en los resultados y se destacaron las contribuciones del enfoque heurístico y los diagramas multiplete desarrollados.
CONCLUSIONES
Esta investigación ofrece una perspectiva novedosa y comprensible sobre el modelo de Quarks y sus implicaciones en el estudio de mesones charmonium, bottomonium y Bs. Los diagramas multiplete desarrollados pueden ser una herramienta valiosa para futuras investigaciones y para la divulgación del tema en comunidades científicas y educativas. La utilización de Scikit-hep Particle demostró su utilidad para analizar y representar datos complejos de manera intuitiva.
Aunque el enfoque heurístico adoptado en este trabajo permitió una comprensión más accesible del modelo de Quarks, es importante reconocer que esta investigación representa solo un primer paso hacia una divulgación más extensa y completa del tema. Futuros estudios podrían expandir y mejorar la metodología presentada, así como explorar otras formas de visualización y análisis de datos subatómicos.
Sotomayor Quijada Liczy Guadalupe, Instituto Tecnológico de Sonora
Asesor:Dr. Diego Armando Pantoja González, Universidad de Guadalajara
PROCESOS DE LA DISPERSIóN Y ANALISIS METEOROLOGíCOS DE LA COSTA DE GUAYMAS
PROCESOS DE LA DISPERSIóN Y ANALISIS METEOROLOGíCOS DE LA COSTA DE GUAYMAS
Sotomayor Quijada Liczy Guadalupe, Instituto Tecnológico de Sonora. Asesor: Dr. Diego Armando Pantoja González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Los buques que arriban a las bahías pueden ocasionan derrames accidentales, así como la industrialización en la costa y la fuga de aguas residuales por falta de mantenimiento, por falta de mantenimiento, lo que puede ocasionar grandes impactos negativos al ecosistema marino, como la muerte de flora y fauna, además de la salud huma.
A nivel nacional según indica Comisión Nacional del Agua (CONAGUA), en 2017 el volumen de agua residuales municipales fue de 228.9 m3/s de los cuales solo el 92% fueron colectadas para posteriormente ser tratadas solo el 58%. En el 2016 CONAGUA reporto tratar 123 m3/s de aguas residuales municipales y 75.9 m3/s de plantas industriales, delas cuales únicamente se trató el 45% de aguas residuales nacionales, Sonora se encuentra en el sexto lugar con un caudal de 10 m3/s y un rango de tratamiento de 5-20% respecto a lo que se genera.
Por otro lado, según Food and Agriculture Organisation (FAO) uno de los servicios ecosistémicos más importantes de los ecosistemas marinos y aguas continentales es la pesca. De acuerdo con la comisión Nacional de Acuacultura y pesca (CONAPESCA) México se estableció en el puesto 16 a nivel mundial de los mayores productores pesqueros y a nivel nacional Sonora se encuentra en primer lugar con una producción de 457,477 toneladas 26.1%, de los cuales la sardina es lo que mayormente se produce a nivel nacional.
Debido a la alta producción con la que cuenta Sonora, según un informe del 2018 aumentó en un 1.9% el número de flotas en el estado, es decir de 1090 unidades que se encuentran en el litoral Pacífico, 323 corresponden a Sonora, casi el 29.3%.
METODOLOGÍA
Debido a que la bahía de Guaymas se encuentra en un estado crítico, este trabajo cuenta con una metodología basada en observaciones de imágenes satelitales y trabajo numérico. Se descargaron imágenes satelitales de EarthExplorer, con fechas del 12 de mayo al 15 de julio del 2022, del satélite Landsat 8-9 OLI/TIRS C2 L2, con las coordenadas (27.93701, -110.83943) para el análisis fotográfico e identificar patrones. A las imágenes se les aplicó una combinación de bandas para obtener el color natural (Banda 4, 3 y 2), así como la combinación de Índice de Vegetación de Diferencia Normalizada (NDVI) con las bandas ((5-4) / (5+4)), esto para analizar los cambios e identificar las entradas de contaminantes y el crecimiento de las algas verdes en la costa.
Se utilizaron datos meteorológicos de los años 2010-2019 para la costa de Guaymas del base de datos NREL (National Renewable Energy Laboratory) y NARR (North American Regional Reanalysis), las variables que se descargaron fueron, temperatura (°C), magnitud de viento (m/s), velocidad de viento (m/s), precipitación (mm/m2), radiación (watts/m2) y humedad especifica (g/kg), con un intervalo de tiempo de 30 minutos entre cada observación.
Para la parte del análisis numérico se utilizó el software Delft3D 4.04.02, en donde solamente se modificaron los parámetros del dominio (Domain), tiempo (Time frame), procesos (Processes), Condiciones iniciales (Initial Conditions), Limites de la malla (Boundaries), parámetros físicos (Physical parameters) y parámetros adicionales (Additional parameters).
Se comenzó por realizar la línea de la costa en Google Earth, la cual es el delineado de la costa de Guaymas. Después se realizó la malla con la herramienta de GRID en Delft3D para posteriormente cargar la malla con terminación (.grd) en el apartado Domain y también una malla al sub apartado de Bathymetry con terminación (.dep). Posterior a ello se estableció la fracción de tiempo en la cual trabajaría el modelo, siendo (01-06-2022 a 30-06-2022) cada 8 minutos en la zona horaria -7 +GMT. Mientras que en el apartado processes de salinidad, temperatura y viento, los cuales son los procesos que sufriría el modelo al correr. Se descargaron datos meteorológicos de la zona de Guaymas de NARR, para ello se realizó un código en Matlab para generar los archivos que se necesitan para el software de Delft3D, una vez descargados los datos y realizados los archivos se procedió a cargar los datos al apartado de Initial Conditions, con la salinidad (34ppm) y temperatura (23°C). Para el apartado de Boundaries se colocaron puntos de control los cuales son las 3 boyas colocadas en el año 2022. En el apartado physical parameters se modificaron el apartado Heat flux con el modelo Murakami y se cargaron los datos meteorológicos, mientras que en el sub apartado Wind se cargaron los datos de dirección y velocidad de viento. Para correr el modelo se utilizó una máquina virtual (Oracle VM VirtualBox 7.0.8), donde se compartió una carpeta en Windows y la máquina virtual en la cual se compartieron los archivos necesarios para correr el programa con un código que se encuentra en la máquina virtual.
Posterior a correr el software se utilizó un código de Matlab para abrir los archivos y generar gráficos de los resultados simulados por el modelo. Obteniendo resultados de temperatura del agua, temperatura promedio de cada nivel de profundidad, dirección y velocidad del aire en la costa y nivel del mar para cada día del mes de junio del 2022.
CONCLUSIONES
Durante la estancia se logró adquirir conocimientos prácticos sobre la modelación de costas de México, análisis estadísticos de la costa de Guaymas, así como técnicas para obtener bases de datos de diversas fuentes confiables y adquisición de experiencia en planeación y pilotaje de drones para el análisis de imágenes. Sin embargo, este proyecto aún se encuentra en desarrollo, debido a que, solo se realizó la simulación y aún falta validar los datos y analizar el margen de error con el que cuenta el modelo y poder compartir la información a los locales para la toma de decisiones y la concientización de la importancia del ecosistema de la costa de Guaymas.
Suárez Marín Arysil Shunashi, Universidad Autónoma Benito Juárez de Oaxaca
Asesor:Dr. Heber Vilchis Bravo, Universidad de Ciencias y Artes de Chiapas
FUNCIONALIZACIóN DEL SILICIO POROSO CON ÓXIDO DE ZINC
FUNCIONALIZACIóN DEL SILICIO POROSO CON ÓXIDO DE ZINC
Suárez Marín Arysil Shunashi, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Heber Vilchis Bravo, Universidad de Ciencias y Artes de Chiapas
PLANTEAMIENTO DEL PROBLEMA
En el mundo de la electrónica y la tecnología, los semiconductores han sido fundamentales para el desarrollo de dispositivos electrónicos cada vez más avanzados y sofisticados. Estos materiales, con propiedades eléctricas intermedias entre los conductores y los aislantes, han revolucionado nuestra sociedad y han impulsado la evolución de la industria electrónica a lo largo de décadas. Sin embargo, a pesar de su importancia y éxito en el mercado, los semiconductores también presentan problemáticas que necesitan ser abordadas. Algunas de las aplicaciones que se pueden dar al SP son en sensores de gas, biosensores, cristales fotónicos, celdas solares, entre otras.
El silicio poroso se obtiene a partir de silicio cristalino (c-Si) empleando la técnica de ataque electrolítico (anodizado) con una densidad de corriente constante. Este ataque permite la obtención de un material nanoestructurado con características diferentes a las del material original, principalmente fotoluminiscencia en el espectro visible a temperatura ambiente. En este trabajo, se empleó caracterización gravimétrica para controlar la porosidad y el espesor de la capa porosa de las muestras. La capacidad de sintonizar el tamaño de los poros, la distribución y la porosidad, en general, es esencial para optimizar las propiedades del material aplicables en diferentes dispositivos electrónicos.
Por otro lado, el óxido de zinc (ZnO) es un óxido semiconductor que puede sintetizarse como película o nanoestructuras (discos, tubos y alambres) con aplicación en transistores, láseres ultravioleta y sensores (biológicos, químicos o fotosensores) siendo éstos últimos los aplicados a este trabajo.
El objetivo del trabajo es la fabricación de un material que conjunte las propiedades del SP y el ZnO, al introducir el óxido en la matriz porosa, lo que algunos autores llaman funcionalización. Para posteriormente aplicarlo como detector de CO2.
METODOLOGÍA
Durante este verano de investigación, se inició con la fabricación de SP y su caracterización gravimétrica, para determinar el porcentaje de porosidad y el espesor de capa porosa obtenido. En este proyecto se utilizaron muestras de obleas de silicio cristalino tipo p, (c-Si) con resistividad de 1-10 Ω. las muestras de c-Si se limpiaron con xileno, acetona y metanol en un baño ultrasónico durante 10 minutos, en cada uno.
Posteriormente, se realizó la infiltración del ZnO in situ, durante la obtención del SP, a esta muestra se le aplicó gravimetría para determinar si la modificación del electrolito cambia el porcentaje de porosidad y el espesor de capa porosa de la muestra. De las pruebas de gravimetría se obtuvieron los siguientes resultados:
El espesor calculado de la capa porosa para la muestra 1 fue cercano a 20 µm con un porcentaje de porosidad de 50%. Para la muestra 2, se obtuvo un espesor de capa porosa alrededor de 53 µm con un porcentaje de porosidad de 96%.
Finalmente, se obtuvo una muestra de SP/ZnO para estudiar la estructura del material, la topografía y la respuesta piezoeléctrica de la heteroestructura. La estructura se determinó mediante difracción de rayos X (DRX), la topografía y la respuesta piezoeléctrica se midieron empleando microscopía de fuerza atómica (AFM). De los resultados de DRX se determinó que un tratamiento térmico mejoraría la estructura del ZnO. Se pretende que las heteroestructuras de SP/ZnO sean aplicadas en la detección de CO2.
CONCLUSIONES
Durante la estancia de investigación se obtuvieron y reforzaron temas relacionados a la cristalografía, síntesis de materiales y caracterización de heteroestructuras. Uno de los resultados más importantes en este verano fue realizar silicio poroso, aprendiendo sus características y futuras aplicaciones.
Sumano Arreguin Carlos Daniel Alejandro, Universidad Veracruzana
Asesor:Dr. José Luis Maldonado Rivera, Centro de Investigaciones en Óptica (CONACYT)
FABRICACIóN Y CARACTERIZACIóN DE DIODOS ORGáNICOS ELECTROLUMINISCENTES.
FABRICACIóN Y CARACTERIZACIóN DE DIODOS ORGáNICOS ELECTROLUMINISCENTES.
Sumano Arreguin Carlos Daniel Alejandro, Universidad Veracruzana. Asesor: Dr. José Luis Maldonado Rivera, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
A lo largo de la historia, se ha podido observar que la sociedad humana no se limita a actuar únicamente durante las horas donde se posee luz del sol sino que se ingenia la manera de obtener luz durante la oscuridad, es así como inicialmente se contó con el fuego producido por la combustión de materia orgánica como la madera. Con el paso del tiempo, la manera en que se proporcionaba luz fue cambiando, pasando por las velas, las lámparas con combustible, los focos con filamento de tungsteno, las lámparas de gas, los focos LED, etcétera.
A medida que la población crece se van buscando nuevas maneras de solventar las necesidades de todos, entre ellas se encuentra la iluminación, algo fundamental para la sociedad y que conlleva un gasto energético alto y gran consumo de elementos naturales. Debido a la limitada cantidad de energía y elementos químicos, la producción de los actuales medios de iluminación no es sustentable, es por ello que se buscan nuevas alternativas que mejoren la eficiencia en el manejo de la energía y los materiales.
Dicha alternativa es la que se abordó en este verano de investigación, la fabricación de diodos orgánicos emisores de luz (OLEDs) como fuentes de iluminación.
METODOLOGÍA
La fabricación de los OLED, con fines de su caracterización en el laboratorio, se llevó a cabo sobre sustratos de vidrio cubiertos con una capa de Óxido de Indio y Estaño (ITO).
Un OLED está compuesto en esencia por ánodo, una capa transportadora de huecos, una capa emisora y un cátodo. Nuestro ITO sería el equivalente al ánodo, la capa transportadora de huecos estará compuesta por una solución de PEDOT:PSS. La capa emisora puede llevarse a cabo con el uso de distintos compuestos, en mi caso se hizo de los compuestos MEH:PPV y PCM300.
El depósito de las capas se hizo por el método de spin coating. El método de spin coating consiste en colocar nuestro sustrato sobre un dispositivo llamado spinner, el dispositivo se encuentra conectado a una bomba de vacío con el fin de sujetar la muestra. Seguido de esto, se vierte sobre la superficie la cantidad necesaria de solución para que quede completamente cubierta. Se programan las revoluciones a las que girará nuestro sustrato y después se da inicio al movimiento, esto con el fin de que se forme una película uniforme del material sin el disolvente.
Una vez listos los depósitos, se somete el sustrato a un tratamiento térmico, el tratamiento depende de la solución depositada y se lleva a cabo para homogeneizar la heterunión.
Finalmente, se aplica el cátodo, siendo este una mezcla de metales llamada Fields Metal. El proceso se lleva a cabo calentando el metal a los 95 °C, se toma con una micropipeta y se aplica sobre nuestro sustrato previamente enmascarado.
Para la caracterización de los OLEDs, se hizo uso de un microscopio de fuerza atómica AFM, se colocaba el sustrato con los depósitos bajo la punta del Microscopio, se observaba una zona homogénea a la vista y se iniciaba la medición, con ello obtuve la rugosidad de mis capas. Asimismo, para medir el espesor de las capas, se hacía un corte en la superficie y se media la distancia entre la superficie y el punto mínimo observable por la función LINE FIT.
Por último, se hizo un análisis del espectro de electroluminiscencia de nuestro OLED. Se aplicó un voltaje al OLED para que encendiera, se configuró un barrido que nos ofreciera mil puntos entre 12 y 13 V (voltaje con mayor luminosidad observado) y que cada punto fuese medido por 4 segundos (tiempo máximo de medición), una vez iluminado, se fijó una fibra óptica frente al OLED y se guardó el espectro medido con el dispositivo llamado Stellar.
CONCLUSIONES
Debido a la teoría, sabemos que el espesor ideal para la capa emisora se encuentra en los 70 nm para el compuesto de MEH:PPV. Pude observar que obtenía un espesor de 60 nm aplicando una solución de MEH:PPV disuelto en clorobenceno a una concentración de 4 mg/ml y una deposición a 3000 rpm por un minuto, dando un tratamiento térmico a 80° C por 15 minutos.
La rugosidad de capa de PEDOT:PSS fue de 2 nm a 50 μm y 1 nm a 5 μm con un espesor de 29 nm.
La rugosidad de la capa de MEH:PPV fue de 4 nm a 50 μm y 1 nm a 5 μm. El espesor para la capa de MEH:PPV disuelto en clorobenceno a 3000 rpm fue de 60 nm mientras que a 1000 rpm fue de 106 nm.
Nuestro compuesto tuvo un espectro de emisión con un máximo a los 600 nm siendo este la longitud de onda correspondiente a un color entre el naranja y el rojo.
Así también, el compuesto PMC300 tuvo un espesor de 30 nm depositado a 1000 rpm y de 25 nm depositado a 1500 rpm. Dónde el espectro de emisión tuvo un máximo a los 570 nm, siendo la longitud de onda para un tono amarillo verdoso.
Tafolla Herrera Diego Benjamín, Universidad Michoacana de San Nicolás de Hidalgo
Asesor:Dr. Carlos Alfonso Cabrera Ocañas, Universidad Nacional Autónoma de México
OBJETOS DEL ANáLISIS CLáSICO DESDE UNA PERSPECTIVA DEL ANáLISIS NO ESTáNDAR
OBJETOS DEL ANáLISIS CLáSICO DESDE UNA PERSPECTIVA DEL ANáLISIS NO ESTáNDAR
Tafolla Herrera Diego Benjamín, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Carlos Alfonso Cabrera Ocañas, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
En sus orígenes, el cálculo se desarrolló haciendo uso de infinitesimales: números que podían ser más grandes que 0 y a la vez más pequeños que cualquier número positivo dado de antemano. La idea de los infinitesimales, no pudo ser formalizada durante los primeros siglos de esta disciplina y se acabaron definiendo muchos de sus conceptos (límites, derivadas, integrales,... ) sin la necesidad de recurrir a estos artificios que le habían dado un ambiente de misticismo a este tipo de matemáticas. Aunque esto le dio un rigor mayor al cálculo también provocó que abandonara en cierta medida la intuición que había permitido su propio desarrollo. De esta manera, aunque la mayoría de los matemáticos se resignaron a quedarse con una versión del análisis matemático distinta a la que habían pensado sus creadores, otros decidieron aplicar ideas novedosas para poder formalizar esta antigua perspectiva de las matemáticas y fue de este modo que a mediados del siglo pasado surgió lo que se conoce como análisis no-estándar (NSA por sus siglas en inglés). Ahora solo quedaría intentar traducir los conceptos de las matemáticas clásicas a este paradigma, para poder aplicar las técnicas de esta nueva forma de hacer análisis.
METODOLOGÍA
A través del NSA se estudiaron distintos conceptos del análisis clásico y se realizaron "traducciones" de estos , se consideraron así mismo objetos matemáticos como la serie armónica, la función Zeta de Riemann y las Series Alternantes, haciendo uso de técnicas del NSA para simplificar la demostración de teoremas clásicos sobre estos objetos y extendiendo algunas nociones típicas del análisis al universo no-estándar. Se resalta el uso del Principio de Transferencia. El Teorema de la Sombra y las entidades internas.
Se estudiaron conceptos sin análogo en el análisis clásico tales como los halos y galaxias de hiperreales para poder a través de ellos caracterizar la convergencia de sucesiones, así como obtener demostraciones para la completez de los números reales, el Teorema de Bolzano Weierstrass y el Teorema de Riemann para series alternantes.
Se realizó un estudio de las hiper-series a partir del concepto de suma hiperfinita y extendiendo teoremas clásicos a estos nuevos objetos.Así mismo se discutieron brevemente extensiones a los hiper-complejos de la función Zeta de Riemann y criterios de sumabilidad definidos a partir de técnicas del NSA.
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos relativos a las técnicas usadas en el NSA principalmente para el manejo de series y sucesiones, obteniendo a partir de estos demostraciones de teoremas clásicos y los teoremas análogos para sus contrapartes no-estándar . Se definieron las hiper-series y se logró encontrar que cuentan con propiedades en común respecto de las series usuales, encontrando que Teoremas como el de Riemann para series alternantes también tienen su contraparte no-estándar. Se propuso además que la convergencia de estas también puede ser caracterizada haciendo uso de un encaje elemental del universo no estándar. A partir de todo esto se pudo observar como los métodos del NSA permiten argumentar de una forma simple y en muchas ocasiones más directa que en el análisis usual.
Tapia Armenta Jesús Daniel, Universidad Autónoma de Sinaloa
Asesor:Dr. Víctor José Sosa Villanueva, Instituto Politécnico Nacional
MAPEO DE CAMPOS MAGNéTICOS RETENIDOS EN MATERIALES SUPERCONDUCTORES
MAPEO DE CAMPOS MAGNéTICOS RETENIDOS EN MATERIALES SUPERCONDUCTORES
Medina Languren Alison Lisbeth, Universidad de Guadalajara. Tapia Armenta Jesús Daniel, Universidad Autónoma de Sinaloa. Asesor: Dr. Víctor José Sosa Villanueva, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Los materiales superconductores pierden resistencia eléctrica y retienen campos magnéticos. Al llegar a su temperatura crítica, expulsan campos magnéticos (efecto Meissner). Un imán cercano es repelido y levita sobre superconductor (altura de levitación). En superconductores de alta temperatura, hay un "estado mixto". Esta investigación aborda la hipótesis que los superconductores se magnetizan como un imán permanente.
METODOLOGÍA
En esta investigación se midieron campos magnéticos en un material superconductor YBCO. Se utilizaron imanes de neodimio con diferentes geometrías y espaciadores para variar el campo aplicado. Luego se midió el campo magnético del superconductor a diferentes alturas y se comparó con el imán. El procedimiento incluyó colocar el superconductor en hielo seco, utilizar un separador para lograr diferentes distancias, se vertió nitrógeno líquido para reducir la temperatura y medir el campo retenido en el cilindro. Repitiendo 3 veces para cada separador con 3 alturas. Se emplearon ecuaciones de Sosa, 2013 y un ajuste lineal para analizar datos y obtener la magnetización (μ0M).
Ecuaciones para distintas geometrías:
Cilindro:
B(z) = ((μ0M)/2)*(z/√(z2+R2 )-(z-L)/√((z-L)2+R2))
R: radio
h: altura de la medición a partir de la superficie del imán
L: espesor del material
z: h+L
CONCLUSIONES
Imán Cilíndrico:
Imán cilíndrico con superconductor cilíndrico, cálculos suponiendo se magnetizaba con una geometría cilíndrica.
Ajuste lineal Superconductor
m b
1220.689542 9.162518107
Incert 77.97037854 11.14801657
r2 0.972233729
Resultados del comportamiento magnético de un imán cilíndrico:
Ajuste Lineal Imán
m b
3714.604083 54.10068082
incert 27.34800989 5.826920952
r2 0.99945826
Se observó una magnetización en superconductor similar a imán cilíndrico. Altura de medición y fuerza del imán influyen. Extrapolación indica campo magnético se acerca a cero con mayor altura.
Imán Rectangular:
Imán rectangular con superconductor cilíndrico, cálculos suponiendo que se magnetizaba con una geometría rectangular.
Ajuste lineal Superconductor
m b
29.98270208 25.46436841
Incert 2.179999003 15.45985587
r2 0.964314817
Resultados del comportamiento magnético de un imán rectangular:
Ajuste lineal Imán
m b
138.8995403 100.1740862
incert 8.212517508 50.90666794
r2 0.97611367
Se realizó un segundo ajuste con imán rectangular y superconductor cilíndrico. Suponiendo un superconductor magnetizado cilíndricamente, luego se comparan comportamientos y determinar concordancia con propiedades reales del imán.
Para el imán rectangular, suponiendo geometría cilíndrica tiene mayor incertidumbre y cercanía al origen. Suponer geometría similar al imán es mejor y los resultados respaldan influencia de geometría y magnetización del imán en la magnetización del superconductor.
Imán Anillo:
Imán de anillo con superconductor cilíndrico, cálculos suponiendo que se magnetizaba con una geometría de anillo.
Ajuste Lineal Superconductor
m b
878.5670385 21.28260484
Incert 1012.33223 24.37856013
r2 0.038129971
Resultados del comportamiento magnético de un imán anillo:
Ajuste lineal Imán
m b
3794.134957 24.70141797
incert 41.14743191 1.548111019
r2 0.99741916
Se realizó un segundo ajuste con imán de anillo y superconductor cilíndrico. Suponiendo un superconductor magnetizado cilíndricamente.
Donde se observó mayor incertidumbre al suponer geometría de anillo en comparación con suponer geometría cilíndrica. El superconductor no se magnetiza como sombra del imán, sino que toma la geometría similar al campo que la magnetiza.
Imán Esférico:
Imán esférico con superconductor cilíndrico, suponiendo magnetización cilíndrica del diámetro de esfera, infiriendo un tipo de campo retenido a modo de sombra en el superconductor.
Ajuste lineal Superconductor
m b
2069.034708 -40.41798112
incert 201.9990851 26.0395532
r2 0.937452418
Resultados del comportamiento magnético de un imán esférico:
Ajuste lineal Imán Esfera
m b
5314.866985 6.9589911
incert 99.48950811 11.47607732
r2 0.99650819
Se observó mayor variación en incertidumbres y gráficos. Entendible por la diferencia entre geometría del imán y supuesta en superconductor. Resultados respaldan influencia de geometría y fuerza magnética del imán en la magnetización del superconductor.
CONCLUSIONES
Durante la estancia de verano, adquirimos conocimientos relacionados a los superconductores y su comportamiento como imanes cuando se inducen a su estado superconductor, utilizando nitrógeno líquido y aplicando un campo magnético con un imán permanente de neodimio.
Los conceptos teóricos, herramientas de medición y softwares digitales de la mano de los conocimientos del asesor Dr. Víctor Sosa permitieron un estudio más completo de los superconductores de YBCO, donde mediante gráficos se logró corroborar la hipótesis que indicaba que el superconductor adopta un comportamiento semejante al imán permanente cuando se induce en su estado superconductor.
Tellechea Cañez Luis Ángel, Universidad de Sonora
Asesor:Dra. Georgina Beltrán Pérez, Benemérita Universidad Autónoma de Puebla
SENSORES Y BIOSENSORES BASADOS EN FIBRAS óPTICAS
SENSORES Y BIOSENSORES BASADOS EN FIBRAS óPTICAS
Fuentes Cortes Uriel, Benemérita Universidad Autónoma de Puebla. Ocaña Miranda Jenifer Alondra, Universidad de Sonora. Tellechea Cañez Luis Ángel, Universidad de Sonora. Asesor: Dra. Georgina Beltrán Pérez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Un biosensor es un dispositivo que se utiliza para convertir reacciones biológicas en señales medibles. Estos constan de tres componentes: un elemento biológico que realiza el reconocimiento, este genera un cambio particular que el elemento transductor convierte en una señal fácilmente medible y por último el elemento de salida.
El principio de un biosensor óptico es la interacción de la onda evanescente con el anticuerpo. La modificación del índice de refracción circundante modifica el coeficiente de extinción de la onda evanescente, lo que genera cambios en la energía lumínica que transmite la fibra, dichas pérdidas pueden relacionarse con la diferente cantidad de proteína detectada. Los biosensores que utilizan como elemento de reconocimiento biológico anticuerpos o proteínas, tienen alta afinidad y especificidad para detectar analitos de interés.
Por otra parte, la interleucina 10 (IL-10) es una proteína que actúa como molécula mensajera, esta se produce en células del sistema inmune y en otras células del organismo. La IL-10 es la citocina de mayor poder antiinflamatorio y se ve involucrada en el proceso de isquemia cerebral.
En el proyecto se busca detectar la presencia de interleucina 10 en plasma sanguíneo de modelo murino a través de biosensores de fibra óptica con el fin de buscar una alternativa en el futuro donde se pueda determinar la concentración de la proteína para construir dispositivos poco invasivos que permitan hacer diagnóstico.
METODOLOGÍA
En la construcción de biosensores se utilizó fibra monomodo SMF-28. Se realizó el corte de las fibras con una longitud de 80 cm, haciendo un devastado de 5 cm en el centro de la fibra retirando la cubierta polimérica.
Para llevar a cabo el grabado de las fibras por medio de dos electrodos operando un arco eléctrico de 85mW. Se realizó el grabado de 40 puntos con una periodicidad de 550 μm y una separación de 1cm.
Para analizar los espectros ópticos se utilizó una OSA 9057 F/8 con un diodo láser CLD1015 como fuente de luz. Se caracterizo la fibra sin puntos y grabada, esta se efectuó en el rango de longitudes de onda entre 1375 y 1575 nm.
La siguiente etapa es la hidroxilación, se preparó 15 ml de disolución de KOH a 999.306M en 15 ml de una solución 1:1 metanol-agua desionizada.
Se colocaron 10 fibras ópticas con 2RPL sumergidas en solución en pozos en una placa de teflón y se dejaron reposar por 3.5h. Después, las fibras se enjuagan con metanol y se secaron durante un minuto usando gas nitrógeno.
Se caracterizo el espectro de la fibra en condiciones de agitación de 200 rpm.
En la etapa de la funcionalización se depositaron las fibras en placa de teflón y se realizó una adición de solución de APTMS al 2% disuelta en tolueno, la fibra hidroxilada se dejó reposar por 1.5 h. Se procedió a enjuagar en tolueno. Durante este proceso, el APTMS se inmovilizó Si-O-Si, Si-Si y Si-O-H. Como consecuencia, se formaron los sitios NH-activos.
En la etapa de activación se utilizaron 200 µl de una solución compuesta por 5mg de NHS y 5mg de EDC disueltos en 2ml de PBS, se sumergió la fibra durante 90 min en agitación a 200rpm. Posteriormente se enjuagó la fibra con PBS y se midió el especto durante 15 min cada 5 min.
En la etapa de inmovilización a cada fibra se agregaron 200 µl del anticuerpo anti-interleucina 10, bajo las mismas condiciones de agitación. Una vez agregado el anticuerpo la interacción es de 2h, realizando mediciones del espectro de transmisión cada 5 min.
Respecto a la inducción del modelo murino a la enfermedad cerebrovascular isquémica global, este proceso se realizó en el Centro de Investigación en Reproducción Animal de la Universidad Autónoma de Tlaxcala. Una vez presentado los síntomas de isquemia los animales se sacrificaron a 2h y 24h por decapitación e inmediatamente se obtienen las muestras de plasma sanguíneo. Cada muestra se centrifugo a 3000 rpm por 15 min para obtener el suero sanguíneo y se almaceno a -20 °C.
En la etapa de la detección, se depositaron 200μm de las muestras de suero sanguíneo, para el primer biosensor se utilizó el plasma a 2h, para el segundo 24h y en el último se ocupó la proteína Interleucina 10 estándar. Cada biosensor se caracterizó mediante transmisión durante dos horas cada 5 min.
CONCLUSIONES
A lo largo de nuestra estancia de verano se adquirieron conocimientos teóricos sobre guías de luz y programación en Python para tratamiento de datos, así como practica en la manipulación de fibras ópticas y en la elaboración de interferómetro de Mach-Zehnder utilizando 2 rejillas de periodo largo con periodo de 550 μm en fibra óptica como parte de la elaboración de biosensores. Mediante la variación en la transmisión de dichos biosensores en función de la exposición de la zona sensible al medio se busca determinar la presencia de interleucina 10, proteína involucrada en el proceso de isquemia cerebral.
Los datos de potencia de transmisión de las fibras ópticas obtenidos en cada una de las 4 etapas (funcionalización, activación, inmovilización y detección) son normalizados, graficados y sometidos a análisis de componentes principales cuya primera componente resulto con un porcentaje de varianza de 90.42%, la segunda componente es de 7.92% y la tercera de 0.97% en pruebas de detección de plasma de 24 horas sin tratamiento. Mediante el análisis de componentes principales se pudo observar tendencias y zonas que nos permiten discriminar entre las diferentes etapas. Los datos de inmovilización se encuentran en el segundo y tercer cuadrante, y las de detección en el segundo cuadrante. Ambas mediciones presentan una tendencia definida. Para la detección en el plasma de 24 horas sin tratamiento la tendencia se contiene en una elipse y la inmovilización presenta una tendencia lineal. Comparando con los resultados de detección del estándar, el análisis nos proporciona información para determinar o no la presencia de interleucina 10.
Tepetla Garcia Abigail, Universidad Veracruzana
Asesor:Dra. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)
ESTUDIO DE GUíAS DE ONDA FABRICADAS EN VIDRIO POR ESCRITURA LáSER
ESTUDIO DE GUíAS DE ONDA FABRICADAS EN VIDRIO POR ESCRITURA LáSER
Juárez Cabello Javier, Universidad de Guadalajara. Palacios Chimeo Pedro Luis, Universidad de Guadalajara. Tepetla Garcia Abigail, Universidad Veracruzana. Asesor: Dra. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La mayoría de las tareas que se realizan actualmente involucran de una manera u otra la utilización de circuitos electrónicos. Estos forman parte de todos los dispositivos modernos que se utilizan en una gran variedad de áreas. Sin embargo, estos circuitos presentan ciertas fallas que afectan a su utilización en algunos campos.
Cada día se crean grandes cantidades de información en todos los ámbitos, y la cantidad de información diaria aumenta constantemente. La necesidad de que esta información pueda ser transmitida eficientemente y con seguridad es uno de los mayores problemas de la tecnología actual. Cada vez nos acercamos más al límite posible de información que puede ser utilizada por los circuitos electrónicos.
Una guía de onda es una estructura en la cual se confina la luz dentro de una zona de un sustrato. Existen tres tipos principales de guía de ondas: las guías de onda planas, donde la luz se encuentra encerrada en un plano con el sustrato arriba y abajo. Las guías de onda canales, donde la luz está en un sustrato, con una cara expuesta al medio, y por último las fibras ópticas, donde la guía es un cilindro rodeado por el sustrato.
El uso principal de las guías de onda es su utilización en los circuitos ópticos. Un circuito óptico funciona de manera similar a un circuito electrónico, la diferencia principal es el uso de fotones como transmisores de la información. Debido a que los circuitos ópticos se limitan a la velocidad de los fotones, tienen la ventaja de ser entre 10 y 100 veces más rápidos que los circuitos electrónicos. Además, que no se ven afectados por variables como el campo magnético o temperatura en el trayecto. Podemos, en concreto, confinar un haz de luz en pequeñas cavidades (por ejemplo, fibra óptica) y usarlo a modo de interruptores que bloquea o permite el flujo de luz, tal como podría funcionar un transistor, con la ventaja de una velocidad, estabilidad y eficiencia de energía mucho mayor.
METODOLOGÍA
La muestra por medir fue proporcionada por el CIO. Esta muestra consiste en un sustrato de vidrio sódico-cálcico de 25mm de largo, 8mm de ancho y 1mm de profundidad. En este vidrio se crearon guías de onda a través de la técnica de escritura láser directa de femtosegundos (FDWL). Estas guías fueron creadas en una matriz de 4X6, donde las columnas 1 y 2 se realizaron con una energía de láser de 1µJ y la columna 3 y 4 con una energía de 2 µJ. Las filas se dividen por una distancia de 100 µm entre sí, empezando en los 100 µm de profundidad y terminando la fila 6 en los 600µm.
Para realizar las mediciones se utiliza un láser de He-Ne rojo con una potencia de 10 mW a una longitud de onda de 633 nm. Este láser se acopla a la muestra utilizando un objetivo de microscopio 10X a 3 mm de distancia de la muestra. El haz resultante de la guía de onda se amplifica utilizando un objetivo 20X. Para asegurar un correcto acoplamiento en ambos casos se utilizan 3 microposicionadores, dos de ellos son en 3 ejes para los objetivos y el último es en 2 ejes para la muestra. Por último se coloca una cámara CCD a 16 cm (la longitud de tubo específica para nuestros objetivos de microscopio).
Para realizar las mediciones de los tamaños de modos de cada guía se utilizó el programa Thorlabs Beam en conjunto con la cámara CCD. La cámara fue adaptada con un filtro de atenuación de 40dB. Con la aplicación se obtenían los valores de potencia. Se filtraba en Excel todos los valores menores al 13.53% de la potencia máxima y se obtuvo su posición en la cámara de estas potencias, se obtuvo la distancia entre estas posiciones y se dividió entre 20 (la amplificación del objetivo), esto nos da el tamaño del modo.
Los cálculos de pérdidas de las guías se obtienen con la ecuación:
αp=(10/L)•log(Tg/(nac•Tf))
donde αp es la pérdida de potencia en dB/cm, L la longitud de la guía de onda, TG la transmitancia de la guía, nac siendo la eficiencia de acoplamiento entre el láser y la guía, y un parámetro que definimos como:
Tf=(4nz•ng)/(nz+ng)
donde ng es el índice de refracción de la guía y nz el índice de refracción entre el lente y la guía.
Para conocer la pérdida por propagación también ocupamos la eficiencia por acoplamiento , la cual se estima con la siguiente ecuación:
nac=ndes•nfres•nmodos
donde ndes es la eficiencia dada por la desalineación, nfres la eficiencia debido a las reflexiones de Fresnel en el extremo de entrada de la guía y nmodos la eficiencia por el acoplamiento de los modos transversales.
Todas estas ecuaciones se realizan con la ayuda de Excel para obtener los resultados de las pérdidas de nuestras guías de ondas.
CONCLUSIONES
En esta estancia de verano se adquirieron conocimientos teóricos acerca de las guías de onda, así como, la forma de caracterizarlas. También, podemos observar cuáles son las variables que afectan a las guías de onda a través de la escritura láser. Observamos que mientras mayor sea la profundidad de grabado en la muestra, se incrementa el tamaño de la guía, si esta profundidad es grande también se empiezan a presentar aberraciones en el grabado. Otro punto importante de la técnica es la potencia, ya que observamos que, con una potencia mayor, las guías resultantes tienen diámetros mayores, pero pérdidas energéticas menores.
Terminel Niebla Martín Antonio, Instituto Tecnológico de Sonora
Asesor:Dra. Dulce Yaahid Flores Renteria, Instituto Politécnico Nacional
EFECTO DE NANOPARTíCULAS DE ZNO EN EL CRECIMIENTO DE
PLANTAS DE SORGO CON DIFERENTES SUELOS
EFECTO DE NANOPARTíCULAS DE ZNO EN EL CRECIMIENTO DE
PLANTAS DE SORGO CON DIFERENTES SUELOS
Mondragon Cruz Jose Angel, Instituto Politécnico Nacional. Terminel Niebla Martín Antonio, Instituto Tecnológico de Sonora. Asesor: Dra. Dulce Yaahid Flores Renteria, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Pese a que la palabra nanotecnología es relativamente nueva, la existencia de materiales de dimensiones nanométricas no es algo novedoso. Estas estructuras han existido en la Tierra durante tanto tiempo como la vida.
En los últimos años se ha iniciado la implementación en procesos de investigación el uso de nanopartículas (NPs) para diversas aplicaciones, sean tecnológicas, electrónica, medicina, agricultura, etc. Las nanopartículas representan una transición entre moléculas y átomos. El rango de tamaños de las nanopartículas se encuentra entre 1 y 100 nm. Por debajo de 1 nm encontramos moléculas, átomos o partículas elementales .
En el contexto de la agricultura moderna no convencional, el uso de la NT para formular nano insumos ofrece la posibilidad de mejorar el uso y eficiencia de los productos empleados, además de reducir la cantidad aplicada de agroquímicos promoviendo así una agricultura sustentable y de bajo impacto ambiental.
El óxido de zinc, con sus propiedades físicas y químicas únicas tales como alta estabilidad química, alta afinidad electrónica, alto rango de absorción de radiación y alta foto estabilidad, es un candidato ideal para multitud de aplicaciones. Las nanopartículas de óxido de zinc (NPs-ZnO) por sus propiedades opto-eléctricas, físicas y antimicrobianas presentan efectos positivos en las plantas (Faizan et al., 2020). Varios estudios sugieren que las mismas tienen la capacidad de mejorar el crecimiento en diferentes especies de plantas.
Estudios dentro de la literatura demuestran algunos ejemplos de aplicación de las NPs-ZnO en donde, por mencionar un ejemplo, la aplicación foliar de NPs ZnO mejora el rendimiento y la calidad comercial y nutracéutica de los frutos de melón. El rendimiento y la calidad del cultivo de melón depende de la concentración utilizada de NPs ZnO ya que dosis altas favorece el rendimiento y una mayor concentración de Zn en pulpa; en cambio en la aplicación de dosis intermedias de NPs ZnO se propicia una mayor acumulación de compuesto bioactivos. La aspersión foliar de NPs ZnO es una manera práctica de enriquecer los frutos de melón.
El estudio se realizó con el objetivo de identificar y caracterizar los efectos de las NPs-ZnO sobre las características del suelo cultivado con sorgo mediante el estudio de sus propiedades físico-químicas y alteraciones morfológicas de la planta
METODOLOGÍA
Se tomaron muestras de suelo provenientes de sitios con diversos usos, representativos de las actividades productivas de los municipios de Ramos Arizpe y Saltillo, en el estado de Coahuila, México. Esta región pertenece al desierto Chihuahuense. Dichos usos se clasificaron en Agrícola, Ganadero y Huertos nogaleros. Se seleccionaron 9 sitios por cada uso de suelo, para un total de 27 tipos de suelo distintos .
Se utilizó un diseño factorial de 3 factores: Riego, NPs, Uso de suelo. El factor de riego conto con dos niveles, bajo y normal; el factor de NPs con los niveles de presencia y ausencia de NPs. Cada tratamiento se analizó por triplicado para un total de 324 muestras analizadas en el proceso.
Se utilizaron bandejas de germinación en donde se colocaron aleatoriamente las 324 réplicas de suelo (80 g) donde a una profundidad de aproximadamente 2cm se introdujeron 5 semillas de sorgo. En el caso de los tratamientos con NPs se añadieron 80mg de NPs-ZnO para una dosis antes de la siembra. Los primeros riegos se realizaron sin diferencia para cada planta hasta el 3er riego, mismo que se realizó cada tercer día. A partir del número de riego mencionado, se continuo con un riego diferenciado con los niveles bajo y normal, para los cuales de utilizaron 5mL y 10mL respectivamente. Durante 12 días se registró la germinación a la par de los días de riego.
Las plántulas se desarrollaron durante 22 días y se realizó un muestreo final destructivo. Se determinó la longitud de parte aérea (vástago) y raíz, así como la biomasa seca del vástago y raíz, en muestras secas a 70° C durante 24 horas dentro de bolsas de papel separados por tratamiento.
Durante el proceso de desarrollo de sorgo transcurría, se realizo la caracterización inicial del suelo, donde se obtuvieron datos de pH, Materia Orgánica (MO), conductividad eléctrica (CE), capacidad de campo (CC) y densidad aparente (DA)
Una vez pasados los 22 días se inició la cosecha en conjunto con la recolección de las muestras de suelo; mientras se realizaban ambas tareas, se realizaba la medición de la longitud/peso seco de vástago y la raíz para su posterior secado en el horno a 70°C dentro de bolsas de papel separados por tratamiento.
El análisis post-hoc de Tukey se utilizó para evaluar las diferencias entre las medias. Los análisis estadísticos se ejecutaron en el software STATISTICA V10.0 y Minitab.
CONCLUSIONES
En la caracterización inicial del suelo se analizo el promedio de cada variable con un enfoque al uso de suelo, siendo, por ejemplo, el suelo de tipo ganadero quien mostro tener un pH promedio ligeramente más alcalino que los restantes. De acuerdo con los % de germinación, se ve una diferencia ligeramente significativa en cuanto al factor de NPs-ZnO, el cual se concluye para este estudio como a una tendencia positiva el hecho de aplicar dosis de NPs-ZnO en la siembra de sorgo a un riego normal de manera mas notoria en un uso de suelo agrícola.
Se encontró que la longitud de las raíces de sorgo se relaciona con el uso de suelo en el que es sembrado, siendo así el suelo de uso Agrícola quien mostro además los mejores % de germinación y registro la mejor media. El uso de suelo que mostró un menor % de germinación fueron los de suelos ganaderos, en donde en la tabla 2 se observa el menor promedio.
Con el análisis de correlaciones entre el PH final y variables que dependen del vástago o de la raíz se describe la siguiente proposición: las variables de longitud y peso seco de la raíz covarian de manera negativa con el pH final, mientras que las variables de longitud y peso seco de vástago covarian de manera positiva con el PH final.
Terrero Mariano Rafael, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor:Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez
OPTIMIZACIóN DE LA EFICIENCIA DE CAPTURA DE CO2 MEDIANTE EL ANáLISIS DE LA VARIABLE TEMPERATURA EN UNA COLUMNA EMPACADA DE ABSORCIóN.
OPTIMIZACIóN DE LA EFICIENCIA DE CAPTURA DE CO2 MEDIANTE EL ANáLISIS DE LA VARIABLE TEMPERATURA EN UNA COLUMNA EMPACADA DE ABSORCIóN.
Terrero Mariano Rafael, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
El calentamiento global y el aumento de los gases de efecto invernadero, especialmente el CO2, son causas fundamentales del cambio climático y representan una amenaza para el planeta y sus habitantes.
La captura y reducción de las emisiones de CO2 de la quema de combustibles fósiles es una parte esencial de estas acciones para abordar el cambio climático. En este trabajo, se propone utilizar la tecnología de absorción química para capturar CO2 y optimizar su eficiencia, lo que contribuiría directamente a la mitigación del cambio climático y la disminución de las emisiones de gases de efecto invernadero.
Mediante la optimización de la eficiencia de la captura de CO2 en una columna de absorción empacada, se busca reducir la liberación de CO2 a la atmósfera y contribuir al objetivo global de mantener el calentamiento global por debajo de 1.5 grados Celsius, tal como se establece en el Acuerdo de París.
La automatización de procesos y la aplicación de ciencia de datos e ingeniería de software para la interpretación y análisis de datos también contribuyen a la eficiencia y eficacia de estas acciones, facilitando la toma de decisiones informadas y acelerando la implementación de soluciones efectivas para combatir el cambio climático.
METODOLOGÍA
Se realizó una optimización del proceso de adquisición de temperaturas de la columna de absorción a escala piloto para obtener datos experimentales. El sistema de absorción experimental consta de una columna rellena con monturas de cerámica Berl de ½ pulgada (PT-101) y se compone de tres tanques principales: Tanque 1 (TK-101) que contiene CO2, Tanque 2 (TK-102) que almacena la solución MEA utilizada y Tanque 3 (TK-103) que contiene la solución MEA saturada de CO2. La concentración de CO2 en la corriente de gas se controla mediante rotámetros (R-101, R-102). Además, el sistema incluye un analizador de gases de combustión Bacharach modelo 0024-8512 para determinar la concentración de CO2 en la corriente de salida (corriente 5). La columna de absorción está equipada con cuatro sensores de temperatura 'DS18B20', ubicados en partes críticas del sistema.
Para mejorar la eficiencia de los procesos manuales relacionados con la adquisición y procesamiento de datos, se diseñó un circuito eléctrico con un Arduino Uno conectado a los cuatro sensores de temperatura DS18B20, una resistencia de 4.7 kOhm y un módulo Bluetooth HC-05. Esta configuración permitió la comunicación y transmisión de datos desde los sensores al Arduino, logrando una adquisición más eficiente y precisa de las temperaturas en tiempo real. Para asegurar resultados fiables, se realizó un baño térmico a los sensores de temperatura para aplicar una curva de ajuste y determinar los sensores más precisos, ubicándolos en puntos críticos de la columna de absorción para experimentaciones y análisis.
Las pruebas experimentales se llevaron a cabo utilizando soluciones de MEA al 10% y al 15% en peso, con el objetivo de analizar su influencia en la capacidad de absorción y el tiempo de saturación. Durante las pruebas continuas, se buscó operar la columna de absorción de manera continua para alcanzar una condición de estado estacionario y asegurar la máxima capacidad de absorción de la solución absorbente.
Como resultado, se desarrolló una herramienta para facilitar la interpretación y toma de decisiones por parte del usuario basada en las temperaturas adquiridas mediante el circuito Arduino. La automatización de cálculos y generación de gráficos en tiempo real redujo el tiempo de espera y permitió la detección temprana de posibles errores en las pruebas experimentales. La selección de estas herramientas fue esencial para garantizar la eficiencia y funcionalidad de los datos procesados por el software. Además, se aplicó un alisado a los datos para determinar el tiempo en que las experimentaciones se comportan de cierta manera, para estimar el tiempo de saturación y de estado estacionario (continuo).
CONCLUSIONES
Durante la estancia del verano de investigación científica, se lograron importantes avances en el conocimiento sobre el cambio climático y la identificación de los gases de efecto invernadero más impactantes. El objetivo principal de mitigar el cambio climático y capturar CO2 mediante una columna de absorción empacada ha sido abordado de manera satisfactoria.
La optimización realizada en la adquisición de las temperaturas ha permitido proporcionar datos precisos al usuario y facilitar la interpretación de los resultados, lo que es fundamental para definir la eficiencia de las experimentaciones. Además, la aplicación de ciencia de datos y el desarrollo de herramientas para encontrar patrones en las comparaciones de temperatura han demostrado ser de suma importancia para mejorar la captura de CO2 y tomar acciones concretas en favor del clima. La combinación de tecnologías eficientes y herramientas de análisis ha sido clave para mitigar los efectos del CO2 y tomar acciones concretas en beneficio del clima y las futuras generaciones.
En conclusión, este trabajo ha aportado nuevos conocimientos y avances importantes en la lucha contra el cambio climático al abordar la captura de CO2 mediante una columna de absorción empacada
Tirado López Isaul, Universidad de Sonora
Asesor:Dr. Miguel Mora González, Universidad de Guadalajara
DESARROLLO DE ALGORITMOS DE PROCESAMIENTO DIGITAL DE IMáGENES E INTELIGENCIA ARTIFICIAL PARA SU APLICACIóN EN EL RECONOCIMIENTO Y CLASIFICACIóN DE ABERRACIONES óPTICAS
DESARROLLO DE ALGORITMOS DE PROCESAMIENTO DIGITAL DE IMáGENES E INTELIGENCIA ARTIFICIAL PARA SU APLICACIóN EN EL RECONOCIMIENTO Y CLASIFICACIóN DE ABERRACIONES óPTICAS
Duarte Lopez Miguel Angel, Universidad de Sonora. Labandera Rodríguez José Julián, Universidad de Sonora. Tirado López Isaul, Universidad de Sonora. Asesor: Dr. Miguel Mora González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Nuestro objetivo principal fue abordar el desafío de la detección y clasificación de aberraciones ópticas en imágenes sintéticas. Las aberraciones ópticas pueden tener un impacto significativo en la calidad de las imágenes, afectando la nitidez, el contraste, forma y otros aspectos visuales. El desarrollo de algoritmos efectivos y eficientes para identificar y clasificar estas aberraciones es de gran importancia en aplicaciones que requieren imágenes de alta calidad, como la fotografía digital, la medicina, la industria o la vida cotidiana.
METODOLOGÍA
Nuestro plan de trabajo se dividió en diferentes etapas a lo largo de las siete semanas de la estancia. Durante las primeras tres semanas, nos enfocamos en conceptos fundamentales del procesamiento digital de imágenes, incluyendo definición de imagen, resolución, cuantificación, descomposición de colores y niveles de gris, así como operaciones lógicas y aritméticas.
En la siguiente semana, nos adentramos en el análisis del histograma y su expansión, así como en técnicas de filtrado espacial. La semana tres estuvo dedicada al filtrado de frecuencia, analizando los distintos tipos de máscaras para generar filtros pasa altas, pasa bajas, pasa banda, así como supresores de banda. En esta semana también exploramos otros tipos de filtros, como: Canny, Roberts, Prewitt y GplusC.
La cuarta semana trabajamos el reconocimiento de patrones, donde nos familiarizamos con las definiciones y aplicaciones de esta área. En esta semana, también comenzamos a trabajar en los algoritmos de simulación de aberraciones ópticas (interferogramas sintéticos), realizando en forma continua una base de datos de imágenes con mezclas de aberraciones para entrenar los algoritmos.
Durante la quinta y sexta semana, nos centramos en el reconocimiento estadístico de patrones, estudiando el Teorema de Bayes y los clasificadores de distancia mínima (Euclidiana y Mahalanobis). También exploramos conceptos como la función de densidad de probabilidad (PDF por sus siglas en inglés), el parámetro de máxima verosimilitud, modelos mixtos y el perceptrón.
Finalmente, en la última semana, abordaremos otros modelos de reconocimiento de patrones, como K-means, KNN (vecinos más cercanos) y PCA (análisis de componentes principales). Además, examinaremos diversas aplicaciones de estos modelos en el contexto del reconocimiento de patrones.
Durante todo el proceso, consultamos una amplia variedad de fuentes bibliográficas, incluyendo los libros "Digital Image Processing" de Gonzales & Woods, "Visión por Computador" de Velez et al, Pattern Recognition and Image Processing, de Bow, entre otros. También revisamos varios artículos relevantes relacionados con nuestro proyecto. Cabe destacar que cada algoritmo estudiado fue implementado en Python, presentado y evaluado por el investigador, quien proporcionó asesoramiento y retroalimentación para mejorar nuestro trabajo.
CONCLUSIONES
Nuestra estancia se centró en la aplicación de IA para el desarrollo de algoritmos de procesamiento digital de imágenes, con un enfoque en la detección y clasificación de aberraciones ópticas. A través de la metodología propuesta, adquirimos conocimientos fundamentales en el procesamiento digital de imágenes y el reconocimiento de patrones y desarrollamos habilidades prácticas en la implementación de algoritmos utilizando las plataformas Colab y Jupiter de Python.
Hasta el momento, nuestros avances nos han permitido construir una base de datos que cuenta con una cantidad significativa de interferogramas sintéticos de aberraciones ópticas, lo que permitirá contar con datos suficientes para entrenar nuestros algoritmos y con ello detectar cada tipo de aberración, así como combinaciones de estas.
La experiencia adquirida durante esta estancia nos brindó una base sólida para continuar explorando y desarrollando nuevas aplicaciones de IA en el campo del procesamiento digital de imágenes y el reconocimiento de patrones, así como sus posibles aplicaciones en la óptica física (interferencia y difracción).
Toledo Vega Caleb, Universidad de Guadalajara
Asesor:Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)
PROPIEDADES óPTICAS DE SEMICONDUCTORES
PROPIEDADES óPTICAS DE SEMICONDUCTORES
Jiménez Schulz Leslie Mariana, Benemérita Universidad Autónoma de Puebla. Toledo Vega Caleb, Universidad de Guadalajara. Asesor: Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Los semiconductores son utilizados en diversos campos de la ingeniería de dispositivos electrónicos. Muchas de sus aplicaciones están en la creación de dispositivos ópticos como celdas solares, diodos emisores de luz (LED), láseres de estado sólido etc. Particularmente los semiconductores compuestos que consisten en aleaciones semiconductoras entre los grupos III-V o II-VI de la tabla periódica son los más utilizados, porque poseen la flexibilidad de adaptar sus propiedades ópticas y electrónicas a las necesidades de la aplicación específica que se requiere.
Es por esto que desde hace varias décadas se han estudiado los materiales semiconductores, pues esta versatilidad resulta sumamente útil en la fabricación de dispositivos optoelectrónicos, por lo que el estudio del comportamiento de estos materiales frente a diversos estímulos y procesos que pueden ocurrir de manera natural, como la compresión y expansión isotrópica, resulta fundamental para tener un mayor conocimiento sobre las propiedades de los materiales de diversos semiconductores y sobre la mejor manera de manipularlos para hacer más eficiente su uso en diversos proyectos de ingeniería, según el propósito del mismo.
METODOLOGÍA
Para la realización de este proyecto se utilizaron los softwares de dominio público ABINIT y TINIBA, mediante los cuales se ejecutaron los procesos necesarios para calcular el índice de refracción; considerando tanto su parte real (n) como su parte compleja (k), también conocida como índice de absorción, para los semiconductores arseniuro de galio (GaAs) y antimoniuro de indio (InSb), formados por la unión de elementos del grupo III y V de la tabla periódica. Para ello fue necesario conocer la magnitud de la susceptibilidad eléctrica; que establece la relación tensorial entre el campo eléctrico aplicado y la polarización inducida del material, ya que guarda relación con el de la constante dieléctrica del material, misma que resulta indispensable para obtener el valor adimensional del índice de refracción.
Estos cálculos se hicieron por medio de la supercomputadora MEDUSA, ubicada en el Centro de Investigaciones en Óptica (CIO), a través de una conexión remota entre ella y nuestro servidor local, lo que nos permitió obtener una serie de gráficas que relacionaran el valor de la parte real y compleja del índice de refracción con el de la energía expresada en electronvolts (eV) y modelar la respuesta que se obtendría al expandir o comprimir isotrópicamente la celda unitaria del material. Se modelaron 10 posibles casos para la expansión y compresión respectivamente, incrementando el porcentaje de deformación en un 1% para cada caso, obteniendo como porcentaje máximo de incremento o decremento del volumen de la celda unitaria un valor del 10%.
El resultado teórico obtenido para el caso en el que no había deformación se contrastó con el resultado obtenido de forma experimental también para este caso, lo que fue útil para conocer que tan certeras podían resultar las predicciones teóricas que se habían obtenido para los demás casos evaluados. Los valores experimentales tuvieron que ser reajustados con el fin de poder llevar a cabo dicha comparación, pues de forma experimental fue posible medir de manera directa el valor de la constante dieléctrica del material, mientras que los resultados teóricos que se pudieron obtener nos daban en primera instancia el valor del tensor de susceptibilidad eléctrica, a partir del cual se obtuvo a la constante dieléctrica y posteriormente las gráficas del índice de refracción correspondientes a la parte real e imaginaria.
Para llevar a cabo todos estos procesos de manera eficiente se elaboró un código en lenguaje de programación bash que era capaz de obtener de forma automática las gráficas correspondientes a cada porcentaje de deformación. Para ejecutarse el programa requería de los archivos setUpAbinit_insb.in, setUpAbinit_gaas.in, insb.xyz, gaas.xyz y .ex-machina. Los archivos .xyz contenían la información sobre las coordenadas de la celda unitaria, mientras que los .in albergaban los datos necesarios para ejecutar el programa abinit.sh, el cual proveía información sobre la cantidad de ondas planas para representar corectamente la función de onda de los electrones y sobre la cantidad de puntos de interés que resultaban necesarios para la elaboración de las gráficas. El archivo .ex-machina, resultaba por su parte importante para que el programa se ejecutara de manera correcta dentro de la computadora y los procesos no se vieran interrumpidos.
CONCLUSIONES
Las predicciones teóricas obtenidas resultaron ser viables en cuanto al comportamiento que se esperaría del material si se llevara a cabo el experimento. La gráfica obtenida a partir de los datos experimentales, tanto de la parte real como de la parte imaginaria del índice de refracción, para el caso en el que no existía deformación en la celda unitaria, resultó ser bastante similar al comportamiento teórico predicho por nuestro modelo para los dos semiconductores analizados.
Bajo los efectos de la compresión y la expansión ambos materiales presentaron comportamientos muy parecidos. En el caso del GaAs a medida que la expansión aumentaba el valor del índice de refracción disminuía y se recorría hacia valores de energía cada vez más bajos, lo que ocurría tanto para su parte real como su parte compleja. Bajo compresión el índice de refracción del GaAs aumentaba y se desplazaba hacia valores de energía cada vez mayores, comportamiento que también se observaba para sus dos componentes. Por su parte el InSb para la expansión tambien se fue moviendo hacia niveles más bajos de energía conforme la parte real e imaginaria del índice de refracción disminuían y se trasladó hacia valores mayores de la energía conforme aumentaba el valor del índice de refracción.
Toral Gamez Jorge Luis, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla
MACHINE LEARNING EN EL ESTUDIO DE RAYOS CóSMICOS USANDO SIMULACIONES DE MONTE CARLO
MACHINE LEARNING EN EL ESTUDIO DE RAYOS CóSMICOS USANDO SIMULACIONES DE MONTE CARLO
Pomares Valdés Pablo Jibrán, Benemérita Universidad Autónoma de Puebla. Romero López Miguel Ángel, Benemérita Universidad Autónoma de Puebla. Santiago Márquez Aldo, Benemérita Universidad Autónoma de Puebla. Toral Gamez Jorge Luis, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Enrique Varela Carlos, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Desde todas direcciones del universo llegan cada segundo a la Tierra unas diez mil partículas por metro cuadrado, a muy altas energías, a estas partículas se les conoce como rayos cósmicos. Ahora bien, antes de llegar a nosotros, las partículas primarias, generalmente núcleos, colisionan en nuestra atmósfera y forman lo que nosotros llamamos lluvias, o showers, de otras partículas secundarias generadas en dicha colisión. A su vez, estas también colisionan en la atmósfera repitiendo el proceso hasta que su energía baje lo suficiente para ser absorbidas.
En el estudio de rayos cósmico de altas energías existe el problema de que, en algún metro cuadrado determinado, cualquiera en el mundo, la ocurrencia de eventos es exponencialmente menos común. Es decir, dependiendo de la energía del rayo puede ocurrir aproximadamente una vez cada cierto número de años, décadas ¡o incluso siglos! Lo cual claramente dificulta su estudio. Para contrarrestar el problema se ha optado por construir observatorios de varios miles de kilómetros cuadrados, como el Observatorio Pierre Auger en Malargüe, Argentina el cual tiene una extensión de 3,000 km2 . No obstante, sigue sin ser suficiente, por lo que se ha introducido el uso de herramientas digitales como CORSIKA que, a través de modelos como EPOS-LHC, SIBYLLL, QGSJETI y QGSJETII, simulan, con diferentes grados de precisión, eventos de rayos cósmicos a través del uso de métodos Monte Carlo y simulaciones numéricas rápidas que nos permiten hacer observaciones de todo el trayecto del evento. Adicionalmente se ha buscado la implementación de modelos de Machine Learning para el análisis de los datos y para buscar una reducción en el número de datos requeridos para el estudio de los eventos. Específicamente, en este proyecto se busca realizar un ajuste lineal para los valores llamados Xmax, que se define como la densidad de masa máxima del shower.
METODOLOGÍA
Para poder realizar las simulaciones, primero nos tuvimos que instalar los softwares de ROOT y CONEX (derivado de CORSIKA). El primero es necesario para el correcto funcionamiento y la lectura de los archivos emitidos por CONEX y el segundo es para la realización de las simulaciones en sí. Después, tuvimos que acceder a la supercomputadora del Laboratorio Nacional de Supercómputo y familiarizarnos con el entorno y el administrador de trabajo (SLURM). Por últmo, mandamos a realizar las simulaciones en dicho equipo.
Originalmente, se realizaron 110 simulaciones, o jobs, en 11 bines, i. e., 10 jobs por bin, con 1000 eventos cada uno en el rango de energía de 16.875 a 19.625LgE (logaritmo de la energía en Ev) con un ángulo azimutal de 0 grados para los núcleos de hidrógeno y de hierro con los modelos EPOS, SIBYLL y QGSJETII. No obstante, cuando llegaron los resultados iniciales nos dimos cuenta de que varias de las simulaciones llegaron corruptas por lo cual se tuvo que reiniciar el proceso. Para la segunda vuelta, se optó por repetir el proceso, pero con 55 jobs de 20000 eventos cada uno en lugar del plan original.
Como software necesario para red neuronal, se usó Ananconda como administrador de entornos, Jupyter como IDE y Tensorflow/Keras, Pandas y Numpy como librerías, así como Uproot para la lectura de los archivos .root.
Para el tratamiento de datos, primero se leyeron los archivos y las ramas Xmax, Nmax, Xfirst, LgE fueron exportadas a un archivo csv para un acceso más rápido. Después, se separaron las columnas Nmax, Xfirst, LgE de la Xmax y fueron puestas en DataFrames de Pandas. Por último, se hizo un sampleo randomizado del 20% de los datos para testeo.
Para la red en sí, se hizo con 3 datos de entrada, una capa oculta de 128 nodos, otra con 512, una última de 256 y una de salida. Todos los nodos fueron de tipo Dense. Como método de compilación, usamos el error cuadrático medio y como optimizador usamos a Adam con una tasa de aprendizaje de 0.001 por 100 epochs.
CONCLUSIONES
A través de la estancia obtuvimos habilidades necesarias en el área de física experimental y computacional y fuimos parcialmente exitosos en la obtención de resultados. Como se mencionó anteriormente, tuvimos que repetir la parte de simulación de datos por lo que, al momento de escritura, solo se han terminado de realizar las simulaciones de hierro y protón con el modelo de SIBYLL y por lo tanto solo se ha podido aplicar la red neuronal a estas. Sin embargo, estos resultados fueron alentadores con una precisión del 86% para el hierro y una del 75% para el protón, de tal manera que esperamos resultados similares para el resto de los modelos. Además, podríamos mejorar estos resultados con la adición de otros parámetros incluidos en la simulación. Por ello, aún quedan áreas de oportunidad en el proyecto.
Tornez Membrila Jose Carlos, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
SIMULACIóN DE UN DETECTOR DE MUONES DE BAJO MOMENTO TRANSVERSO PARA LA ACTUALIZACIóN DE
ALICE EN CONDICIONES DE ALTA LUMINOSIDAD DEL LHC
SIMULACIóN DE UN DETECTOR DE MUONES DE BAJO MOMENTO TRANSVERSO PARA LA ACTUALIZACIóN DE
ALICE EN CONDICIONES DE ALTA LUMINOSIDAD DEL LHC
Tornez Membrila Jose Carlos, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En el ámbito de la física de altas energías y astro partículas, los plásticos centelladores adquieren una
importancia crucial, ya que desempeñan un papel fundamental en la construcción de detectores de
partículas para grandes experimentos como el Gran Colisionador de Hadrones (LHC). Estos detectores
son indispensables para el estudio de fenómenos subatómicos y permiten obtener información valiosa
sobre la naturaleza de la materia y la interacción de partículas. Sin embargo, para alcanzar un mayor
grado de precisión y eficiencia en la detección de partículas, resulta esencial comprender en
profundidad las propiedades de los plásticos centelladores utilizados en estos dispositivos.
El presente trabajo se enfoca en la simulación de interacciones entre muones de bajo momento y los
plásticos centelladores mediante el uso del software Geant4. Esta simulación tiene como objetivo
principal investigar diversos aspectos clave que afectan el desempeño de los detectores, como la
energía depositada por los muones en el material, la longitud de onda, la energía y el tiempo de vuelo
de los fotones de centelleo generados. Mejorar la comprensión de estas características permitirá
optimizar el diseño de un detector de muones específico, el cual forma parte crucial de la actualización
del detector ALICE para la toma de datos de alta luminosidad del LHC.
A través de este estudio, se busca avanzar en el desarrollo de detectores más eficientes y precisos que
puedan proporcionar una resolución temporal y otras capacidades cruciales mejoradas. Los resultados
obtenidos de la simulación y el análisis posterior de los datos serán de gran relevancia para la
comunidad científica, contribuyendo significativamente al progreso en el campo de la física de altas
energías y a la comprensión de los fenómenos subatómicos en los que los plásticos centelladores juegan
un papel central.
METODOLOGÍA
Se llevaron a cabo simulaciones considerando dos tipos de plásticos centelleadores: BC404 y EJ208.
Las propiedades de cada plástico fueron obtenidas de sus fichas técnicas disponibles en
https://www.phys.ufl.edu/courses/phy4803L/group_I/muon/bicron_bc400-416.pdf
y
https://eljentechnology.com/products/plastic-scintillators/ej-200-ej-204-ej-208-ej-212 respectivamente.
Se registraron propiedades como el índice de refracción, rendimiento de centelleo, tiempo de subida,
tiempo de decaimiento, longitud de atenuación de la luz y sus espectros de emisión.
En cuanto a la geometría del detector, se consideraron dos formas: una rectangular y una hexagonal. En
el caso rectangular, las dimensiones de la barra fueron de 1m x 5cm, y el grosor varió de 1cm hasta
4cm en incrementos de 1cm. Para la geometría hexagonal, se utilizó un prisma con un apotema de
2.5cm y el grosor varió de 1cm hasta 3cm en incrementos de 5mm.
En ambas geometrías, los plásticos fueron envueltos con papel Mylar de 1mm de grosor con una
reflectividad del 99.99%. Se colocó un sensor de 6mm x 6mm x 2mm en ambas configuraciones; en la
geometría hexagonal, el sensor se ubicó en una de las caras laterales, mientras que en la geometría
rectangular se colocó en la cara posterior a la incidencia de los muones.
Cada simulación constó de 1000 eventos en los que un muón de 1GeV/c atravesó los plásticos de
manera transversal, y se recolectaron los fotones generados con el sensor. A partir de esto, se crearon
histogramas para analizar la longitud de onda, energía y la energía depositada en el plástico por los
muones. También se registraron histogramas de la cantidad de fotones generados durante los 1000
eventos y los primeros 10 eventos, así como el tiempo de vuelo promedio de los fotones durante toda la
simulación y el tiempo de vuelo de los fotones en los primeros 10 eventos. Estos resultados serán
fundamentales para optimizar el diseño de los detectores y mejorar su rendimiento en futuras
aplicaciones científicas.
CONCLUSIONES
Las simulaciones realizadas muestran resultados consistentes para ambos tipos de plásticos
centelleadores, demostrando que el promedio de energía depositada es independiente del tipo de
plástico y depende únicamente del grosor del material. Esto es coherente con la ecuación de Bethe
Bloch utilizada para el poder de frenado de los plásticos centelladores de poliviniltolueno, que arroja un valor de 2 MeV cm²/g. Los hallazgos de la simulación confirman esta relación, proporcionando
información valiosa para el diseño de detectores y experimentos futuros.
Respecto al tiempo de vuelo, se observa que tanto para el BC404 como para el EJ208, se sigue una
distribución de Lamdau en cada evento. Sin embargo, se aprecia que en las geometrías rectangulares, la
desviación estándar y la media de las distribuciones son menores en comparación con las geometrías
hexagonales. Estas diferencias de unos pocos nanosegundos están influenciadas por la geometría y el
grosor del plástico utilizado en las simulaciones.
Al comparar el promedio de los tiempos de vuelo de todos los eventos entre los tipos de plásticos,
considerando su grosor y geometría, se evidencia que la media es menor para el plástico BC404 en
general. Esto sugiere que el BC404 puede ofrecer ventajas en términos de tiempo de respuesta y
detección de partículas en el diseño de detectores de muones.
En conclusión, las simulaciones proporcionan información esencial sobre las propiedades de los
plásticos centelleadores BC404 y EJ208. Los resultados sugieren que el BC404 presenta un mejor
rendimiento en términos de tiempo de vuelo, lo que lo convierte en una opción prometedora para la
optimización del diseño de detectores de muones en la actualización del detector ALICE para la toma
de datos de alta luminosidad del Gran Colisionador de Hadrones (LHC). Estos hallazgos contribuyen
significativamente al avance en el campo de la física de altas energías y fortalecen nuestro
entendimiento de la interacción de partículas subatómicas en experimentos de gran escala.
Torres Beltran Isaac David, Universidad del Quindío
Asesor:Dr. Manuel E. Trejo Soto, Universidad Autónoma de Sinaloa
AJUSTE MATEMATICO DE REDES GEODESICAS
AJUSTE MATEMATICO DE REDES GEODESICAS
Torres Beltran Isaac David, Universidad del Quindío. Asesor: Dr. Manuel E. Trejo Soto, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
El establecimiento de una red geodésica (RG) deberá sujetarse a los requerimientos del desarrollo de los distintos proyectos técnicos y científicos, entre otros: trabajos de prospección para la materialización de infraestructura de ingeniería, cuantificación de recursos naturales, delimitaciones territoriales, monitoreo de grandes obras de ingeniería o zonas susceptibles de eventos tectónicos (vulcanismo, sismos, etc.), cambios superficiales del terreno como resultado de fenómenos naturales, entre otras tareas. Con el propósito de responder con información fidedigna al abordar la solución de los problemas anteriores, los resultados de las mediciones geodésicas, deberán ser sujetas a un proceso de elaboración matemática para obtener la información de georreferenciación con la precisión requerida.
METODOLOGÍA
Las RG representan un sistema de soporte geo espacial, materializado sobre la superficie de la Tierra por un conjunto de vértices que contienen información de ubicación en el espacio y valores de aceleración de la gravedad. Su uso es muy variado en función de las tareas técnicas y científicas a resolver, entre otras, la construcción de infraestructura de ingeniería, la cuantificación, delimitación y caracterización de territorios con fines cartográficos, de monitoreo de variaciones causadas por fenómenos naturales o antropogénicos, solución de problemas catastrales, legales, agrícolas, biológicos, etc. La información geoespacial y gravimétrica que se otorga a los vértices que componen las RG, se obtiene a partir del desarrollo de mediciones de altura, de aceleración de la gravedad, de posiciones espaciales, mediante el uso de una serie de instrumentos tales como los niveles geodésicos, estaciones totales, receptores satelitales geodésicos y gravímetros. El proceso de medición se desarrolla mediante metodologías que minimizan el impacto de los errores propios de las mediciones y de los instrumentos. Las metodologías de mediciones geodésicas generan dependencias matemáticas como resultado de mediciones más allá de las necesarias (suma de los desniveles igual a cero en circuitos cerrados, suma de ángulos interiores de un triángulo plano igual a 180 grados, suma de los incrementos de coordenadas cartesianas espaciales igual a cero, en un circuito tridimensional, etc.), que permiten controlar los resultados de las mediciones, lo que da lugar a la aplicación del método de los mínimos cuadrados (MMC). El proceso de ajuste matemático de RG bajo el principio de los MMC, se lleva a cabo por los algoritmos paramétrico (ecuaciones de correcciones) y correlativo (ecuaciones de condición). La elección de utilizar el algoritmo matemático correlativo o paramétrico, estará en función de la magnitud de la RG, del tipo de información que es necesario obtener, de las condiciones del desarrollo de los trabajos geodésicos. El proceso de ajuste matemático de los resultados de las mediciones geodésicas, está integrado por dos procesos: la eliminación de las discrepancias de las funciones matemáticas establecidas, el calcular las correcciones a las magnitudes medidas o a las incógnitas buscadas; y el análisis de la precisión de las magnitudes buscadas, así como de sus funciones. Finalmente, una red geodésica tiene como propósito resolver problemas prácticos y desafíos en el ámbito de geodesia, cartografía, topografía, entre otros. Algunos de estos se pueden observar en campos tales como:
·Establecimiento de sistemas de coordenadas precisos: Las redes geodésicas proporcionan puntos de referencia geográfica con coordenadas precisas (latitud, longitud y altitud en todos los casos). Estos sistemas de coordenadas son fundamentales para la navegación, el posicionamiento global (GPS), la planificación de infraestructuras y cualquier actividad que requiera una ubicación geográfica precisa.
·Cartografía y levantamientos topográficos: Las redes geodésicas forman la base para la creación de mapas precisos y levantamientos topográficos detallados. Al conocer la ubicación exacta de puntos geodésicos, se pueden vincular y ajustar las mediciones locales realizadas con instrumentos de levantamiento, como estaciones totales y GPS, para obtener representaciones cartográficas precisas del terreno y características geográficas.
·Control de deformaciones y subsidencias: Las redes geodésicas se utilizan para monitorear cambios en la superficie terrestre, como deformaciones causadas por movimientos tectónicos, subsidencias debido a la explotación de recursos naturales o la construcción de infraestructuras, y otros fenómenos geodinámicos. Esto es esencial para garantizar la seguridad y la planificación adecuada de proyectos de ingeniería y urbanismo.
·Geodesia satelital y sistemas de posicionamiento global (GPS): Las redes geodésicas son esenciales para establecer sistemas de referencia global, como el Sistema de Posicionamiento Global (GPS). El GPS utiliza puntos geodésicos en todo el mundo para determinar la posición precisa de objetos y personas en la Tierra, lo que tiene aplicaciones en navegación, logística, geolocalización y muchas otras áreas.
CONCLUSIONES
El diseño y establecimiento de las Redes Geodésicas, deberá estar sujeto al desarrollo de un proyecto que permita encontrar la solución más eficiente, en términos técnicos y económicos. El diseño y establecimiento deberá considerar el área de cobertura y sus particularidades topográficas, ubicación y uso, el tipo de información geoespacial que se requiere, la infraestructura de medición que se dispone, el personal, etc. La obtención de los resultados buscados, permitirá elaborar las metodologías de medición y los algoritmos matemáticos de ajuste adecuados que comprobaran la correcta elaboración del proyecto.
Trinidad Casarrubias Lorena, Universidad de Guadalajara
Asesor:Dra. Astrid Lorena Giraldo Betancur, Instituto Politécnico Nacional
ESTUDIO DE LAS PROPIEDADES ELECTROQUíMICAS DE RECUBRIMIENTOS PROTECTORES Y BIOACTIVOS PARA APLICACIONES BIOMéDICAS.
ESTUDIO DE LAS PROPIEDADES ELECTROQUíMICAS DE RECUBRIMIENTOS PROTECTORES Y BIOACTIVOS PARA APLICACIONES BIOMéDICAS.
López Vega Montserrat Guadalupe, Universidad de Guadalajara. Trinidad Casarrubias Lorena, Universidad de Guadalajara. Asesor: Dra. Astrid Lorena Giraldo Betancur, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En México, según la Dirección General de Información en Salud de la Secretaría de Salud se registró un total de 16,829 pacientes con fractura de cadera en el período entre 2013 y 2018. El número de casos en promedio por año fue de 2,804 ± 388.98 (IC 95%: 5.87). Del total, 11,689 fueron mujeres (69%) y 5,140 hombres (31%). En estas estadísticas solo se incluyeron los casos cuyo paciente fuese mayor de 60 años1. Ahora bien, el tratamiento quirúrgico de las fracturas de cadera es obligatorio en personas mayores, excepto en pacientes cuyo estado general es crítico, es decir, que tienen padecimientos pre-existentes y que implican un riesgo para la salud. De lo contrario, se fuerza la inmovilización a largo plazo, lo que tiene consecuencias desastrosas y una serie de complicaciones que pueden terminar fácilmente en la muerte2. Estos números y las implicaciones mencionadas, dan cuenta de la incidencia que tiene este tipo de padecimientos en el gasto público en salud y la carga económica que puede representar para los pacientes.
Por lo mencionado anteriormente, dentro de las líneas de investigación en las que estuvimos vinculadas, se establecen metodologías para diseñar y fabricar implantes y la funcionalización de su superficie. En torno a esta línea de investigación, una vertiente importante es el establecimiento de cómo los recubrimientos fabricados interaccionan con ambientes fisiológicos actuando como recubrimiento protector o como recubrimiento anclaje. Para estudiar este efecto, nuestro proyecto se enfocó en realizar estudios de corrosión y pruebas electroquímicas en fluidos fisiológicos simulados (SBF) en sustratos de titanio con recubrimientos de hidroxiapatita usados en el reemplazo total de cadera; el objetivo principal es minimizar los efectos de la corrosión dentro de dichos sistemas para potencializar sus propiedades y adaptarse mejor desde el punto de vista biológico y mecánico, buscando minimizar el rechazo después de llevar a cabo un reemplazo articular, y a su vez, prevenir las cirugías de reemplazo (con una tasa de mortalidad que va desde el 2-7%), postoperatorias (con tasa de mortalidad 6-12%) e incrementar la vida útil de la prótesis, lo que contribuye a mejorar la calidad de vida del paciente2.
METODOLOGÍA
Se trabajó con recubrimientos de hidroxiapatita (HAp) que previamente fueron fabricados por el titular usando técnicas de proyección térmica.
Para el caso de los recubrimientos de HAp, se comenzó cortando los sustratos de titanio con un disco de diamante, buscando obtener cuadrados de 2cm x 2cm, para después hacer una guía de corte de estos sustratos en cuadrados de 1cm x 1cm.
Para darle rugosidad y mejor adherencia al sustrato, se granalló sobre una de las caras para, posteriormente, depositar el recubrimiento de hidroxiapatita mediante técnicas de rociado térmico, en este caso se utilizó HVOF y flama, con los parámetros establecidos dentro de la línea de investigación.
Para llevar a cabo las pruebas mencionadas, se preparó 1 litro de solución SBF. Algunas de las condiciones importantes a tener en cuenta al momento de prepararla es el controlar y mantener la temperatura en 36.5 °C (esto con un grado de error de ±0.5), y el pH entre 7.40-7.45.
Cada muestra se soldó de lado del sustrato libre con un alambre de cobre mediante la técnica de soldadura por arco y, posteriormente, se encapsuló con resina cuidando que quedara descubierta la parte del recubrimiento; fue necesario dejar secando al aire libre las muestras con resina durante 24 horas. Transcurrido ese tiempo, se esterilizaron las muestras, una barra magnética y el recipiente dónde se realizaría el proceso, usando luz UV durante 1 hora.
Terminado este proceso, se llevaron a cabo las pruebas electroquímicas y de corrosión en un medio fisiológico simulado; es necesario seguir este proceso debido a que se pretende analizar el comportamiento de los recubrimientos en un medio similar a las condiciones del cuerpo (plasma).
La primera prueba realizada fue la de EIS por sus siglas en inglés (Electrochemical Impedance Spectroscopy), se montó el sistema, el equipo necesario para medir, el software se programó con los parámetros establecidos (respecto a la frecuencia y corriente), y se adecuo el ambiente; esta medición duró aproximadamente de 20-30 minutos por muestra, tomando en cuenta que primero se debe esperar a que finalice el análisis del circuito abierto con una duración de 1 h. Después se continuó con la evaluación Tafel, la cual duró aproximadamente de 10-15 minutos; esta última prueba es destructiva, por lo que no se puede reutilizar la muestra para futuras mediciones, únicamente puede ser usada para caracterización.
Durante la estancia también se pulieron unas muestras que estaban previamente tratadas y encapsuladas, esto con la finalidad de después analizarlas en SEM.
CONCLUSIONES
Después de realizar todas las mediciones, se llevó a cabo el análisis de los resultados obtenidos, esto con la finalidad de comparar los distintos depósitos de HAp para relacionar su funcionalidad y comportamiento (ante la corrosión en el medio fisiológico), de esta manera se puedo comprobar que la hipótesis planteada se cumplió. Derivado de la buena adherencia de los recubrimientos de HAp, se validó que si bien el sustrato no es tan susceptible a la corrosión, el recubrimiento tiene un efecto protector que, además de tener buena interacción con el fluido corporal simulado (bioactividad), actúa como barrera contra el ataque de fluidos fisiológicos simulados. Estos resultados son prometedores, ya que no solo la técnica de fabricación es de mayor acceso, sino que la calidad de los recubrimientos obtenidos tiene alto potencial para probarse en ambientes reales.
Referencias
1.Pech-Ciau BA, Lima-Martínez EA, Espinosa-Cruz GA, Pacho-Aguilar CR, Huchim-Lara O, Alejos-Gómez RA. Fractura de cadera en el adulto mayor: epidemiología y costos de la atención. Acta Ortop Mex. 2021; 35(4): 341-347. https://dx.doi.org/10.35366/103314.
2.Negrete-Corona J, Alvarado-Soriano JC, Reyes-Santiago LA. Fractura de cadera como factor de riesgo en la mortalidad en pacientes mayores de 65 años. Estudio de casos y controles. Acta Ortop Mex. 2014; 28(6): 352-362.
Urbán Tovar Diana Itzel, Instituto Tecnológico de Pachuca
Asesor:Dra. Gloria Sandoval Flores, Universidad Autónoma de Tamaulipas
APROVECHAMIENTO ÓPTIMO DE LA BIOMASA COMO FUENTE DE ENERGÍA
APROVECHAMIENTO ÓPTIMO DE LA BIOMASA COMO FUENTE DE ENERGÍA
Urbán Tovar Diana Itzel, Instituto Tecnológico de Pachuca. Asesor: Dra. Gloria Sandoval Flores, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
La biomasa es la energía renovable que aprovecha todo lo que la naturaleza nos da. Una fuente de energía natural, de calidad y que está en todo lo que nos rodea. Según su procedencia existen distintos tipos entre los que destacan la biomasa agrícola, forestal, ganaderas, industriales, acuosas y aquellas derivadas de residuos de ciudades. Los residuos que se generan a causa del consumo humano se han convertido en un tema de interés, sobre todo para futuras generaciones por el creciente desabasto de recursos, afectando directamente a los niveles de calidad de vida en los próximos años. A partir de un previo análisis de la situación actual en la zona norte del país se encontró que la industria maquiladora y procesadora de gas, así como el uso desmedido de aceites afecta directamente al medio ambiente provocando escasez de recursos, entre ellos el agua.
METODOLOGÍA
Continué en el proceso de dos líneas de investigación de la Universidad Autónoma de Tamaulipas. En el primer proyecto se pretendió evaluar la efectividad de un adsorbente a partir de la semilla del aguacate HAAS con el objetivo de retener la sal de aguas de pozo, considerando los límites máximos permisibles en descargas de agua residuales de la zona norte de México. Evalué el valor de la conductividad tomando como referencia 854 μs, 570 μs, 454 μs 400 μs y 340 μs. Posteriormente pesé una muestra de 5gr de semilla de aguacate tratada y la coloqué en una bureta de 100 ml. Vertí 80 ml de la solución agua-sal en la bureta y varié el tiempo de filtración en un intervalo de 1-10 minutos para observar el comportamiento de la conductividad. Así mismo realice el procedimiento para los 5 parámetros propuestos inicialmente. Para un análisis más eficiente realicé pruebas con carbón activado como adsorbente. Recorté papel filtro, tomando como referencia las medidas correspondientes de la placa de porcelana de un embudo Buchner. Tomé una muestra de 5 gr de carbón activado y lo distribuí en la superficie del papel filtro para la limpieza del adsorbente con agua destilada. Pesé la cantidad de sal necesaria para preparar una solución agua-sal con una conductividad de 1000 μs. Después filtré dicha solución en el embudo Buchner y nuevamente evalué la conductividad hasta obtener un valor constante. Posteriormente retiré el papel filtro y lo pesé en una balanza analítica. Una vez realizado esto, lo coloqué en el cristalizador para posteriormente introducirlo por 2 horas en una estufa industrial con temperatura de 80°Cy así fue como determiné las sales que quedaron impregnadas en el papel filtro.
Por otra parte, para el proceso de elaboración de jabón en polvo, primero se recolectó aceite de cocina reutilizado y posteriormente realice filtraciones mediante carbón activado, zeolita y alúmina tomando 30 gr de cada muestra con el objetivo de limpiar 250 ml de dicho aceite. Después determiné la concentración de cada aditivo a utilizar. Una vez que se tenían los aditivos preparados, se vertió cada aditivo de acuerdo a una reformulación precisa para potenciar la adición del agente desengrasante, variando concentración y temperatura en el proceso de mezclado.
CONCLUSIONES
Por medio del monitoreo de conductividad en la solución Agua-sal se determinó buena efectividad del adsorbente a partir de la semilla del aguacate HAAS conjuntamente con los resultados obtenidos del carbón activado, por lo tanto, una posible alternativa que se infiere es el tratamiento de ambos adsorbentes para una mayor operatividad. En el proceso de elaboración de jabón en polvo se logró optimizar el agente desengrasante mediante pruebas realizadas en la reformulación de procesos de saponificación establecidos, obteniendo mejores resultados con la zeolita para el tratamiento de aceite vegetales.
Urias Zavala Luis Armando, Universidad de Sonora
Asesor:Dr. José Alberto Luna López, Benemérita Universidad Autónoma de Puebla
OBTENCIóN Y PROPIEDADES ELéCTRICAS DE LOS óXIDOS CONDUCTORES TRANSPARENTES DE TIPO P: ÓXIDO
DE NíQUEL Y ÓXIDO DE COBRE UTILIZANDO LA TéCNICA DE SPRAY PIROLISIS ULTRASóNICO
OBTENCIóN Y PROPIEDADES ELéCTRICAS DE LOS óXIDOS CONDUCTORES TRANSPARENTES DE TIPO P: ÓXIDO
DE NíQUEL Y ÓXIDO DE COBRE UTILIZANDO LA TéCNICA DE SPRAY PIROLISIS ULTRASóNICO
Urias Zavala Luis Armando, Universidad de Sonora. Asesor: Dr. José Alberto Luna López, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La ausencia de óxidos conductores transparentes de tipo p de alto desempeño, los cuales son utilizados
principalmente en las áreas de desarrollo energético y optoelectrónico, son la principal motivación para el
presente proyecto, donde se busca desarrollar y optimizar películas delgadas de este tipo de materiales,
específicamente el óxido de cobre (CuO) y oxido de níquel (NiO) utilizando una técnica sencilla y económica
(spray pirolisis), donde finalmente estas películas serán caracterizadas para obtener una descripción de su
comportamiento óptico y eléctrico que permitan conocer una posible mejora y aplicación de los mismos.
METODOLOGÍA
Para el depósito de las películas de NiO y CuO se utilizó la técnica de spray pirolisis, donde se mantuvieron fijos
los parámetros de; concentración de la solución utilizando una molaridad de 0.1M en ambos casos, flujo, distancia
y tamaño de gota, los cuales se acoplaron al sistema utilizado, que en este caso correspondió a un sistema de
nebulizado comercializado como sanitizante miniatura.
Los parámetros variables en el proceso de depósito fueron la temperatura y tiempo de depósito, además, fueron
utilizados como sustratos portaobjetos limpiados con propanol. La finalidad de utilizar un sustrato transparente fue
la de caracterizar ópticamente las películas mediante mediciones de transmitancia y absorbancia.
Para la solución de óxido de níquel ésta fue preparada en una base de agua desionizada utilizando como
precursor C₄H₆NiO₄*4H₂O, mientras que para la solución de óxido de cobre, se prepararon 2 soluciones
diferentes, ambas utilizando una base de agua desionizada pero con diferentes precursores, la primera usando
utilizando (Cu(CH 3 CoO) 2 ) y la segunda fabricada con CuCl 2 , la finalidad de elaborar 2 soluciones es la de
determinar con que solución se obtienen mejores propiedades ópticas y eléctricas en la película.
Para las pruebas realizadas, como se mencionó previamente, fueron utilizadas diferentes temperaturas y tiempo
de depósito, en el caso del óxido de níquel como primera aproximación, se trabajó con un rango de temperaturas
de 200°C a 350°C con incrementos de 30°C, donde el tiempo de depósito se fijó en 3 minutos, esto después de
haber realizado diversas pruebas con los tiempos y una temperatura fija de 350°C. Posterior a estos
experimentos se determinó que la temperatura optima de depósito estaba en un rango cercano a los 350°C, por
lo que finalmente se trabajó con las temperaturas 330°C, 370°C, 380°C y 390°C.
Para el óxido de cobre se trabajó como se había mencionado, con 2 soluciones diferentes, una fabricada con
cloruro de cobre y otra con acetato de cobre, empleando un rango de temperaturas de 200°C a 350°C con
incrementos de 30°C, donde el tiempo de depósito se fijó en 2 minutos, esto después de haber realizado diversas
pruebas con los tiempos y una temperatura fija de 350°C, por lo que se obtuvieron 14 películas en total.
Para caracterizar los materiales obtenidos y determinar sus propiedades eléctricas fueron realizadas mediciones
de corriente contra voltaje (I-V) en configuración horizontal utilizando un equipo Keythley 4200 SCS, mientras que
para las propiedades ópticas fueron realizadas mediciones de transmitancia y absorbancia en el rango UV-Visible.
De los resultados eléctricos se determinó que la película con mejor conductividad se obtuvo en el caso del óxido
de níquel para la película depositada a un tiempo de 3 minutos y una temperatura de 370°C, mientras que para
las películas de óxido de cobre los mejores parámetros de depósito corresponden a un tiempo de depósito de 2
minutos en ambos casos y una temperatura de 350°C para el acetato de cobre y 290°C para el cloruro de cobre,
el comportamiento eléctrico corresponde a una conducción del tipo óhmica. En cuanto a los resultados ópticos las
películas de NiO tienen una mayor absorción en el rango UV y cercano al azul (100 nm ≤ λ ≤ 480 nm), mientras
que las películas de CuO para ambos precursores absorben mejor en este rango.
Finalmente es importante mencionar que ambos materiales presentaron un efecto termocrómico presente desde
los 100°C el cual modifica evidentemente las propiedades ópticas de la película, lo cual fue medido mediante
transmitancia y absorbancia, además las mejores películas fueron depositadas sobre una película conductora de
óxido de estaño dopado con indio para comprobar la existencia de un efecto electrocrómico, el cual se presentó
sin problema para la película de óxido de níquel, pero no ocurrió así para las películas de óxido de cobre.
CONCLUSIONES
Durante la estancia de investigación se adquirieron conocimientos tanto teóricos como experimentales respecto a
la síntesis y al funcionamiento de los óxidos conductores transparentes de tipo p y a la diversa gama de
aplicaciones de estos, además de adquirir experiencia en las técnicas de caracterización eléctrica y
óptica en el área de películas delgadas. Si bien no fue posible desarrollar dispositivos en los cuales se
implementasen dichas películas fabricadas dado el tiempo corto de la estancia, fueron realizadas una grancantidad de muestras que permitieron optimizar los parámetros de depósito utilizando la técnica de spray pirolisis
ultrasónico, además, se logró caracterizar óptica y eléctricamente las películas tanto de NiO como de
CuO obteniéndose resultados interesantes en cuanto a las propiedades termocrómicas de ambos materiales y la
propiedad electrocrómica del NiO, los cuales podrían ser aplicados en novedosos dispositivos a desarrollar en un
futuro cercano, y dado el costo de obtención con ventajas
Asesor:Dr. Joel Antonio Trejo Sánchez, Centro de Investigación en Matemáticas (CONACYT)
EXPLORACIóN DE PATRONES DE VIAJE Y MOVILIDAD DE REDES EN LA CIUDAD DE MéXICO MEDIANTE DURANTE LA PANDEMIA DE COVID-19
EXPLORACIóN DE PATRONES DE VIAJE Y MOVILIDAD DE REDES EN LA CIUDAD DE MéXICO MEDIANTE DURANTE LA PANDEMIA DE COVID-19
Utria Viana Ricardo, Corporación Universitaria Latinoamericana. Asesor: Dr. Joel Antonio Trejo Sánchez, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Se presenta el análisis de redes de movilidad humana en la Ciudad de México durante la pandemia de COVID-19, utilizando registros de ubicación de teléfonos celulares geolocalizados proporcionados por Veraset. El conjunto de datos abarca un período de 15 meses, incluyendo el año 2020 y los primeros tres meses de 2021, y se construye en base al movimiento de las personas entre diferentes áreas, representadas por áreas geográficas estadísticas básicas (AGEBs).
METODOLOGÍA
La construcción de estas redes implica el procesamiento de grandes cantidades de datos y requiere recursos computacionales significativos. Para enfrentar este desafío, se utiliza Apache Spark, un motor de procesamiento de datos distribuido, para realizar el análisis de manera eficiente y escalable.
CONCLUSIONES
El análisis de las redes de movilidad durante la pandemia de COVID-19 arrojó resultados interesantes sobre los cambios en los patrones de viaje y movilidad de la población en la Ciudad de México. Se encontró que las redes experimentaron cambios significativos a nivel global, local y mesoescala, y que estos cambios estuvieron asociados con las restricciones de movilidad impuestas durante la pandemia y el tamaño de la población.
El estudio también reveló que los nodos principales en términos de grado, fuerza y centralidad de intermediación se mantuvieron estables en comparación con un modelo aleatorio. Esto indica que ciertas áreas geográficas mantuvieron su relevancia en el movimiento de la población a lo largo del tiempo, a pesar de las restricciones y cambios en la movilidad.
Además, la formación de comunidades en la red aumentó durante el período de confinamiento y experimentó un aumento pronunciado durante la tercera ola de COVID-19. Estas comunidades mostraron patrones geográficos interesantes, con algunas compuestas por municipios del mismo estado y otras que cruzan líneas estatales.
Valdez Gutierrez Maria Fernanda, Universidad Autónoma de Sinaloa
Asesor:Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa
DETERMINACIóN DE DESPLAZAMIENTOS SEMI-ESTáTICOS DEL PUENTE "EL CARRIZO" MEDIANTE RECEPTORES GNSS CONVENCIONALES Y DE BAJO COSTO.
DETERMINACIóN DE DESPLAZAMIENTOS SEMI-ESTáTICOS DEL PUENTE "EL CARRIZO" MEDIANTE RECEPTORES GNSS CONVENCIONALES Y DE BAJO COSTO.
Medina Gomez Belen Guadalupe, Universidad de Guadalajara. Valdez Gutierrez Maria Fernanda, Universidad Autónoma de Sinaloa. Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Los puentes son estructuras de ingeniería civil clave en cualquier ciudad o carretera por lo cual es necesario un monitoreo permanente y confiable de éstos. En México los puentes han sido factores fundamentales para el desarrollo tanto económico como social del país, sobre todo en los últimos 50 años. Uno de sus principales aportes es favorecer la comunicación de distintas ciudades para la articulación de actividades cotidianas (comerciales, recreativas, etc.). Existen diversos métodos para llevar a cabo mediciones que muestran el comportamiento en los puentes. Es por ello, que nuestro objeto de estudio es el puente El Carrizo ubicado en la carretera Durango-Mazatlán, vía que representa el enlace interoceánico entre el Golfo de México y la Costa del Pacífico. Su estructura principal es la de un puente atirantado con su tablero ejecutado por el método de voladizos incrementales y un pilono central. Debido a que este tipo de estructuras son expuestas a diferentes tipos de cargas, éstas presentan una especie de vibraciones; por lo que requieren de un monitoreo continuo. Para ello, se requiere evaluar el uso de tecnologías que mejor se adapten a las necesidades del caso específico. Los receptores geodésicos que realizan mediciones a los Sistemas Globales de Navegación por Satélite (GNSS, por sus siglas en inglés) es una alternativa viable en la medición de desplazamientos semi-estáticos, estáticos y dinámicos de puentes debido a su desempeño y relativa facilidad de instalación. Tal que, para nuestro caso de estudio, se eligió utilizar receptores GNSS convencionales y de bajo costo, con el propósito de cuantificar los desplazamientos semi-estáticos.
METODOLOGÍA
Se llevó a cabo un experimento, donde la primera etapa fue la selección de estaciones GNSS, siendo así un receptor GPS convencional (Geomax) y uno de bajo costo, realizando mediciones con el propósito de cuantificar los desplazamientos semi-estáticos, sobre el segundo puente atirantado más importante en la carretera Durango-Mazatlán (Puente El Carrizo).
La siguiente etapa fue colocar ambos receptores en un lado del puente para comenzar a realizar las mediciones conforme un determinado lapso de tiempo.
Posteriormente se realizó la descarga de archivos de observación y efemérides precisas de las correspondientes sesiones de medición. La técnica de medición que se utilizó en el puente El Carrizo fue la denominada relativo cinemático. El procesamiento de datos por el método cinemático relativo fue llevado a cabo en el software de código abierto RTKLIB para las mediciones con los equipos de bajo costo, y el software científico TRACK para procesar las mediciones de los equipos de orden geodésico: Geomax Zenith 25. Las coordenadas de salida fueron topocéntricas y posteriormente se rotaron a coordenadas locales del puente.
En la penúltima etapa se obtuvieron coeficientes como la media, desviación estándar, error medio cuadrático, máximo y mínimo de los resultados arrojados a la hora del procesamiento.
Finalmente se comparan de manera visual y estadística los datos generados entre ambos receptores, GPS convencional y de bajo costo mediante unas gráficas en sus tres componentes transversal, longitudinal y vertical.
CONCLUSIONES
Se realizaron mediciones con receptores GNSS convencionales (geodésicos) y de bajo costo donde se procesaron los datos coleccionados y se realizó una comparación mediante una gráfica entre ambos receptores, donde se puede visualizar 3 componentes de los desplazamientos semi-estáticos, los cuales son, transversal, longitudinal y vertical; se muestra una diferencia de aproximadamente de 2-3 mm en cada una de las gráficas, lo que nos indica que es una buen margen.
Contar hoy en día con equipos GNSS es mucho más sencillo. Y es que incluso hoy contamos con equipos con tecnología GNSS que usamos a diario: los teléfonos inteligentes son un ejemplo de ello.
La tecnología GNSS es una red compuesta por tres segmentos: un sistema satelital, un sistema de control terrestre y un sistema de usuario. Gracias a este tipo de tecnología podemos ver nuestra posición en el mapa en tiempo real, fijar las coordenadas de un punto geográfico, facilitar la georreferenciación de lugares, generar mapas, etc.
El GNSS es una alternativa viable de medición para monitorear las condiciones de una estructura (obra civil) debido a su desempeño y facilidad de instalación. Además, se concluyó que incluir el mayor número de satélites, puede mejorar la fiabilidad del monitoreo estructural.
Por otro lado, la tecnología alternativa GNSS convencional y de bajo costo para el monitoreo de obras de ingeniería, ha sido demostrado que es precisa, eficiente, y económica en el caso del receptor de bajo costo.
Valencia Ortiz Miguel Angel, Universidad de Caldas
Asesor:Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México
SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO
SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO
Castañeda Gil Melanie Sofia, Universidad de Sonora. Ramos Cábel Fátima Marcela, Universidad Autónoma de Ciudad Juárez. Rodríguez Sauceda Sergio Maximiliano, Universidad Autónoma de Coahuila. Servín Pérez Adilene, Universidad de Sonora. Valencia Ortiz Miguel Angel, Universidad de Caldas. Zapata Martínez Dolores Itzel, Universidad de Sonora. Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Las dataciones radiométricas juegan un papel muy importante en las ciencias de la tierra, pues ayudan a tener un mejor entendimiento de la evolución geodinámica de nuestro planeta, de cómo sucedieron los eventos que configuraron la Tierra como la conocemos hoy en día, y tratar de deducir lo que pasará en el futuro. Entre las aplicaciones de estos estudios geocronológicos se encuentran la determinación de edades de cristalización de cuerpos magmáticos y de eventos deformativos y mineralizantes, la cuantificación de tasas de exhumación, y otros análisis que solo con el fechamiento de las rocas se pueden llevar a cabo.
Para llegar a esto es necesario comprender el comportamiento mineralógico de las rocas de interés y determinar qué relojes isotópicos usar de acuerdo con sus características químicas.
Por ello se busca aislar minerales específicos que contienen información valiosa sobre la edad de las muestras o características particulares en estas, permitiendo que las fechas obtenidas sean lo más precisas posible.
METODOLOGÍA
La metodología del trabajo realizado puede clasificarse en tres etapas principales:
Elaboración de secciones delgadas;
Separación de minerales; y
Caracterización de minerales.
La elaboración de secciones delgadas facilita la identificación de minerales contenidos en las muestras e indican si es viable realizar procedimientos posteriores asociados a la disgregación de minerales.
La segunda etapa se enfoca en la separación de minerales con una estructura cristalina adecuada para albergar isótopos radioactivos y radiogénicos conocidos, de los cuales, en función de su relación isotópica, podrá ser extraída la edad asociada. Entre los minerales de interés se encuentran circones, apatitos, hornblendas, biotitas, moscovitas y feldespatos. Esta etapa comienza con la trituración, tamizado, lavado y secado de las muestras.
Cuando el material se haya secado se separa en función de la susceptibilidad magnética de los minerales, por medio de un separador de barrera magnética tipo Frantz. Colocando el separador en diferentes configuraciones se pueden separar los minerales en ferromagnéticos, paramagnéticos y no magnéticos. El target de la separación depende de las edades de interés y de la temperatura de cierre del mineral.
Según sea el objetivo mineral en la separación, se usan diferentes líquidos pesados con densidades específicas conocidas, como yoduro de metileno o MEI, bromoformo y politungstato de litio. Es necesario manipular los líquidos bajo parámetros sanitarios adecuados:una campana de extracción y utilizando vestimentas adecuadas como batas, guantes, gafas y cubrebocas.
Para los circones se utiliza MEI; para el bromoformo se utilizan los minerales del residuo flotante del yoduro de metileno, para obtener a partir de estos los apatitos. En el caso del LST el montaje es diferente, pero el principio es el mismo, en él se requiere recuperar ambas partes (la que se hunde y la que flota), y calibrar hasta obtener una correcta disgregación (como feldespatos potásicos y cuarzos). Posteriormente, en el caso de los minerales separados distintos al circón y apatito se realizan procedimientos de paper shaking para concentración de micas con relación a los rolls (minerales cuyo hábito no permiten que se adhieran a una superficie fácilmente) y efectuar limpieza de minerales no deseados mediante hand picking.
Es importante distinguir los minerales con base en sus características cristalográficas bajo lupa binocular, y así lograr el montaje y separado adecuado. El montaje de circones se hace con ayuda de dos microscopios estereográficos, bajo uno de ellos se coloca un petri Pyrex con la muestra que contiene los circones y, en el otro, el vidrio con el montaje deseado para los circones.
Los circones contenidos en la probeta terminada se caracterizan mediante un microscopio electrónico de barrido con detector de catodoluminiscencia (SEM-CL). Para que el SEM-CL pueda detectar a los circones, la probeta se debe recubrir con carbono. En este paso, se toman fotografías de cada línea montada de circones. y al final se traslapan con un software de edición. A partir del mosaico obtenido se eligen los sitios potenciales para los análisis de U-Pb en función de las características físicas del circón, su tipo y el objetivo de fechamiento
Por último, elegidos los puntos de ablación, fue visitado el Laboratorio de Estudios Isotópicos, donde fue posible presenciar el procedimiento de identificacion y cuantificacion de especies atómicas presentes en la muestra, es este caso con especial interés en los isótopos radioactivos y de origen radiogénico además de otros análisis químicos que son obtenidos como ppm de REE en circón, a partir de ello son emitidos gases los cuales contienen componentes químicos que son medidos por un espectrómetro de masa (LA-ICPMS) el cual se encarga de distinguir los componentes químicos presentes en la parte desintegrada del circón. Una vez limpios los datos, son leídos y graficados, para obtenerlos datos ploteados en curvas concordia y otros esquemas para realizar los análisis correspondientes.
CONCLUSIONES
Durante el verano, se tuvo un cierto número de rocas a trabajar en el transcurso de la estancia, correspondientes a granitos y xenolitos de proyectos del NW de México y SW de Estados Unidos, y se fue partícipe de todos los procesos previos a la datación y aprendiendo una gran cantidad de técnicas, métodos de separación y caracterización de minerales.
Fueron llevadas 5 muestras al Laboratorio de Estudios Isotópicos para la realización del fechamiento U-Pb mediante ablación de los circones; con lo que se calcularon las edades de las rocas provenientes de Baja California.
Con el resultado de todo el trabajo es posible darse una idea de la evolución tectónica, o identificar si están relacionados a zonas de debilidad cortical, generando correlaciones entre las rocas de Estados Unidos y México.
Valencia Vargas Miguel Angel, Instituto Tecnológico de Morelia
Asesor:Mg. Vilma Viviana Ojeda Caicedo, Universidad Tecnológica De Bolívar
ANALISIS DE VARIABLES OCEANOGRáFICAS EN PROFUNDIDAD
ANALISIS DE VARIABLES OCEANOGRáFICAS EN PROFUNDIDAD
Pérez Villar Alan Máximo, Universidad de Guadalajara. Valencia Vargas Miguel Angel, Instituto Tecnológico de Morelia. Asesor: Mg. Vilma Viviana Ojeda Caicedo, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
El estudio de variables oceanográficas es vital para el aprovechamiento de bienes marítimos y la protección del medio ambiente marino. En este trabajo, se analizan datos oceanográficos en una sección paralela a la costa norte de Colombia, desde la península de la Guajira hasta el sur de Santa Marta, donde ocurre el fenómeno de surgencia.
La surgencia es causada por corrientes de viento que mueven aguas frías y nutrientes hacia la superficie. Las variables oceanográficas utilizadas son velocidad u, velocidad v, temperatura y salinidad. Estos datos provienen del modelo Hycom, que combina simulaciones numéricas y datos reales del océano en formato netCDF.
El análisis de estas variables permitirá comprender los fenómenos marítimos que afectan los ecosistemas y tomar decisiones informadas para el cuidado del medio ambiente marino y la gestión sostenible de los recursos marítimos en la región estudiada.
METODOLOGÍA
En este estudio, se analizan datos oceanográficos recopilados desde 2017 hasta 2022, con intervalos de 24 horas para 2017-2019 y de 3 horas para 2020-2022. La región de interés comprende coordenadas de -90 a -68 grados este y de 8 a 14 grados norte, en la costa norte de Colombia.
Los datos incluyen velocidad longitudinal (u), velocidad latitudinal (v), temperatura y salinidad, y se descargaron en archivos mensuales en formato netCDF. Estos archivos se convirtieron a archivos .mat para su análisis en Matlab, resultando en cuatro archivos anuales para cada variable.
Se realizó un transepto para observar el comportamiento del upwelling cerca de la costa. Se interpolaron datos en coordenadas donde no había información, y se crearon matrices con los datos del transepto. Luego, se aplicó una rotación a los datos de velocidad para proyectar las velocidades longitudinales y latitudinales en el transepto y determinar los movimientos paralelos y perpendiculares al mismo, siendo este último relevante para el upwelling.
Para identificar zonas de interés, se utilizaron máscaras matriciales. Estas máscaras, al multiplicarse con la matriz del transepto, proporcionaron información sobre el comportamiento del flujo de agua en la región de interés. Los datos fueron unidos en un archivo único para obtener una serie temporal de los seis años estudiados.
CONCLUSIONES
En este trabajo se analizaron variables oceanográficas desde 2017 hasta 2022. Se generaron gráficas de transeptos para cada variable estudiada. En la velocidad u, los valores positivos indican corriente de izquierda a derecha, y los negativos de derecha a izquierda. En la velocidad v, valores positivos indican corriente opuesta a la costa y negativos hacia la costa. La temperatura muestra estabilidad en los primeros 100 m de profundidad y disminuye hacia el fondo. La salinidad sigue un patrón similar. Se realizaron series temporales en la zona de surgencia, mostrando comportamiento oscilatorio. El análisis cuantitativo será importante para obtener información sobre el comportamiento del océano.
Valentinez Rodriguez Lesly Zoe, Instituto Politécnico Nacional
Asesor:M.C. Jorge Otero González, Benemérita Universidad Autónoma de Puebla
REACTIVOS DE OPCIÓN MÚLTIPLE PARA LA EDUCACIÓN DE CONTENIDOS MATEMÁTICOS
REACTIVOS DE OPCIÓN MÚLTIPLE PARA LA EDUCACIÓN DE CONTENIDOS MATEMÁTICOS
Serrano Zermeño Jose Luis, Instituto Politécnico Nacional. Valentinez Rodriguez Lesly Zoe, Instituto Politécnico Nacional. Asesor: M.C. Jorge Otero González, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La valoración de los aprendizajes es necesaria, por lo que implica el cumplimiento de los objetivos de enseñanza establecidos y el logro de los aprendizajes esperados con la finalidad de obtener los conocimientos previos a una evaluación de la escuela nivel medio superior "Benemérita Universidad Autónoma de Puebla" .
El objetivo de la evaluación consiste en aplicar los temas de "MATEMÁTICAS EDUCATIVAS", es importante tener en cuenta la elaboración de los reactivos a aplicar. En el presente proyecto se compilan planteamientos conceptuales y técnicos que ayudan a entender el proceso de elaboración de reactivos.
El propósito de un reactivo es diagnosticar el nivel de desempeño del alumno, a través de la puesta en marcha de sus conocimientos, habilidades o destrezas, la intención de un reactivo es valorar a qué nivel se desempeña el alumno para dar respuesta a la demanda que se le pone y si éste aplica o no el conjunto de sus conocimientos, habilidades y destrezas en su entorno.
METODOLOGÍA
Al inicio del proyecto se planteó el propósito el cual fue evidenciar si el alumno posee el conocimiento, la habilidad o la competencia que forma parte del objeto de medición del examen a través del uso de reactivos de opción múltiple, se dió a conocer que estos miden conocimientos específicos especializando en las MATEMÄTICAS EDUCATIVAS.
En nuestra explicación de lo que son los reactivos se obtuvieron diversos temas de los tipos de reactivos el cual destacamos por su facilidad los reactivos de opción múltiples, los cuales están compuestos por:
La base. Es un enunciado que plantea explícitamente un problema o tarea.
Las opciones. Son alternativas de respuesta a la base, de las cuales solo una es correcta; las restantes son distractores.
Las argumentaciones. Son explicaciones que dan sustento a cada una de las opciones de respuesta.
Posteriormente, iniciamos con los lineamientos generales para la elaboración de reactivos de un exámen, se evalúa un contenido matemático de nivel medio superior, está redactada de tal forma que se entiende sin necesidad de leer las opciones de respuesta, es afirmativa; en caso de que la especificación solicite que el alumnado
identifique elementos que no cumplen con alguna condición o regla, se deberá emplear la palabra.
Después, se dieron a conocer los lineamientos para elaborar las opciones que tendrán los reactivos matemáticos, los temas a conocer se centraron en álgebra, geometría y trigonometría, compuesto anteriormente por un problema, no presentan alternativas como: todas las anteriores, ninguna de las anteriores, A y C o no sé, stán ordenadas de manera ascendente si son numéricas, se inclueron distractores, los cuales son los errores más comunes del alumnado.
Al concluir con los conocimientos de la elaboración, se realizaron pruebas subjetivas, las cuales nos ayudó a comprobar la eficiencia del uso de este tipo de reactivos, obteniendo una visión clara y sencilla.
Transcurrido este tiempo, se dijo respecto al diseño del exámen recalcando preguntas comunes, logrando que no es más que una prueba de aptitudes y habilidades físicas que hacen referencia al aprovechamiento de los estudios, recabando el nivel de capacidad para lograr una buena evaluación de las MATEMÁTICAS EDUCATIVAS, la profundidad que alcanza cada tema es la elección y síntesis de cada uno con la finalidad de alcanzar más conocimiento.
Para finalizar, recabamos los distintos reactivos llevados a cabo de la elaboración de problemas, logrando concluir la evaluación requerida de los estudiantes.
CONCLUSIONES
Durante la estancia adquirimos conocimientos básicos de la elaboración de un exámen con reactivos de opción múltiple, para la facilidad de elaboración de este con temas extensos a los diferentes tipos de reactivos, las pruebas subjetivas sirvieron de apoyo para verificar una buena elaboración con el objetivo de estos tipos de reactivos.
Valenzuela Castillo Guillermo, Universidad Autónoma de Sinaloa
Asesor:Dr. Jorge Alejandro Ávila Olivera, Universidad Michoacana de San Nicolás de Hidalgo
COBERTURA Y USO DEL SUELO EN LA CUENCA DEL RíO DUERO
COBERTURA Y USO DEL SUELO EN LA CUENCA DEL RíO DUERO
Alvarez Cuevas Karla María, Universidad Autónoma de Sinaloa. Valenzuela Castillo Guillermo, Universidad Autónoma de Sinaloa. Asesor: Dr. Jorge Alejandro Ávila Olivera, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Determinar la cobertura y uso del suelo actualen la cuenca del Río Duero y realizar una comparación con la información recabada de años anteriores para determinar el cambio de cobertura y uso del suelo que ha existido en dicha zona, lo que servirá de base para futuras investigaciones.
METODOLOGÍA
Se llevó a cabo la recopilación de información en formato shapefile del portal del INEGI correspondiente a la zona de estudio del Río Duero, a escala 1:50,000 para datos vectoriales de topografía y a escala 1:250,000 para datos vectoriales de edafología, geología y vegetación y uso de suelo. Posteriormente se agregaron las capas para el mapa base correspondientes a canales, carreteras, corrientes de agua, cuerpos de agua, curvas de nivel, localidades, manantial y presas. Así como también, las capas de edafología, geología y, vegetación y uso de suelo de las cartas a escala 1:250,000.
Se unieron las capas y se proyectó la información cartográfica a WGS 1984 UTM Zona 14N. El mismo proceso se llevó a cabo con información complementaria de geología (litología) y usos de suelo de los portales de laCONABIO y del SGM, de las zonas de estudio a escala 1:250,000.
Posteriormente se descargaron imágenes satelitales (Sentinel) del portal de Copernicus correspondientes a lazona de estudio.
Se recibió la capacitación por parte de un alumno egresado de la facultad, sobre el procesamiento e interpretación de imágenes satelitales, mediante la digitalización de polígonos en un Sistema de Información Geográfica (ArcGIS).
Finalmente, se llevó a cabo el análisis de las imágenes satelitales, su interpretación y el cálculo de las áreas de las diferentes coberturas y usos del suelo de la zonas de estudio, para así presentar los resultados finales del proyecto de investigación.
CONCLUSIONES
Los resultados obtenidos del análisis de imágenes satelitales son los siguientes:
TIPO DE SUELO SUPERFICIE (Ha)
Suelo desnudo 591.1 Ha
Cuerpos de agua 1,360.6 Ha
Uso Acuícola 2,672.5 Ha
Cultivos 40,022.3 Ha
Huertos 16,356.8 Ha
Pastizal 34,668.4 Ha
Cubierto -50% 58,608.9 Ha
Cubierto 50%-75% 45,294.8 Ha
Cubierto +75% 17,576.4 Ha
Asentamientos humanos 30,353.2 Ha
Con estos resultados se establece que el uso de suelo con mayor cobertura en la cuenca del Río Duero es la vegetacióncon cobertura menor al 50% y el uso de suelo con menor cobertura sería el suelo desnudo.
Con base en los mapas descargados de instituciones como el INEGI, SGM y CONABIO; se determinó que la coberturaque predominaba entre los años 1998-2003 era la selva baja caducifolia. Dicho tipo de vegetación entra en los parámetros que se establecieron como cobertura de uso de suelo menor a 75%, por lo tanto se puede decir que esto no ha cambiado. Otro cambio importante que se identificó fueque anteriormente la superficie cubierta por asentamientos humanos era de 17, 966 Ha; lo cual representa un incremento del 169%.
En mi experiencia, el trabajar en este proyecto me trajo grandes enseñanzas tanto de forma académica como personal, sin duda trataré de sacar el mayor provecho posible de los aprendizajes adquiridos y compartirlos con mis compañeros para seguir contribuyendo en la ciencia e investigación como futura profesionista, de igual forma reiterar mis agradecimientos al Dr. Ávila por acompañarnos y siempre estar a disposición para cualquier duda o consulta que surgiera.
Valenzuela Lopez Jesus Guillermo, Universidad de Guadalajara
Asesor:Dr. Carlos Palomino Jiménez, Benemérita Universidad Autónoma de Puebla
PROCESO DE POISSON EN UNA TRANSFORMADA DE ESSCHER
PROCESO DE POISSON EN UNA TRANSFORMADA DE ESSCHER
Valenzuela Lopez Jesus Guillermo, Universidad de Guadalajara. Asesor: Dr. Carlos Palomino Jiménez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La trasformada de Esscher es conocida por cambiar el parámetro de una distribución de probabilidad, transformando así la variable aleatoria. A su vez, es útil para calcular el calor de un valor derivado si el logaritmo del precio de la primitiva se puede describir como un proceso estocástico con incrementos independientes y estacionarios.
En este caso, no se modifica una variable sino un proceso aleatorio, específicamente un proceso de Poisson.
El parámetro de Esscher se determina tal que el precio con descuento de la primitiva es una martingala en la nueva medida de probabilidad. El precio de estos valores derivados se calculan como la expectativa con respecto a la medida martingala correspondiente de los pagos con descuento.
METODOLOGÍA
Se realizó una investigación sobre fundamentos básicos de probabilidad, como son los procesos estocásticos y la función generadora; y se aplicaron primero a la distribución normal a manera de ejemplo y como introducción de una distribución continua.
Una vez sentadas estas bases, se aplicaron los mismos conceptos pero aplicados a la distribución (y proceso) de Poisson, considerando lo correspondiente a esta distribución discreta.
Posteriormente se trabajó sobre la transformada de Esscher y la transformada de Esscher de riesgo neutral para cambiar el parámetro de una distribución de probabilidad.
Luego, se estudió el precio S(t) de la acción call europea con precio de ejercicio K y fecha de ejercicio τ:
S(0)[1 − F(κ, τ; h* + 1)] − e^{−δτ}K[1 − F (κ, τ; h*)]
Y finalmente se aplicó la transformada de Esscher de riesgo neutro a un proceso de Poisson.
A modo de aplicación, se utilizó esta transformada del proceso de Poisson sobre el precio de una acción call europea, cambiando así su parámetro λ por el nuevo parámetro modificado λ*.
El precio S(t) de la acción call europea con precio de ejercicio K y fecha de ejercicio τ con el parámetro modificado λ* es entonces:
S(0)[1 − Λ((κ + cτ)/k; λ*ekτ )] − Ke^{−δτ}[1 − Λ((κ + cτ)/k; λ*τ )].
δ
CONCLUSIONES
Se aplicó la transformada de Esscher para modificar los parámetros que describen un proceso estocástico, en este caso específico un proceso de Poisson. Permitiendo así expresar el precio de una opción call europea (y potencialmente otros valores derivados) en términos de otros parámetros diferentes a los originales.
En este caso que se aplicó a un proceso de Poisson, se sustituyó el parámetro de Poisson λ por un parámetro de Poisson modificado λ* el cuál sería el parámetro h de la transformada de Esscher.
La transformada de Esscher de un proceso de Poisson desplazado resultan en un proceso de Poisson desplazado, y se puede calcular el precio de la opción acorde a este nuevo parámetro de Poisson desplazado.
Sería interesante aplicar la transformada de Esscher a otro tipo de procesos esto cásticos con incrementos independientes y estacionarios para valorar opciones. O en su defecto, otro tipo de valores derivados de naturaleza similar.
Valladares González Aixa Jaqueline, Universidad Politécnica de Sinaloa
Asesor:Dr. José Roberto Rivera Hernández, Universidad Politécnica de Sinaloa
ELABORACIóN DE UNA LIBRERíA DE ESPECTROS POLIMéRICOS A PARTIR DE PLáSTICOS COTIDIANOS MEDIANTE EL USO DE FTIR-ATR
ELABORACIóN DE UNA LIBRERíA DE ESPECTROS POLIMéRICOS A PARTIR DE PLáSTICOS COTIDIANOS MEDIANTE EL USO DE FTIR-ATR
Valladares González Aixa Jaqueline, Universidad Politécnica de Sinaloa. Asesor: Dr. José Roberto Rivera Hernández, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
En la búsqueda continua por soluciones sostenibles y amigables con el medio ambiente, la problemática de la contaminación por plásticos cotidianos se ha convertido en un desafío de relevancia global. Estos materiales, ampliamente utilizados en nuestra sociedad moderna, tienen un impacto significativo en los ecosistemas y la salud humana debido a su lenta degradación y acumulación en el medio ambiente.
El presente proyecto de investigación tiene como objetivo abordar esta problemática mediante una innovadora metodología de análisis. El uso de la técnica espectroscópica de infrarrojo con Reflexión Total Atenuada (FTIR-ATR) se presenta como una herramienta valiosa para la identificación y caracterización de diferentes tipos de plásticos. FTIR-ATR permite obtener información molecular detallada sobre las muestras analizadas mediante la interacción de la radiación infrarroja con la superficie de los materiales. Esta técnica no destructiva se muestra como una opción eficiente y precisa para el estudio de los plásticos cotidianos, proporcionando una valiosa base de datos espectrales que permitirá identificar y clasificar los distintos tipos de polímeros con gran exactitud.
La elaboración de una librería de espectros poliméricos constituye un recurso esencial para la identificación rápida y confiable de los plásticos encontrados en el medio ambiente. Esto será de gran utilidad para el desarrollo de nuevas estrategias de reciclaje y gestión de residuos, así como para evaluar la degradación y evolución de los plásticos a lo largo del tiempo.
A lo largo de esta estancia de verano, se llevó a cabo una recolección de muestras de plásticos cotidianos, seleccionando diferentes tipos de envases y objetos de uso común. Estas muestras fueron analizadas mediante por FTIR-ATR para construir una completa librería de espectros poliméricos que abarque una amplia gama de materiales.
El resultado de esta investigación no solo aportará conocimiento valioso sobre la composición de los plásticos cotidianos, sino que también será un recurso útil para la comunidad científica, las industrias y las entidades gubernamentales interesadas en abordar el problema de la contaminación plástica de manera más efectiva y sostenible.
METODOLOGÍA
La elaboración de una librería de espectros poliméricos a partir de plásticos cotidianos mediante el uso de FTIR-ATR implica seguir una metodología sistemática para obtener resultados precisos y confiables.Se identificaron y recolectaron una amplia variedad de plásticos de uso cotidiano, como botellas, bolsas, envases, juguetes y otros objetos fabricados con diferentes tipos de polímeros, así como material de plásticos de uso común en el laboratorio. Es importante obtener muestras representativas que abarquen una gama diversa de materiales plásticos para construir una librería completa. Se aseguró de que el FTIR-ATR estuviera calibrado y en condiciones óptimas de funcionamiento. De igual manera, se aseguró que los cristales ATR estuvieran limpios y bien alineados.
Se colocó cada muestra de plástico en el ATR del espectroscopio y se registraron los espectros infrarrojos. Se deben tomar varios espectros de cada muestra para asegurar la reproducibilidad de los resultados. Registrar el espectro de referencia del cristal ATR antes y después de cada medición para eliminar las contribuciones del cristal en los espectros de las muestras.
Los espectros registrados fueron procesados mediante técnicas de corrección de fondo y eliminación de ruido. Luego, se realizó la identificación de los diferentes polímeros presentes en las muestras a partir de la comparación con bibliotecas espectrales comerciales o con espectros de referencia previamente conocidos de plásticos puros.
Se organizaron y compilaron los espectros identificados en una base de datos que representa la librería de espectros poliméricos. Se etiquetó cada espectro con la información relevante, como el tipo de plástico, la fuente de la muestra y otras características importantes.
Utilizar la librería de espectros poliméricos para identificar y clasificar plásticos desconocidos, ya sea para fines de investigación o en aplicaciones prácticas, como el análisis de muestras ambientales o la caracterización de materiales plásticos en procesos industriales puede ser de gran beneficio ya que, permitiría mejorar la sostenibilidad y reducir el impacto ambiental de los plásticos en nuestro entorno. Al poder identificar con precisión los tipos de plásticos presentes en muestras ambientales, se facilita el diseño de estrategias de reciclaje más eficientes y adecuadas para cada tipo de material. Es importante tener en cuenta que la construcción de la librería de espectros poliméricos puede ser un proceso continuo, ya que nuevas muestras y materiales pueden ser agregados con el tiempo para mejorar la representatividad y utilidad de la librería.
CONCLUSIONES
Tras culminar el proyecto de verano de investigación se obtuvieron conclusiones significativas que arrojan luz sobre la identificación y caracterización de plásticos.
Se logró construir una completa librería de espectros poliméricos que abarca una amplia gama de plásticos cotidianos. Esta librería representa una herramienta valiosa para la identificación rápida y confiable de los diferentes tipos de polímeros presentes en muestras de plásticos.Mediante el análisis de los espectros obtenidos con FTIR-ATR, fue posible diferenciar de manera confiable los distintos tipos de polímeros presentes en las muestras. Esto contribuye a la clasificación precisa y rápida de plásticos desconocidos en futuros estudios y aplicaciones prácticas.
El proyecto aportó conocimiento valioso sobre la composición de plásticos cotidianos y su comportamiento frente a la técnica FTIR-ATR. Esta información puede ser aprovechada por la comunidad científica y la industria para mejorar el diseño de nuevos materiales y procesos de fabricación más sostenibles.
Vargas Cristancho Juan Diego, Universidad del Quindío
Asesor:Dr. Rosendo Romero Andrade, Universidad Autónoma de Sinaloa
ANáLISIS DE LAS OBSERVACIONES GPS/GNSS CON RECEPTORES DE ORDEN GEODéSICO Y DE BAJO COSTO PARA TRABAJOS TOPOGRáFICOS-GEODéSICOS.
ANáLISIS DE LAS OBSERVACIONES GPS/GNSS CON RECEPTORES DE ORDEN GEODéSICO Y DE BAJO COSTO PARA TRABAJOS TOPOGRáFICOS-GEODéSICOS.
Piedrahita Ospina Michael, Universidad del Quindío. Vargas Cristancho Juan Diego, Universidad del Quindío. Asesor: Dr. Rosendo Romero Andrade, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Cuando se menciona equipos de bajo costo, nos referimos a aquellos dispositivos que han tenido poco uso. Sin embargo, con el paso del tiempo, estos equipos han demostrado ser muy útiles en trabajos de orden geodésicos y pueden aplicarse también en la topografía. Al utilizar receptores de este tipo, es posible obtener resultados de precisión comparables a los de un equipo de orden geodésico (GNSS).dado los resultados obtenidos abre la posibilidad de aplicarse en muchas actividades en las que se requieran dar coordenadas a los puntos, además son equipos que su mismo nombre lo indica no tiene un elevado monto de dinero para adquirir este equipo en comparación de los GNSS, llegando al punto de realizar varios experimentos para saber la fiabilidad del equipo
METODOLOGÍA
Se puede decir que la metodología de la investigación se dividió en dos momentos o instantes; las primeras semanas el investigador se encargó de brindar la teoría necesario para realizar el proyecto investigativo, dicha teoría estaba enfocada a temas tales como:
Conceptos básicos geodésicos y mediciones GNSS.
Tipos de mediciones GNSS.
Equipos GNSS (casa fabricantes y de bajo costo).
Procesamiento de datos GNSS.
Calidad y ajuste de datos o red geodésica.
El primer instante de la investigación es fundamental debido a que se adquiere el conocimiento necesario para una buena comprensión de los proyectos a ejecutar, se pude decir que este no es netamente y el correcto manejo tanto de equipos de medición como son los fabricados por casas nativas normalmente encontrados en el mercado, como los quipos de bajo costo los cuales son pocos conocidos en Latinoamérica y se pueden considerar como una nueva herramienta para la realización de mediciones GNSS y redes geodésicas la cual se esta a dando conocer por su bajo costo en el mercado y logrando obtener mediciones aceptables y de calidad para distintos trabajos.
La segunda etapa de la investigación consiste en la realización de los experimentos prácticos correspondientes a la investigación, se realizaron un total de tres experimentes los cuales son:
Equipo de bajo costo como estación de monitoreo continuo:
Dicho experimento se realizó en las instalaciones de la Facultad de Ciencias de la Tierra y el Espacio de la Universidad Autónoma de Sinaloa. Trata de la instalación de una antena de bajo costo (Beitian - BEIBT300 NONE) junto con un receptor de bajo costo Ublox ZED-F9P, dichos equipos fueron colocados en la terraza de la facultad en un punto de centrado forzoso, se realizaron observaciones por un periodo de 3 días, a los resultados de dichas observaciones se les realiza un análisis de calidad haciendo uso del software TEQC, considerando los parámetros propuestos por el IGS para estaciones de monitoreo continuo.
Equipo de bajo costo para determinar el nivel medio del mar:
Dicho experimento tiene como fin el el determinar el nivel medio del mar por medio de multitrayectoria con equipos de bajo costo, se realizo en el muelle de Altata, Sinaloa. Para la realización de dicho experimento fue necesario la instalación de una antena de bajo costo (Beitia - BEINT300 NONE), junto con un par de antena de bajo costo ANN-MB-00 montadas sobre una estructura sobre el mar, cada antena estaba conectada a su respectivo receptor de bajo costo Ublox ZED-F9P, dichas mediciones se deben realizar en un punto en extremo del muelle por periodos mínimos de 10 horas, para poder culminar con la obtención de datos es necesario realizar 12 campañas de medición a razón de una por mes; los datos obtenidos serán procesados y comparados con los datos brindados por el mareógrafo propiedad de la SEMARNAT, instalado en el otro extremo del muelle dónde se está realizando la investigación.
Software: Se utilizaron programas científicos para la manipulación de los datos, que nos permitió verificar la calidad de los puntos, mediante el lenguaje Bash para analizar el efecto multitrayectoria, saltos de ciclos y los ruidos que se generan y ver si cumplen con los parámetros de IGS, con el objetivo de hacer el análisis de calidad de datos para luego realizar el pos-procesamiento en el software donde se visualiza de mejor manera los datos obtenidos en campo y se realizan los debidos ajustes para satisfacer con los resultados deseados.
CONCLUSIONES
Para dar como finalidad a estos experimentos realizados durante la estancia de mirar las aplicaciones que se les puede dar a estas herramientas para futuros trabajos geodésicos, topográficos o en conjunto realizando las comparaciones para hacer diferencias y concluir con lo siguiente:
Un equipo de bajo costo comparado con un equipo de orden geodésico (GNSS), es que el equipo de bajo costo cuenta muchos efectos de multitrayectoria y saltos de ciclos que se pueden mejorar con mucho mas tiempo de duración en el punto o ya cuando se realice el postproceso se le agregan efemérides precisas para mejorar los datos, además los equipos de bajo costo cuentan con la misma intensidad al momento de recibir la señal al igual que un equipo de orden geodésico (GNSS)
Al momento de realizar el procesamiento de las observaciones se considera necesario el conocer el estado de estas mismas, en dicho análisis se pueden detectar errores que se pueden presentar al momento de realizar las mediciones, dichos errores pueden debido al estado del vértice de medición o interferencias alrededor de este.
El conocer los equipos de bajo costo, donde se evidencia lo útil que y rentables que pueden llegar hacer es de gran satisfacción, teniendo presente que se consideran como una nueva tecnología en nuestro territorio que incluso en nuestro país se cuenta con poca información sobre ellos, con ello llevando nuevos conocimientos a nuestra universidad acerca de estos equipos.
El resultado de las observaciones puede ser afectado por diferentes factores, donde incluso realizando el mejor de los procesos en campo estos errores se pueden evidencia, uno de dichas afectaciones son los efectos multitrayectoria los cuales son causados por objetos alrededor del vértice o punto de medición.
Cada una de los experimentos que se llevaron a cabo, hacen parte de aprendizaje enfocado en los estudios y conocimientos previos para realizar tesis de licenciatura y maestría cada una cuenta con una publicación en una revista científica, estos experimentos no se han terminado ya que se necesitan muchas mas pruebas para dar como finalizado el proyecto y realizar su respectivo análisis.
Vargas Solis Guilebaldo, Universidad Autónoma de Guerrero
Asesor:Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional
PREDICCIóN DE ESTANCIA HOSPITALARIA POR INFARTO AGUDO AL MIOCARDIO
PREDICCIóN DE ESTANCIA HOSPITALARIA POR INFARTO AGUDO AL MIOCARDIO
Vargas Solis Guilebaldo, Universidad Autónoma de Guerrero. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La estancia hospitalaria se puede definir como la cantidad de tiempo que un paciente este internado en un centro de atención médica para recibir tratamiento por cierta enfermedad, ser diagnosticado, o tener cuidados de salud específicos.
Conocer el tiempo que una persona estará hospitalizada es importante por diversas razones, una estancia hospitalaria que se considere prolongada es un problema que afecta al sistema de salud, los costos aumentan, se saturan áreas de hospitales, se carece de accesibilidad a los servicios de hospitalización y por lo tanto hay riesgo de que no se pueda recibir a pacientes que necesiten de atención médica. Sumado a esto conocer el tiempo que una persona permanecerá en un hospital podrá permitir una mejor asignación de los recursos de este, doctores, camas, medicinas y equipamiento en general podrá ser ofrecido sin que haya falta ni exceso, lo que mejora la calidad y la eficiencia de los hospitales.
En México una de las afecciones más importantes son los padecimientos al corazón, según información preliminar de (INEGI, 2023) durante 2022 las enfermedades al corazón ocuparon el primer lugar como causa de muerte tanto para hombres como para mujeres, Tan solo en 2021 aproximadamente 220 mil personas murieron por enfermedades cardiovasculares, 177 mil de ellas por infarto al miocardio. Afortunadamente la DGIS (Dirección General de Información en Salud) tiene un conjunto de datos de egresos hospitalarios en el que se encuentran registros de hospitalizaciones en México, este conjunto contiene egresos hospitalarios de personas que padecieron de un infarto al miocardio, por lo que, si se quiere estudiar el tiempo de estancia hospitalaria en México, el caso de estudio de infarto al miocardio es óptimo para este fin.
La ciencia de datos es un campo que se ha vuelto muy popular en los últimos tiempos, esta ciencia busca extraer conocimiento importante a partir de conjuntos de datos de diferentes tipos, la ciencia de datos puede responder preguntas y establecer relaciones que no son fáciles de obtener mediante otros métodos. Una rama de la ciencia de datos es el Machine Learning (aprendizaje automático), esta disciplina se encarga de desarrollar modelos construidos a partir de algoritmos que hacen que las maquinas puedan aprender a través de conjuntos de datos históricos.
Esta investigación busca apoyarse de la ciencia de datos para probar diferentes modelos basados en aprendizaje automático para la predicción de tiempo de estancia hospitalaria en México, de los modelos construidos, se elegira al mejor, esto con el fin de proponer aquel que pueda ser usado para identificar los tiempos de estancia en pacientes con infarto al miocardio.
METODOLOGÍA
Esta investigación usa la metodología KDD para la extracción de información del conjunto de datos de la DGIS. En (García y otros, 2009) se menciona que El KDD (Knowledge Discovery in Databases) es un proceso iterativo e interactivo que combina la experiencia en un problema con una variedad de técnicas de análisis de datos tradicionales y tecnologías avanzadas de aprendizaje. El objetivo es descubrir patrones y relaciones en los datos que puedan ser usados para hacer predicciones válidas
Los pasos de KDD podrian definirse de la siguiente manera:
Selección de datos
El preprocesamiento de los datos
Data mining y modelado
Evaluación del modelo
Resultados
Selección de datos: Se utilizó la página de la DGIS para obtener datos abiertos de egresos hospitalarios . Se seleccionaron variables relevantes con pocos datos nulos y se filtraron los casos de infarto agudo al miocardio.
Preprocesamiento y transformación de datos: Se buscó la presencia de outliers y se observó un desequilibrio en la variable de días de estancia. Se marcó como 9 días todas las estancias de 9 o más días y se igualaron las clases mediante oversampling. Se convirtió el problema de regresión en un problema de clasificación con 10 clases.
Preprocesamiento de datos numéricos: Se aplicó la función Quantile Transformer para ajustar la escala y distribución de las variables numéricas (Peso, Talla y Edad).
Preprocesamiento de datos categóricos: Se utilizó la técnica One Hot Encoder para transformar las variables categóricas en representaciones numéricas.
Modelado y evaluación: Se utilizó la librería pycaret para realizar el modelado. Se empleó la función "setup" para separar los datos de entrenamiento y prueba y probar diferentes algoritmos de machine learning. Se seleccionó el algoritmo Random Forest Classifier como el mejor evaluado, con una precisión de 0.8155.
Resultados y Conclusiones: Cabe aclarar que la metodología KDD es un proceso iterativo, es decir que podríamos volver en nuestros pasos y tomar decisiones con la finalidad de querer mejorar nuestro modelo en términos de las métricas que se utilizan para evaluarse, sin embargo se puede decir que se terminó una iteración de KDD, este proyecto solo contara con una iteración debido a los tiempos que maneja el programa Delfín, sin embargo una precisión del 81% en un modelo de clasificación es más que aceptable para nuestros fines.
CONCLUSIONES
Durante la estancia en el verano delfín se pudo adquirir los conocimientos para desarrollar un proyecto de machine learning usando la metodología KDD y el lenguaje de programación Python, se construyó un modelo predictivo de estancia hospitalaria que puede decir la cantidad de días de 0 al 9 (en donde 9 significa 9 o más días) que una persona estará en el hospital, este modelo tiene una exactitud y una precisión de 81%.
Debido al tiempo no se logró desarrollar un software que pudiera utilizar el modelo seleccionado para la predicción de estancia hospitalaria, sin embargo, el modelo desarrollado y entrenado es un resultado satisfactorio por sí mismo debido a su importancia en el contexto hospitalario en México. Este trabajo podría mejorarse realizando más iteraciones sobre la metodología KDD, agregando más variables al modelo por ejemplo las comorbilidades que se presentan en los pacientes y que están asociadas al infarto al miocardio, características que están presentes en el conjunto de datos.
Vargas Villalpando Alondra Alejandra, Universidad de Guadalajara
Asesor:Dr. Francisco Joel Cervantes Lozano, Universidad de Guadalajara
PROCESAMIENTO DE IMáGENES BIOMéDICAS
PROCESAMIENTO DE IMáGENES BIOMéDICAS
Vargas Villalpando Alondra Alejandra, Universidad de Guadalajara. Asesor: Dr. Francisco Joel Cervantes Lozano, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
En los últimos años, el procesamiento de imágenes ha experimentado avances significativos gracias al desarrollo de diversas técnicas, incluyendo el uso de software y Deep learning. Sin embargo, en nuestro país nos enfrentamos a la problemática de escasez de recursos y especialistas dedicados a este campo tan importante.
Para abordar esta situación, se propone una solución innovadora: la incorporación de láminas polarizadoras a un microscopio. Se sugiere agregar una lámina fija sobre el haz de luz y una lámina giratoria entre la platina y el objetivo. Esta configuración permitirá polarizar la luz, lo que resaltará áreas específicas de la muestra. Posteriormente, las imágenes polarizadas serán procesadas utilizando la herramienta Matlab.
La implementación de esta técnica tiene el potencial de mejorar significativamente la calidad y la interpretación de las imágenes microscópicas, lo que podría ser de gran utilidad en diversas áreas de investigación y aplicaciones prácticas.
Mediante la adopción de esta solución, se busca proporcionar una alternativa accesible y efectiva para el procesamiento de imágenes en el ámbito microscópico, democratizando así el acceso a esta tecnología y fomentando el desarrollo de investigaciones en nuestro país.
METODOLOGÍA
Selección de Muestras:
Se seleccionaron muestras de dos tipos de tejidos: una sección de ovario y otra de músculo cardíaco. Estos tejidos fueron elegidos debido a su complejidad y la posibilidad de resaltar áreas de interés con el método de polarización.
Procesamiento Inicial de Imágenes:
Se capturaron imágenes microscópicas sin polarizar de las muestras seleccionadas.
Se utilizó tanto Matlab, Python y AmScope.apk para procesar las imágenes y se compararon los resultados. Tras la comparación, se determinó que Matlab ofrecía el procesamiento más efectivo y, por lo tanto, se continuó con este lenguaje para el estudio.
Preparación de Muestras para Polarización:
Se diseñaron las bases para colocar los polarizadores utilizando el software Fusion 360 y posteriormente se imprimieron en 3D. Estas bases se utilizaron para sujetar los polarizadores en posición precisa durante la captura de imágenes.
Captura de Imágenes Polarizadas:
Se colocaron los polarizadores en las bases y se montaron en el microscopio.
Se tomaron imágenes de las muestras girando el lente en incrementos de 10 grados durante la captura, con el fin de obtener diferentes ángulos de polarización.
Procesamiento de Imágenes Polarizadas:
Se procesaron las imágenes capturadas con polarización utilizando el software Matlab. Se aplicaron diversas capas de filtrado y técnicas de eliminación de ruido para resaltar áreas de interés en las muestras.
Comparación y Análisis de Resultados:
Se compararon los resultados del procesamiento de imágenes polarizadas con los obtenidos a partir de las imágenes sin polarizar.
CONCLUSIONES
Después de realizar las pruebas mencionadas, se han determinado varios puntos clave:
Método de Procesamiento: Tras evaluar diversos lenguajes de programación y software de procesamiento de imágenes, se optó por utilizar Matlab. Este lenguaje demostró ser la opción más adecuada para nuestro proyecto debido a su capacidad para mejorar la definición de las imágenes y su facilidad de uso. Aunque el software del microscopio es sencillo, presentó limitaciones significativas en cuanto al filtrado de las imágenes.
Comparativa entre Imágenes Polarizadas y No Polarizadas: Se observaron diferencias visibles entre las imágenes polarizadas y las no polarizadas. Las imágenes polarizadas permitieron controlar la dirección de la luz, lo que resaltó ciertas áreas de interés sin necesidad de filtrado adicional. Después de aplicar el filtrado a ambas imágenes, las diferencias se hicieron aún más evidentes. Especialmente en la sección del ovario, con su diversidad de texturas, la polarización resultó imprescindible para visualizar áreas que en las imágenes no polarizadas aparecían oscurecidas o poco nítidas.
En resumen, el proyecto ha arrojado resultados prometedores al utilizar la polarización para el procesamiento de imágenes microscópicas. Sin embargo, se reconoce que aún se necesitan realizar diversas pruebas cuantitativas y cualitativas adicionales para comprobar la precisión y exactitud de este método.
Vasquez Flores Priscila, Universidad de Ciencias y Artes de Chiapas
Asesor:Dr. Rafael Mendez Sanchez, Universidad Nacional Autónoma de México
RESONANCIAS DE UNA BARRA CUADRADA
RESONANCIAS DE UNA BARRA CUADRADA
Vasquez Flores Priscila, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Rafael Mendez Sanchez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La resonancia describe el fenómeno de incremento de amplitud que ocurre cuando la frecuencia de una fuerza periódicamente aplicada, es igual o cercana a una frecuencia natural del sistema en el cual actúa. Las frecuencias de resonancias es aquella frecuencia característica de un cuerpo o un sistema que alcanza el grado máximo de oscilación, cuando un cuerpo es excitado a unas de sus frecuencias características, su vibración es la máxima posible, el aumento de vibración se produce, porque entran en resonancias.
METODOLOGÍA
En este trabajo buscamos medir las ondas compresionales las cuales se buscaron por el estudio de simulación en COMSOL y experimentales que se llevaron en la barra de aluminio.
CONCLUSIONES
Nos ayudó comprender el comportamiento de las resonancias, en el objeto de estudio, obtuvimos resultados que no estaba lejos de lo teórico, nos dimos cuenta que el comportamiento de las resonancias sobre la barra influye, la fuerza en la cual este se actúa.
También influyen otros factores al momento de medir como por ejemplo la temperatura en la que se encuentre el objeto de estudio.
Vasquez Fores Belitzel, Universidad de Ciencias y Artes de Chiapas
Asesor:Dr. Rafael Mendez Sanchez, Universidad Nacional Autónoma de México
VIBRACIóNES MECáNICAS EN UN ANILLO DE ALUMINIO UNIFORME
VIBRACIóNES MECáNICAS EN UN ANILLO DE ALUMINIO UNIFORME
Vasquez Fores Belitzel, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Rafael Mendez Sanchez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Llevar a cabo de manera experimental las vibraciones mecanicas en un anillo construido de alumnio.
METODOLOGÍA
La metodologia usada lleva por nombre espectroscopia acustica resonante ARS. Consiste en tres etapas: la primera es la preparación controlada de la señal que genera la vibración la cual se produce usando un generador de funciones u otro dispositivo, como un analizador vectorial de redes (VNA).
Esta señal armónica cambia cuasí estaticamente su frecuencia hasta un máximo de aproximadamente 20 kHz, y se debe potenciar usando un amplificador de audio. La segunda etapa, es la interacción sin contacto de la señal con la muestra. Finalmente, en la tercera etapa, se obtiene un espectro inherente a la respuesta del sistema a la excitación a cada frecuencia del cual se extrae la información requerida.
CONCLUSIONES
Los resultados del experimento fueron buenos ya que en la comparacion con los resultados teoricos fueron muy cercanos.
Vazquez Gonzalez Alan Jaciel, Instituto Politécnico Nacional
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
IMPLICACIONES DEL MODELO ESTÁNDAR DE LA FÍSICA EN LA MEDICINA NUCLEAR
IMPLICACIONES DEL MODELO ESTÁNDAR DE LA FÍSICA EN LA MEDICINA NUCLEAR
Vazquez Gonzalez Alan Jaciel, Instituto Politécnico Nacional. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Los estudios realizados a partir de medicina nuclear son un gran apoyo hacia los médicos para lograr diagnosticar tumores y determinar las distintas etapas del cáncer. De igual forma, estos estudios, se pueden utilizar para determinar la eficacia de un tratamiento, así como en las ramas de cardiología, neurología, entre otras, donde son utilizados en la evaluación y diagnóstico de ciertas enfermedades, sin duda alguna, son un parámetro bastante efectivo para el diagnóstico de enfermedades e incluso se plantea su uso como tratamiento.
En México, la medicina nuclear tiene alrededor de 70 años, y es una de las especialidades médicas que más ha cambiado, sin embargo, la falta de hospitales o clínicas que ofrecen medicina nuclear en varios estados del país ha causado un retraso en la investigación científica médica, que afecta de manera significativa la economía de los ciudadanos y al sistema de salud e instituciones en general. En México sólo existen 500 médicos especialistas en la rama y a nivel mundial se hacen esfuerzos para fortalecer la presencia de la misma. La mayor problemática que se presenta es que no hay personal capacitado para la utilización de las técnicas de estudio y que la difusión de su existencia no es suficiente, por lo que durante el verano de investigación se estudian algunas de las técnicas de medicina nuclear con las que se cuenta en México y sus principios físicos asociados al modelo estándar de la física de partículas.
METODOLOGÍA
Durante el tiempo de la estancia se realizó una investigación documental en base de artículos, resvistas y libros científicos de instituciones fidedignas en constante actualización; gracias a la investigación y a la constante revisión de artículos se permitió la adquisición de conocimientos teóricos a cerca de 3 ejes temáticos involucrados en la física de altas energías: principios del modelo estándar y ciertas propiedades, Tomografía por Emisión de Positrones (PET) y Tomografía por Emisión de Fotón Único (SPECT). En principio se revisaron artículos a cerca de SPECT dónde se analizó principalmente su funcionamiento en base a sus principios físicos, sus antecedentes, los componentes que utiliza el proceso como los radiofármacos y las aplicaciones médicas de diagnóstico y tratamiento utilizadas actualmente. Más a fondo se estudió el uso, las características y el principio de acción del Tecnecio-99m, el compuesto radioactivo más utilizado en la medicina nuclear.
Apartir del anterior tema, que fungió como una introducción, se comenzó con el análisis y la interpretación de ciertos artículos a cerca de una técnica de medicina nuclear con más interpretación física dentro de su funcionamiento, en principio se abordó el tema de los positrones, su formación y desintegración para así llegar a la Tomografía por Emisión de Positrones (PET), donde se analizó su principio físico en base a los positrones, el sistema de detención con el que cuenta y los componentes que hacen posible su correcto funcionamiento, en base a esto se indagó un poco más en el uso del ciclotrón y el papel que juega en esta técnica y demás procesos involucrados en la física de altas energías, así como el papel que funge el laboratorio de radioquímica dentro de la medicina nuclear, siguiendo por la misma línea, se analizaron las aplicaciones más importantes con las que cuenta esta técnica y el proceso de creación de los radioisótopos emisores de positrones como el flúor-18, que se convierten en radiofármacos al unirse a un fármaco. Por otro lado, se analizó la viabilidad de avances futuros de este tipo de técnicas, desde la fusión con otros aparatos como la Tomografía Computarizada, hasta su utilidad desde el enfoque de terapia. Al finalizar la investigación de las dos técnicas se realizó una comparación de viabilidad, para determinar cuál de las dos técnicas es más rentable, comparando precios, funcionamiento, calidad de imagen, resolución temporal y resolución espacial, dando como resultado ser más eficaz PET, pero más rentable SPECT, además de que ambas técnicas se utilizan para diagnósticos diferentes. Finalmente, se analizó el papel de la medicina nuclear en México, su historia dentro del país y las principales complicaciones con las que cuenta que no permiten su óptimo y correcto desarrollo.
Por otro lado y fungiendo como último eje temático se abordó el Modelo estándar de la física de partículas, tema en el cual se definió como tal al modelo pero también se explicó el principio de clasificación de las partículas en función de sus propiedades (espin, principio de exclusión de Pauli y papel que juegan en la conformación de la materia), así como las interacciones que ocurren entre ellas y la frecuencia con la que lo hacen, de igual forma, se abordaron sus antecedentes, la formación de hadrones y algunas propiedades de las partículas como lo son el isospin y la extrañeza.
CONCLUSIONES
Durante el verano de investigación, se lograron adquirir conocimientos teóricos de los antecedentes, aplicaciones, avances futuros y componentes de ciertas técnicas de medicina nuclear como lo son Tomografía por emisión de Positrones (PET), y Tomografía Computarizada por Emisión de Fotón único (SPECT), así como del modelo estándar de la física de partículas, en donde se obtuvieron los conocimientos del principio físico que se utiliza en dichas técnicas además del adentramiento como tal al modelo, la clasificación de las partículas elementales, sus propiedades y las interacciones que ocurren entre ellas, para así comprender el funcionamiento a fondo de algunos estudios de medicina nuclear y la importancia de sus aportes a los ciudadanos y el sistema de salud mexicano.
Vazquez Guzman Jorge, Universidad de Ciencias y Artes de Chiapas
Asesor:Dr. Rafael Mendez Sanchez, Universidad Nacional Autónoma de México
MODELO RESOLUBLE ALGEBRAICAMENTE PARA INTERACCIONES ELECTRóN-FONóN EN MOLéCULA DE CICLOACENO
MODELO RESOLUBLE ALGEBRAICAMENTE PARA INTERACCIONES ELECTRóN-FONóN EN MOLéCULA DE CICLOACENO
Vazquez Guzman Jorge, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Rafael Mendez Sanchez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
El ciclohexano es un cicloalcano (o hidrocarburo alicíclico) formado por 6 átomos de carbono, y 12 átomos de hidrógeno, por lo que su fórmula es C6H12. La cadena de carbonos se encuentra cerrada en forma de anillo. Es un disolvente apolar muy utilizado con solutos del mismo tipo. Se obtiene de la ciclación de compuestos alifáticos, o de la reducción del benceno con hidrógeno a altas presiones en presencia de un catalizador.
La simetría poligonal intrínseca de una molécula de [h] cicloaceno se emplea para encontrar los modos normales de grados de libertad electrónicos y vibratorios. Se emplea una base combinada de estados electrónicos localizados y estados de Fock en un enfoque algebraico para explorar las transiciones entre los niveles de energía de una molécula fija sin grados de libertad de rotación.
METODOLOGÍA
La molécula Cicloaceno para realizar su estructura en software de forma Tridimensional (3D) primero se realizo en formato Bidimensional (2D) en software que se llama (Xournal ++) en un Plano Bidimensional para poder tener el resultado de la estructura de Cicloaceno.
Al haber realizado la estructura de cicloaceno en formato Bidimensional (2D) se obtuvo este resultado, mostrando como esta estructurado, lo cual en lo exterior de la molécula se llega observar que se encuentran los números impares que formal lo exterior, también se observa la parte interior que está formado por números pares que forman otro hexágono mas pequeño, las uniones de los números pares e impares y finalmente las conexiones de algunos números impares hacia los números pares.
A continuación, se realizó la estructura de la molécula cicloaceno en el Software (COMSOL)
Ya que hemos obtenido la siguiente figura: Triangulo, se copia y rotar para crear más triángulos para obtener un hexágono formado por 6 triangulos y así copiar el hexágono y dar rotación tanto a: -60°, 60° o -120° 120° finalmente para obtener como resultado el cicloaceno.
se realizará la unión de todos los hexágonos para formar la estructura de la molécula cicloaceno
Finalmente se obtuvo el resultado final de la estructura cicloaceno
CONCLUSIONES
CONCLUSION
La molécula cicloaceno para realizarlo se llevó a cabo en saber cómo representarlo tanto en Bidimensional (2D) y Tridimensional(3D) , se realizo en un plano Bidimensional para analizar y ver sus conexiones y uniones que se estructura en el cicloaceno, también para realizarlo en el software COMSOL en crearlo en bidimensional (2D) como estructurar, igual saber y dar uso a las funciones trigonométricas para implementarlo y poder desarrollar el cicloaceno y saber la importancia de la molécula y sus características.
Vázquez Hernández Nancy, Universidad de Guadalajara
Asesor:Dr. Mario Alberto Fuentes Arreazola, Universidad de Guadalajara
EVALUACIóN DEL POTENCIAL GEOTéRMICO EN EL OCCIDENTE DE MéXICO, VOLCáN TEPETILTIC
EVALUACIóN DEL POTENCIAL GEOTéRMICO EN EL OCCIDENTE DE MéXICO, VOLCáN TEPETILTIC
Vázquez Hernández Nancy, Universidad de Guadalajara. Asesor: Dr. Mario Alberto Fuentes Arreazola, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La geotermia aprovecha el recurso natural del calor de la tierra, siendo los sistemas magmáticos asociados a volcanes, una de las fuentes más habituales para la formación de un sistema hidrotermal. Para este tipo de energía el primer acercamiento de un modelo descriptivo del potencial es el mapa conceptual que se construye con interpretación de información geofísica, geológica, geohidrológica y geoquímica que es crucial para identificar las características favorables de la zona de estudio para establecer un futuro sistema de aprovechamiento geotérmico.
El estado de Nayarit, localizado en el occidente de México, está caracterizado por presentar intensa actividad volcánica. En particular, el graben de Compostela es una región que ha presentado alto vulcanismo, destacando los edificios volcánicos del Ceboruco, Tepetiltic, Amado Nervo y los Domos de San Pedro Lagunillas. En esta zona, en los años 90´s la Comisión Federal de Electricidad realizó perforación de pozos exploratorios para obtener información de gradiente geotérmico; sin embargo, se ha identificado la necesidad de conceptualizar los datos de acuerdo con las propiedades en cada zona con las disciplinas necesarias para enriquecer, interpretar y estimar el potencial geotérmico, lo cual se aborda en este trabajo de investigación enfocado en el volcán Tepetiltic.
METODOLOGÍA
Para delimitar el área de estudio primeramente se ubicó un punto central dentro del cráter del volcán Tepetiltic y se extendió 10 km al Norte, Sur, Este y Oeste, respectivamente, lo que permitió definir una zona de estudio con dimensiones de 20 km × 20 km (400 km2) con centro en el cráter del edificio volcánico.
Se obtuvieron datos magnéticos (aeromagnéticos) del Servicio Geológico Mexicano (SGM) sobre el volcán Tepetiltic, ya que estos datos geofísicos nos brindan información de la firma magnética de las rocas en superficie y en algunas ocasiones sobre la profundidad en la que la roca se funde y pierde sus propiedades magnéticas. Lo anterior es relevante en el área de geotermia para la estimación de la profundidad de la roca sello, el reservorio geotérmico y la fuente de calor.
Para el estudio de la geología, en la base de datos GeoInfoMex del SGM, se recuperó información de la zona de estudio en cartas geológicas-mineras y magnéticas donde se indica la composición y localización de las rocas en superficie (también conocida como unidades litológicas), fallas, flujo de lava, aparatos volcánicos primarios y secundarios. En la carta geológica-minera (8-GM) se visualizó un corte transversal en dirección Suroeste-Noreste que pasa por el volcán Tepetiltic y da la litología desde la superficie hasta 2,000 metros a profundidad, el cual sirvió de referencia para observar el tipo de rocas que se tienen y los espesores de las capas.
Para la geohidrología del área de estudio se utilizó la base de datos de hidrografía del INEGI y CONAGUA para localizar los acuíferos que se tienen dentro del área, en las inmediaciones del Volcán Tepetiltic se identificaron 4 formaciones acuíferas. Con respecto a las posibles infiltraciones normalmente suceden en las fallas o cerca de ellas.
En QGIS, que es un sistema de información geográfico, se plasmaron las características geológicas y geohidrológicas en el área de estudio para una rápida visualización y para una vista con mayor detalle se digitalizaron cuatro perfiles geográficos en InkScape que es un editor de gráficos vectoriales.
La geofísica permite caracterizar zonas en donde se presentan anomalías en las propiedades físicas del subsuelo como la susceptibilidad magnética que podrían estar relacionadas a elementos importantes de un sistema geotérmico como: capa sello, fuente de calor, reservorio, patrón de flujo, límites del sistema, etc.
En el procesado magnético que se aplicó en este proyecto consistió en implementar distintas técnicas de corrección/reducción de los datos geofísicos que son los siguientes: reducción al polo, señal analítica, y continuación ascendente proyectada a una elevación de 2 km. Para la implementación de estas técnicas de procesamiento se utilizó un software especializado en procesamiento de datos geofísicos, y se crearon mapas que visualmente describen mejor la configuración espacial de los cuerpos geológicos responsables de producir las anomalías magnéticas observadas.
Para la estimación del potencial de un yacimiento geotérmico en una etapa temprana es recomendable usar el método volumétrico con simulación Montecarlo donde se realizó la estimación del potencial después de simular una gran cantidad de repeticiones del cálculo. Para esta tarea final se utilizó un software de programación científica que permitió optimizar el proceso de simulación y/o repetición de los cálculos.
CONCLUSIONES
Tener la interpretación integrada de los contextos permitió elaborar un modelo descriptivo como un primer acercamiento a la estimación del potencial energético.
El potencial geotérmico estimado para el volcán Tepetiltic fue de 60MW, ubicando la roca sello aproximadamente a 700m bajo el nivel del mar y extendiendo el área del reservorio por debajo de la capa de roca impermeable.
Es pertinente indicar que para la estimación del potencial geotérmico se utilizaron valores teóricos para algunas propiedades físicas de los materiales que constituyen el posible reservorio geotérmico. el fenómeno estudiado obedece a variaciones en escala geológica. Finalmente, se destaca la necesidad de realizar estudios complementarios con otras técnicas para reducir la incertidumbre del potencial geotérmico estimado.
Vazquez Loreto Pablo Sebastian, Universidad de Sonora
Asesor:Dr. Alfredo Aranda Fernández, Universidad de Colima
INTRODUCCIóN AL MODELO ESTáNDAR DE LA FíSICA DE PARTíCULAS
INTRODUCCIóN AL MODELO ESTáNDAR DE LA FíSICA DE PARTíCULAS
Vazquez Loreto Pablo Sebastian, Universidad de Sonora. Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
El modelo estándar es en la actualidad la teoría más exitosa para describir los elementos fundamentales del universo. La teoría se basa en la mecánica cuántica de campos.
La formulación lagrangiana de la teoría cuántica de campos nos permite analizar los aspectos fenomenológicos de una manera muy directa y por ello la usaremos para describir la construcción y descripción del modelo estándar.
METODOLOGÍA
Las actividades comenzaron con el estudio de capítulos introductiorios para la teoría en la que se basa el modelo estándar: la relatividad especial, para familarizarse con la notación y aspectos básicos para tratar en temas más avanzados.
Consecutivamente, el estudio de la mecánica clásica de campos, electrodinámica clásica y sus formulaciones relativistas.
Una vez teniendo estas bases en los temas introductorios, además de haber resuelto ejercicios, ya es posible desarrollar la formulación lagrangiana para los tres tipos de campos que se utilizan en la teoría del modelo estándar: el escalar, el fermiónico y el vectorial. Además comprender y utilizar los conceptos de simetría, valor esperado en el vacío, como se introducen las interacciones entre partículas y cómo se generan otras al romperse la simetría correspondiente.
Más adelante, con estos conceptos es posible desarrollar las partes del modelo estándar: el sector electrodébil y el sector de la cromodinámica cuántica, los cuales requieren análisis y cálculos intensos.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos del modelo estándar, abarcando temas avanzados no triviales.
Debido a la complejidad y a la vasta cantidad de temas que se necesitan profundizar y comprender para poder explicar acertadamente la teoría del modelo estándar, no se logró desarrollar completamente el lagrangiano. Se espera en un futuro cercano poder concluir adecuadamente con este propósito y poder adentrarse en otros temas que requieren mayor complejidad.
Vázquez Suárez Carlos Manuel, Instituto Tecnológico Superior de Los Ríos
Asesor:Dr. Virgilio Cruz Cruz, Universidad Autónoma de Guerrero
TECLADO DIDáCTICO PARA LA ENSEñANZA DE LOS SISTEMAS DE NUMERACIóN DIGITAL
TECLADO DIDáCTICO PARA LA ENSEñANZA DE LOS SISTEMAS DE NUMERACIóN DIGITAL
Que Soberano Jeremy, Instituto Tecnológico Superior de Los Ríos. Vázquez Suárez Carlos Manuel, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Virgilio Cruz Cruz, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
Dado el avance en las tecnologías y las ciencias en la computación, se ha dirigido la atención a dicha área y cada vez es más común que jóvenes se interesen en comprender como funcionan estas tecnologías. Sin embargo, algunos temas resultan complicado de aprender o son poco interesantes para los estudiantes. En este contexto, han surgido varios trabajos basados en robótica educativa para facilitar y motivar el estudio por temas complejos y hasta cierto punto, aburridos. De esta manera, es común utilizar placas programables o componentes de cómputo físico para dar movimientos o dinamismo a los mecanismos robóticos o robots que se construyen con fines didácticos. En esta dirección, surge este trabajo de crear un tablero didáctico basado en robótica educativa y computo físico que permita la enseñanza-aprendizaje de la conversión de sistemas de numeración comúnmente usados en el ámbito digital: binario, octal, decimal y hexadecimal. Por medio de una interfaz gráfica e intuitiva, el usurario realiza y visualiza la conversión de un sistema de numeración a otro. El tablero está compuesto por sensores que al detectar la presencia de un objeto envían una señal a la placa principal para realizar el cálculo y posteriormente visualizarlo en una pantalla led que esta incrustada en la carcasa de dicho tablero.
METODOLOGÍA
El objetivo de tablero didáctico es que se aprenda de manera más sencilla y lúdica los diferentes sistemas de numeración. Por ello, el tablero propuesto tiene forma de una calculadora interactiva, la cual está compuesta por 8 sensores tipo fotorresistencia que tienen un valor especifico cada uno de ellos, una placa Arduino Mega 2560 que controla la aplicación, pantalla que visualiza el resultado y un potenciómetro que permite cambiar de un sistema de numeración a otro. Para hacer una conversión de un sistema a otro, se usan canicas que habilitan o deshabilitan los sensores. El modelo de la carcasa está basado en un modelo de control de Xbox, que facilita su uso.
Lo primero fue abrir la página TinKerCad para hacer nuestro programa de modelo 3D (simulación) en línea que se puede ejecutar en un navegador Web. Para la calculadora usamos un Arduino, cables jumpers, potenciómetro de 10k, resistencias, fotorresistencia, una pantalla DCL 16x2 (I2C), tabla potroboard.
Blender es un programa para hacer modelos 3D, para este paso se uzo para elaborar la carcasa de la calculadora. Como se mencionó al principio usamos un modelo de control de Xbox para que sea cómodo al momento se utilizarlo. Nos tomo 2 semanas modelando parte por parte hasta tener listo el modelo. La primera parte se dividió en la parte superior donde va la pantalla, el potenciómetro, los sensores y los leds. La segunda parte fue la parte de la base una superficie plana; y por último los bordes.
Cura es un programa diseñado para impresoras 3D, en la que se puede modificar los parámetros de impresión y después transformarlos en un código G. En esta parte se tuvo unos problemas con el diseño, ya que las medidas eran grandes, por lo cual se decidió dividir las 3 partes como se mencionó anterior mente, se le añadió soportes dentro del programa ya que sin los soportes el filamento caliente se vendría abajo, también se usó fijador para cabello en esprit para que se mantuviera firme y no se moviera. La aplicación te da un tiempo donde te dice cuántas horas se llevará a cabo la impresión en 3D, la primera pieza se tardó unas 7 horas con 20 minutos, la segunda pieza en un aproximado de 5 horas y 6 minutos y la tercera pieza 2 horas y 30 minutos.
Impresora 3D: Anet 8plus, con este modelo se imprimió las partes de nuestro modelo de la base de nuestra calculadora. Para usar la impresora se calibro la base, que es una de un vidrio resistente ya que suporta altas temperaturas, debajo de la base tiene unas tuercas en cada esquina, una vez calibrada se inserta la tarjeta SD, antes de encender la impresora se colocaba el fijador para cabello, y después se prendía la impresora, se selecciona el modelo y después la maquina tarda un aproximado de 5 a 10 minutos, esto porque tiene que calentar a 200° grados para derretir el filamento. Una vez terminado se debe esperar a que se enfrié el modelo, ya que si se retira el modelo estará caliente y al estar caliente se puede desfigurar ya que es plástico caliente.
Después de tener las piezas, la parte superior se la abrió un rectángulo a la medida de la pantalla DCL 16x2 (I2C), también se le abrió un hueco a la medida de los 8 leds, 8 para los sensores del tamaño aproximado de una canica, también con soldar los cables con los leds, a los sensores, a la pantalla y todo esto conectado a la placa Arduino.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos como Arduino es una compañía de desarrollo de software y hardware libres, así como una comunidad internacional que diseña y manufactura placas de desarrollo de hardware para construir dispositivos digitales y dispositivos interactivos que puedan detectar y controlar objetos del mundo real. También se adquirió conocimientos sobre las impresoras 3D, gracias a los modelos en 3D, el programa utilizado fue BLENDER. El docente tomó sólo el papel de facilitador proporcionando conocimientos previos y recursos de aprendizaje para que de manera independiente se indagaran y manipularan objetos (construccionismo) para obtener la comprensión de los conceptos a través de la experimentación (prueba-ensayo-error).
Vega Lirios Omar, Universidad de Guadalajara
Asesor:Dra. Areli Montes Pérez, Benemérita Universidad Autónoma de Puebla
ELABORACIóN DE EXPERIMENTOS DIDáCTICOS DE DIVULGACIóN CIENTíFICA Y ALGORITMO DE TOMOGRAFíA óPTICA
ELABORACIóN DE EXPERIMENTOS DIDáCTICOS DE DIVULGACIóN CIENTíFICA Y ALGORITMO DE TOMOGRAFíA óPTICA
Lazo Ascencio Joel Ivan, Universidad de Guadalajara. Vega Lirios Omar, Universidad de Guadalajara. Asesor: Dra. Areli Montes Pérez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La educación científica juega un papel fundamental en el desarrollo y progreso de una sociedad. En México, como en muchos otros países, es esencial fomentar el interés y la comprensión de las ciencias desde edades tempranas para formar ciudadanos críticos y competentes en campos científicos y tecnológicos. Sin embargo, el acceso a la ciencia en las comunidades más marginadas del país presenta un gran rezago con respecto a la población en las grandes metrópolis, los bajos índices de escolaridad, así como el difícil acceso a materiales de laboratorio para llevar a cabo ciencia experimental son una gran barrera que limita significativamente la calidad de la enseñanza en estas áreas. Por lo que durante el verano de investigación se proponen experimentos con material de fácil acceso, y con un lenguaje científico básico, carente de excesivos tecnicismos que puedan resultar complicados de entender en diversos estratos o niveles del público receptor.
La tomografía óptica es una técnica de diagnóstico que usa la transformada de Radón para obtener imágenes detalladas de los datos de proyección de una función de rebanada. Sin embargo, estas imágenes pueden carecer de nitidez en los bordes. Se propone el realce de bordes con la transformada de Hilbert para mejorar la calidad. Ambas transformaciones son complejas y requieren mucho costo computacional. Durante la investigación se hace uso de un algoritmo numérico desarrollado en el programa Mathematica V. 6.0, para simular distintas funciones donde se reconstruye la rebanada del objeto y se hace realce de borde direccional, siempre dentro del contexto de tomografía óptica y sus conceptos clave, de forma tanto teórica como numérica, para objetos de fase (que afecta la fase de la luz que lo atraviesa).
METODOLOGÍA
Se seleccionaron los conceptos físicos clave que se abordarán en los experimentos. Estos conceptos incluyen la descomposición de la luz, la magnificación de objetos, la interacción de la luz con superficies delgadas y la medición del tiempo mediante un reloj de sol. Se procedió a realizar el diseño detallado de cada experimento, y se establece una lista de materiales necesarios para cada uno, priorizando aquellos que son económicos y fáciles de conseguir en tiendas locales.
Se reúnen todos los materiales requeridos para cada experimento. Se verifican y prueban para asegurarse de que sean adecuados para ilustrar los conceptos físicos de manera efectiva, siendo seguros y manipulables dentro de una gran variedad de entornos. Una vez seguros de su funcionalidad, se llevaron a cabo las pruebas de los experimentos, para asegurarse de su fácil realización y comprensibilidad en una gran variedad de niveles de público.
Finalmente se elaboró material visual, en este caso reportes o una guía, como las utilizadas en un laboratorio, intentando exponer de forma clara y sencilla toda la información necesaria para comprender los conceptos físicos, y los pasos para llevar a cabo el pequeño experimento, que en conjunto se complementan para una comprensión del tema efectiva y didáctica.
Adicionalmente a la serie de experimentos de bajo costo diseñados para divulgar conceptos físicos en un enfoque didáctico y accesible, se llevó a cabo una investigación paralela en el ámbito de la tomografía óptica. Este proyecto utilizó un algoritmo avanzado para realizar la reconstrucción tomográfica con realce de bordes de la rebanada de un objeto.
La tomografía óptica, una técnica no invasiva que utiliza la interacción de la luz con los tejidos biológicos para generar imágenes tridimensionales, es un campo en rápido desarrollo. En este proyecto, se aplicaron principios matemáticos fundamentales para lograr la reconstrucción precisa, como las transformada de Radón, el teorema de la rebanada central de Fourier, y la transformada de Hilbert.
Primero se tuvo que estudiar la parte física, con estos conceptos y la tomografía óptica en general como enfoques principales, y cómo la aplicación de estos conceptos está implementada en el algoritmo, por pasos, para proceder a manipularlo para llegar a nuevos resultados.
En el algoritmo funciona bajo las especificaciones generales:
• La luz se comporta como línea recta que no se desvían con el objeto o se dispersan
• La difracción, refracción y posibles cambios en la polaridad de la luz son descartados o despreciados
• La rebanada del objeto es continua y 0 fuera de la rebanada misma
Se define la rebanada del objeto como una función f(x,y), donde la rebanada representa una fracción del cuerpo del objeto que se está estudiando. Se obtienen entonces el senograma de la transformada de Radón, la transformada de Fourier de las proyecciones en los nuevos ejes rotados, se coloca el filtro signo o escalón de fase para obtener la transformada de Hilbert en el plano, un senograma de la transformada de Hilbert, y con ello la retroproyección filtrada, y la reconstrucción de la rebanada, tanto en un plano 2D como en 3D.
CONCLUSIONES
Mediante la realización de los experimentos, se logró demostrar de manera efectiva cómo los conceptos físicos pueden ser fácilmente comprendidos y experimentados por cualquier persona, independientemente de su nivel de conocimiento previo. La divulgación se logró a través de la experiencia directa y visual, lo que permitió a los participantes no solo absorber los conceptos teóricos, sino también apreciar su aplicación práctica en situaciones cotidianas.
La aplicación del algoritmo para tomografía óptica brindó una herramienta poderosa para visualizar estructuras internas de objetos con alta resolución y realce de bordes, lo que tiene aplicaciones potenciales en campos como la investigación biomédica y la inspección industrial. Y la ejecución exitosa de este proyecto paralelo resalta la versatilidad del enfoque de investigación de verano, donde tanto la divulgación de conceptos físicos a través de experimentos accesibles como la exploración de tecnologías avanzadas pueden coexistir en una sinergia educativa y científica.
Velazquez Corral Jesus Alberto, Universidad de Sonora
Asesor:Dr. Alfredo Aranda Fernández, Universidad de Colima
FíSICA DE PARTíCULAS :INTRODUCCIóN AL MODELO ESTáNDAR
FíSICA DE PARTíCULAS :INTRODUCCIóN AL MODELO ESTáNDAR
Velazquez Corral Jesus Alberto, Universidad de Sonora. Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
Se desarrollo un estudio del modelo estándar de partículas con la finalidad de la construcción del lagrangiano del modelo estándar.
METODOLOGÍA
En primer instancia se organizaron reuniones semanales donde se plantearon diversas tareas desde el plantamiento de lecciones del libro de introducción al modelo estándar de Cottingham, y la resolución de problemas de los capítulos.
Por otra parte, se llevó acabo de un estudio de lecciónes desarrolladas por el asesor para introducción al modelo estándar, donde en las reuniones con el asesor se estuvo monitoriando en el avance del estudio necesario para construir los cimientos del modelo estándar.
CONCLUSIONES
En este programa concluye con aprendizajes de la física de partículas qué nos ayudarán en el desarrollo de nuestro carrera profesional como un futuro físico.
Verduzco Lozano Iván Antonio, Instituto Politécnico Nacional
Asesor:Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
PREPROCESAMIENTO DE DATOS MASIVOS EN ASTRONOMíA
PREPROCESAMIENTO DE DATOS MASIVOS EN ASTRONOMíA
Verduzco Lozano Iván Antonio, Instituto Politécnico Nacional. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La astronomía, como disciplina científica, se dedica a estudiar el universo y todo lo que contiene, desde planetas y estrellas hasta galaxias y fenómenos cósmicos. Para ello, los astrónomos emplean diversos métodos de observación y mediciones, con el objetivo de corroborar teorías establecidas y explorar fenómenos nunca antes presenciados.
La naturaleza de muchos de estos experimentos astronómicos implica la recopilación de datos en estado 'crudo', es decir, sin una estructura predefinida que facilite su análisis. Esta falta de estructura puede dificultar el procesamiento posterior de la información y el descubrimiento de patrones significativos en los datos.
Un desafío adicional se presenta en misiones astronómicas de gran envergadura, donde se recopilan volúmenes masivos de datos que pueden alcanzar tamaños de decenas de terabytes. Cuando se desea complementar el análisis astronómico con el uso de modelos de aprendizaje automático, surge la necesidad de datos estructurados y etiquetados adecuadamente. Estos modelos dependen en gran medida de patrones claros y consistentes en los datos para lograr un rendimiento óptimo y brindar resultados precisos y significativos.
METODOLOGÍA
Los datos utilizados en este estudio corresponden a la misión espacial GAIA, perteneciente a la Agencia Espacial Europea (ESA), cuyo objetivo es crear un mapa tridimensional de nuestra galaxia, la Vía Láctea, revelando su composición, formación y evolución.
Para nuestro estudio, se tomaron las magnitudes medidas por la misión sobre las curvas de luz emitidas por estrellas de diferentes tipos. El objetivo principal de nuestro preprocesamiento fue clasificar si una estrella es o no variable, mediante las mediciones registradas a lo largo de un tiempo determinado.
Para el procesamiento de los datos, se utilizó un servidor con las siguientes características: procesador Xeon Gold 2.3GHz de CPU, junto con 8 GPU's RTX Titan con 24GB de VRAM cada una, y 528Gb de memoria RAM disponibles de manera remota.
El preprocesamiento se llevó a cabo utilizando Python como lenguaje de programación, Conda como entorno y las librerías Pandas, RAPIDS y Dask para el manejo eficiente de los datos, aprovechando al máximo el poder de las GPUs.
El proceso de preprocesamiento consistió en homologar el número de registros por estrella, ya que las mediciones de datos por estrella no eran uniformes, variando desde 10 a 200 registros por cada estrella, mientras que el dataset contenía un total de 10000 estrellas con 1149201 registros. El objetivo fue minimizar la pérdida de datos, agrupándolos para generar una serie de tiempo de las magnitudes para cada estrella.
Se seleccionó el primer cuartil del número de magnitudes para tomar una muestra representativa para cada estrella, lo que permitió reducir el tamaño del dataset sin perder información relevante.
Posteriormente, se identificaron las estrellas variables a partir de los datos de estrellas registradas hasta el momento. Aquellas estrellas cuyos identificadores se encontraban en el dataset fueron etiquetadas como estrellas variables, mientras que las que no estaban presentes se clasificaron como no variables.
Además, para medir el rendimiento del preprocesamiento elegido, se comparó el tiempo de ejecución utilizando CPU, 1 GPU y las 8 GPU's distribuidas, con el objetivo de determinar la forma más eficiente de preprocesar los datos.
CONCLUSIONES
Los resultados obtenidos al comparar el tiempo de ejecución utilizando CPU, 1 GPU y las 8 GPU's distribuidas, son los siguientes alcanzando notar una gran eficiencia temporal entre usar CPU y GPU.
Tarea
CPU
GPU
8-GPU
Lectura 10 archivos
1.71s
29.9ms
13ms
Filtro de columnas
453 ms
14.5 ms
9.88 ms
Preprocesamiento GRAL
9min 9s
31.7s
29.1s
Búsqueda Dataframe
13.7 iter
1050 iter
1052 iter
Lectura 3387 archivos
13.1 s
N/A
146 ms
Columna target
2.15s
N/A
9s
Finalmente, para validar el preprocesamiento de los datos, se procedió a balancear las clases y se entrenó un modelo clasificador de bosques aleatorios, alcanzando una precisión en el conjunto de prueba del 73.4%.
Durante la estancia de verano se trataron temas de cómputo en la nube, cómputo paralelo, distribuido, ciencia de datos e Inteligencia Artificial, los cuales se lograrón poner en práctica con el script realizado para el preprocesamiento de datos, que además, podría ser utilizado para otros datos de manera general, teniendo variantes entre CPU, GPU y GPU's distribuidas.
Vergara Eslava Oswaldo Alan, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
ESTUDIO DE METAMATERIALES PARA CONTRARRESTAR SISMOS A TRAVéS DE SIMULACIONES EN COMSOL MULTIPHYSICS
ESTUDIO DE METAMATERIALES PARA CONTRARRESTAR SISMOS A TRAVéS DE SIMULACIONES EN COMSOL MULTIPHYSICS
de la Cruz de la Cruz Angel Hermilo, Universidad Autónoma de Chiapas. Vergara Eslava Oswaldo Alan, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Para comprender lo necesario para poder realizar el desarrollo del experimento, debemos comprender que las ondas sismicas son un factor ambiental que puede provocar desastres, as ́ı como perjudicar a edificaciones y patrimonio del entorno, por ello, sabemos que hay ciertos materiales que pueden ayudar a poder contrarrestrar estas ondas sismicas, a lo que llamamos Metamateriales, estos materiles son un tipo de material artificial dise ̃nado para tener propiedades que no se encuentran en la naturaleza; en este caso las usamos como una forma de interferir con las ondas sismicas de la cual sus propiedades logran una mejor eficiencia en el acomodo de las estructuras o edificaciones. Una vez establecido la idea de los metamateriales, llevamos a practica de como estudiar y analizar lo antes mencionado, para ello establecemos simulaciones que nos ayudar ́an comprender la eficiencie de los modelos. Estas silmulaciones se dise ̃nan en un software que facilita modelar metamateriales, desarrollo de una estructura, la manera de poder manejar con mayor facilidad, esto es mediante COMSOL MULTIPHYSCS
METODOLOGÍA
El producto final de trabajo se buscó realizar únicamente con el uso de simulaciones, por lo que el primer paso es aprender a manejar el software COMSOL Multiphysics. Primeramente se selecionan las dimensiones con las que se trabajará la simulación (1D, 2D, o 3D) siguiendo con las físicas que nos interesan estudiar; para nuestro caso en particular se eligió una simulación sobre mecánica de sólidos en ondas elásticas sobre un espacio tridimensional.
Se continúa eligiendo los parámetros con los que se trabajarán, esto en términos de propiedades de materiales y tamaño de la geometría que se requiere. En la parte de la feometría se estaba simulando un bloque rectangular de 40m x 20m x 10m, con incrustaciones cilíndricas (se experimentó con geometrías cónicas o cuadradas, pero resultaron más eficaces las cilindricas) de 160mm de radio por 5m de profundidad, colocado en una matriz de 10 x 20 cilindros. Hablando de los materiales, se estudiaron cuatro en el arreglo: arena, grava, caliche y concreto. esto porque son de los suelos más comunes donde se suele construir.
Es importante hacer énfasis en que se estudió una geometría de suelo plano tomando valores del módulo de Young, coeficionte de Poisson y densidad de cada material; y que se debe hacer el estudio de cada de una de éstas cantidades al igual que el de la geometría para cada caso particular.
Una vez contruida la geometría y caracterizado los materiales que constituyen la geometría de la simulación, se procede a hacer el mallado de la geometría para que COMSOL ejecute un estudio analitico y estructural eficiente, en donde pueda establecer un buen parametro de estudio, en el caso usamos un enmallado fina, establecemos propiedades ambientales, establecemos que los estudios que ingresamos, esta ejecutará la forma mas beneficiosa del comportamiento, cabe recalcar que debemos establecer propiedades ambientales, los elementos del entorno, así como los valores de POISSSON, YOUNG, entre otros que pide el programa.
Establecido los criterios a tratar, ejecutamos el programa, los resultados van a variar el tiempo de entrega dependiendo del equipo en donde se haya instalado COMSOL, despues de un tiempo, el programa nos arrojará tablas, la simulacion de la deformacion del bloque de la geometria, a través del tiempo, así como las propiedades a tratar, la vista del flujo del impacto, tambíen en la parte de forma del solido, podemos ver como este bloque interpreta las ondas, el flujo de energia, la elasticidad del medio, la temperatura del medio, la alteracion del bloque.
Cuando el programa nos arroja los resultados, podemos notar que tambien nos mostrará tablas de información, lo que le pasa a el bloque a través del tiempo, las flechas de dirección, la maginitud y más. Los resultados son obtenidos con ecuaciones que el mismo programa estabalece para desarrrolarlos, los calculos son el principio del fundamento para poder obtener de manera optima un estudio, para después interpretarlos de manera correcta y su uso para desarrollar mejores eficiencias en construcción.
Los resultados nos mostrará los graficos, mediente ellas podremos interpretar una mejor solución para poder tratar el bloque y el medio en donde que por un principio lo necesitamso para tener un mejor rendimiento a una estructura, nostamos que mediante los resultados, los metamateriales son unas forma eficiente para poder tratar las ondas sismicas, estos resultados nos ayudan a poder dar una mejor eficiencia al entorno, así como a futuro poder implementarlo en la vida diaria.
CONCLUSIONES
Es beneficioso saber que el hecho de que esté el arreglo de cilindros en el suelo es beneficioso para contrarrestar los sismos, en particular la amplitud, pues en el caso de que el suelo estaba completamente plano sin ningun arreglo, el sismo ocurría como de costumbre. Sin embargo, al estar los cilindros en cualquiera de sus presentaciones materiales (aire, arena, grava, caliche y concreto), sí existe un cambio en la propagación de la onda sobre la superficie del suelo, consiguiendo una reducción de la amplitud de las ondas sísmicas después de que pasan el arreglo de cilindros. Todo esto considerando el caso en que las ondas llegan de frente al arreglo.
Villa Alatorre Johan Manuel, Universidad de Guadalajara
Asesor:Dr. Rafael Hernández Jiménez, Universidad de Guadalajara
SOLUCIóN NUMéRICA A LAS ONDAS ESPACIO-TEMPORALES DE UN AGUJERO
NEGRO DE HAYWARD
SOLUCIóN NUMéRICA A LAS ONDAS ESPACIO-TEMPORALES DE UN AGUJERO
NEGRO DE HAYWARD
Becerra Hernández José Armando, Universidad de Guadalajara. Villa Alatorre Johan Manuel, Universidad de Guadalajara. Asesor: Dr. Rafael Hernández Jiménez, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Las ecuaciones de campo de Einstein pueden ser deducidas variando la acción de Einstein-Hilbert de acuerdo con el principio de mínima acción. Al llevar a cabo este procedimiento aparece un término relacionado con la frontera de la variedad el cual usualmente es ignorado o eliminado añadiendo a la acción un término de Gibbons-Hawking-York. En algunas propuestas se considera no eliminar el termino de frontera pues cualquier fenómeno físico relacionado con esta se eliminaría, en este contexto se ha trabajado recientemente [Avila, 2023] considerando el termino como un flujo de ondas espacio-temporales, a este fenómeno se le conoce como back-reaction.
Por otra parte, la métrica de Schwarzschild es una solución a las ecuaciones de campo de Einstein que describe un espacio-tiempo esféricamente simétrico y estático. Esta métrica presenta una singularidad no esencial en el llamado radio de Schwarzschild y una singularidad geométrica cuando el radio vale cero. Esta singularidad ha impulsado la necesidad de descubrir una teoría cuántica de la gravedad en donde se evite su formación. En este menester Hayward propuso una modificación a la métrica de Schwarzschild sumando un término al denominador del orden de la longitud de Planck evitando que la función diverja en el radio cero, de acuerdo con Hayward el valor exacto que se añade debe ser predicho por una futura teoría cuántica de la gravedad.
En este contexto, este proyecto de investigación busca encontrar diferencias en las ondas espacio-temporales producidas por back-reaction en ambas métricas de tal forma que se pueda inferir el valor del término extra añadido por Hayward a partir de la medición de estas ondas.
METODOLOGÍA
Se obtuvo la ecuación de onda en coordenadas esféricas a partir de la métrica de Hayward usando la librería Pytearcat de python, después se simplificaron los términos, se consideró el caso sin fuentes, es decir, sin back-reaction. Se aplico separación de variables a la ecuación diferencial separándola en un producto de dos funciones de dos variables cada una. Se intentó resolver la ecuación dependiente del radio y del tiempo analíticamente a través de maple lo cual no fue posible. Por otro lado, la ecuación dependiente de los ángulos se resuelve analíticamente con los armónicos esféricos. Se aplicó separación de variables por segunda ocasión, es posible resolver analíticamente la parte temporal de la ecuación ordinaria obtenida, sin embargo, no lo es para la ecuación ordinaria de la parte radial.
Al no poder resolver analíticamente la ecuación sin fuentes, se trabajó en dos métodos numéricos para resolver de manera aproximada tal que posteriormente se pueda incluir el fenómeno de back-reaction a dicha solución numérica. Se plantearon soluciones por medio de las funciones numéricas implementadas en maple, y por diferencias finitas en python. En ambos casos se requiere justificar las condiciones iniciales (el valor de la función y su derivada en un radio cercano a cero), ya que según Hayward [Hayward, 2006] su métrica tiende a una versión más simple cuando el radio es pequeño es posible resolver la ecuación con esta versión teniendo validez cerca del cero, obteniéndose de allí las condiciones iniciales.
Se realizó un código en maple para la solución numérica de la ecuación radial obtenida a partir de Hayward, considerando las condiciones iniciales mencionadas anteriormente. Posteriormente, se multiplico dicha solución por la solución obtenida para la parte temporal. Cabe recalcar que la función dependiente del tiempo es compleja, por lo que se toma su valor absoluto para obtener una representación de ondas espacio-temporales.
Se programó en python un código para resolver la ecuación por diferencias finitas haciendo énfasis en que cuando el parámetro añadido por Hayward se elija cero, el código debe resultar en la solución analítica ya conocida para la métrica de Schwarzschild, esto permite calcular el error del método numérico. Una vez se tiene la solución numérica para la parte radial, se multiplica por la solución exacta de la temporal para dar lugar a la función que describe la evolución de las ondas.
CONCLUSIONES
Durante la investigación se estudió la ecuación de onda que se deduce de una métrica de interés particular y el fenómeno físico que representa el termino de frontera en las ecuaciones de campo. La dificultad en resolver la ecuación incluso sin back-reaction requirió adaptarse al uso de herramientas computacionales que no estaban contempladas al inicio de la investigación. Eventualmente se obtuvieron resultados satisfactorios que permiten en un futuro no lejano añadir el termino de frontera a la ecuación.
Para la solución en maple al considerar una solución para Schwarzschild con radio mayor al de Schwarzschild se puede realizar una solución numérica sin problema aparente, pero, al intentar resolver numéricamente para la ecuación de Hayward no fue posible. La solución a esto fue proponer unas nuevas condiciones iniciales para la solución completa de la ecuación obtenida a partir de Hayward.
Con diferencias finitas en python se logró resolver la ecuación en todo el espacio, observándose características interesantes. Al elegir el parámetro que reduce la métrica a Schwarzschild se recupera la solución ya conocida con un error estable del orden de 0.1 %, por lo que el método numérico es muy confiable. Se observó la notable característica de que cualquier elección arbitraria de condiciones iniciales lleva a la misma solución para radios mayores al de Schwarzschild, aunque la solución sea diferente dentro del horizonte de eventos, no afecta a la solución en el exterior. Además, la elección del parámetro de Hayward tampoco afecta a la solución exterior, la información necesaria para deducir este parámetro o el valor de las condiciones iniciales a partir de una medición se pierde en el horizonte sin alcanzar nunca el exterior.
Villalobos Hernandez Diana Sofia, Universidad de Guadalajara
Asesor:Dr. David Ignacio Serrano García, Universidad de Guadalajara
CáMARA SENSIBLE A LA POLARIZACIóN DE LA LUZ.
CáMARA SENSIBLE A LA POLARIZACIóN DE LA LUZ.
Jaramillo Tepal Antonio Zaid, Instituto Tecnológico de Puebla. Lares de la Torre Roberto Alejandro, Universidad de Guadalajara. Villalobos Hernandez Diana Sofia, Universidad de Guadalajara. Asesor: Dr. David Ignacio Serrano García, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Las ondas electromagnéticas, o comúnmente llamados rayos de luz, naturalmente viajan a través del espacio oscilando de manera aleatoria en todos los planos perpendiculares a la dirección de propagación. En ciertas ocasiones, cuando estos entran en contacto con objetos que restringen a que parte de los rayos oscilen en un solo plano, se dice que la luz esta polarizada.
Existen tres tipos diferentes de polarización. La lineal, que ocurre cuando el campo eléctrico de la onda oscila en una sola dirección. Circular, que se da cuando la onda electromagnética oscila circularmente a medida que esta se propaga, este caso ocurre cuando los componentes del campo eléctrico están desfasados por 90 grados. Y elíptica, que se da cuando la luz oscila elípticamente y ocurre cuando los componentes del campo eléctrico no tienen las mismas magnitudes o no están desfazados por 90 grados.
Puede decirse que el caso ideal de la polarización electromagnética se obtiene cuando esta pasa por un polarizador que la orienta a oscilar en un solo plano, pero como siempre sucede, la mayor parte de los sucesos que ocurren no son casos ideales. Particularmente, la polarización de la luz se da en casi todos lados de manera natural, lo que se conoce como Luz Naturalmente Polarizada, pero somos tan ajenos a ella por un simple inconveniente: no podemos verla.
METODOLOGÍA
La cámara consta de tres componentes esenciales: raspberry pi 4 como ordenador, cámara (en este caso se utilizó una cámara web Logitech Modelo C920) y una celda retardadora de cristal líquido; todos conectados y ensamblados dentro de un cuerpo diseñado e impreso en 3D por nuestro equipo.
Se comenzó por caracterizar la celda retardadora de cristal líquido con dos polarizadores utilizando un láser verde de 520 nm y un fotodetector, esto para poder conocer los valores de voltaje que se necesitaran variar al realizar las tomas. Se descubrió que los valores en los que la celda tiene una mejor respuesta son de 1.2 a 3.2 volts.
Posteriormente se conectaron tanto la celda de cristal líquido con dos polarizadores a los pines PWM como la cámara web al puerto USB en la raspberry. Se realizó un código de Python, el cual es el lenguaje que utiliza raspberry, para hacer un barrido de voltaje con los valores mencionados anteriormente y a la vez capturar 100 frames con la cámara web. A partir de ello se desarrolló un programa que variaba de manera controlada el estado de polarización en la celda y realizaba las capturas de imágenes de manera sincronizada.
El análisis de los datos capturados se realizó siguiendo lo que nos indica la Ley de Malus, la cual describe cómo la intensidad de una luz polarizada se reduce al pasar a través de un polarizador. Está dada por:
I = I0 (cosθ)
Y muestra que la intensidad de la luz transmitida es máxima cuando el ángulo entre la dirección de polarización de la luz incidente y la dirección de transmisión del polarizador es cero. Por otro lado, la intensidad es mínima (cero) cuando el ángulo es de 90 grados, lo que significa que la luz está completamente polarizada en una dirección perpendicular a la dirección de transmisión del polarizador.
Una vez se obtuvieron las capturas, al vector los datos de la variación de un píxel en las tomas de uno de los 3 canales (RGB) se le aplicó una transformada de Fourier para obtener la parte real e imaginaria de la imagen y posteriormente calcular el valor absoluto y el ángulo de la parte imaginaria. El valor absoluto (amplitud) nos indica cuanta diferencia de amplitud hay en la imagen con respecto a la dada por la ley de Malus (I0). Por su parte, el ángulo (fase) nos indica el desfase de la imagen (θ). Se graficaron estos resultados para poder observar el valor en el que tenemos una buena respuesta en las capturas, esto está dado por el pico de valor espectral más pronunciado en la gráfica, el valor del eje x que nos arroja es la toma capturada. Así entonces se obtuvo cual era el frame con mejor respuesta.
Se volvió a aplicar una transformada de Fourier, pero esta vez a todos los pixeles de la toma con mejor respuesta. La parte real de la transformada de Fourier de los datos muestra el desplazamiento vertical que tiene la imagen, una especie de ruido que contiene la toma original y que afectan a los valores de la amplitud y la fase que son los valores que nos permiten ver el nivel de polarización de las tomas. Este ruido es eliminado por medio de operaciones en el programa para así obtener los valores finales.
Finalmente, se procedió a mostrar la imagen completa, es decir todos los pixeles, de los valores de la amplitud y fase de cada uno de los tres canales (RGB) por separado, obteniendo así seis imágenes, dos imágenes por canal con sus respectivos valores de amplitud y fase. Al mismo tiempo se mostro junto con estas, la imagen real a color capturada.
CONCLUSIONES
Cabe señalar que para la detección de luz naturalmente polarizada es necesario removerle uno de los dos polarizadores a la celda retardadora. Una vez se le removió este, se ensambló la cámara en el diseño impreso por el equipo y se comenzaron a realizar tomas exteriores dentro del campus obteniendo resultados y un funcionamiento satisfactorio cumpliendo así con las expectativas del proyecto y del verano de investigación delfín.
Villavicencio Castañeda Emiliano, Universidad Autónoma de Baja California
Asesor:Dr. Jesús Madrigal Melchor, Universidad Autónoma de Zacatecas
CRISTALES FOTóNICOS BIPERIODICOS CON GRAFENO INCRUSTADO
CRISTALES FOTóNICOS BIPERIODICOS CON GRAFENO INCRUSTADO
Villavicencio Castañeda Emiliano, Universidad Autónoma de Baja California. Asesor: Dr. Jesús Madrigal Melchor, Universidad Autónoma de Zacatecas
PLANTEAMIENTO DEL PROBLEMA
El grafeno es un material compuesto por átomos de carbono puro dispuestos en una red de forma hexágonal parecido a un panal de abejas. Algunas de sus propiedades generales destaca que, es casi transparente, más resistente que el acero convencional y más ligero que el aluminio, mejor conductor que el silicio, alcanza una menor temperatura al conducir corriente, generar electricidad al ser irradiado por una onda electromagnética, tener una gran razón de volumen/superficie, entre otras.
Una característica importante del grafeno es que sus propiedades ópticas pueden ser moduladas en un amplio rango de frecuencias, desde THz hasta el ultravioleta, por lo que ha sido propuesto para diferentes sistemas ópticos y en particular en un cristal fotónico, éstos son estructuras ópticas periódicas que permiten manipular la propagación de las ondas electromagnética. Por otra parte, la modulación de sus propiedades ópticas se realiza a través de su conductividad óptica en función de su potencial químico. Se define el potencial químico como la energía necesaria para cambiar el número de portadores de carga de un material. En esta estancia de investigación estudiamos cristales fotónicos biperiódicos en función del potencial químico del grafeno. El cristal fotónico lo formamos por dos celdas unitarias, cada una de ellas compuesta por un material dieléctrico huesped y grafeno incrustado con diferentes valores de potencial químico en cada una de ellas. Cuando el cristal solo tiene un único potencial químico se conoce como periódico y al contar con dos es biperiódico.
METODOLOGÍA
El estudio de los cristales fotónicos biperiódicos con grafeno incrustado lo realizamos utilizando el método de matriz de transferencia en el esquema de Pochi-Yeh, del cual podemos obtener los espectros de transmisión y reflexión, así como, la relación de dispersión de nuestro cristal a través de la traza de la matriz de nuestra celda unitaria biperiódica , al igual que los estados propagantes.
Inicialmente, estudiamos el cristal periódico, y a continuación, se realizaron los cambios pertinentes a las ecuaciones utilizadas para tomar en cuenta el caso del cristal biperiódico que se implementó en el código python para obtener nuestros resultados y comparalos con el caso periódico. Se analizó la diferencia entre los dos cristales variando el índice de refracción y el potencial químico, además de comparar las bandas de dispersión y la transmisión entre cristales.
CONCLUSIONES
Comparando las bandas de dispersión del cristal periodico y biperiodico se puede ver que se crearon nuevas zonas donde las ondas electromagnéticas no pueden transmitir (gap´s fotónicos), al mismo tiempo que se crean regiones de menor frecuencia donde la onda puede dispersarse. Esto se debe a que la onda puede pasar la primera lámina, pero no la segunda, provocando interferencia constructiva y destructiva entre ellas generando las nuevas regiones de propagación y no propagación.
Al analizar las gráficas de la transmisión contra las bandas de propagación y relación de dispersión, se observa que para un cierto número de períodos del cristal finito que las zonas donde no hay transmisión (región de gap´s) cubre el mismo rango donde no hay dispersión, excepto para ángulos mayores, debido que ya no actúa como un cristal infinito y se ocupan un mayor número de periodos para recuperar las bandas de manera exacta.
Villegas Bupunari Maria Teresa, Universidad Autónoma de Sinaloa
Asesor:Dr. David José Fernández Bretón, Instituto Politécnico Nacional
ESTUDIO DEL TEOREMA FIN_K DE GOWERS Y SU GENERALIZACIóN
ESTUDIO DEL TEOREMA FIN_K DE GOWERS Y SU GENERALIZACIóN
Ramos Aispuro Luis Alfonso, Universidad Autónoma de Sinaloa. Salazar Verastica Crisanto, Universidad Autónoma de Sinaloa. Villegas Bupunari Maria Teresa, Universidad Autónoma de Sinaloa. Asesor: Dr. David José Fernández Bretón, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Los problemas propios de la teoría de Ramsey resultan muy buen objeto de estudio en matemáticas, dado que se pueden plantear en términos sencillos sin perder la complejidad de los mismos. Esto permite el desarrollo de teoría y técnicas que pueden ser utilizadas en otras ramas de estudio, como lo es la teoría de conjuntos.
En particular, el teorema de Gowers es un buen acercamiento a matemáticas más avanzadas porque los artículos existentes usan teoría tan abstracta que el poder entenderlos y traducirlos a resultados más amables es por sí solo un gran avance en la investigación.
METODOLOGÍA
En las primeras semanas de la investigación nos dedicamos a adquirir conceptos y técnicas útiles de la teoría de conjuntos, en particular, lo relacionado a clases, ordinales y el axioma de elección. Esto con las lecturas del libro Teoría de Conjuntos de Hérnandez Hérnandez y notas de clase del investigador.
A la vez, estuvimos estudiando el concepto de clase de finitud con el apoyo del artículo Finiteness classes arising from Ramsey-theoretic statements in set theory without choice del investigador. Esto nos permitió entender la apertura que se obtiene al trabajar sin axioma de elección, así como la dificultad que se presenta.
En las semanas siguientes, centramos la investigación en la teoría de Ramsey. Primeramente vimos los teoremas de Ramsey y de Hindman, así como las clases de finitud que pueden definirse de cada uno.
Propusimos dos demostraciones para el teorema de Ramsey, con y sin axioma de elección. Observando que la prueba se extiende bastante en el segundo caso.
También estudiamos algunos ejemplos de coloraciones para el teorema de Hindman, entre las que surgió por primera vez la de tomar el piso del logaritmo base 2. Esta última resultó importante en la demostración de un resultado que relaciona ser H-finito con la D-finitud.
Luego, nos dedicamos a estudiar el conjunto Fin_k y la función de tetris descritos en el teorema de Gowers. En lugar de ver la demostración, nos pusimos a trabajar exhaustivamente con algunas coloraciones para ver qué tipo de resultados serían necesarios en la demostración.
Además de dos resultados que surgen de definir la clase de finitud que surge del teorema de Gowers, estudiamos una primer generalización del teorema para sucesiones de Fin_k.
En las últimas semanas trabajamos en la demostración del teorema original de Hindman y el investigador nos presento el problema de Owings, mismo que está abierto desde 1967. Con su ayuda, recreamos un resultado que da respuesta (negativa) a una versión más débil de la pregunta.
Para finalizar, estudiamos una segunda generalización del teorema de Gowers introduciendo la función de tetris generalizada. Junto con el investigador, propusimos una demostración para una parte del teorema de Lupini y por nuestra cuenta, intentamos completar la parte que hacía falta.
CONCLUSIONES
El estudio que realizamos a lo largo del verano da un acercamiento a la teoría de Ramsey meramente combinatorio, pues nos dedicamos a trabajar unicamente con argumentos de este tipo.
Para empezar, proponemos una demostración del teorema de Ramsey usando principio de casillas y evitando el axioma de elección.
Damos uno demostración del teorema de Hindman original usando el teorema de Hindman y usamos la coloración descrita en la metodología para ver que este teorema falso para semigrupos.
También mostramos una coloración explicita para demostrar que el problema de Owings tiene respuesta negativa en más de dos colores y otra para demostrar la parte negativa del teorema de Lupini.
Finalmente, seguimos trabajando en encontrar un isomorfismo que nos permita demostrar la parte positiva del teorema de Lupini a partir del teorema de Gowers. Si bien tenemos algunas ideas que podrían resultar útiles, creemos que se necesita más tiempo para dar con algo que funcione.
Villegas Mendoza Milton, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Rafael Mendez Sanchez, Universidad Nacional Autónoma de México
ESPECTRO DE RESONANCIAS DE UN SISTEMA EN FORMA DE JOTA
ESPECTRO DE RESONANCIAS DE UN SISTEMA EN FORMA DE JOTA
Villegas Mendoza Milton, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rafael Mendez Sanchez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Durante el verano se encomendaron tareas a cada alumno de la estancia, mi tarea comenzó
leyendo la tesis de Mayra la cual habla de un sitema en forma de jota (sin celdas) en la cuál se
estudiaron sus eigenfrecuencias correspondientes en el programa de COMSOL Multiphysics, para
después llevar a cabo experimentos con esponjas que servirían como atenuador de las vibraciones
cuando el sistema se acerca a su frecuencia natural.
El objetivo principal era simular, en dicho programa, un sitema similar integrando las celdas fonónicas,
añadiendo en el programa un objeto que simule una esponja o un apagador de vibraciones
y analizar los resultados.
METODOLOGÍA
Como ya se mencionó anteriormente se usaron celdas fonónicas para hacer el modelo de
este sistema, usando las herramientas de parametrización en COMSOL pudimos crear un modelo
con espuma y otro modelo sin espuma.
Para la elección de los parámetros se hicieron simulaciones de cristales infinitos usando el
teorema de Floquet, el cual ya está integrado en COMSOL.
Para comenzar la simulación se definieron los materiales con los que se iban a trabajar,
en COMSOL hay una librería de materiales la cuál contiene información de cada material lo cuál
facilita muchos estudios, en esta ocasión se usó el material Aluminio 1100 dentro de la librería
y se creó un material de cero introduciendo parámetros encontrados en la red. Para
este material se tomó como referencia una espuma de poliuretano, cuyos datos se obtuvieron de
la red. En este estudio de eigenfrecuencias con mecánica de sólidos se necesita
principalmente el coeficiente de Poisson, el módulo de Young y la densidad del material a estudiar.
Se construyó el mallado del sistema conforme a su simetría para mejores resultados, después
se realizaron las simulaciones para obtener nuestras eigenfrecuencias propias.
Al mirar los resultados decidimos investigar cómo hacer que la esponja en el modelo virtual pudiera
simular un apagador de ondas y se encontró un artículo creado por los desarrolladores de COMSOL el cual tiene varios métodos para crear apagadores de ondas. Entre todos
estos, se optó por utilizar el método que consiste en darle propiedades viscoelásticas a un dominio
geométrico
Al final se volvieron a hacer los estudios correspondientes a eigenfrecuencias como un
modelo normal. Con los resultados se elaboró un programa en el entorno de Python el cual lee las
entradas mediante un archivo de EXCEL (creado al exportar los datos) y nos grafica las funciones
en forma de Lorentzianas como se explicó anteriormente.
Cabe aclarar que el archivo de datos se puede modificar si se quiere usar otro programa para
graficar.
CONCLUSIONES
Los resultados fueron mejor de lo que se esperaba, al obtener la información de como
simular apagadores en COMSOL se amplia el campo en donde se puede investigar ya sea de
manera teórica para comprobar los resultados o experimental, al pasar a la parte experimental
hay que tomar en cuenta los pros y contras de los resultado de la simulación. Algo muy importante
es ver la amplitud de las eigenfrecuencias con apagador, ya que hay unas muy chiquitas
que incluso ampliandolas matemáticamente no se ven muy claras, tomar esto en cuenta en los
experimentos nos permitirá obtener medidas más acercadas a la simulación.
Por último se podría probar con los diferentes tipos de apagador, simulando un sistema real del
cual tengamos más información así podriamos mejorar la tasa de errores al mínimo.
Vinalay Mejía Valeria Michelle, Universidad Autónoma de Guerrero
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PINTURA A BASE DE MUCíLAGO DE NOPAL CON EFECTO REPELENTE DE INSECTOS.
PINTURA A BASE DE MUCíLAGO DE NOPAL CON EFECTO REPELENTE DE INSECTOS.
Aguilar Mézquita María Fernanda, Consejo Quintanarroense de Ciencia y Tecnología. Ríos Salas Juana María, Instituto Tecnológico de Acapulco. Vinalay Mejía Valeria Michelle, Universidad Autónoma de Guerrero. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
Actualmente la existencia de las edificaciones que deben ser impermeabilizadas, a la vez que los elementos de madera existentes dentro y fuera de ellos que deben de ser conservadas, mantenidas y protegidas de agentes atmonféricos y de otros componentes biológicos como hongos, la carcoma y otros insectos que atacan la madera ha ido en aumento, generando una demanda de mayor impacto en el entorno ambiental y económico.
La cuestion es la formación de plagas dentro de la vivienda, y el uso de plaguicidas es otrofactor contaminante debido a que pueden contaminar suelos, agua, sedimentos y aire.
Podemos decretar que el uso del impermeabilizante es cada 4 años, generando un daño ambiental debido a las sustancias químicas y tóxicas que lo conforman junto con la aplicación de pinturas impermeabilizantes y en la utilización de insecticidas o plaguicidas para el hogar. En base a esta problemática se plantea como alternativa orgánica el uso de una pintura impermeabilizante a base de micílago de nopal con efecto insecticida; con el objetivo de buscar un impacto positivo en el medio ambiente y en la economía del país.
METODOLOGÍA
La metodología utilizada en este estudio fue experimental, empírica, cuantitativa y explicativa-descriptiva. Las técnicas e instrumentos de recolección de datos fue búsqueda de la información se realizó de manera electrónica en base a estudios comprobados y artículos científicos en relación al tema; y pruebas en laboratorio con los materiales necesarios a utilizar para cada procedimiento y realizando diferentes muestras de la pintura a base del mucilago de nopal con la citronela las cuales fueron aplicadas a diferentes superficies tales como madera y concreto.
Las fuentes de consulta utilizadas fueron artículos digitales e impresos, productos académicos de Congresos Nacionales e Internacionales, Tesis de Licenciatura, Maestría y Doctorado. Se consultaron sitios con credibilidad académica como Google Académico o Google Escolar, Scielo, Sci-Hub, ScienceDirect y Perplexy.ai. Se descartó la información de Wikipedia y de medios impresos como periódicos y revistas.
En base a los resultados obtenidos por medio de las pruebas en laboratorio para la creación de la pintura natural a base de mucilago de nopal con efecto repelente de insectos, se determinó que efectivamente cumple con el objetivo específico número cuatro que corresponde a realizar el proyecto ejecutivo.
Preparación del Mucilago de Nopal:
1.- En la cubeta coloca 6 litros de agua, agrega los nopales previamente picados y tapa. Deja reposar durante 2 días para que suelten la baba.
2.- Cuela o retira los nopales y conserva en botellas de plástico previamente lavadas.
Preparación del repelente de Citronela:
Prueba 1
1 taza de agua.
½ taza de agua.
1 licuadora.
2 tazas de hojas de citronela frescas
Frasco de vidrio de 250 ml.
Procedimiento:
Vaciar dos tazas de citronela y licuar en seco hasta obtener un tipo de polvo granulado.
Vertir el polvo en el frasco de vidrio de 250 ml.
Agregar agua al tiempo al frasco y dejar reposar 24hrs.
Prueba 1/ Pintura 4
250 ml de la mezcla final de citronela de la prueba 2
100 gramos de piedra de alumbre.
400 ml de mucilago de nopal.
Probeta.
Bascula.
Bowl de metal.
Frasco de vidrio de 250 ml.
Abatelenguas.
Procedimiento:
Se pesan 100 gramos de piedra de alumbre en una báscula.
Se miden los 400 ml de mucilago de nopal en la probeta.
Se miden los 250 ml de la mezcla de citronela de la prueba 2 (Con todo y las hojas que fueron previamente trituradas).
En un bowl de metal o en un recipiente hondo se vierten los 250ml de citronela prueba 2 y los 400 ml de mucilago de nopal.
Se revuelve con un bate lenguas hasta crear una mezcla heterogénea.
Se agregan los 100 gramos de piedra de alumbre en el mismo bowl de la mezcla previa por medio de un colador fino.
Se revuelve hasta tener una mezcla heterogénea y se vierte en un frasco de vidrio (en este caso en uno de 250 ml) y se aplica en la superficie de su elección.
CONCLUSIONES
La propuesta que se plantea reafirma la importancia del rescate de una tradición ancestral en desuso pero con una vialidad de incorporación dentro de las prácticas actuales. El beneficio de tener el conocimiento de las prácticas locales y de los recursos propios del municipio, tal es el caso del nopal y la citronela, dan la apertura de vivir bajo otra realidad que permita alcanzar una mejor calidad de vida y bienestar dentro del ámbito económico y medio ambiental del país. El breve trayecto que se realizó en el municipio de Valle de Bravo, nos permite reconocer que el lado estético de este lugar es colonial; dado que las viviendas no solo forman parte de la imagen de las mismas y que estas son un distintivo claro del turismo parcial que existe en el municipio, si no de la arquitectura y estilos coloniales, que de cierta forma están correlacionadas con algunas prácticas ancestrales. En lo que se refiere al producto, es importante decir que no obstante la pintura de mucilago de nopal con efecto repelente de moscos es un producto nuevo dentro del mercado que está asociado a las pinturas naturales u ecológicas que han estado creando un impacto positivo dentro de los nuevos materiales para la construcción; los resultados obtenidos en este trabajo permiten impulsar el uso sin riesgo de la pintura a una categoría de vivienda digna con un mínimo costo, sin sacrificar la calidad en un margen amplio y cercano a las pinturas comerciales.
Zamora Arellano André, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor:Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara
SíNTESIS Y CARACTERIZACIóN DE PELíCULAS DELGADAS DE ZNO POR EL MéTODO SOL-GEL CON ADICIóN DE PUNTOS CUáNTICOS DE SANDíA
SíNTESIS Y CARACTERIZACIóN DE PELíCULAS DELGADAS DE ZNO POR EL MéTODO SOL-GEL CON ADICIóN DE PUNTOS CUáNTICOS DE SANDíA
Zamora Arellano André, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Hoy en día, no es novedad que el aumento significativo de la población a nivel mundial traiga consigo miles de toneladas de residuos orgánicos, que normalmente son desechados al medio ambiente, y para los cuales la incineración no es una alternativa; dado a la energía requerida para ello junto con la emisión de gases tóxicos y de efecto invernadero que esto genera. México tampoco es la excepción a este problema, por lo tanto, se pueden utilizar dichos residuos dándoles un enfoque a la creación de tecnologías que aprovechen los elementos presentes dentro de estos. El carbono es de los componentes más comunes dentro de los residuos orgánicos, que por sus propiedades a escala nanométrica es un candidato ideal para la creación de nanoestructuras de carbono mejor conocidas como puntos cuánticos de carbono (CQDs), estructuras que presentan propiedades ópticas y electrónicas de interés científico en dispositivos fotovoltaicos gracias a su reducido tamaño y confinamiento cuántico. Actualmente, se ha demostrado que la adición de dichas partículas en películas semiconductoras optimiza la captación de energía solar, debido a su amplio rango de absorción de luz les permite captar fotones en longitudes de onda ultravioleta y emitir en el rango de luz visible, así que su implementación a través del método de síntesis sol-gel para películas semiconductoras pretende ser beneficiosa para aplicaciones optoelectrónicas, como en celdas solares, dispositivos LED, láseres, entre otras.
METODOLOGÍA
Para la creación de las nanoestructuras de carbono, se diluyeron 0.005 g de polvo tamizado de cáscara de sandía deshidratada en 20 mL de metanol, con 4 muestras diferentes de polvo: una sin tratamiento térmico y 3 con tratamientos térmicos de 100, 200 y 400°C respectivamente, durante 4 horas. Se obtuvieron 4 disoluciones que posteriormente se dividieron en 8 soluciones para aplicar un tratamiento de microondas a 4 de ellas. Sus propiedades fueron analizadas mediante las técnicas de espectroscopía UV-Visible y fotoluminiscencia.
Como técnica de síntesis para las películas delgadas de óxido de zinc (ZnO), se utilizó el sol-gel, gracias a la facilidad de este método; partiendo de una solución de 10 mL de metanol con 0.5 g de acetato de zinc (ZnC4H6O4). Luego, un sustrato de vidrio fue inmerso en dicha solución durante unos segundos para después ser sometido a una temperatura de 120°C por 2 minutos, el proceso se repitió cinco veces para finalmente ser recocido a 400°C por 3 horas. Y para las películas delgadas que incorporaron puntos cuánticos, se eligieron dos soluciones de metanol que contenían polvo de cáscara de sandía a 100 y 200°C, sin tratamiento de microondas; esto fue así porque a la hora de ser caracterizadas, mostraron las mejores propiedades entre todas. Teniendo en cuenta lo anterior, se procedió a hacer 4 películas delgadas con la misma metodología que la realizada simplemente utilizando metanol, pero con la diferencia de que fueron recocidas dos a 200°C y dos a 400°C por 4 horas. Las películas resultantes fueron caracterizadas por los métodos de espectroscopía UV-Visible y fotoluminiscencia.
CONCLUSIONES
En cuanto a las soluciones de puntos cuánticos de carbono, estas fueron caracterizadas haciendo uso del espectrofotómetro de fotoluminiscencia y el espectrofotómetro de luz UV-Visible, donde se observó que aquellas 2 soluciones sometidas a un tratamiento térmico de 400C° no presentaban propiedades atractivas por lo que fue descartado su análisis.
Para la fotoluminiscencia:
Para las 2 muestras sin tratamiento térmico se encontraron valores pico en los rangos de 425 a 550 nm y de 650 a 700 nm siendo el más intenso; correspondientes a una emisión del espectro visible de color azul-verde y roja, respectivamente.
Para las 2 muestras con un tratamiento a 100°C se encontraron valores pico en los rangos de 425 a 575 nm y de 650 a 700 nm ambos con la misma intensidad; correspondientes a una emisión del espectro visible de color azul-verde y roja, respectivamente.
Para las 2 muestras con un tratamiento a 200°C se encontraron valores pico en el rango de 425 a 575 nm, correspondiente a una emisión del espectro visible de color azul-verde.
La adición de los puntos cuánticos de carbono a las películas delgadas de ZnO por el método sol-gel demostró no ser efectiva, en el análisis de la fotoluminiscencia simplemente se apreció el espectro correspondiente al ZnO con un pico de 500 a 600 nm, correspondiente a una emisión de color verde.
Para la espectroscopía de UV-Visible:
En los datos analizados para los puntos cuánticos se observó un pico cercano a los 300 nm que, comparando con la literatura, puede estar asociado a la transición pi-pi* que refleja la transición electrónica de la nanoestructura del carbono hibridado sp2, y la transición n-pi* del grupo nitrógeno que refleja la transición electrónica desde un orbital no enlazante a un orbital antienlazante en grupos funcionales con heteroátomos.
Los datos analizados para las películas de ZnO mostraron un pico en el intervalo de 340 a 370 nm que, comparando con la literatura, podemos confirmar la presencia del ZnO.
Zapata Martínez Dolores Itzel, Universidad de Sonora
Asesor:Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México
SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO
SEPARACIóN Y CARACTERIZACIóN MINERAL PARA ESTUDIOS GEOCRONOLóGICOS EN EL NW DE MéXICO
Castañeda Gil Melanie Sofia, Universidad de Sonora. Ramos Cábel Fátima Marcela, Universidad Autónoma de Ciudad Juárez. Rodríguez Sauceda Sergio Maximiliano, Universidad Autónoma de Coahuila. Servín Pérez Adilene, Universidad de Sonora. Valencia Ortiz Miguel Angel, Universidad de Caldas. Zapata Martínez Dolores Itzel, Universidad de Sonora. Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Las dataciones radiométricas juegan un papel muy importante en las ciencias de la tierra, pues ayudan a tener un mejor entendimiento de la evolución geodinámica de nuestro planeta, de cómo sucedieron los eventos que configuraron la Tierra como la conocemos hoy en día, y tratar de deducir lo que pasará en el futuro. Entre las aplicaciones de estos estudios geocronológicos se encuentran la determinación de edades de cristalización de cuerpos magmáticos y de eventos deformativos y mineralizantes, la cuantificación de tasas de exhumación, y otros análisis que solo con el fechamiento de las rocas se pueden llevar a cabo.
Para llegar a esto es necesario comprender el comportamiento mineralógico de las rocas de interés y determinar qué relojes isotópicos usar de acuerdo con sus características químicas.
Por ello se busca aislar minerales específicos que contienen información valiosa sobre la edad de las muestras o características particulares en estas, permitiendo que las fechas obtenidas sean lo más precisas posible.
METODOLOGÍA
La metodología del trabajo realizado puede clasificarse en tres etapas principales:
Elaboración de secciones delgadas;
Separación de minerales; y
Caracterización de minerales.
La elaboración de secciones delgadas facilita la identificación de minerales contenidos en las muestras e indican si es viable realizar procedimientos posteriores asociados a la disgregación de minerales.
La segunda etapa se enfoca en la separación de minerales con una estructura cristalina adecuada para albergar isótopos radioactivos y radiogénicos conocidos, de los cuales, en función de su relación isotópica, podrá ser extraída la edad asociada. Entre los minerales de interés se encuentran circones, apatitos, hornblendas, biotitas, moscovitas y feldespatos. Esta etapa comienza con la trituración, tamizado, lavado y secado de las muestras.
Cuando el material se haya secado se separa en función de la susceptibilidad magnética de los minerales, por medio de un separador de barrera magnética tipo Frantz. Colocando el separador en diferentes configuraciones se pueden separar los minerales en ferromagnéticos, paramagnéticos y no magnéticos. El target de la separación depende de las edades de interés y de la temperatura de cierre del mineral.
Según sea el objetivo mineral en la separación, se usan diferentes líquidos pesados con densidades específicas conocidas, como yoduro de metileno o MEI, bromoformo y politungstato de litio. Es necesario manipular los líquidos bajo parámetros sanitarios adecuados:una campana de extracción y utilizando vestimentas adecuadas como batas, guantes, gafas y cubrebocas.
Para los circones se utiliza MEI; para el bromoformo se utilizan los minerales del residuo flotante del yoduro de metileno, para obtener a partir de estos los apatitos. En el caso del LST el montaje es diferente, pero el principio es el mismo, en él se requiere recuperar ambas partes (la que se hunde y la que flota), y calibrar hasta obtener una correcta disgregación (como feldespatos potásicos y cuarzos). Posteriormente, en el caso de los minerales separados distintos al circón y apatito se realizan procedimientos de paper shaking para concentración de micas con relación a los rolls (minerales cuyo hábito no permiten que se adhieran a una superficie fácilmente) y efectuar limpieza de minerales no deseados mediante hand picking.
Es importante distinguir los minerales con base en sus características cristalográficas bajo lupa binocular, y así lograr el montaje y separado adecuado. El montaje de circones se hace con ayuda de dos microscopios estereográficos, bajo uno de ellos se coloca un petri Pyrex con la muestra que contiene los circones y, en el otro, el vidrio con el montaje deseado para los circones.
Los circones contenidos en la probeta terminada se caracterizan mediante un microscopio electrónico de barrido con detector de catodoluminiscencia (SEM-CL). Para que el SEM-CL pueda detectar a los circones, la probeta se debe recubrir con carbono. En este paso, se toman fotografías de cada línea montada de circones. y al final se traslapan con un software de edición. A partir del mosaico obtenido se eligen los sitios potenciales para los análisis de U-Pb en función de las características físicas del circón, su tipo y el objetivo de fechamiento
Por último, elegidos los puntos de ablación, fue visitado el Laboratorio de Estudios Isotópicos, donde fue posible presenciar el procedimiento de identificacion y cuantificacion de especies atómicas presentes en la muestra, es este caso con especial interés en los isótopos radioactivos y de origen radiogénico además de otros análisis químicos que son obtenidos como ppm de REE en circón, a partir de ello son emitidos gases los cuales contienen componentes químicos que son medidos por un espectrómetro de masa (LA-ICPMS) el cual se encarga de distinguir los componentes químicos presentes en la parte desintegrada del circón. Una vez limpios los datos, son leídos y graficados, para obtenerlos datos ploteados en curvas concordia y otros esquemas para realizar los análisis correspondientes.
CONCLUSIONES
Durante el verano, se tuvo un cierto número de rocas a trabajar en el transcurso de la estancia, correspondientes a granitos y xenolitos de proyectos del NW de México y SW de Estados Unidos, y se fue partícipe de todos los procesos previos a la datación y aprendiendo una gran cantidad de técnicas, métodos de separación y caracterización de minerales.
Fueron llevadas 5 muestras al Laboratorio de Estudios Isotópicos para la realización del fechamiento U-Pb mediante ablación de los circones; con lo que se calcularon las edades de las rocas provenientes de Baja California.
Con el resultado de todo el trabajo es posible darse una idea de la evolución tectónica, o identificar si están relacionados a zonas de debilidad cortical, generando correlaciones entre las rocas de Estados Unidos y México.
Zaragoza Aceves Andrea Gabriela, Universidad de Guadalajara
Asesor:Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
DETECCIóN Y ANáLISIS DE SEñALES DE INFRASONIDO PARA SU CLASIFICACIóN Y ESTUDIO DE FENóMENOS SíSMICOS.
DETECCIóN Y ANáLISIS DE SEñALES DE INFRASONIDO PARA SU CLASIFICACIóN Y ESTUDIO DE FENóMENOS SíSMICOS.
Casillas Romero Mariana, Universidad de Guadalajara. Rosas Fuentes Leonardo David, Universidad de Guadalajara. Zaragoza Aceves Andrea Gabriela, Universidad de Guadalajara. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Una señal es una magnitud asociada a un fenómeno físico. Matemáticamente es una función de una o más variables que son forzosamente independientes. Puede ser medida por un instrumento o percibida directamente por el ser humano y su finalidad es transmitir información en espacio y tiempo. Como menciona: Es una magnitud cuya variación en el tiempo representa una información.
El sonido cómo una señal analógica es un fenómeno que involucra la propagación de información por medio de ondas mecánicas producidas por las variaciones de presión de forma vibratoria en un medio elástico. Entre las variaciones de presión existe un parámetro llamado "frecuencia audible" que permite que sean percibidas por el oído humano, siendo el rango de 20 Hz a 20KHz.
En el campo de la geofísica, se ha planteado la posibilidad de desarrollar un algoritmo capaz de clasificar las ondas detectadas, con el objetivo de obtener una mayor especificidad en el estudio de fenómenos que emiten este tipo de señales, como los sismos. Esta investigación podría brindar una valiosa herramienta para comprender mejor la naturaleza y comportamiento de las fuentes de señales infrasónicas.
En resumen, las señales de infrasonido, aunque inaudibles para los seres humanos, presentan un potencial significativo en diversas aplicaciones científicas, y el desarrollo de algoritmos para su análisis puede abrir nuevas perspectivas en el estudio de fenómenos naturales como los sismos.
El objetivo del proyecto consistió en desarrollar un programa para implementar un algoritmo de detección de señales de infrasonido. El algoritmo permite la clasificación de las señales y conocer las características de las señales antropogénicas. En este caso, resultó fundamental estudiar detenidamente las señales captadas por lo distintos sensores para generar los ajustes del algoritmo de detección a fin de automatizar la clasificación de las señales. Para ello hemos estudiado las señales recabadas en el año 2019.
METODOLOGÍA
Se instalaron tres sensores Raspberry Boom (RBOOM) en diferentes lugares con suministro continuo de energía, conexión a internet y condiciones seguras. Estos sensores registraron series de tiempo a 100 Hz y se usaron para detectar señales de infrasonido. Utilizamos un algoritmo que calcula el promedio de la amplitud de la señal usando dos ventanas de longitud diferente (STA y LTA); STA siendo el de corto plazo es sensible a cambios en la amplitud de la señal, y LTA siendo el de largo plazo nos brinda información del ruido sísmico de fondo. La detección de señales ocurre cuando la relación STA/LTA supera un umbral específico. La calibración de los parámetros del algoritmo STA/LTA no es trivial, pero se ajustaron manualmente para aislar y ajustar señales especificas con el fin de facilitar su estudio, semejante a lo implementado.
Para el análisis de las señales sólo tomamos en cuenta aquellas que fueron detectadas por los tres sensores. La recolección de datos se llevan a cabo con un arreglo especial el cual consiste en colocar las estaciones de forma que este arreglo nos deje averiguar de donde proviene la señal, con lo cual nos puede dar mas información acerca del tipo de señal que se ha detectado. Los datos recabados fueron procesados utilizando ObsPy con transformadas rápidas de Fourier.
CONCLUSIONES
Mediante las herramientas de 'ObsPy', fueron ajustados individualmente los parámetros que permitían encontrar el ajuste para caracterizar cada señal. En este caso, encontramos ajustes adecuados para cada tipo de señal, sin embargo, al utilizar el algoritmo 'cross correlate', no fue posible encontrar una gran cantidad de señales que se relacionaran, aún con la variación de los parámetros establecidos en el algoritmo.
Se han podido detectar señales captadas en los tres sensores y aislarlas con los ajustes propuestos, sin embargo, no se pudo encontrar correlación. Esto pudiera ser debido a que el método aún no está optimizado, que la señal no fue comparada en un rango de tiempo suficiente para que esta se repitiera, o alguna incertidumbre asociada en la medición.
No descartamos la posibilidad de encontrar una correlación en el futuro que pudiera brindar nueva información sobre los fenómenos de interés o sus fuentes como pudieran ser sismos, señales antropogénicas, o la topografía de la zona.
Se pretende explorar la posibilidad de utilizar un algoritmo que nos permita aislar y estudiar las señales, de esta forma obtener más información para su estudio, como de dónde proviene la señal. Para ello es necesario explorar la geometría utilizada en el arreglo de los sensores, la mejora del algoritmo, o reconocer alguna incertidumbre asociada en la toma de señales que nos permita mejorar la diferenciación entre ellas.
Zaragoza Morales Erick Eduardo, Universidad de Guadalajara
Asesor:Dr. Misael Erikson Maguiña Palma, Universidad Norbert Wiener
PROCESAMIENTO DE LENGUAJE NATURAL EN CASOS DE ABUSO SEXUAL Y SUS EFECTOS PSICOLóGICOS
PROCESAMIENTO DE LENGUAJE NATURAL EN CASOS DE ABUSO SEXUAL Y SUS EFECTOS PSICOLóGICOS
Zaragoza Morales Erick Eduardo, Universidad de Guadalajara. Asesor: Dr. Misael Erikson Maguiña Palma, Universidad Norbert Wiener
PLANTEAMIENTO DEL PROBLEMA
El abuso sexual infantil es un problema de salud pública, el cual tiene enormes repercusiones en la victima, ya que el mismo deja secuelas que afectan a la salud mental de las personas, teniendo consecuencias en el corto, mediano y largo plazo
El Procesamiento de Lenguaje Natural (PLN) es una rama de la inteligencia artificial y la lingüística computacional que se ocupa de la interacción entre los seres humanos y las máquinas mediante el uso del lenguaje humano.
Teniendo en cuenta estos dos aparentemente inconexos temas, surge la duda de la manera en que se podría utilizar el procesamiento del lenguaje para poder hacer un análisis de textos en los que se trate el tema de abuso sexual y así podernos hacer una idea de los códigos presentes en el texto que nos permitan entender los temas tratados en esta clase de textos.
METODOLOGÍA
En el presente trabajo se utilizó en primera instancia un conjunto de seis casos de abuso infantil para poder visualizar y utilizar distintos métodos de aproximación para obtener la información más relevante del conjunto como un todo, es decir, se creó un corpus en el cual estuvieron incluidos todos los documentos más no se hizo una distinción si cierta información era parte del primer documento o del segundo documento
El primer proceso que se realizó en estos documentos fue el eliminar ciertos caracteres que no aportaban información relevante. Después lo que se hizo fue poner cada una de las palabras en minúscula. Luego se separó cada uno de los textos en tokens, es decir se separa por cada una de las palabras para poder hacer su posterior procesamiento. Una vez terminado el proceso anterior, lo que se hace es eliminar palabras que realmente no agregan ningún valor al texto. Para finalizar el procesamiento de los textos, lo que se realizó fue una técnica llamada Bag of Words.
Después de todo este procesamiento, lo que se realizó fue generar una matriz TF-IDF. El siguiente proceso que se aplicó fue el uso de distintas técnicas de clustering o agrupación.
El método algoritmo que utilizamos fue el de K-means o K-medias, para esta clase de técnica nos fue útil tener relacionado cada uno de los tokens relacionados con un valor numérico, ya que como su nombre indica este método se basa en una media aritmética, con lo cual requiere de valores cuantitativos. En conjunto con esta técnica se utilizó otra técnica que fue de utilidad para reducir la dimensionalidad de los datos, la cual es Principal Component Analysis. El segundo método de agrupamiento es una técnica que lo que hacemos es encontrar temas a partir de la bolsa de palabras, en el cual se cada grupo tiene una ponderación para cada uno de los tokens relevantes y así mediante un rápido análisis podemos notar cual es el tema a tratar. Esta técnica llamada Latent Dirichlet Allocation recibe este nombre al encontrar ciertos patrones latentes o no descubiertos y agrupar palabras relacionadas en temas.
El ultimo método de agrupación fue la creación de dendogramas, la cual es una técnica muy sencilla que consiste en considerar cada uno de los tokens como un grupo individual, pero después de cada iteración se mide la distancia entre grupos o clústeres cercanos, y si están lo suficientemente cerca estos se convierten en un nuevo clúster. Además de todos estos métodos, también se hizo uso de un método grafico para visualizar las palabras más importantes del corpus llamado wordclouds.
Y como en el caso de las wordclouds, a pesar de que tiene su utilidad poder identificar clústeres tomando la totalidad de los documentos, parece ser de utilidad también el poder identificar clústeres dentro de los mismos documentos, con lo que la parte final del proyecto consistió en repetir el proceso de agrupamiento utilizado en los documentos, pero en este caso en lugar de tomar el documento entero lo que se hace es dividir cada uno en párrafos de información, lo cual nos permitió crear matrices TF-IDF para cada documento de manera individual y descubrir subtemas latentes en el texto.
CONCLUSIONES
Durante la estancia en el verano delfín se desarrollaron las habilidades necesarias para aprender las bases del procesamiento de lenguaje natural en forma de texto, siendo el Text Mining en especial el enfoque que se dio durante la estancia, con esto pudimos probar diversas técnicas de clustering en textos que nos ayudaron a tener una idea de los temas que se tratan en el texto aun sin haber leído los mismos, lo cual nos indica que su uso en ciertas áreas puede ser de gran ayuda cuando se aplique a grandes cantidades de información pudiendo sintetizar información que de otra manera sería más complicado de hacer o se requeriría de software especializado, sin embargo en este proyecto pudimos darnos cuenta de que con un algoritmo relativamente sencillo podemos obtener información relevante.
Zárate Chávez Rodrigo, Universidad Veracruzana
Asesor:Dr. Eliceo Ramirez Rincon, Universidad Libre
LENGUAJE MATEMáTICO EN LA ALFABETIZACIóN CIENTíFICA
LENGUAJE MATEMáTICO EN LA ALFABETIZACIóN CIENTíFICA
Zárate Chávez Rodrigo, Universidad Veracruzana. Asesor: Dr. Eliceo Ramirez Rincon, Universidad Libre
PLANTEAMIENTO DEL PROBLEMA
Limitamos la investigación al tópico más particular: El lenguaje estadístico en la alfabetización científica de universitarios en área de ciencia, de la Universidad Veracruzana.
La estadística, a lo largo del tiempo ha sido de gran importancia en la sociedad, y actualmente ha tomado más fuerza en su papel como uno de los principales rubros de desarrollo científico. La comprensión de la estadística es crucial para entender fenómenos complejos en la vida cotidiana. Sin embargo, es evidente que existe un bajo nivel de comprensión de los conceptos estadísticos en Latinoamérica, y particularmente en la vida diaria.
Así, se detona esta investigación con la pregunta: ¿Cómo impacta la educación previa en el dominio del lenguaje matemático, particularmente en el contexto estadístico, en la alfabetización científica de los estudiantes universitarios en Latinoamérica y su comprensión de conceptos estadísticos en la vida cotidiana?
La hipótesis planteada es la siguiente: La calidad de la educación previa en matemáticas tiene gran influencia en el dominio del lenguaje matemático, en particular en el contexto estadístico de los estudiantes universitarios en Latinoamérica. Los estudiantes que reciben una base sólida de conocimientos matemáticos y estadísticos en su preparación antes del ingreso a la universidad tendrán una mayor facilidad para comprender y aplicar los conceptos estadísticos en su vida cotidiana, lo que conlleva una eficaz alfabetización cientifica y un desarrollo en el pensamiento crítico de cada individuo, tanto en la toma de decisiones como en la resolución de problemas.
Con esta propuesta se busca conectar la problemática con la educación previa de los estudiantes, específicamente relacionada con la matemática y el contenido estadístico, y su impacto en la vida cotidiana de las personas en Latinoamérica.
METODOLOGÍA
Teniendo en cuenta:
Objetivo general:Analizar el impacto de la educación previa en el dominio del lenguaje matemático y de la estadística, en un contexto cotidiano en los estudiantes de ciencia en la facultad de ciencias de la Universidad Veracruzana.
Objetivos especificos:
•Identificar la percepción de los universitarios en las facultades de ciencia en la Universidad Veracruzana hacia el uso del lenguaje matemático en su contexto cotidiano.
•Describir la influencia del acceso a las herramientas tecnológicas que sirven como auxiliares del desarrollo de las habilidades estadísticas por parte de los estudiantes de las facultades de ciencia de la Universidad Veracruzana.
•Interpretar el nivel de dominio del lenguaje matemático y estadístico de los estudiantes de ciencia de sus respectivas facultades en la Universidad Veracruzana, en situaciones cotidianas.
La metodología está enmarcada en un enfoque mixto en el que se tendrán en cuenta categorías, de análisis y datos numéricos. Se planteó de manera general una secuencia metodológica como la siguiente, en actividades diseñadas para cada uno de los objetivos, tanto el general como los específicos:
1.Muestra: Se selecciono una muestra representativa no probabilística de estudiantes de ciencias de la Universidad Veracruzana en Latinoamérica, conformada por las licenciaturas de Matemáticas, Física, Química, Biología, QFB.
2.Instrumentos: Se aplico un cuestionario para evaluar el nivel de dominio del lenguaje matemático y estadístico en situaciones cotidianas. Además, se utilizaron encuestas para analizar la percepción y actitud de los estudiantes hacia el uso del lenguaje matemático en su vida diaria.
3.Recopilación de datos: Se llevaron a cabo la recopilación de datos a través de los cuestionarios y encuestas.
4.Análisis de datos: Los datos recolectados se analizaron estadísticamente a través de SPSS para identificar patrones y tendencias.
5.Resultados: Se presentaron los resultados obtenidos en la investigación, particularmente resaltando el cómo se usa el lenguaje matemático en la interpretación y aplicación de los conocimientos estadísticos en un contexto cotidiano.
6.Conclusiones: Se elaboraron conclusiones basadas en los resultados obtenidos y se propondrán recomendaciones para fortalecer la alfabetización científica de los estudiantes universitarios en Latinoamérica.
CONCLUSIONES
Como conclusión, podemos interpretar que en el estudio de caso de los alumnos estudiados en este proyecto, su educación previa según las pruebas realizadas, los antecedentes investigativos y los fundamentos teóricos, fue un limitante para su desarrollo oportuno y eficaz en su labor de convertirse en científicos de calidad, lo cual en principio es algo que seguirá sucediendo, pues sobre todo en el bachillerato, se presentan muchas inquietudes que posiblemente den respuesta a las causas de este rezago. Lo que está claro, es que existe una limitación en el aprendizaje en América Latina, que ocasiona el bajo rendimiento de los alumnos cuando se trata de utilizar el lenguaje matemático, los conceptos estadísticos, haciendo así que no se llegue a una alfabetización científica pertinente en el grupo en el que se está enfocando.
Así, dejo preguntas abiertas de interés: ¿Los planes de estudio en el colegio serán los adecuados, en torno al uso del lenguaje matemático y estadístico para lograr una alfabetización científica adecuada? ¿Acaso se utilizan los enfoques pedagógicos óptimos para desarrollar la alfabetización científica?, estas interrogantes han surgido a raíz de la reflexión hecha durante la investigación.
Zebadúa González Fanny, Universidad Politécnica de Sinaloa
Asesor:Dr. José Roberto Rivera Hernández, Universidad Politécnica de Sinaloa
PRESENCIA Y ABUNDANCIA DE MICROPLáSTICOS EN AGUA SUPERFICIAL DE LA LAGUNA DEL CAMARóN, MAZATLáN, SINALOA.
PRESENCIA Y ABUNDANCIA DE MICROPLáSTICOS EN AGUA SUPERFICIAL DE LA LAGUNA DEL CAMARóN, MAZATLáN, SINALOA.
Zebadúa González Fanny, Universidad Politécnica de Sinaloa. Asesor: Dr. José Roberto Rivera Hernández, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Asesor: Dr. José Roberto Rivera Hernández1,2, Instituto de Ciencias del Mar y Limnología, UA Mazatlán1. Universidad Politécnica de Sinaloa2.
Estudiante: Fanny Zebadúa González, Universidad Politécnica de Sinaloa.
PLANTEAMIENTO
El uso y producción desmedida, de los plásticos ha generado un gran impacto en el ecosistema. Los plásticos expuestos a factores ambientales como irradiación solar, temperatura, entre otros, dan lugar a la formación de microplásticos. Éstos son materiales sintéticos de tamaño menor a 5 mm. Su presencia ha sido registrada desde sitios en la cima de las montañas hasta los sedimentos marinos, incluso, están presentes en alimentos así como diferentes órganos de diversos organismos, incluido el ser humano. El conocimiento sobre la abundancia y dinámica de los microplásticos en diferentes ecosistemas, poco a poco ha ido incrementando. Sin embargo, aún quedan muchos huecos, de hecho, la mayoría de los esfuerzos han sido realizados con la finalidad de conocer la abundancia, y tipos de microplásticos presentes en sistemas marinos. Hasta la fecha, existe poca información sobre los efectos de los microplásticos sobre los organismos, terrestres y acuáticos, y el ser humano. Sin embargo, la exposición constante a estas partículas es evidente. La laguna del Camarón es un sistema acuático localizado en el pulmón de la ciudad de Mazatlán (Parque Central), el cual recibe un alto número de visitantes. Además, la laguna posee una orientación paralela a algunos hoteles y condominios, ubicados al margen del malecón; en donde la afluencia de turistas tanto nacionales como extranjero podría propiciar la acumulación de desechos sintéticos en la laguna. Por esta razón, el objetivo principal del presente trabajo de investigación fue la cuantificación de la presencia de microplásticos en el agua de la Laguna del Camarón.
METODOLOGÍA
2. METODOLOGÍA
2.1. Área de estudio
La presente investigación se realizó en la Laguna del Camarón ubicada dentro del Parque Central. Cuenta con una extensión de 40 ha destinadas a recreación y esparcimiento de locales y turistas. Se recolectaron 21 muestras de agua superficial en 7 diferentes sitios en la laguna. Se tamizaron 30L de agua superficial a través de tamices de acero inoxidable con diferentes tamaños de poro (1000 μm, 500 μm, 250 μm y 63 μm). Cada tamiz se enjuagó con agua del sitio para recuperar partículas retenidas, éstas se colocaron en botellas de vidrio de 250 mL, se llevaron al laboratorio en cajas de cartón y se refrigeraron a 4°C hasta su respectivo análisis.
2.2. Extracción
Digestión:
Para eliminar cualquier resto de materia orgánica que pudiera interferir en la densidad de las partículas, todas las muestras fueron digeridas añadiendo peróxido de hidrógeno al 30% en una proporción 2:1. Las botellas se agitaron manualmente durante los primeros minutos después de incorporar el peróxido, posteriormente se dejaron en reposo durante 24 hrs a temperatura ambiente. El peróxido se filtró al vacío.
Filtración:
Cada mezcla se filtró a través de filtros de 0.7 μm de tamaño de poro (Whatman GF/F). Cada filtro se colocó en cajas petri de vidrio, previamente lavadas, y se secaron a 60 °C en un horno durante 12 hrs. Cada caja fue tapada y cubierta con papel aluminio hasta su respectivo análisis al estereomicroscopio.
Clasificación:
Se extrajeron partículas de las muestras con pinzas de acero inoxidable y se fotografiaron. Se clasificaron en número, forma, color y tamaño. Se colocaron en filtros nuevos, se doblaron a la mitad y se envolvieron en aluminio.
Caracterización química:
Después de extraer las partículas presentes en las muestras, se realiza la identificación. Los microplásticos separados fueron analizados por espectroscopía infrarroja con transformada de Fourier (FTIR).
Control de calidad:
El material utilizado tanto para el muestreo como para el procesamiento y análisis de muestras fue previamente lavado con agua tridestilada filtrada, secado en horno a 60 °C, almacenados cubiertos con papel aluminio. Para controlar la contaminación por manipulación de muestras, blancos de laboratorio fueron colectados en cada una de las etapas del proceso.
3. 1 RESULTADOS
3.1 Clasificación morfológica
Control de filtración: Se encontraron 19 fibras con un promedio de 0.75 mm. Las fibras transparentes se encuentran en mayor proporción con un 79%, azules con un 16% y rojas con un 5%.
Muestra 1A: Se encontraron 277 fibras y fragmentos con un promedio de 1.2 mm. Color: azul con un 45%, después transparente con un 44%, rojas con un 6% y amarillas con un 5%.
Muestra 1B: Se encontraron 150 fibras y fragmentos con un promedio de 1.75 mm. Color: transparente con un 75%, azul 22%, rojo 2% y dorado 1%
Muestra 1C: Se encontraron 78 fibras y fragmentos con un promedio de 1.2 mm. Color: transparente con un porcentaje de 94% y azules con un 6%.
3.2 Identificación
Se analizaron las muestras en el espectrómetro infrarrojo para identificar el tipo de polímero.
Control: Polímeros resultantes: PET: 5%, celulosa: 42%, algodón: 26%, cabello: 16%, no plástico: 11%.
Muestra: Polímeros resultantes: PET: 30%, algodón: 40%, cabello: 10%, no plástico: 20%.
CONCLUSIONES
4. CONCLUSIÓN
Se observaron bastantes partículas, entre 200 y 300 por muestra. La forma más común en las muestras fue de fibras y en su mayoría de color transparente. Las muestras analizadas en el espectrómetro infrarrojo presentaron mayor cantidad de celulosa y algodón y muy pocas resultaron PET. Las investigaciones sobre microplásticos han aumentado pero aún hay mucho por hacer. Se necesita más información sobre cómo afecta cuerpos de agua distintos al mar. Es necesario que estudios futuros tomen en cuenta la contaminación por fibras relacionadas con la contaminación del aire. Por eso es importante el uso de controles para cada etapa de la investigación. Debido a la gran presencia de partículas en las muestras, es preocupante el nivel de contaminación que existe en la laguna.
Zicatl García José Alfredo, Universidad Autónoma de Guerrero
Asesor:Dr. Moisés Cywiak Garbarcewicz, Centro de Investigaciones en Óptica (CONACYT)
PROGRAMACIÓN MULTIPLATAFORMA EN AMBIENTE VISUAL EN LA PLATAFORMA DE PYTHON
PROGRAMACIÓN MULTIPLATAFORMA EN AMBIENTE VISUAL EN LA PLATAFORMA DE PYTHON
León Altamirano Faustino Zarif Carlos, Universidad Michoacana de San Nicolás de Hidalgo. Zicatl García José Alfredo, Universidad Autónoma de Guerrero. Asesor: Dr. Moisés Cywiak Garbarcewicz, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El estudio de figuras geométricas es demandado en diferentes áreas de las ciencias exactas donde tener un buen dibujo ayuda a que el análisis de estas sea más preciso y entendible para los estudiantes, por ello cada vez más la tecnología nos pone a disposición programas y aplicaciones que nos permiten graficar y dibujar figuras geométricas de una manera más precisa de la que comúnmente podríamos hacer en un ambiente de papel y lápiz, sin embargo, con la creciente demanda que tienen estas aplicaciones cada vez son menos las que nos permiten trabajar de manera gratuita o sin interrupciones, es por ello, que aprender cómo realizar graficas o polígonos de manera autónoma es muy importante para alumnos que estudian carreras afines.
METODOLOGÍA
Se instaló el idle de Python, las librerías necesarias para ejecutar de manera correcta la librería kivy y se hicieron las pruebas preliminares para comprobar su funcionamiento. Después se procedió a la comprensión del sistema de programación, dado el grado de dificultad, comenzamos a realizar algunos programas básicos, comenzando por graficar la función senoidal seno, esta práctica nos ayudó a comprender como funcionaba nuestra ventana de trabajo la cual ajustábamos a el más adecuado número de pixeles y cada alternancia de nuestra función la graduamos a la unidad de medida micras (0.0001 centímetros). Siguiendo la misma teoría graficamos una función gaussiana, obteniendo así nuestras primeras graficas en R2.
Tomando de base el código de la función gaussiana en R2 agregamos un nuevo eje y pasamos a generar una red de todos los puntos de la función dada con un arreglo (mesh), este arreglo nos permite visualizar nuestra función gaussiana en R3.
Una vez estudiada y comprendida la teoría matemática de como graficar los polígonos en R2 y R3 pasamos a introducir elementos de programación para posicionar y rotar elementos en una pantalla, para esto implementamos el uso de la librería kivy y creamos un nuevo archivo con extensión .kv, en nuestro archivo de Python definimos una clase Form1 y una función Initialize que al ejecutar el código van a crear una pantalla flotante (FloatLayout), de dimensiones determinadas y desde nuestro archivo kv comenzamos con el diseño de esta pantalla agregando dos botones.
Una vez creada esta ventana se proyecta un primer polígono dentro de la pantalla el cual construimos a través de la función DrawEdges que une vértices formando un cuadrado y se dibuja al presionar el primer botón, ahora bien, para poder rotar esta imagen primero se define la función Rotate que mueve las posiciones de los vértices haciendo girar el polígono respecto a un eje. Después se procede a hacer un arreglo a la función Initialize para que cada vez que estas se ejecuten, en la ventana flotante se dibuje automáticamente el polígono.
Lo siguiente es definir las funciones de los botones y desde el archivo kv configuramos el botón 1 para que ejecute dos acciones; con la primera (Button1_Click) el polígono cambia de posición una sola vez, mientras que con la segunda acción (Button1_Release) siempre que este se mantenga presionado no dejara de girar nuestro polígono. Como se proyectó en R2, la función del botón 2 es realizar estas mismas acciones, pero en sentido contrario.
Habiendo realizado esta proyección de polígonos en R2 se sigue modificando el código para lograr generar ahora un polígono en 3D, creamos una copia de los archivos anteriores y ahora se define el polígono cubo para esto agregamos nuevos vértices para así formar una cara frontal y una trasera. Definidos los puntos usamos de nuevo la función DrawEdges para dibujar el polígono en nuestro FloatLayout. De esta manera al ejecutar el código la función Initialize automáticamente va a dibujar nuestro cubo en la ventana flotante. Dibujado el polígono buscamos la manera de poder rotarlo solo que esta vez es mucha más compleja la teoría de cómo lograr mover el cubo respecto un eje, es por ello que se comienza por modificar la función Rotate para lograr mover a ambas caras del cubo sin que el polígono se deforme o altere su estructura.
Una vez modificado el código y comprendida la teoría de cómo funcionan las rotaciones en R3, pasamos a automatizar estas rotaciones con la creación de botones que al igual que en R2 cumplen las dos acciones. Al existir 3 ejes sobre los cuales girar, es necesaria la creación de 6 botones los cuales realizan las siguientes acciones:
Button1 gira el polígono en la dirección de los ejes x-y mientras que el Button2 invierte esta acción.
Button3 gira el polígono en la dirección de los ejes x-z mientras que el Button4 invierte esta acción.
Button5 gira el polígono en la dirección de los ejes y-z mientras que el Button6 invierte esta acción.
Teniendo estos botones en correcto funcionamiento, se agrega el Button7 el cual realiza la acción de guardar nuestro polígono dibujado en nuestro ordenador en formato PNG.
CONCLUSIONES
Durante esta estancia de investigación se logró estudiar y comprender la teoría matemática que existe de tras de cada línea de código que se programa para lograr proyectar polígonos en un ambiente virtual, el llevar las ideas de un lenguaje matemático a un código de programación en ocasiones resulta complejo, sin embargo, Python nos ha permitido llevar estas ideas a una nueva faceta donde logramos manipular los polígonos que dibujamos para así lograr ver sus diferentes perspectivas, ya sea que este proyectado en R2 o bien en R3. Se espera que con el seguimiento de estas prácticas se logren visualizar estos y otros polígonos en una imagen estereográfica o imagen 3D. Al final hemos logrado nuestros objetivos planteados con la generación de este tipo de figuras y entendido las múltiples aplicaciones que podrían tener en diferentes áreas de la ciencia.
Zúñiga Cueva Wendy Lizbeth, Universidad de Guadalajara
Asesor:Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
CARACTERIZACIÓN DEL SUELO A PARTIR DEL ANALISIS DE ONDAS SUPERFICIALES EN PUERTO VALLARTA, JALISCO.
CARACTERIZACIÓN DEL SUELO A PARTIR DEL ANALISIS DE ONDAS SUPERFICIALES EN PUERTO VALLARTA, JALISCO.
Alvarado Izarraras Roberto, Universidad de Guadalajara. Portillo Lujan Ana Paula, Universidad Estatal de Sonora. Rosales Rios Claudia Ana Maria, Universidad de Guadalajara. Zúñiga Cueva Wendy Lizbeth, Universidad de Guadalajara. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La ciudad de Puerto Vallarta se encuentra en el occidente de México, la cual es una zona de alta sismicidad por consecuencia de la subducción de la placa Rivera con la Norteamericana. Históricamente han ocurrido sismos importantes que dejaron grandes daños en edificios, además del sismo las causas de esto podrían estar asociadas a los efectos de sitio, de ahí la importancia de estos estudios previos al desarrollo de estructuras de ingeniería civil. La capacidad de las estructuras para resistir una vibración provocada por un sismo depende de la intensidad del movimiento del terreno, su amplitud y duración. Ya que estos comportamientos pueden aumentar tanto la probabilidad de daños estructurales como el riesgo en la seguridad de las personas. Con la aplicación de los diversos métodos sísmicos y técnicas de análisis, como MASW (Multichannel Analysis of Surface Waves) y MAM (Microtremor Array Measurement), se puede obtener la caracterización del suelo. Estos estudios permiten inferir cómo las ondas sísmicas se pueden propagar y amplificar durante un evento sísmico. Estos métodos se basan en el análisis de ondas superficiales, el arreglo MAM es relativamente nuevo pero ha ganado bastante popularidad en la geofísica por su capacidad de resolución y penetración, además de ser más económico al utilizar el ruido ambiental.
METODOLOGÍA
La investigación se basó en la adquisición de datos sísmicos utilizando tanto el método de sísmica activa (MASW) como el método de sísmica pasiva (MAM). Se implementaron equipos y técnicas adecuadas para cada enfoque y se llevaron a cabo pruebas en diversas ubicaciones representativas de Puerto Vallarta. Los datos recopilados se analizaron y compararon para determinar las diferencias y similitudes entre ambos métodos en la caracterización del suelo.
Para el método MASW:
Selección de varios puntos para el área de estudio.
Definición de la trayectoria de la línea de adquisición de datos.
Ondas generadas a partir del golpe de un marro de 20 libras hacía una placa metálica.
Registro de ondas por medio de geófonos colocados cada 2 metros.
Para la adquisición de datos se registra un conjunto de datos suficiente para cubrir un rango de frecuencias que permita una resolución adecuada de las capas subsuperficiales. Al procesar los datos se buscó realizar la corrección de tiempo para alinear las señales registradas, así como aplicar filtros para mejorar la relación señal-ruido y eliminar el ruido no deseado. También se buscó calibrar las amplitudes de las señales para obtener mediciones precisas de la amplitud de las ondas.
Destacando que la metodología del MASW puede requerir ajustes específicos según las condiciones del terreno y los objetivos del estudio. Además, el procesamiento y análisis de datos se lleva a cabo utilizando softwares especializados.
En el caso del método MAM se utilizaron las vibraciones naturales del suelo, como el viento, el tráfico y la actividad humana, conocidas como microtemblores. En el diseño de la práctica se seleccionó el sitio de estudio y el área en el que se realizaron las mediciones, para después colocar una matriz de sensores sísmicos en el suelo (varios geófonos distribuidos en un patrón específico). De la misma manera en la adquisición de datos se recopilaron suficientes microtemblores para un análisis preciso. Para el procesamiento de datos se calcula el espectro de frecuencia de las señales para cada punto en la matriz y para diferentes componentes (horizontal y vertical) así como realizar la corrección de tiempo y aplicar filtros para eliminar ruido no deseado. Al momento de analizar los datos se identifican las frecuencias naturales del suelo (modos de vibración) a partir del espectro de frecuencia.
La metodología de MAM es una herramienta valiosa para la caracterización del subsuelo y la evaluación del riesgo sísmico, especialmente en áreas urbanas donde las fuentes sísmicas naturales son abundantes.
CONCLUSIONES
El uso de ambos métodos permitió obtener una visión más completa de las propiedades del suelo, lo que es esencial para comprender cómo las ondas sísmicas se propagan y amplifican durante un evento sísmico. El método MASW, que se basa en ondas generadas activamente, proporcionó información valiosa sobre las capas subsuperficiales y la velocidad de propagación de las ondas. Por otro lado, el método MAM, que utiliza vibraciones naturales del suelo, permitió identificar las frecuencias naturales y los modos de vibración del suelo. Mencionando que el método MAM tiene mayor costo y complejidad además de un mayor tiempo de procesamiento, mientras que en el método MASW tiene una menor resolución en profundidad y también presenta limitaciones en suelos muy heterogéneos.
La combinación de ambos métodos puede aumentar la precisión y confiabilidad de los resultados y ofrecer una mayor comprensión de la estructura del suelo, lo que es esencial para la planificación y el diseño de nuevas construcciones y para la evaluación de la vulnerabilidad de las estructuras existentes frente a eventos sísmicos.
Al comprender mejor las características del subsuelo, se pueden evaluar los riesgos geotécnicos, como la susceptibilidad a la licuefacción del suelo durante un terremoto, la posibilidad de deslizamientos de tierra u otros fenómenos relacionados con la geodinámica. La información obtenida a través de estos métodos puede ser utilizada para optimizar el diseño y la planificación de proyectos de construcción, reduciendo los costos y los riesgos asociados con la ingeniería geotécnica.
Durante la estancia de verano se logró obtener conocimientos teóricos y ponerlos en práctica a lo largo del verano. Al crear un manual de uso para el equipo geode, las practicas fueron de mayor provecho, una vez teniendo estas herramientas a disposición el proceso es fácil de implementar si el equipo necesario se encuentra disponible.
Zuñiga Gómez Lea Hanani, Universidad Autónoma de Nayarit
Asesor:Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
EFECTOS DE LOS CICLONES TROPICALES EN SUELOS AGRICOLAS EN LA REGION INTERESTATAL DE PUERTO VALLARTA 1971 - 2021
EFECTOS DE LOS CICLONES TROPICALES EN SUELOS AGRICOLAS EN LA REGION INTERESTATAL DE PUERTO VALLARTA 1971 - 2021
Zuñiga Gómez Lea Hanani, Universidad Autónoma de Nayarit. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El registro de los eventos meteorológicos que están documentados en el pacifico son amplios y algunos eventos de esta índole son muy conocidos por sus afecciones en la población. En la zona interestatal de Puerto Vallarta se ha registrado el impacto de distintos huracanes asociados a las pérdidas económicas, materiales y sentimentales para los habitantes.
Un ciclón es una concentración anormal de nubes que gira en torno a un centro de baja presión atmosférica, sus eventos principales son las descargas de lluvias, viento, oleaje y marea. Los cambios de suelo después de un fenómeno de esta categoría son muy frecuentes, depende de su ubicación, suelen pasar a ser terrenos o lotes.
El efecto más visible de un ciclón en tierras de siembra es el daño al cultivo, a los hogares y a la infraestructura, es por eso que es necesario conocer los daños que sufre uno de los sectores de desarrollo más importantes de la región.
METODOLOGÍA
Para llevar a cabo la investigación se utilizó la siguiente metodología.
Se realizó una revisión bibliográfica relacionada con los ciclones que han afectado las costas de Nayarit y Jalisco en un periodo de 50 años de 1971 a 2021 . Se obtuvieron datos de artículos publicados por diversos autores, periódicos, historia municipal y testimonios de afectados. Respecto a las bases de datos de los ciclones que afectaron la zona de Puerto Vallarta, Bahía de Banderas y Cabo Corrientes, se organizó dicha información en una tabla de clasificación de categorías ordenada por año.
Se investigó respecto a la zona de estudio y sus Atlas de riesgo los detalles de sus condiciones de estudio, información de interés, datos de la vegetación y territorio agrícola.
Se obtuvieron los datos zip de la delimitación de los estados de México, de los municipios de todo el país y de la vegetación de todo el país en el Geoportal del Sistema Nacional de Información Sobre la Biodiversidad CONABIO y se limitó a la zona de interés. Con esta información en el programa de ArcGis se realizaron diferentes mapas que permitieron hacer comparaciones de esta zona en el periodo de estudio 1971 - 2021.
Se utilizó el método bola de nieve para realizar entrevistas a los afectados y conocer sus afectaciones y así mismo conocer el territorio de estudio por la visita al campo.
CONCLUSIONES
Los datos varian segun el municipio en la zona de estudio.
En Bahia de Banderas Nayarit los daños a los cultivos suelen ser por inunudaciones, crecimientos del nivel de los rios y arrollos. En las perdidas en esta zona, el cambio de uso de suelo suele ser muy frecuente pasando a zonas de casa habitacion y sector turistico.
En Puerto Vallarta Jalisco el cambio de uso de suelo suele ser a sector vivienta y turistico.
En Cabo Corrientes Jalisco el cambio de uso de suelo no es frecuente, en esta zona se reporta el crecimiento de insumos y mantenimiento en los cultivos. los agricultores suelen asegurar sus cosechas para disminuirr las perdidas economicas.
En estos municipios suele producirse en su mayoria para autoconsumo y venta en zonas aledañas.