<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:dc="http://purl.org/dc/elements/1.1/" version="2.0">
<channel>
<title>Licenciatura</title>
<link>https://ri-ng.uaq.mx/handle/123456789/8109</link>
<description/>
<pubDate>Sat, 04 Apr 2026 12:48:19 GMT</pubDate>
<dc:date>2026-04-04T12:48:19Z</dc:date>
<item>
<title>Evaluación de la conectividad de la sustancia blanca en fascículos longitudinales y uncinado en trabajadores expuestos a solventes</title>
<link>https://ri-ng.uaq.mx/handle/123456789/12829</link>
<description>Evaluación de la conectividad de la sustancia blanca en fascículos longitudinales y uncinado en trabajadores expuestos a solventes
José Enrique Rincón Silverio
Las imágenes por tensor de difusión (DTI) nos permite obtener información detallada de la estructura de la sustancia blanca del cerebro mediante los valores de Disfunción axial (AD), Disfunción radial (RD) y Anisotropía Fraccionada (FA). Podemos obtener, si tenemos una buena mielinización o no mediante los valores de FA y RD, de la misma manera si existe un daño axonal mediante el valor de AD. Estos parámetros se utilizaron para analizar la conectividad de la sustancia blanca en fascículos longitudinales y uncinado en un grupo expuestos a solventes y realizar un análisis contra un grupo control, mediante los valores de AD, RD y FA. Las imágenes de resonancia magnética por tensor de difusión se tomaron de una base de datos de ambos grupos, posteriormente se procesaron las imágenes en el software DTI Studio para obtener los valores mencionados de las cuatro zonas de interés, en ambos grupos se realizó una prueba estadística, para comparar dos promedios de variables cuantitativas grupo control contra grupo expuesto, mediante pruebas de distribución normal y sin distribución normal, t de Student y U Mann Whitney. Con los resultados se realizó la comparativa de los parámetros de las cuatro zonas de interés entre el grupo expuesto y grupo control. En los valores de AD se obtuvieron resultados puntuales donde se vieron afectados el valor en el grupo de personas expuestas a solventes, pero se debe considerar aumentar el grupo de participantes para tener más muestras.
</description>
<pubDate>Thu, 26 Mar 2026 00:00:00 GMT</pubDate>
<guid isPermaLink="false">https://ri-ng.uaq.mx/handle/123456789/12829</guid>
<dc:date>2026-03-26T00:00:00Z</dc:date>
</item>
<item>
<title>Uso de algoritmos de redes neuronales para la resolución de problemas numéricos en física disminuyendo el costo computacional</title>
<link>https://ri-ng.uaq.mx/handle/123456789/12827</link>
<description>Uso de algoritmos de redes neuronales para la resolución de problemas numéricos en física disminuyendo el costo computacional
Abel Santillán Rodríguez
Esta tesis presenta un estudio comprehensivo del Operador Neuronal de Fourier (FNO) como una alternativa para resolver ecuaciones diferenciales parciales (EDP) en física computacional, con énfasis particular en reducir los costos computacionales comparados con métodos numéricos tradicionales.&#13;
La creciente demanda de herramientas de simulación eficientes en campos como la dinámica de fluidos, transferencia de calor y física de plasmas ha motivado la exploración de enfoques basados en aprendizaje automático. Los métodos numéricos tradicionales, aunque robustos y bien establecidos, enfrentan limitaciones computacionales significativas al tratar con simulaciones de alta resolución o exploración extensiva de espacios de parámetros. Este trabajo investiga si los operadores neuronales pueden superar estas limitaciones manteniendo niveles de precisión aceptables.&#13;
La metodología involucró implementar la arquitectura FNO usando PyTorch y entrenarla en conjuntos de datos generados a partir de soluciones numéricas espectrales de las ecuaciones de Navier-Stokes 2D y de calor. El modelo fue entrenado con 1,200 muestras con resolución espacial de 64×64, usando una configuración de 6 modos de Fourier, 20 canales internos y 4 capas de Fourier. Se realizó una campaña experimental sistemática para caracterizar el efecto de hiperparámetros clave: modos de Fourier (2–32), ancho de red (10–40 canales) y profundidad de red (2–32 capas).&#13;
Los resultados demuestran que el FNO alcanza un error L2 relativo del 2.1% en el conjunto de validación, significativamente por debajo del umbral del 10% establecido en la hipótesis de investigación. El modelo captura exitosamente estructuras coherentes del flujo y dinámica de vorticidad en regímenes turbulentos. Además, la red exhibe capacidades de super-resolución notables, generalizando desde la resolución de entrenamiento 64×64 hasta 256×256 con solo un incremento marginal en el error (de 2.1% a 2.9%).&#13;
El análisis computacional revela que el tiempo de inferencia escala linealmente con el ancho de red, aumentando en un factor de 3.16 al pasar de 10 a 40 canales. El tiempo de entrenamiento exhibe escalamiento aproximadamente lineal con el número de capas, siguiendo a relación tepoch≈2.2×ncapas+3.5 segundos. Estos hallazgos proporcionan insights valiosos para optimizar arquitecturas FNO en aplicaciones prácticas.&#13;
La principal limitación identificada es el requerimiento de datos de entrenamiento generados mediante métodos numéricos tradicionales, lo cual representa una inversión computacional que debe amortizarse sobre múltiples inferencias. Sin embargo, una vez entrenado, el FNO permite predicción rápida de campos de solución, abriendo posibilidades para simulación en tiempo real, cuantificación de incertidumbre y flujos de trabajo de optimización de diseño.
</description>
<pubDate>Wed, 18 Mar 2026 00:00:00 GMT</pubDate>
<guid isPermaLink="false">https://ri-ng.uaq.mx/handle/123456789/12827</guid>
<dc:date>2026-03-18T00:00:00Z</dc:date>
</item>
<item>
<title>Estudio de CO₂ en agua: relación de luz láser y temperatura</title>
<link>https://ri-ng.uaq.mx/handle/123456789/12783</link>
<description>Estudio de CO₂ en agua: relación de luz láser y temperatura
Rodolfo Reyes Saavedra
La espectroscopia láser de lente térmica es una herramienta fototérmica altamente sensible que ha adquirido gran relevancia en los últimos años debido a su amplio rango de aplicaciones en análisis químico y físico. En este trabajo se explora el uso de esta técnica para la detección de dióxido de carbono (CO₂) disuelto en agua mediante el análisis de patrones de difracción generados por un arreglo experimental con láseres de excitación de 1040 nm y sondeo con luz visible. Las imágenes de los patrones fueron capturadas con una cámara comercial en el espectro visible y posteriormente analizadas mediante herramientas computacionales.&#13;
&#13;
Para generar muestras con diferentes concentraciones de CO₂ se implementó un sistema controlado de inyección de gas. Asimismo, se realizó una caracterización inicial de las propiedades fisicoquímicas de las muestras mediante la medición del pH. El análisis óptico se llevó a cabo mediante el procesamiento de las imágenes de los patrones de difracción, lo cual incluyó la detección de contornos de las regiones luminosas, el cálculo de las áreas correspondientes a los anillos de difracción y el ajuste de los perfiles de intensidad experimentales a una función de Bessel de orden cero.&#13;
&#13;
Los resultados muestran que incluso a bajas concentraciones la presencia de CO₂ produce cambios medibles en la intensidad y estructura de los patrones de difracción asociados al lente térmico de la muestra. Estos hallazgos confirman la viabilidad de la espectroscopía de lente térmica como método para la detección de CO₂ en soluciones acuosas y sugieren que optimizaciones en la preparación de muestras y en la configuración óptica podrían incrementar significativamente la sensibilidad del sistema.
</description>
<pubDate>Thu, 12 Mar 2026 00:00:00 GMT</pubDate>
<guid isPermaLink="false">https://ri-ng.uaq.mx/handle/123456789/12783</guid>
<dc:date>2026-03-12T00:00:00Z</dc:date>
</item>
<item>
<title>Implementación de algoritmos de inteligencia artificial para modelado de partículas PM2.5 y PM10 en el ambiente</title>
<link>https://ri-ng.uaq.mx/handle/123456789/12736</link>
<description>Implementación de algoritmos de inteligencia artificial para modelado de partículas PM2.5 y PM10 en el ambiente
Alejandro Mendoza Ibarra
La contaminación del aire es uno de los problemas sociales más importantes en el mundo, ya que representa un gran riesgo para la salud pública y ocasiona diversos efectos adversos en la calidad de vida. Por ello, el monitoreo de los niveles de contaminación es una tarea crítica, pues puede contribuir a reducir el impacto de una mala calidad del aire en las personas. Sin embargo, determinar dichos niveles no es una tarea sencilla, debido a que la naturaleza de la contaminación es no lineal y altamente variable. En particular, este estudio se enfoca en el análisis del material particulado PM2.5 y PM10. Esta investigación se centra en la evaluación de una red neuronal recurrente del tipo memoria a largo-corto plazo (LSTM, en inglés Long Short-Term Memory), mejorada mediante una modificación en su función de pérdida utilizando la función de densidad de cópula gaussiana. Con el objetivo de mejorar la precisión en la predicción de las concentraciones de PM2.5 y PM10 en cuatro estaciones de monitoreo (AJM, CAM, MER y PED) ubicadas en la Ciudad de México. El modelo híbrido propuesto se compara con un modelo LSTM estándar para horizontes de pronóstico de 12, 24, 48 y 72 horas, utilizando métricas de desempeño como el Error Cuadrático Medio (RMSE, en inglés Root Mean Square Error), el Error Absoluto Medio (MAE, en inglés Mean Absolute Error) y el Error Porcentual Absoluto Medio (MAPE, en inglés Mean Absolute Percentage Error). Los resultados obtenidos muestran que el modelo con la función de pérdida modificada supera consistentemente al modelo LSTM base en múltiples estaciones y horizontes de predicción, logrando los valores de error más bajos. Esta mejora confirma que la integración del modelado de dependencia estadística mediante cópulas gaussianas incrementa la capacidad de aprendizaje de las redes neuronales recurrentes sin aumentar significativamente el costo computacional. Este trabajo presenta un enfoque práctico y eficiente que combina el aprendizaje profundo con métodos estadísticos avanzados para predecir de manera efectiva los niveles de PM2.5 y PM10. La metodología propuesta contribuye al avance de los modelos de pronóstico de la calidad del aire y ofrece un valioso apoyo en los procesos de toma de decisiones para la gestión ambiental y la protección de la salud pública.
</description>
<pubDate>Sun, 28 Feb 2027 00:00:00 GMT</pubDate>
<guid isPermaLink="false">https://ri-ng.uaq.mx/handle/123456789/12736</guid>
<dc:date>2027-02-28T00:00:00Z</dc:date>
</item>
</channel>
</rss>
