La importancia de la multidimensionalidad en el efecto túnel.
Autoría
D.C.A.G.
Doble Grado en Física y en Química
D.C.A.G.
Doble Grado en Física y en Química
Fecha de la defensa
18.09.2025 09:00
18.09.2025 09:00
Resumen
Este trabajo consiste en un estudio en profundidad del papel crucial que desempeña el efecto túnel en la cinética química, centrándose en dos sistemas especialmente sensibles a este fenómeno: las tautomerizaciones de Tiouracilos y la formación de la Vitamina D. Mediante el empleo de simulaciones ab initio, se estudian distintos modelos teóricos para calcular constantes de reacción empleando formulaciones unidimensionales y multidimensionales. Se empleará la teoría canónica variacional del estado de transición, comparando distintos métodos para evaluar la contribución de los fenómenos cuánticos a la constante de velocidad, tanto modelos unidimensionales como el de Eckart, con relevancia histórica pero poca concordancia con los resultados experimentales, como modelos multidimensionales, donde se analizarán los modelos de túnel de cero curvatura y de pequeña curvatura. En base a la comparación de los resultados obtenidos por los diversos métodos, se estudiará que modelo representa mejor el comportamiento cinético real del sistema, determinando así la importancia de tener en cuenta la naturaleza multidimensional de estos. Este estudio pretende mejorar la predicción de velocidades de reacción, junto con una comprensión más profunda de los mecanismos moleculares implicados, lo que proporciona un enfoque esencial en diversos ámbitos de investigación.
Este trabajo consiste en un estudio en profundidad del papel crucial que desempeña el efecto túnel en la cinética química, centrándose en dos sistemas especialmente sensibles a este fenómeno: las tautomerizaciones de Tiouracilos y la formación de la Vitamina D. Mediante el empleo de simulaciones ab initio, se estudian distintos modelos teóricos para calcular constantes de reacción empleando formulaciones unidimensionales y multidimensionales. Se empleará la teoría canónica variacional del estado de transición, comparando distintos métodos para evaluar la contribución de los fenómenos cuánticos a la constante de velocidad, tanto modelos unidimensionales como el de Eckart, con relevancia histórica pero poca concordancia con los resultados experimentales, como modelos multidimensionales, donde se analizarán los modelos de túnel de cero curvatura y de pequeña curvatura. En base a la comparación de los resultados obtenidos por los diversos métodos, se estudiará que modelo representa mejor el comportamiento cinético real del sistema, determinando así la importancia de tener en cuenta la naturaleza multidimensional de estos. Este estudio pretende mejorar la predicción de velocidades de reacción, junto con una comprensión más profunda de los mecanismos moleculares implicados, lo que proporciona un enfoque esencial en diversos ámbitos de investigación.
Dirección
FERRO COSTAS, DAVID (Tutoría)
FERRO COSTAS, DAVID (Tutoría)
Tribunal
FERNANDEZ RAMOS, ANTONIO (Presidente/a)
CASAIS LAIÑO, Mª DEL CARMEN (Secretario/a)
RODIL RODRIGUEZ, MARIA DEL ROSARIO (Vocal)
FERNANDEZ RAMOS, ANTONIO (Presidente/a)
CASAIS LAIÑO, Mª DEL CARMEN (Secretario/a)
RODIL RODRIGUEZ, MARIA DEL ROSARIO (Vocal)
Estudio computacional del orden de corto alcance y las propiedades de transporte en mezclas de líquidos iónicos con imidazol y agua
Autoría
D.C.A.G.
Doble Grado en Física y en Química
D.C.A.G.
Doble Grado en Física y en Química
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Este trabajo se centra en el estudio computacional de las propiedades de transporte en mezclas de líquidos iónicos con imidazol y agua, estudiando a su vez sus posibles aplicaciones en interacciones de corto alcance. En concreto, abarca el estudio de la viabilidad de la movilidad protónica basada en el mecanismo de Grotthuss, proceso que permite aplicaciones tecnológicas, como baterías basadas en la conductividad protónica, y que tiene implicación en distintas reacciones biológicas. Con el fin de evaluar las características de las distintas relaciones de especies se calculan las propiedades estructurales y dinámicas de las mezclas, analizando en un primer momento las propiedades de dos tipos ditintos de líquidos iónicos (próticos y apróticos) disueltos en imidazol y posteriormente, se analizará el efecto que tendría la presencia de agua en las propiedades de las distintas mezclas, determinando un límite superior de tolerancia para esta.
Este trabajo se centra en el estudio computacional de las propiedades de transporte en mezclas de líquidos iónicos con imidazol y agua, estudiando a su vez sus posibles aplicaciones en interacciones de corto alcance. En concreto, abarca el estudio de la viabilidad de la movilidad protónica basada en el mecanismo de Grotthuss, proceso que permite aplicaciones tecnológicas, como baterías basadas en la conductividad protónica, y que tiene implicación en distintas reacciones biológicas. Con el fin de evaluar las características de las distintas relaciones de especies se calculan las propiedades estructurales y dinámicas de las mezclas, analizando en un primer momento las propiedades de dos tipos ditintos de líquidos iónicos (próticos y apróticos) disueltos en imidazol y posteriormente, se analizará el efecto que tendría la presencia de agua en las propiedades de las distintas mezclas, determinando un límite superior de tolerancia para esta.
Dirección
MENDEZ MORALES, TRINIDAD (Tutoría)
OTERO LEMA, MARTIN Cotutoría
MENDEZ MORALES, TRINIDAD (Tutoría)
OTERO LEMA, MARTIN Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Más allá de las baterías de litio
Autoría
L.A.F.
Grado en Física
L.A.F.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
El almacenamiento eficiente de energía es un pilar clave para la transición hacia sistemas energéticos sostenibles. Las baterías de ion-litio (Li-ion) dominan actualmente el mercado gracias a su madurez tecnológica, buen rendimiento y coste decreciente. Sin embargo, su capacidad energética se aproxima al límite teórico, lo que ha impulsado la búsqueda de tecnologías emergentes con mayor densidad energética. Este trabajo analiza y compara tres tipos de baterías basadas en litio: ion-litio, litio-azufre (Li-S) y litio-oxígeno (Li-O2). Se describen sus principios de funcionamiento, los materiales más prometedores para cada componente (ánodo, cátodo y electrolito), así como sus principales ventajas, desafíos y estrategias de mejora. Mientras que las baterías Li-S ofrecen mayor capacidad teórica y menor impacto ambiental, presentan problemas de estabilidad y ciclabilidad. Las Li-O2 destacan por su altísima densidad energética, pero su complejidad química limita su aplicabilidad actual. En conjunto, aunque las tecnologías post-litio aún requieren avances significativos, su desarrollo resulta crucial para satisfacer la creciente demanda de almacenamiento energético y facilitar la descarbonización global.
El almacenamiento eficiente de energía es un pilar clave para la transición hacia sistemas energéticos sostenibles. Las baterías de ion-litio (Li-ion) dominan actualmente el mercado gracias a su madurez tecnológica, buen rendimiento y coste decreciente. Sin embargo, su capacidad energética se aproxima al límite teórico, lo que ha impulsado la búsqueda de tecnologías emergentes con mayor densidad energética. Este trabajo analiza y compara tres tipos de baterías basadas en litio: ion-litio, litio-azufre (Li-S) y litio-oxígeno (Li-O2). Se describen sus principios de funcionamiento, los materiales más prometedores para cada componente (ánodo, cátodo y electrolito), así como sus principales ventajas, desafíos y estrategias de mejora. Mientras que las baterías Li-S ofrecen mayor capacidad teórica y menor impacto ambiental, presentan problemas de estabilidad y ciclabilidad. Las Li-O2 destacan por su altísima densidad energética, pero su complejidad química limita su aplicabilidad actual. En conjunto, aunque las tecnologías post-litio aún requieren avances significativos, su desarrollo resulta crucial para satisfacer la creciente demanda de almacenamiento energético y facilitar la descarbonización global.
Dirección
TABOADA ANTELO, PABLO (Tutoría)
BARBOSA FERNANDEZ, SILVIA Cotutoría
TABOADA ANTELO, PABLO (Tutoría)
BARBOSA FERNANDEZ, SILVIA Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Determinación de la resolución en barras centelleadoras con lectura de SiPM y programación de la adquisición de un osciloscopio digital de alta tasa de muestreo
Autoría
X.A.P.
Grado en Física
X.A.P.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
El presente Trabajo de Fin de Grado caracteriza la respuesta temporal del osciloscopio Tektronix MSO64B frente a pulsos que simulan la radiación cósmica en el supercomputador cuántico Qmio del CESGA. Para esto se diseñó un sistema experimental con generadores de funciones de alta frecuencia (T3AWG3352 e Keysight 33500B) conectados al osciloscopio mediante cables coaxiales de 5 m y 10 m. Estas condiciones reproducen el rápido tránsito de muones y otras partículas, requiriendo técnicas de disparo de alta precisión. Se compararon dos métodos para determinar el instante de llegada de las señales, el Constant Fraction Discriminator (CFD) y tiempo a voltaje umbral constante. El estudio abarcó tres escenarios: pulsos idénticos, variaciones de amplitud y tiempos de caída asimétricos. Posteriormente, se analizó la desviación típica, sesos sistemáticos y la correlación entre canales (debido al jitter común del trigger). Obtuvimos así para el método CFD una resolución de unos 100 ps, con pocas diferencias entre las tres condiciones. Para garantizar estos resultados concluimos que los parámetros óptimos se encontraban en el rango k (0.2,0.3) y tau (0.7,0.8)td. Para umbral constante, las desviaciones de 100 a 500 ps hacen visible su sensibilidad a las variaciones de amplitud. En conjunto, el CFD demuestra ser la técnica óptima para mitigar los errores inducidos por la radiación cósmica en los qubits.
El presente Trabajo de Fin de Grado caracteriza la respuesta temporal del osciloscopio Tektronix MSO64B frente a pulsos que simulan la radiación cósmica en el supercomputador cuántico Qmio del CESGA. Para esto se diseñó un sistema experimental con generadores de funciones de alta frecuencia (T3AWG3352 e Keysight 33500B) conectados al osciloscopio mediante cables coaxiales de 5 m y 10 m. Estas condiciones reproducen el rápido tránsito de muones y otras partículas, requiriendo técnicas de disparo de alta precisión. Se compararon dos métodos para determinar el instante de llegada de las señales, el Constant Fraction Discriminator (CFD) y tiempo a voltaje umbral constante. El estudio abarcó tres escenarios: pulsos idénticos, variaciones de amplitud y tiempos de caída asimétricos. Posteriormente, se analizó la desviación típica, sesos sistemáticos y la correlación entre canales (debido al jitter común del trigger). Obtuvimos así para el método CFD una resolución de unos 100 ps, con pocas diferencias entre las tres condiciones. Para garantizar estos resultados concluimos que los parámetros óptimos se encontraban en el rango k (0.2,0.3) y tau (0.7,0.8)td. Para umbral constante, las desviaciones de 100 a 500 ps hacen visible su sensibilidad a las variaciones de amplitud. En conjunto, el CFD demuestra ser la técnica óptima para mitigar los errores inducidos por la radiación cósmica en los qubits.
Dirección
ALVAREZ POL, HECTOR (Tutoría)
ALVAREZ POL, HECTOR (Tutoría)
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Resolución de modelos de la física con redes neuronales
Autoría
R.A.G.
Grado en Física
R.A.G.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
En este trabajo, exploraremos un método para resolver ecuaciones diferenciales utilizando redes neuronales: las redes neuronales informadas por la física (PINN, por sus siglas en inglés). Al ser un método muy reciente y todavía en desarrollo, aún no existe un consenso sobre cómo sortear las limitaciones actuales de las PINN. En nuestro caso, implementaremos el algoritmo Multi-Stage para reducir el error de la solución predicha por la PINN. Este algoritmo está inspirado en teoría de perturbaciones: construiremos la solución de nuestro problema como la suma de n redes neuronales. Además, mejoraremos la capacidad de nuestra red neuronal para ajustar funciones de altas frecuencias modificando su función de activación. Finalmente, utilizaremos las PINN para resolver diferentes modelos de la física en los que el número de variables y el orden de las derivadas sea distinto para cada uno. Cada modelo lo resolveremos de dos formas diferentes: la primera vez, implementaremos los algoritmos desarrollados a lo largo del trabajo; la segunda vez, resolveremos las ecuaciones diferenciales sin aplicar ninguna de estas mejoras. De esta forma podremos estudiar la efectividad del método utilizado
En este trabajo, exploraremos un método para resolver ecuaciones diferenciales utilizando redes neuronales: las redes neuronales informadas por la física (PINN, por sus siglas en inglés). Al ser un método muy reciente y todavía en desarrollo, aún no existe un consenso sobre cómo sortear las limitaciones actuales de las PINN. En nuestro caso, implementaremos el algoritmo Multi-Stage para reducir el error de la solución predicha por la PINN. Este algoritmo está inspirado en teoría de perturbaciones: construiremos la solución de nuestro problema como la suma de n redes neuronales. Además, mejoraremos la capacidad de nuestra red neuronal para ajustar funciones de altas frecuencias modificando su función de activación. Finalmente, utilizaremos las PINN para resolver diferentes modelos de la física en los que el número de variables y el orden de las derivadas sea distinto para cada uno. Cada modelo lo resolveremos de dos formas diferentes: la primera vez, implementaremos los algoritmos desarrollados a lo largo del trabajo; la segunda vez, resolveremos las ecuaciones diferenciales sin aplicar ninguna de estas mejoras. De esta forma podremos estudiar la efectividad del método utilizado
Dirección
FARIÑA BIASI, ANXO (Tutoría)
FARIÑA BIASI, ANXO (Tutoría)
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
El teorema de la aplicación de Riemann
Autoría
P.A.G.
Doble Grado en Matemáticas y en Física
P.A.G.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 16:40
16.07.2025 16:40
Resumen
El presente documento aborda el teorema de la aplicación de Riemann, un resultado esencial en el análisis complejo, que establece la existencia de aplicaciones conformes entre conjuntos simplemente conexos y el disco unidad. Para ello, se introduce el marco teórico necesario, comenzando con una breve introducción sobre el teorema, así como algunas definiciones y resultados fundamentales de las funciones holomorfas. Más adelante, se profundiza en las transformaciones de Möbius, una herramienta esencial en el desarrollo del trabajo que, junto con el lema de Schwarz, tiene un papel fundamental para caracterizar los automorfismos del disco unidad. Se cierra este desarrollo teórico con el estudio de algunas propiedades del espacio de las funciones holomorfas, proporcionando así una base para poder dar una demostración rigurosa del teorema. Finalmente, se destaca la importancia del mismo, poniendo de manifiesto algunas aplicaciones relevantes en otras ramas científicas, como pueda ser la mecánica de fluidos en la física, y se dará un algoritmo para hallar de manera estimativa la aplicación que describe el teorema.
El presente documento aborda el teorema de la aplicación de Riemann, un resultado esencial en el análisis complejo, que establece la existencia de aplicaciones conformes entre conjuntos simplemente conexos y el disco unidad. Para ello, se introduce el marco teórico necesario, comenzando con una breve introducción sobre el teorema, así como algunas definiciones y resultados fundamentales de las funciones holomorfas. Más adelante, se profundiza en las transformaciones de Möbius, una herramienta esencial en el desarrollo del trabajo que, junto con el lema de Schwarz, tiene un papel fundamental para caracterizar los automorfismos del disco unidad. Se cierra este desarrollo teórico con el estudio de algunas propiedades del espacio de las funciones holomorfas, proporcionando así una base para poder dar una demostración rigurosa del teorema. Finalmente, se destaca la importancia del mismo, poniendo de manifiesto algunas aplicaciones relevantes en otras ramas científicas, como pueda ser la mecánica de fluidos en la física, y se dará un algoritmo para hallar de manera estimativa la aplicación que describe el teorema.
Dirección
CAO LABORA, DANIEL (Tutoría)
CAO LABORA, DANIEL (Tutoría)
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Estudio teórico-computacional de la criticalidad en modelos de tipo Ising
Autoría
P.A.G.
Doble Grado en Matemáticas y en Física
P.A.G.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
El presente documento aborda el modelo de Ising, ampliamente utilizado en el estudio de transiciones de fase, tanto desde una perspectiva teórica como computacional. Se introducen brevemente conceptos relacionados con fenómenos críticos, seguidos de una descripción del modelo y de algunos desarrollos y resultados teóricos conocidos en redes unidimensionales y bidimensionales con interacción entre primeros vecinos. Posteriormente, se realiza un estudio computacional, introduciendo los algoritmos de Metropolis y Wolff, demostrando la ergodicidad y el cumplimiento de la ecuación de balance detallado de ambos. Se comparan estos dos algoritmos, evidenciando que el de Wolff presenta una convergencia más rápida cerca del punto crítico. A través de un código desarrollado para este trabajo, se caracterizan las transiciones de fase en redes desde una hasta cuatro dimensiones con interacción entre primeros vecinos y se implementa el modelo en redes complejas de tipo small world, tanto unidimensionales como bidimensionales.
El presente documento aborda el modelo de Ising, ampliamente utilizado en el estudio de transiciones de fase, tanto desde una perspectiva teórica como computacional. Se introducen brevemente conceptos relacionados con fenómenos críticos, seguidos de una descripción del modelo y de algunos desarrollos y resultados teóricos conocidos en redes unidimensionales y bidimensionales con interacción entre primeros vecinos. Posteriormente, se realiza un estudio computacional, introduciendo los algoritmos de Metropolis y Wolff, demostrando la ergodicidad y el cumplimiento de la ecuación de balance detallado de ambos. Se comparan estos dos algoritmos, evidenciando que el de Wolff presenta una convergencia más rápida cerca del punto crítico. A través de un código desarrollado para este trabajo, se caracterizan las transiciones de fase en redes desde una hasta cuatro dimensiones con interacción entre primeros vecinos y se implementa el modelo en redes complejas de tipo small world, tanto unidimensionales como bidimensionales.
Dirección
MENDEZ MORALES, TRINIDAD (Tutoría)
Montes Campos, Hadrián Cotutoría
MENDEZ MORALES, TRINIDAD (Tutoría)
Montes Campos, Hadrián Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Análisis del decaimiento B+ to mumutaunu desde un punto de vista teórico y experimental
Autoría
D.A.D.A.
Doble Grado en Matemáticas y en Física
D.A.D.A.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Este trabajo busca ser un primer estudio, tanto desde el punto de vista teórico como el experimental, de la desintegración B+ to mumutaunu en el contexto del experimento LHCb. En primer lugar, se sigue un desarrollo teórico obtenido de fuentes bibliográficas en el que se realiza un cálculo similar, buscando comprender los mecanismos del mismo y adaptarlo a la situación de interés; el objetivo último de este análisis es obtener un primer valor numérico de referencia para el branching ratio (BR) de esta desintegración. A continuación, diseñamos un análisis con la finalidad de poder detectar un pico de señal de esta desintegración o poder establecer una cota superior para el BR; para ello, solventamos el problema de la información faltante por la imposibilidad de detección del neutrino a través de la introducción de la masa corregida y presentamos las formas de seleccionar los datos, la eliminación de fondo combinatorio a través de herramientas de machine learning y un estudio de la capacidad de diferenciar un pico de señal a través de simulaciones y ajustes, junto con herramientas estadísticas como el teorema de Wilks. Por último, presentamos los avances logrados en un primer análisis, concluyendo con el trabajo a desarrollar para una futura ampliación de este trabajo
Este trabajo busca ser un primer estudio, tanto desde el punto de vista teórico como el experimental, de la desintegración B+ to mumutaunu en el contexto del experimento LHCb. En primer lugar, se sigue un desarrollo teórico obtenido de fuentes bibliográficas en el que se realiza un cálculo similar, buscando comprender los mecanismos del mismo y adaptarlo a la situación de interés; el objetivo último de este análisis es obtener un primer valor numérico de referencia para el branching ratio (BR) de esta desintegración. A continuación, diseñamos un análisis con la finalidad de poder detectar un pico de señal de esta desintegración o poder establecer una cota superior para el BR; para ello, solventamos el problema de la información faltante por la imposibilidad de detección del neutrino a través de la introducción de la masa corregida y presentamos las formas de seleccionar los datos, la eliminación de fondo combinatorio a través de herramientas de machine learning y un estudio de la capacidad de diferenciar un pico de señal a través de simulaciones y ajustes, junto con herramientas estadísticas como el teorema de Wilks. Por último, presentamos los avances logrados en un primer análisis, concluyendo con el trabajo a desarrollar para una futura ampliación de este trabajo
Dirección
CID VIDAL, XABIER (Tutoría)
Fernández Gómez, Miguel Cotutoría
CID VIDAL, XABIER (Tutoría)
Fernández Gómez, Miguel Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Ágebras de Clifford y grupos de spin
Autoría
D.A.D.A.
Doble Grado en Matemáticas y en Física
D.A.D.A.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 10:00
16.07.2025 10:00
Resumen
El objetivo de este trabajo es ser un punto de partida para el estudio de los grupos Spin a través del formalismo de las álgebras de Clifford. Para ello, primero se definen y construyen estas álgebras a través de las álgebras tensoriales, se estudian sus propiedades principales como superálgebras, su definición en base a generadores y relaciones y su conexión con el álgebra exterior. Después, se realiza una primera clasificación de las álgebras de Clifford reales de baja dimensión haciendo uso del producto tensor Z2-graduado para luego proceder a la clasificación completa de las mismas ---en los casos real y complejo---usando varios isomorfismos probados a lo largo del texto junto con la conocida como periodicidad de Bott. Posteriormente, procedemos a definir el grupo Spin como un subgrupo de las unidades del álgebra de Clifford y, tras estudiar la acción de estas últimas sobre la totalidad del álgebra, comprobamos haciendo uso de esta acción que los grupos Spin son un revestimiento doble del grupo especial ortogonal SO(n). También estudiamos algunas propiedades adicionales de estos grupos y clasificamos algunos casos de baja dimensión.
El objetivo de este trabajo es ser un punto de partida para el estudio de los grupos Spin a través del formalismo de las álgebras de Clifford. Para ello, primero se definen y construyen estas álgebras a través de las álgebras tensoriales, se estudian sus propiedades principales como superálgebras, su definición en base a generadores y relaciones y su conexión con el álgebra exterior. Después, se realiza una primera clasificación de las álgebras de Clifford reales de baja dimensión haciendo uso del producto tensor Z2-graduado para luego proceder a la clasificación completa de las mismas ---en los casos real y complejo---usando varios isomorfismos probados a lo largo del texto junto con la conocida como periodicidad de Bott. Posteriormente, procedemos a definir el grupo Spin como un subgrupo de las unidades del álgebra de Clifford y, tras estudiar la acción de estas últimas sobre la totalidad del álgebra, comprobamos haciendo uso de esta acción que los grupos Spin son un revestimiento doble del grupo especial ortogonal SO(n). También estudiamos algunas propiedades adicionales de estos grupos y clasificamos algunos casos de baja dimensión.
Dirección
DIAZ RAMOS, JOSE CARLOS (Tutoría)
Lorenzo Naveiro, Juan Manuel Cotutoría
DIAZ RAMOS, JOSE CARLOS (Tutoría)
Lorenzo Naveiro, Juan Manuel Cotutoría
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Análisis y aplicaciones del algoritmo de Dijkstra en la optimización de rutas: en búsqueda del camino más corto
Autoría
A.B.V.
Doble Grado en Matemáticas y en Física
A.B.V.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
15.07.2025 09:10
15.07.2025 09:10
Resumen
En este proyecto partimos de conceptos básicos sobre los problemas de flujo en grafos para luego ver otros más específicos que nos ayuden a conseguir nuestro objetivo principal: explicar diferentes algoritmos para resolver el problema del camino más corto. En el primer capítulo introduciremos conceptos de la teoría de grafos y explicaremos nociones importantes para los siguientes capítulos, como la definición de nodo, arco o coste. Además, introduciremos los problemas de flujo de coste mínimo junto con sus formulaciones matemáticas. Por último, analizaremos una propiedad muy importante a la hora de resolver este tipo de problemas: la unimodularidad, junto con algunas propiedades que facilitan su resolución. En el segundo capítulo nos centraremos en el problema del camino más corto, describiendo que existen diferentes tipos de algoritmos para resolverlo con especial énfasis en el algoritmo de Dijkstra. También proporcionaremos algunas implementaciones de este y otros algoritmos que pueden ayudar a resolver el problema de forma más eficiente. Además, las explicaciones irán acompañadas de ejemplos para facilitar la comprensión de los algoritmos. Finalmente, el último capítulo presenta una aplicación práctica del cálculo del camino más corto en la red ferroviaria española. Incluye una descripción detallada de la implementación en Python, los datos utilizados y una representación gráfica de las rutas obtenidas.
En este proyecto partimos de conceptos básicos sobre los problemas de flujo en grafos para luego ver otros más específicos que nos ayuden a conseguir nuestro objetivo principal: explicar diferentes algoritmos para resolver el problema del camino más corto. En el primer capítulo introduciremos conceptos de la teoría de grafos y explicaremos nociones importantes para los siguientes capítulos, como la definición de nodo, arco o coste. Además, introduciremos los problemas de flujo de coste mínimo junto con sus formulaciones matemáticas. Por último, analizaremos una propiedad muy importante a la hora de resolver este tipo de problemas: la unimodularidad, junto con algunas propiedades que facilitan su resolución. En el segundo capítulo nos centraremos en el problema del camino más corto, describiendo que existen diferentes tipos de algoritmos para resolverlo con especial énfasis en el algoritmo de Dijkstra. También proporcionaremos algunas implementaciones de este y otros algoritmos que pueden ayudar a resolver el problema de forma más eficiente. Además, las explicaciones irán acompañadas de ejemplos para facilitar la comprensión de los algoritmos. Finalmente, el último capítulo presenta una aplicación práctica del cálculo del camino más corto en la red ferroviaria española. Incluye una descripción detallada de la implementación en Python, los datos utilizados y una representación gráfica de las rutas obtenidas.
Dirección
GONZALEZ RUEDA, ANGEL MANUEL (Tutoría)
GONZALEZ RUEDA, ANGEL MANUEL (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Inestabilidad baroclínica y su sensibilidad a los perfiles verticales de temperatura y viento en capas atmosféricas
Autoría
A.B.V.
Doble Grado en Matemáticas y en Física
A.B.V.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Este Trabajo de Fin de Grado tiene como objetivo estudiar la inestabilidad baroclínica en la atmósfera mediante un análisis teórico y simulaciones numéricas. En la parte teórica, se explicarán los factores clave que influyen en este fenómeno, como la cizalladura vertical del viento, los gradientes térmicos y la estratificación atmosférica, además del papel de la rotación planetaria y la fuerza de Coriolis. A continuación, se realizarán simulaciones numéricas para analizar el impacto de las variaciones en los perfiles de temperatura y viento en el crecimiento de las perturbaciones baroclínicas. Los resultados permitirán evaluar cómo estas condiciones atmosféricas afectan a la evolución de las ondas baroclínicas, comparando las simulaciones con las predicciones teóricas. Finalmente, se discutirá la concordancia entre teoría y simulaciones, destacando las condiciones que favorecen el desarrollo de la inestabilidad baroclínica y sus posibles aplicaciones en la predicción meteorológica.
Este Trabajo de Fin de Grado tiene como objetivo estudiar la inestabilidad baroclínica en la atmósfera mediante un análisis teórico y simulaciones numéricas. En la parte teórica, se explicarán los factores clave que influyen en este fenómeno, como la cizalladura vertical del viento, los gradientes térmicos y la estratificación atmosférica, además del papel de la rotación planetaria y la fuerza de Coriolis. A continuación, se realizarán simulaciones numéricas para analizar el impacto de las variaciones en los perfiles de temperatura y viento en el crecimiento de las perturbaciones baroclínicas. Los resultados permitirán evaluar cómo estas condiciones atmosféricas afectan a la evolución de las ondas baroclínicas, comparando las simulaciones con las predicciones teóricas. Finalmente, se discutirá la concordancia entre teoría y simulaciones, destacando las condiciones que favorecen el desarrollo de la inestabilidad baroclínica y sus posibles aplicaciones en la predicción meteorológica.
Dirección
MIGUEZ MACHO, GONZALO (Tutoría)
CRESPO OTERO, ALFREDO Cotutoría
MIGUEZ MACHO, GONZALO (Tutoría)
CRESPO OTERO, ALFREDO Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Correlación entre los episodios de lluvia en la cuenca del río Ulla con el caudal medido
Autoría
A.B.O.
Grado en Física
A.B.O.
Grado en Física
Fecha de la defensa
16.09.2025 10:30
16.09.2025 10:30
Resumen
A lo largo de este trabajo se estudiará la relación entre la precipitación y el caudal en la cuenca del río Ulla, el tercer río más largo de Galicia. Para ello partiremos de nociones básicas de hidrología, concretamente de la ecuación de balance hídrica que representa el equilibrio entre las entradas y salidas de un sistema hídrico. Estos conceptos se apoyan en leyes fundamentales, como la conservación de la masa y la energía, así como en propiedades físicas del agua, como la tensión superficial o la capacidad calorífica. El estudio adopta un enfoque empírico, donde el eje central son datos diarios de precipitación acumulada y caudal medio. Un punto clave del trabajo es la estimación del dato de lluvia acumulada en la cuenca. Para ello, se utilizan datos registrados por los pluviómetros de la red meteorológica de MeteoGalicia ajustados con las mediciones realizadas por el radar meteorológico ubicado en Monte Xesteiras, Pontevedra. La interpolación se realiza con los siguientes métodos estadísticos: modelo aditivo generalizado (GAM), interpolación ordinary kriging (OK) y método de distancia inversa ponderada (IDW). El periodo de estudio abarca un total de dieciséis meses, lo que permite identificar y comparar patrones estacionales. Los resultados ponen de manifiesto que la respuesta del caudal frente a un evento de lluvia no es instantánea, sino que presenta un retardo temporal. Este retraso puede estar asociado a procesos del ciclo hidrológico como es la infiltración. Las gráficas obtenidas reflejan la complejidad de establecer una relación directa entre la lluvia y el caudal, ya que el ciclo hidrológico está conformado de cantidad de procesos interdependientes difíciles de medir que afectan el caudal.
A lo largo de este trabajo se estudiará la relación entre la precipitación y el caudal en la cuenca del río Ulla, el tercer río más largo de Galicia. Para ello partiremos de nociones básicas de hidrología, concretamente de la ecuación de balance hídrica que representa el equilibrio entre las entradas y salidas de un sistema hídrico. Estos conceptos se apoyan en leyes fundamentales, como la conservación de la masa y la energía, así como en propiedades físicas del agua, como la tensión superficial o la capacidad calorífica. El estudio adopta un enfoque empírico, donde el eje central son datos diarios de precipitación acumulada y caudal medio. Un punto clave del trabajo es la estimación del dato de lluvia acumulada en la cuenca. Para ello, se utilizan datos registrados por los pluviómetros de la red meteorológica de MeteoGalicia ajustados con las mediciones realizadas por el radar meteorológico ubicado en Monte Xesteiras, Pontevedra. La interpolación se realiza con los siguientes métodos estadísticos: modelo aditivo generalizado (GAM), interpolación ordinary kriging (OK) y método de distancia inversa ponderada (IDW). El periodo de estudio abarca un total de dieciséis meses, lo que permite identificar y comparar patrones estacionales. Los resultados ponen de manifiesto que la respuesta del caudal frente a un evento de lluvia no es instantánea, sino que presenta un retardo temporal. Este retraso puede estar asociado a procesos del ciclo hidrológico como es la infiltración. Las gráficas obtenidas reflejan la complejidad de establecer una relación directa entre la lluvia y el caudal, ya que el ciclo hidrológico está conformado de cantidad de procesos interdependientes difíciles de medir que afectan el caudal.
Dirección
Pérez Muñuzuri, Vicente (Tutoría)
Pérez Muñuzuri, Vicente (Tutoría)
Tribunal
LIÑARES BEIRAS, JESUS (Presidente/a)
AROSA LOBATO, YAGO (Secretario/a)
VILLANUEVA LOPEZ, MARIA (Vocal)
LIÑARES BEIRAS, JESUS (Presidente/a)
AROSA LOBATO, YAGO (Secretario/a)
VILLANUEVA LOPEZ, MARIA (Vocal)
Estimación de parámetros de encuentros hiperbólicos de agujeros negros con el detector de ondas gravitacionales Einstein Telescope
Autoría
X.B.G.
Grado en Física
X.B.G.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Este proyecto se centra en la estimación de parámetros físicos en encuentros hiperbólicos de agujeros negros con el futuro detector de ondas gravitacionales Einstein Telescope. Estas ondas, predichas por Einstein en 1916 y detectadas por primera vez en 2015 han permitido hasta ahora la detección y estudio de unas 90 fusiones de agujeros negros. En los todavía no detectados encuentros, dos agujeros negros se aproximan generando un pulso de ondas gravitacionales sin llegar a fusionarse. Estos sucesos ofrecen información valiosa sobre la dinámica y población de agujeros negros en entornos densos, como cúmulos estelares. Este trabajo se centra en evaluar con qué precisión podrían estimarse los parámetros físicos de este tipo de encuentros a partir de sus señales gravitacionales. Para ello, se utiliza un surrogate model que permite generar waveforms representativas de estos eventos con gran eficiencia, y se aplica el formalismo de la matriz de Fisher, una herramienta estadística que permite estimar incertidumbres de parámetros sin necesidad de un análisis bayesiano completo. A lo largo del trabajo se analiza la sensibilidad de la señal a variaciones en distintos parámetros (masa, espín, inclinación, distancia de luminosidad...) y se cuantifican sus errores esperados en función de la distancia de luminosidad y del parámetro de impacto. Los resultados muestran que, para eventos a distancias del orden de 500-1000 Mpc (consistentes con las de detecciones actuales), parámetros clave como el espín o la masa pueden determinarse con precisiones relativas inferiores al 10% siempre que la señal tenga un SNR alto y la trayectoria sea suficientemente cerrada (menor parámetro de impacto). Este estudio refuerza el potencial del Einstein Telescope para detectar y caracterizar encuentros hiperbólicos y ofrece una evaluación cuantitativa de su capacidad para medir los parámetros fundamentales de estos eventos dinámicos.
Este proyecto se centra en la estimación de parámetros físicos en encuentros hiperbólicos de agujeros negros con el futuro detector de ondas gravitacionales Einstein Telescope. Estas ondas, predichas por Einstein en 1916 y detectadas por primera vez en 2015 han permitido hasta ahora la detección y estudio de unas 90 fusiones de agujeros negros. En los todavía no detectados encuentros, dos agujeros negros se aproximan generando un pulso de ondas gravitacionales sin llegar a fusionarse. Estos sucesos ofrecen información valiosa sobre la dinámica y población de agujeros negros en entornos densos, como cúmulos estelares. Este trabajo se centra en evaluar con qué precisión podrían estimarse los parámetros físicos de este tipo de encuentros a partir de sus señales gravitacionales. Para ello, se utiliza un surrogate model que permite generar waveforms representativas de estos eventos con gran eficiencia, y se aplica el formalismo de la matriz de Fisher, una herramienta estadística que permite estimar incertidumbres de parámetros sin necesidad de un análisis bayesiano completo. A lo largo del trabajo se analiza la sensibilidad de la señal a variaciones en distintos parámetros (masa, espín, inclinación, distancia de luminosidad...) y se cuantifican sus errores esperados en función de la distancia de luminosidad y del parámetro de impacto. Los resultados muestran que, para eventos a distancias del orden de 500-1000 Mpc (consistentes con las de detecciones actuales), parámetros clave como el espín o la masa pueden determinarse con precisiones relativas inferiores al 10% siempre que la señal tenga un SNR alto y la trayectoria sea suficientemente cerrada (menor parámetro de impacto). Este estudio refuerza el potencial del Einstein Telescope para detectar y caracterizar encuentros hiperbólicos y ofrece una evaluación cuantitativa de su capacidad para medir los parámetros fundamentales de estos eventos dinámicos.
Dirección
CALDERON BUSTILLO, JUAN (Tutoría)
CALDERON BUSTILLO, JUAN (Tutoría)
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Implementación de un sistema compacto para detección de radiación ionizante mediante un APD
Autoría
N.B.A.
Grado en Física
N.B.A.
Grado en Física
Fecha de la defensa
16.09.2025 10:30
16.09.2025 10:30
Resumen
En este trabajo se desarrolla un dosímetro de radiación ionizante basado en un fotodiodo de avalancha (APD) de Silicio. El sistema consta de varias etapas funcionales: detección, acondicionamiento de señal y su posterior digitalización. El acondicionamiento se realizó mediante un circuito analógico encargado de amplificar e integrar las señales eléctricas generadas por el APD. Posteriormente, la señal fue digitalizada mediante el conversor analógico-digital (ADC) integrado en la placa ESP32-C3, y se programó el procesamiento de datos empleando MicroPython. Se implementó además una conexión Wi-Fi que permite transmitir en tiempo real los valores medidos a dispositivos externos. El diseño del circuito se llevó a cabo con la herramienta KiCad y su comportamiento fue simulado con SPICE. Finalmente, se montó el dispositivo completo en laboratorio y se analizaron las señales resultantes en cada etapa. Asimismo, se evaluaron aspectos como la viabilidad técnica y económica del sistema desarrollado.
En este trabajo se desarrolla un dosímetro de radiación ionizante basado en un fotodiodo de avalancha (APD) de Silicio. El sistema consta de varias etapas funcionales: detección, acondicionamiento de señal y su posterior digitalización. El acondicionamiento se realizó mediante un circuito analógico encargado de amplificar e integrar las señales eléctricas generadas por el APD. Posteriormente, la señal fue digitalizada mediante el conversor analógico-digital (ADC) integrado en la placa ESP32-C3, y se programó el procesamiento de datos empleando MicroPython. Se implementó además una conexión Wi-Fi que permite transmitir en tiempo real los valores medidos a dispositivos externos. El diseño del circuito se llevó a cabo con la herramienta KiCad y su comportamiento fue simulado con SPICE. Finalmente, se montó el dispositivo completo en laboratorio y se analizaron las señales resultantes en cada etapa. Asimismo, se evaluaron aspectos como la viabilidad técnica y económica del sistema desarrollado.
Dirección
ALVAREZ POL, HECTOR (Tutoría)
CASAREJOS RUIZ, ENRIQUE Cotutoría
ALVAREZ POL, HECTOR (Tutoría)
CASAREJOS RUIZ, ENRIQUE Cotutoría
Tribunal
LIÑARES BEIRAS, JESUS (Presidente/a)
AROSA LOBATO, YAGO (Secretario/a)
VILLANUEVA LOPEZ, MARIA (Vocal)
LIÑARES BEIRAS, JESUS (Presidente/a)
AROSA LOBATO, YAGO (Secretario/a)
VILLANUEVA LOPEZ, MARIA (Vocal)
Empleo de la IA para el desarrollo de nuevos materiales
Autoría
R.B.F.
Grado en Física
R.B.F.
Grado en Física
Fecha de la defensa
18.07.2025 09:30
18.07.2025 09:30
Resumen
El desarrollo de nuevos materiales está siendo influenciado por la inteligencia artificial (IA), que permite diseñar y optimizar materiales con mayor rapidez y precisión. En particular, en la física de la materia blanda, sistemas como las nanopartículas basadas en lípidos ofrecen propiedades únicas para aplicaciones biomédicas y tecnológicas. Para aprovechar el potencial de la inteligencia artificial en este campo, se creó una base de datos de compuestos lipídicos combinando diversas fuentes existentes, con el objetivo de entrenar modelos que mejoren la comprensión y el diseño de nanopartículas lipídicas.
El desarrollo de nuevos materiales está siendo influenciado por la inteligencia artificial (IA), que permite diseñar y optimizar materiales con mayor rapidez y precisión. En particular, en la física de la materia blanda, sistemas como las nanopartículas basadas en lípidos ofrecen propiedades únicas para aplicaciones biomédicas y tecnológicas. Para aprovechar el potencial de la inteligencia artificial en este campo, se creó una base de datos de compuestos lipídicos combinando diversas fuentes existentes, con el objetivo de entrenar modelos que mejoren la comprensión y el diseño de nanopartículas lipídicas.
Dirección
TABOADA ANTELO, PABLO (Tutoría)
CAMBON FREIRE, ADRIANA Cotutoría
TABOADA ANTELO, PABLO (Tutoría)
CAMBON FREIRE, ADRIANA Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Estudio espacio-temporal de los neutrinos astrofísicos en el observatorio IceCube
Autoría
I.B.N.
Grado en Física
I.B.N.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
La detección de neutrinos de muy alta energía es clave en la astrofísica de partículas, ya que estas partículas neutras pueden viajar desde regiones densas y lejanas del universo sin ser desviadas, lo que las hace ideales para la Astronomía de Multimensajeros. El observatorio IceCube, en la Antártida, ha detectado un flujo de neutrinos de origen astrofísico, entre los cuales destacan los 'gold events', caracterizados por su alta energía y buena resolución angular. Sin embargo, aún no se han identificado sus fuentes. Este trabajo tiene como objetivos estudiar el experimento IceCube, comprender sus técnicas de análisis y aplicarlas al estudio espacial y temporal de estos eventos para investigar su posible origen.
La detección de neutrinos de muy alta energía es clave en la astrofísica de partículas, ya que estas partículas neutras pueden viajar desde regiones densas y lejanas del universo sin ser desviadas, lo que las hace ideales para la Astronomía de Multimensajeros. El observatorio IceCube, en la Antártida, ha detectado un flujo de neutrinos de origen astrofísico, entre los cuales destacan los 'gold events', caracterizados por su alta energía y buena resolución angular. Sin embargo, aún no se han identificado sus fuentes. Este trabajo tiene como objetivos estudiar el experimento IceCube, comprender sus técnicas de análisis y aplicarlas al estudio espacial y temporal de estos eventos para investigar su posible origen.
Dirección
ALVAREZ MUÑIZ, JAIME (Tutoría)
ALVAREZ MUÑIZ, JAIME (Tutoría)
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Tecnologías láser para conservación y restauración de patrimonio cultural.
Autoría
C.L.C.C.
Grado en Física
C.L.C.C.
Grado en Física
Fecha de la defensa
16.07.2025 17:00
16.07.2025 17:00
Resumen
En este trabajo se realizará una revisión de las tecnologías láser aplicadas en la conservación y restauración del patrimonio cultural y se analizarán los avances más recientes en este campo. Se particularizará el estudio a la limpieza por ablación láser de piezas metálicas poniendo de manifiesto las ventajas e inconvenientes de esta técnica. Para caracterizar y analizar el proceso de limpieza se utilizarán técnicas de microscopía óptica y confocal.
En este trabajo se realizará una revisión de las tecnologías láser aplicadas en la conservación y restauración del patrimonio cultural y se analizarán los avances más recientes en este campo. Se particularizará el estudio a la limpieza por ablación láser de piezas metálicas poniendo de manifiesto las ventajas e inconvenientes de esta técnica. Para caracterizar y analizar el proceso de limpieza se utilizarán técnicas de microscopía óptica y confocal.
Dirección
BAO VARELA, Mª CARMEN (Tutoría)
Gómez Varela, Ana Isabel Cotutoría
BAO VARELA, Mª CARMEN (Tutoría)
Gómez Varela, Ana Isabel Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Simulación de dinámica molecular de la proteína PSA y chaperonas en diferentes condiciones de pH
Autoría
S.C.R.
Grado en Física
S.C.R.
Grado en Física
Fecha de la defensa
16.07.2025 17:00
16.07.2025 17:00
Resumen
La PSA es una proteína fundamental en la detección temprana del cáncer de próstata, uno de los tipos con mayor tasa de mortalidad anual. Sin embargo, su utilidad como biomarcador se ve limitada por su baja especificidad, ya que sus niveles en sangre pueden incrementarse también en presencia de afecciones benignas, lo que puede generar falsos positivos. Por esta razón, ha surgido un creciente interés en identificar diferencias estructurales en la PSA que permitan distinguir su origen, con el objetivo de mejorar la precisión diagnóstica. En este estudio, se realizaron simulaciones de dinámica molecular en distintos entornos de pH con el fin de emular condiciones tumorales, caracterizadas por un medio más ácido, y condiciones benignas, más básicas. El propósito fue analizar posibles diferencias en las estructuras secundaria y terciaria de la PSA bajo estas condiciones. Los resultados obtenidos revelan variaciones en la conformación de la estructura secundaria de la proteína, atribuibles a cambios en la protonación de ciertos grupos polares inducidos por el pH. Esta modificación reduce las repulsiones internas, favorece la redistribución hidrofóbica y conduce a un aumento en la formación de puentes de hidrógeno, tanto intraproteicos como con el solvente, lo que se traduce en una mayor estabilidad estructural.
La PSA es una proteína fundamental en la detección temprana del cáncer de próstata, uno de los tipos con mayor tasa de mortalidad anual. Sin embargo, su utilidad como biomarcador se ve limitada por su baja especificidad, ya que sus niveles en sangre pueden incrementarse también en presencia de afecciones benignas, lo que puede generar falsos positivos. Por esta razón, ha surgido un creciente interés en identificar diferencias estructurales en la PSA que permitan distinguir su origen, con el objetivo de mejorar la precisión diagnóstica. En este estudio, se realizaron simulaciones de dinámica molecular en distintos entornos de pH con el fin de emular condiciones tumorales, caracterizadas por un medio más ácido, y condiciones benignas, más básicas. El propósito fue analizar posibles diferencias en las estructuras secundaria y terciaria de la PSA bajo estas condiciones. Los resultados obtenidos revelan variaciones en la conformación de la estructura secundaria de la proteína, atribuibles a cambios en la protonación de ciertos grupos polares inducidos por el pH. Esta modificación reduce las repulsiones internas, favorece la redistribución hidrofóbica y conduce a un aumento en la formación de puentes de hidrógeno, tanto intraproteicos como con el solvente, lo que se traduce en una mayor estabilidad estructural.
Dirección
Prieto Estévez, Gerardo (Tutoría)
DOMINGUEZ ARCA, VICENTE Cotutoría
Prieto Estévez, Gerardo (Tutoría)
DOMINGUEZ ARCA, VICENTE Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Puesta a punto de un interferómetro de difracción por punto para caracterizar propiedades de lágrimas artificiales
Autoría
E.C.G.
Grado en Física
E.C.G.
Grado en Física
Fecha de la defensa
16.07.2025 17:00
16.07.2025 17:00
Resumen
En este trabajo se recoge el montaje de un interfer´ometro de difracción por punto que será empleado para medir características de lágrimas artificiales, centrándose especialmente en el tiempo de ruptura de las lágrimas sobre lentes de contacto. En primer lugar, se ofrece una visión general de los conceptos básicos de interferencia, seguida de una descripción teórica del interferómetro de difracción por punto. A continuación, se describe todo el proceso detallado de creación del experimento; desde los materiales utilizados hasta la metodología seguida. Todos los problemas que fue necesario resolver para obtener un montaje funcional también se recogen en un apéndice. Seguidamente, se muestran los resultados obtenidos sobre el tiempo de ruptura y una discusión analizando e interpretando estos resultados. Los tiempos de ruptura fueron medidos para una misma lente de contacto utilizando diferentes líquidos. También se incluye un estudio cualitativo de otra propiedad de las lentes de contacto: el tiempo de rehidratación. Finalmente, se presentan las conclusiones del trabajo y se explican posibles mejoras y líneas de trabajo futuro basadas en este experimento.
En este trabajo se recoge el montaje de un interfer´ometro de difracción por punto que será empleado para medir características de lágrimas artificiales, centrándose especialmente en el tiempo de ruptura de las lágrimas sobre lentes de contacto. En primer lugar, se ofrece una visión general de los conceptos básicos de interferencia, seguida de una descripción teórica del interferómetro de difracción por punto. A continuación, se describe todo el proceso detallado de creación del experimento; desde los materiales utilizados hasta la metodología seguida. Todos los problemas que fue necesario resolver para obtener un montaje funcional también se recogen en un apéndice. Seguidamente, se muestran los resultados obtenidos sobre el tiempo de ruptura y una discusión analizando e interpretando estos resultados. Los tiempos de ruptura fueron medidos para una misma lente de contacto utilizando diferentes líquidos. También se incluye un estudio cualitativo de otra propiedad de las lentes de contacto: el tiempo de rehidratación. Finalmente, se presentan las conclusiones del trabajo y se explican posibles mejoras y líneas de trabajo futuro basadas en este experimento.
Dirección
ACOSTA PLAZA, EVA MARIA (Tutoría)
GARCIA PORTA, NERY Cotutoría
ACOSTA PLAZA, EVA MARIA (Tutoría)
GARCIA PORTA, NERY Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Centelleo en gases nobles y sus mezclas: una descripción analítica para detectores gaseosos
Autoría
M.C.C.
Grado en Física
M.C.C.
Grado en Física
Fecha de la defensa
16.09.2025 10:30
16.09.2025 10:30
Resumen
Los avances en la física de partículas, al igual que en cualquier otra ciencia, están ligados al desarrollo de la tecnología que se utiliza. El tema principal de este trabajo, los detectores gaseosos,específicamente las TPCs gaseosas, constituye uno de esos avances. En este estudio se intentará caracterizar los aspectos principales de los gases nobles que se utilizan, o podrían llegar a utilizarse, en estos dispositivos. El objetivo principal es intentar encontrar un modelo teórico simple pero efectivo que pueda reflejar el comportamiento de estos gases (principalmente el xenón) y compararlo con los datos obtenidos para los mismos.
Los avances en la física de partículas, al igual que en cualquier otra ciencia, están ligados al desarrollo de la tecnología que se utiliza. El tema principal de este trabajo, los detectores gaseosos,específicamente las TPCs gaseosas, constituye uno de esos avances. En este estudio se intentará caracterizar los aspectos principales de los gases nobles que se utilizan, o podrían llegar a utilizarse, en estos dispositivos. El objetivo principal es intentar encontrar un modelo teórico simple pero efectivo que pueda reflejar el comportamiento de estos gases (principalmente el xenón) y compararlo con los datos obtenidos para los mismos.
Dirección
GONZALEZ DIAZ, DIEGO (Tutoría)
GONZALEZ DIAZ, DIEGO (Tutoría)
Tribunal
LIÑARES BEIRAS, JESUS (Presidente/a)
AROSA LOBATO, YAGO (Secretario/a)
VILLANUEVA LOPEZ, MARIA (Vocal)
LIÑARES BEIRAS, JESUS (Presidente/a)
AROSA LOBATO, YAGO (Secretario/a)
VILLANUEVA LOPEZ, MARIA (Vocal)
Black-Scholes: Un puente entre física estadística y finanzas
Autoría
J.C.I.
Grado en Física
J.C.I.
Grado en Física
Fecha de la defensa
16.09.2025 10:30
16.09.2025 10:30
Resumen
En este trabajo de fin de grado se hará una revisión del modelo para precios de opciones financieras formulado por Black, Scholes y Merton en el año 1973. Para ello se introducirán los conceptos financieros pertinentes, así como las herramientas matemáticas necesarias para llegar la ecuación diferencial de Black-Scholes. Se hará una deducción de las dos soluciones que posee la ecuación en función del tipo de derivado con el que estemos tratando, y por último, mostraremos una serie de resultados con el objetivo de entender el comportamiento del precio de los derivados en función de los diferentes parámetros implicados en la valoración.
En este trabajo de fin de grado se hará una revisión del modelo para precios de opciones financieras formulado por Black, Scholes y Merton en el año 1973. Para ello se introducirán los conceptos financieros pertinentes, así como las herramientas matemáticas necesarias para llegar la ecuación diferencial de Black-Scholes. Se hará una deducción de las dos soluciones que posee la ecuación en función del tipo de derivado con el que estemos tratando, y por último, mostraremos una serie de resultados con el objetivo de entender el comportamiento del precio de los derivados en función de los diferentes parámetros implicados en la valoración.
Dirección
Varela Cabo, Luis Miguel (Tutoría)
OTERO LEMA, MARTIN Cotutoría
Varela Cabo, Luis Miguel (Tutoría)
OTERO LEMA, MARTIN Cotutoría
Tribunal
LIÑARES BEIRAS, JESUS (Presidente/a)
AROSA LOBATO, YAGO (Secretario/a)
VILLANUEVA LOPEZ, MARIA (Vocal)
LIÑARES BEIRAS, JESUS (Presidente/a)
AROSA LOBATO, YAGO (Secretario/a)
VILLANUEVA LOPEZ, MARIA (Vocal)
Superconductividad de Color en Materia Densa de Quarks
Autoría
I.C.T.
Grado en Física
I.C.T.
Grado en Física
Fecha de la defensa
16.09.2025 10:30
16.09.2025 10:30
Resumen
La superconductividad de color en materia densa de quarks estudia como se comporta la materia a densidades elevadas y bajas temperaturas. En la teoría propuesta, los grados de libertad relevantes serán los quarks ligeros (u, d, s) y los gluones. Previo al tratamiento del tema, en el trabajo se introducen los fundamentos del Modelo Estándar y de QCD, donde se desenvuelven conceptos clave como las simetrías y sus rupturas espontáneas, el confinamiento, o la libertad asintótica. Posteriormente se analiza la superconductividad convencional: se introduce la teoría BCS y la formación de pares de Cooper, como analogía con el tema principal del trabajo. La inestabilidad en la superficie de Fermi hace que la formación de pares entre quarks sea favorable. A densidades asintóticas, el emparejamiento entre quarks será simétrico y originará la fase CFL, de la que podemos calcular parámetros fundamentales de primeros principios. Al disminuir la densidad, la masa no nula del quark s introduce estreses en el pairing, que originarán una gran variedad de estados superconductores con un patrón de emparejamiento menos simétrico que CFL y del los que solo podremos hacer un análisis semi-cuantitativo a través de modelos. Finalmente, se proponen observables astrofísicos que podrían aportar evidencias de la existencia de esta clase de materia exótica en los objetos más densos del Universo: las estrellas de neutrones.
La superconductividad de color en materia densa de quarks estudia como se comporta la materia a densidades elevadas y bajas temperaturas. En la teoría propuesta, los grados de libertad relevantes serán los quarks ligeros (u, d, s) y los gluones. Previo al tratamiento del tema, en el trabajo se introducen los fundamentos del Modelo Estándar y de QCD, donde se desenvuelven conceptos clave como las simetrías y sus rupturas espontáneas, el confinamiento, o la libertad asintótica. Posteriormente se analiza la superconductividad convencional: se introduce la teoría BCS y la formación de pares de Cooper, como analogía con el tema principal del trabajo. La inestabilidad en la superficie de Fermi hace que la formación de pares entre quarks sea favorable. A densidades asintóticas, el emparejamiento entre quarks será simétrico y originará la fase CFL, de la que podemos calcular parámetros fundamentales de primeros principios. Al disminuir la densidad, la masa no nula del quark s introduce estreses en el pairing, que originarán una gran variedad de estados superconductores con un patrón de emparejamiento menos simétrico que CFL y del los que solo podremos hacer un análisis semi-cuantitativo a través de modelos. Finalmente, se proponen observables astrofísicos que podrían aportar evidencias de la existencia de esta clase de materia exótica en los objetos más densos del Universo: las estrellas de neutrones.
Dirección
MERINO GAYOSO, CARLOS MIGUEL (Tutoría)
MERINO GAYOSO, CARLOS MIGUEL (Tutoría)
Tribunal
LIÑARES BEIRAS, JESUS (Presidente/a)
AROSA LOBATO, YAGO (Secretario/a)
VILLANUEVA LOPEZ, MARIA (Vocal)
LIÑARES BEIRAS, JESUS (Presidente/a)
AROSA LOBATO, YAGO (Secretario/a)
VILLANUEVA LOPEZ, MARIA (Vocal)
Evaluación de la Temperatura Efectiva mediante Simulación Cuántica
Autoría
A.C.S.
Doble Grado en Matemáticas y en Física
A.C.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 17:00
16.07.2025 17:00
Resumen
Una línea importante de investigación en el área de la computación cuántica está dirigida a la detección y mitigación de ruido. En este trabajo, nos centraremos en los métodos de medida de la temperatura efectiva, una magnitud usada para estimar la población residual del estado excitado de un cúbit, debida a las fluctuaciones térmicas en el dispositivo. En primer lugar, se estudian los sistemas físicos de los cúbits superconductores tipo transmón y su proceso de lectura dispersiva, que son de los que se dispone en el QMIO. A partir de ellos, se desarrolla una simulación estocástica sobre la cual puedan validarse los métodos de medida. Finalmente, se estudia un método de medida de la temperatura efectiva basado en oscilaciones de Rabi e-f , validando sus hipótesis y obteniendo resultados por simulación.
Una línea importante de investigación en el área de la computación cuántica está dirigida a la detección y mitigación de ruido. En este trabajo, nos centraremos en los métodos de medida de la temperatura efectiva, una magnitud usada para estimar la población residual del estado excitado de un cúbit, debida a las fluctuaciones térmicas en el dispositivo. En primer lugar, se estudian los sistemas físicos de los cúbits superconductores tipo transmón y su proceso de lectura dispersiva, que son de los que se dispone en el QMIO. A partir de ellos, se desarrolla una simulación estocástica sobre la cual puedan validarse los métodos de medida. Finalmente, se estudia un método de medida de la temperatura efectiva basado en oscilaciones de Rabi e-f , validando sus hipótesis y obteniendo resultados por simulación.
Dirección
MAS SOLE, JAVIER (Tutoría)
Gómez Tato, Andrés Cotutoría
MAS SOLE, JAVIER (Tutoría)
Gómez Tato, Andrés Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Computación Cuántica. Principios y Aplicaciones
Autoría
A.C.S.
Doble Grado en Matemáticas y en Física
A.C.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 17:20
16.07.2025 17:20
Resumen
Este trabajo estudia las bases de la Computación Cuántica de forma íntegramente matemática, abstrayéndose de los sistemas físicos reales detrás de esta idealización. En primer lugar, se estudian los fundamentos de la Mecánica Cuántica, explorando conceptos y propiedades de los espacios de Hilbert sobre el cuerpo de los números complejos. A continuación, se definen los conceptos de cúbit y p-cúbit, así como las puertas lógicas cuánticas que actúan sobre ellos. Por último, se desarrollará una serie de algoritmos importantes con aplicaciones concretas que demuestran el interés por este tipo de lógica. El objetivo del trabajo es ser una introducción, desde los conceptos trabajados en el Grado de Matemáticas, al mundo de la Computación Cuántica sin requerir conocimientos previos sobre Física, de forma que dé un acceso más sencillo al entendimiento de algoritmos cuánticos o a su desarrollo.
Este trabajo estudia las bases de la Computación Cuántica de forma íntegramente matemática, abstrayéndose de los sistemas físicos reales detrás de esta idealización. En primer lugar, se estudian los fundamentos de la Mecánica Cuántica, explorando conceptos y propiedades de los espacios de Hilbert sobre el cuerpo de los números complejos. A continuación, se definen los conceptos de cúbit y p-cúbit, así como las puertas lógicas cuánticas que actúan sobre ellos. Por último, se desarrollará una serie de algoritmos importantes con aplicaciones concretas que demuestran el interés por este tipo de lógica. El objetivo del trabajo es ser una introducción, desde los conceptos trabajados en el Grado de Matemáticas, al mundo de la Computación Cuántica sin requerir conocimientos previos sobre Física, de forma que dé un acceso más sencillo al entendimiento de algoritmos cuánticos o a su desarrollo.
Dirección
FERNANDEZ FERNANDEZ, FRANCISCO JAVIER (Tutoría)
FERNANDEZ FERNANDEZ, FRANCISCO JAVIER (Tutoría)
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Modelos de predicción y análisis financiero mediante el uso de técnicas de Deep Learning
Autoría
L.M.C.D.
Grado en Física
L.M.C.D.
Grado en Física
Fecha de la defensa
15.09.2025 11:00
15.09.2025 11:00
Resumen
Las técnicas de “Machine Learning” (ML) permiten realizar predicciones a partir de las variables extraídas en un determinado dominio. El ML es una metodología ampliamente utilizada hoy en día para abordar la resolución de problemas complejos en los diferentes campos científicos. El objetivo principal de este trabajo es el desarrollo de modelos de predicción en el ámbito de los mercados financieros. Para ello se utilizarán series temporales de datos extraídos de repositorios de dominio público. En cuanto a los objetivos concretos que se pretenden abordar, serían los siguientes: Estudio y comprensión del problema a resolver. Implementación y entrenamientos de redes neuronales, mediante el uso de paquetes de software conocidos. Estudio de la capacidad de los modelos creados para la predicción del precio de activos, amén de otras características propias como la volatilidad o el retorno esperado.
Las técnicas de “Machine Learning” (ML) permiten realizar predicciones a partir de las variables extraídas en un determinado dominio. El ML es una metodología ampliamente utilizada hoy en día para abordar la resolución de problemas complejos en los diferentes campos científicos. El objetivo principal de este trabajo es el desarrollo de modelos de predicción en el ámbito de los mercados financieros. Para ello se utilizarán series temporales de datos extraídos de repositorios de dominio público. En cuanto a los objetivos concretos que se pretenden abordar, serían los siguientes: Estudio y comprensión del problema a resolver. Implementación y entrenamientos de redes neuronales, mediante el uso de paquetes de software conocidos. Estudio de la capacidad de los modelos creados para la predicción del precio de activos, amén de otras características propias como la volatilidad o el retorno esperado.
Dirección
GARCIA TAHOCES, PABLO (Tutoría)
GARCIA TAHOCES, PABLO (Tutoría)
Tribunal
GONZALEZ FERREIRO, ELENA (Presidente/a)
VAZQUEZ RAMALLO, MANUEL (Secretario/a)
BAO VARELA, Mª CARMEN (Vocal)
GONZALEZ FERREIRO, ELENA (Presidente/a)
VAZQUEZ RAMALLO, MANUEL (Secretario/a)
BAO VARELA, Mª CARMEN (Vocal)
Estructuras espacio-temporales cercanas a la bifurcación de Hopf en sistemas de reacción-difusión.
Autoría
A.D.S.
Grado en Física
A.D.S.
Grado en Física
Fecha de la defensa
15.09.2025 11:00
15.09.2025 11:00
Resumen
Los sistemas dinámicos no lineales son ampliamente utilizados para el estudio de fenómenos complejos de la naturaleza, tales como la turbulencia, la evolución meteorológica o la epidemiología. Un ejemplo de esto es el modelo de Fitzhugh-Nagumo, comúnmente aplicado a la dinámica cardíaca o al impulso nervioso. En este trabajo, repasamos la relevancia de este modelo y llevamos a cabo un estudio fundamental del mismo, obteniendo sus regímenes de trabajo mediante software propio. Con esto, seremos capaces de entender el origen de la utilidad de estos regímenes, conectados a través de la bifurcación de Hopf.
Los sistemas dinámicos no lineales son ampliamente utilizados para el estudio de fenómenos complejos de la naturaleza, tales como la turbulencia, la evolución meteorológica o la epidemiología. Un ejemplo de esto es el modelo de Fitzhugh-Nagumo, comúnmente aplicado a la dinámica cardíaca o al impulso nervioso. En este trabajo, repasamos la relevancia de este modelo y llevamos a cabo un estudio fundamental del mismo, obteniendo sus regímenes de trabajo mediante software propio. Con esto, seremos capaces de entender el origen de la utilidad de estos regímenes, conectados a través de la bifurcación de Hopf.
Dirección
Pérez Muñuzuri, Alberto (Tutoría)
Suárez Vázquez, Marcos Cotutoría
Pérez Muñuzuri, Alberto (Tutoría)
Suárez Vázquez, Marcos Cotutoría
Tribunal
GONZALEZ FERREIRO, ELENA (Presidente/a)
VAZQUEZ RAMALLO, MANUEL (Secretario/a)
BAO VARELA, Mª CARMEN (Vocal)
GONZALEZ FERREIRO, ELENA (Presidente/a)
VAZQUEZ RAMALLO, MANUEL (Secretario/a)
BAO VARELA, Mª CARMEN (Vocal)
Relatividad y tiempo: Einstein vs Bergson
Autoría
B.D.Z.
Grado en Física
B.D.Z.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Traducir al ingles y al gallego: Este trabajo analiza la paradoja de los gemelos en el marco de la Relatividad Restringida y General, abordando no solo la estructura geométrica formal del espacio-tiempo, sino también las implicaciones epistemológicas y ontológicas asociadas al concepto de tiempo. Tras reconstruir los fundamentos matemáticos del espacio-tiempo, se examina la paradoja en términos del tiempo propio y la desviación geodésica. Se incluyen validaciones experimentales como la desintegración de muones o el retardo de Shapiro, que confirman la dilatación temporal como consecuencia medible. Seguidamente, se contrasta este enfoque con la crítica de Henri Bergson, quien sostiene que la duración, no se limita al tiempo físico. La Relatividad, al prescindir de la simultaneidad absoluta y los sistemas privilegiados, señala la asimetría entre observadores como consecuencia de la geometría espacio-temporal. Bergson reformula la paradoja: subraya la equivalencia recíproca de las magnitudes. Lejos de una simple confrontación entre física y filosofía, el debate revela cuestiones más profundas: ¿es la dilatación temporal una propiedad geométrica absoluta o una construcción relacional? ¿Puede haber duración sin trayectoria propia o sin observador que la mida? ¿Qué significa comparar tiempos entre marcos que no comparten simultaneidad? La Relatividad permite representar tiempos múltiples, pero obliga a repensar qué significa comparar duraciones y deja abierto el sentido último del tiempo.
Traducir al ingles y al gallego: Este trabajo analiza la paradoja de los gemelos en el marco de la Relatividad Restringida y General, abordando no solo la estructura geométrica formal del espacio-tiempo, sino también las implicaciones epistemológicas y ontológicas asociadas al concepto de tiempo. Tras reconstruir los fundamentos matemáticos del espacio-tiempo, se examina la paradoja en términos del tiempo propio y la desviación geodésica. Se incluyen validaciones experimentales como la desintegración de muones o el retardo de Shapiro, que confirman la dilatación temporal como consecuencia medible. Seguidamente, se contrasta este enfoque con la crítica de Henri Bergson, quien sostiene que la duración, no se limita al tiempo físico. La Relatividad, al prescindir de la simultaneidad absoluta y los sistemas privilegiados, señala la asimetría entre observadores como consecuencia de la geometría espacio-temporal. Bergson reformula la paradoja: subraya la equivalencia recíproca de las magnitudes. Lejos de una simple confrontación entre física y filosofía, el debate revela cuestiones más profundas: ¿es la dilatación temporal una propiedad geométrica absoluta o una construcción relacional? ¿Puede haber duración sin trayectoria propia o sin observador que la mida? ¿Qué significa comparar tiempos entre marcos que no comparten simultaneidad? La Relatividad permite representar tiempos múltiples, pero obliga a repensar qué significa comparar duraciones y deja abierto el sentido último del tiempo.
Dirección
EDELSTEIN GLAUBACH, JOSE DANIEL (Tutoría)
Giribet , Gastón Enrique Cotutoría
EDELSTEIN GLAUBACH, JOSE DANIEL (Tutoría)
Giribet , Gastón Enrique Cotutoría
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Uso de detector de diamante-FLASH para dosimetría de ultra alta tasa.
Autoría
M.A.D.S.
Grado en Física
M.A.D.S.
Grado en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
A radioterapia FLASH é unha técnica emerxente de tratamento contra o cancro que aproveita o chamado efecto FLASH na irradiación de tumores baixo condicións de taxa de dose ultra alta. Co obxectivo de superar as limitacións que isto supón para a dosimetría convencional, desenvolveuse o detector flashDiamond (fD). Este traballo presenta unha avaliación detallada do seu rendemento dosimétrico. Realizáronse medidas de curvas de dose en profundidade, perfís de feixe e cálculos de dose absoluta empregando dous aceleradores: un LIAC HWL para radioterapia intraoperatoria no Hospital Clínico Universitario de Santiago, e o ElectronFlash de Sordina IORT Technologies no Instituto Curie, en París. Os resultados experimentais completáronse con simulacións mediante o método de Montecarlo. Os resultados amosan un bo acordo cos detectores de referencia en condicións convencionais e validan a idoneidade do fD para aplicacións con doses por pulso e taxas de dose ultra altas, reforzando así o seu potencial como ferramenta dosimétrica fiable para a implementación clínica da FLASH-RT.
A radioterapia FLASH é unha técnica emerxente de tratamento contra o cancro que aproveita o chamado efecto FLASH na irradiación de tumores baixo condicións de taxa de dose ultra alta. Co obxectivo de superar as limitacións que isto supón para a dosimetría convencional, desenvolveuse o detector flashDiamond (fD). Este traballo presenta unha avaliación detallada do seu rendemento dosimétrico. Realizáronse medidas de curvas de dose en profundidade, perfís de feixe e cálculos de dose absoluta empregando dous aceleradores: un LIAC HWL para radioterapia intraoperatoria no Hospital Clínico Universitario de Santiago, e o ElectronFlash de Sordina IORT Technologies no Instituto Curie, en París. Os resultados experimentais completáronse con simulacións mediante o método de Montecarlo. Os resultados amosan un bo acordo cos detectores de referencia en condicións convencionais e validan a idoneidade do fD para aplicacións con doses por pulso e taxas de dose ultra altas, reforzando así o seu potencial como ferramenta dosimétrica fiable para a implementación clínica da FLASH-RT.
Dirección
GOMEZ RODRIGUEZ, FAUSTINO (Tutoría)
GOMEZ RODRIGUEZ, FAUSTINO (Tutoría)
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Estudio por magnetometría de fenómenos críticos y de la dinámica de vórtices en el superconductor basado en hierro CaKFe4As4
Autoría
N.E.F.
Grado en Física
N.E.F.
Grado en Física
Fecha de la defensa
18.07.2025 09:30
18.07.2025 09:30
Resumen
CaKFe4As4 es un superconductor recientemente descubierto de la familia de los pnicturos de hierro (FeSC). Es de gran interés por ser de los pocos FeSC estequiométricos y por tener una elevada temperatura crítica (Tc = 35 K) dentro de esta familia de superconductores. El trabajo consistirá en la caracterización de un monocristal de alta calidad de CaKFe4As4 y en la medida de su respuesta magnética. La alta resolución del magnetómetro a utilizar (de tipo SQUID, basado en la interferencia cuántica superconductora) permitirá estudiar efectos precursores de la superconductividad inducidos por fluctuaciones térmicas para temperaturas T en torno a la transición superconductora, Tc, y obtener parámetros superconductores como la longitud de coherencia y el campo magnético crítico. A su vez, medidas de ciclos de histéresis para T menor que Tc permitirán conocer parámetros de interés tecnológico como la densidad de corriente crítica y el campo magnético de irreversibilidad.
CaKFe4As4 es un superconductor recientemente descubierto de la familia de los pnicturos de hierro (FeSC). Es de gran interés por ser de los pocos FeSC estequiométricos y por tener una elevada temperatura crítica (Tc = 35 K) dentro de esta familia de superconductores. El trabajo consistirá en la caracterización de un monocristal de alta calidad de CaKFe4As4 y en la medida de su respuesta magnética. La alta resolución del magnetómetro a utilizar (de tipo SQUID, basado en la interferencia cuántica superconductora) permitirá estudiar efectos precursores de la superconductividad inducidos por fluctuaciones térmicas para temperaturas T en torno a la transición superconductora, Tc, y obtener parámetros superconductores como la longitud de coherencia y el campo magnético crítico. A su vez, medidas de ciclos de histéresis para T menor que Tc permitirán conocer parámetros de interés tecnológico como la densidad de corriente crítica y el campo magnético de irreversibilidad.
Dirección
MOSQUEIRA REY, JESUS MANUEL (Tutoría)
MOSQUEIRA REY, JESUS MANUEL (Tutoría)
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Estudio de las propiedades termoeléctricas del líquido iónico EMimTFSI y mezclas con sales de litio y nanopartículas
Autoría
Y.E.F.
Grado en Física
Y.E.F.
Grado en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
En la búsqueda de un futuro sostenible las energías renovables tienen un papel crucial, estas presentan una fuerte dependencia de sistemas de almacenamiento energético. En este trabajo se estudiara el líquido iónico (LI) 1-Ethyl-3-methylimidazoliumbis(trifluoromethylsulfonyl)imide (EMimTFSI) para su uso como electrolito. Se realizaron medidas tanto del LI puro como de mezclas con nanopartículas (HK3) y sales de litio (LITFSI) con el objetivo de mejorar las propiedades del LI. Se sometiereon las muestras a diferentes técnicas: Espectroscopía de impedancias electroquímica(EIS), resonancia magnética nuclear(RMN) y calorimetría diferencial de barrido(DSC). Los resultados de EIS muestran valores de la conductividad para todas las muestras superiores a 0.3 S/m, lo que hace adecuado su uso en baterías. Los estudios de RMN al LI y mezclas a diferentes proporciones con el HK3 mostraron un aumento del coeficiente de difusión en estas respecto al LI de base, sin embargo esta mejora no aumenta a mayores proporciones de HK3. Analizando los resultados de DSC se muestra una ligera mejora de las propiedades térmicas en las mezclas que incluyen HK3 respecto a las que no, destacando la desaparición de picos atribuidos a reordenaciones del LI a altas velocidades de calentamiento.
En la búsqueda de un futuro sostenible las energías renovables tienen un papel crucial, estas presentan una fuerte dependencia de sistemas de almacenamiento energético. En este trabajo se estudiara el líquido iónico (LI) 1-Ethyl-3-methylimidazoliumbis(trifluoromethylsulfonyl)imide (EMimTFSI) para su uso como electrolito. Se realizaron medidas tanto del LI puro como de mezclas con nanopartículas (HK3) y sales de litio (LITFSI) con el objetivo de mejorar las propiedades del LI. Se sometiereon las muestras a diferentes técnicas: Espectroscopía de impedancias electroquímica(EIS), resonancia magnética nuclear(RMN) y calorimetría diferencial de barrido(DSC). Los resultados de EIS muestran valores de la conductividad para todas las muestras superiores a 0.3 S/m, lo que hace adecuado su uso en baterías. Los estudios de RMN al LI y mezclas a diferentes proporciones con el HK3 mostraron un aumento del coeficiente de difusión en estas respecto al LI de base, sin embargo esta mejora no aumenta a mayores proporciones de HK3. Analizando los resultados de DSC se muestra una ligera mejora de las propiedades térmicas en las mezclas que incluyen HK3 respecto a las que no, destacando la desaparición de picos atribuidos a reordenaciones del LI a altas velocidades de calentamiento.
Dirección
SALGADO CARBALLO, JOSEFA (Tutoría)
Santiago Alonso, Antía Cotutoría
SALGADO CARBALLO, JOSEFA (Tutoría)
Santiago Alonso, Antía Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Fabricación, caracterización estructural y estudio de las propiedades superconductoras de películas delgadas de aluminio nanogranular.
Autoría
M.F.V.
Grado en Física
M.F.V.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
El aluminio nanogranular (constituído por granos nanométricos de aluminio separados por una capa aislante de óxido de aluminio) es un superconductor de referencia para la implementación de dispositivos lógicos cuánticos. También es muy interesante desde el punto de vista básico porque presenta temperaturas críticas superconductoras (Tc) hasta 3 veces superiores a la del aluminio masivo (Tc = 1.1 K). Es por esto que artículos muy recientes están dedicados a comprender mejor la fenomenología de este material. En este trabajo se describe el proceso de fabricación por evaporación térmica de películas delgadas de aluminio nanogranular, su caracacterización por microscopía electrónica de barrido y microscopía de fuerza atómica, y la medida de las propiedades de transporte eléctrico (resistividad y curvas V-I). Las películas fabricadas tienen Tc = 2.4 K, pero hasta 1.8 K presentan un estado paracoherente (granos supercondutores desacoplados entre si) no-óhmico, nunca antes observado en Al. Por debajo de 1.8 K los granos finalmente se acoplan y el material alcanza supercondutividad a nivel global. Un comportamiento similar fue observado previamente en nanoestructuras supercondutoras artificiales de Nb.
El aluminio nanogranular (constituído por granos nanométricos de aluminio separados por una capa aislante de óxido de aluminio) es un superconductor de referencia para la implementación de dispositivos lógicos cuánticos. También es muy interesante desde el punto de vista básico porque presenta temperaturas críticas superconductoras (Tc) hasta 3 veces superiores a la del aluminio masivo (Tc = 1.1 K). Es por esto que artículos muy recientes están dedicados a comprender mejor la fenomenología de este material. En este trabajo se describe el proceso de fabricación por evaporación térmica de películas delgadas de aluminio nanogranular, su caracacterización por microscopía electrónica de barrido y microscopía de fuerza atómica, y la medida de las propiedades de transporte eléctrico (resistividad y curvas V-I). Las películas fabricadas tienen Tc = 2.4 K, pero hasta 1.8 K presentan un estado paracoherente (granos supercondutores desacoplados entre si) no-óhmico, nunca antes observado en Al. Por debajo de 1.8 K los granos finalmente se acoplan y el material alcanza supercondutividad a nivel global. Un comportamiento similar fue observado previamente en nanoestructuras supercondutoras artificiales de Nb.
Dirección
MOSQUEIRA REY, JESUS MANUEL (Tutoría)
MOSQUEIRA REY, JESUS MANUEL (Tutoría)
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
De macro a micro: la microfluídica y su potencial en la validación de nanosistemas teragnósticos
Autoría
A.F.M.
Grado en Física
A.F.M.
Grado en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
Los dispositivos microfluídicos, o chips, constituyen una alternativa prometedora en la validación preclínica de nanosistemas teragnósticos en enfermedades como el cáncer o la aterosclerosis. En este sentido, los denominados órganos/arterias-en-un-chip permiten simular la hemodinámica de los tejidos, mimetizando las interacciones entre los nanosistemas y las paredes fisiológicas, permitiendo superar las limitaciones de los cultivos celulares estáticos y reduciendo la experimentación animal. Para manipular correctamente los fluidos en los chips, es necesario conocer los fenómenos físicos en la escala micrométrica, diferentes de los observados en la macroescala. Así, en la primera parte de este trabajo se describen parámetros fundamentales en física de fluidos como los números de Reynolds o Peclet, que determinan las fuerzas dominantes en la microescala, y los fenómenos físicos asociados, como fuerza de cizalla, difusión, capilaridad... La segunda parte del trabajo consiste en el desarrollo experimental de una arteria-en-un-chip para el tratamiento de la aterosclerosis, utilizando un chip con tres canales conectado a una unidad fluídica a través de un sistema de perfusión con dos reservorios. La fuerza de cizalla es la fuerza más significativa que actúa sobre las arterias, pero no es posible controlarla directamente, por lo que se realiza una calibración del chip para obtener la relación entre la presión ejercida por una bomba de presión conectada a la unidad fluídica y la fuerza de cizalla producida en las paredes de los microcanales dependiendo del sistema de perfusión y reservorio utilizados. Se analiza así el efecto del diámetro y longitud del sistema de perfusión y del diámetro de los reservorios en la fuerza de cizalla resultante, hallando las condiciones óptimas con las que conseguir un valor propio de las arterias sanas (12 dyn/cm2) y con ello recrear la pared interna arterial mediante el cultivo dinámico de células endoteliales en uno de los canales del chip.
Los dispositivos microfluídicos, o chips, constituyen una alternativa prometedora en la validación preclínica de nanosistemas teragnósticos en enfermedades como el cáncer o la aterosclerosis. En este sentido, los denominados órganos/arterias-en-un-chip permiten simular la hemodinámica de los tejidos, mimetizando las interacciones entre los nanosistemas y las paredes fisiológicas, permitiendo superar las limitaciones de los cultivos celulares estáticos y reduciendo la experimentación animal. Para manipular correctamente los fluidos en los chips, es necesario conocer los fenómenos físicos en la escala micrométrica, diferentes de los observados en la macroescala. Así, en la primera parte de este trabajo se describen parámetros fundamentales en física de fluidos como los números de Reynolds o Peclet, que determinan las fuerzas dominantes en la microescala, y los fenómenos físicos asociados, como fuerza de cizalla, difusión, capilaridad... La segunda parte del trabajo consiste en el desarrollo experimental de una arteria-en-un-chip para el tratamiento de la aterosclerosis, utilizando un chip con tres canales conectado a una unidad fluídica a través de un sistema de perfusión con dos reservorios. La fuerza de cizalla es la fuerza más significativa que actúa sobre las arterias, pero no es posible controlarla directamente, por lo que se realiza una calibración del chip para obtener la relación entre la presión ejercida por una bomba de presión conectada a la unidad fluídica y la fuerza de cizalla producida en las paredes de los microcanales dependiendo del sistema de perfusión y reservorio utilizados. Se analiza así el efecto del diámetro y longitud del sistema de perfusión y del diámetro de los reservorios en la fuerza de cizalla resultante, hallando las condiciones óptimas con las que conseguir un valor propio de las arterias sanas (12 dyn/cm2) y con ello recrear la pared interna arterial mediante el cultivo dinámico de células endoteliales en uno de los canales del chip.
Dirección
BARBOSA FERNANDEZ, SILVIA (Tutoría)
OGANDO CORTES, ALEJANDRO Cotutoría
BARBOSA FERNANDEZ, SILVIA (Tutoría)
OGANDO CORTES, ALEJANDRO Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Caracterización de las señales de calibración de NEXT-100
Autoría
N.F.L.
Grado en Física
N.F.L.
Grado en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
El experimento NEXT es una colaboración internacional que busca la desintegración doble beta sin neutrinos (beta beta 0 nu) en el isótopo 136Xe. El detector NEXT-100, actualmente operativo, se espera que dé una búsqueda competitiva en el tiempo de semidesintegración. Para ello, es necesario validar primero las simulaciones. En este trabajo se analizarán los eventos de las señales generadas por los electrones, y por ende la respuesta del detector ante estas señales simuladas de Kr estableciendo unmétodo para la corrección y estimación de la resolución en energía.
El experimento NEXT es una colaboración internacional que busca la desintegración doble beta sin neutrinos (beta beta 0 nu) en el isótopo 136Xe. El detector NEXT-100, actualmente operativo, se espera que dé una búsqueda competitiva en el tiempo de semidesintegración. Para ello, es necesario validar primero las simulaciones. En este trabajo se analizarán los eventos de las señales generadas por los electrones, y por ende la respuesta del detector ante estas señales simuladas de Kr estableciendo unmétodo para la corrección y estimación de la resolución en energía.
Dirección
HERNANDO MORATA, JOSE ANGEL (Tutoría)
HERVES CARRETE, CARLOS Cotutoría
HERNANDO MORATA, JOSE ANGEL (Tutoría)
HERVES CARRETE, CARLOS Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Funciones especiales en la resolución de ecuaciones en derivadas parciales
Autoría
C.F.S.
Doble Grado en Matemáticas y en Física
C.F.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
03.07.2025 10:00
03.07.2025 10:00
Resumen
La resolución mediante separación de variables de, por ejemplo, la ecuación de ondas en un dominio espacial circular, nos lleva a las funciones de Bessel como funciones base para obtener las soluciones en series. En este TFG se trata de estudiar las funciones de Bessel, y otras funciones especiales, y mostrar su utilidad en la resolución de EDPs en dominios espaciales circulares o cilíndricos.
La resolución mediante separación de variables de, por ejemplo, la ecuación de ondas en un dominio espacial circular, nos lleva a las funciones de Bessel como funciones base para obtener las soluciones en series. En este TFG se trata de estudiar las funciones de Bessel, y otras funciones especiales, y mostrar su utilidad en la resolución de EDPs en dominios espaciales circulares o cilíndricos.
Dirección
LOPEZ POUSO, RODRIGO (Tutoría)
LOPEZ POUSO, RODRIGO (Tutoría)
Tribunal
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
Trabajo fin de grado
Autoría
C.F.S.
Doble Grado en Matemáticas y en Física
C.F.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
El seleniuro de cromo 1T CrSe2 es un material de van der Waals formado por capas covalentes fuertemente enlazadas en el plano y unidas entre sí por fuerzas débiles de van der Waals fuera de él. Estos sistemas exhiben un comportamiento intermedio entre el de electrones localizados, con momentos magnéticos bien definidos en cada núcleo atómico, y el de electrones itinerantes, deslocalizados a lo largo de bandas de conducción sin poder asignarles un momento neto a cada átomo. Para estudiar su orden magnético y sus inestabilidades electrónicas se llevaron a cabo cálculos ab initio mediante el código WIEN2k, utilizando el método FP LAPW lo y la aproximación de gradiente generalizado PBE. Primero se caracterizó la monocapa rígida 1 por 1: su estado fundamental resulta ferromagnético y su densidad de estados está dominada por orbitales t2g de Cr en el nivel de Fermi, indicio de inestabilidades electrónicas. Para capturar las ondas de densidad de carga asociadas a modos de Peierls se construyeron superceldas 2 por 2 y raiz(3) por raiz(3). La relajación de la celda 2 por 2 revela tetrámeros de Cr y un gap parcial propio de un mecanismo de Peierls unidireccional. La reconstrucción raiz(3) por raiz(3) trimeriza simultáneamente los tres orbitales t2g, abriendo pseudogaps por encima y por debajo del nivel de Fermi y dejando solo una banda plana residual. Dado que la DFT pura tiende a subestimar la interacción de Coulomb local, implementamos la corrección LDA U sobre los orbitales d de Cr. Para valores moderados de U se refuerza la apertura del pseudogap y se estabiliza aún más la fase CDW ferromagnética, mientras que un U excesivo provoca reordenaciones de subbandas que reintroducen picos de densidad de estados en EF.
El seleniuro de cromo 1T CrSe2 es un material de van der Waals formado por capas covalentes fuertemente enlazadas en el plano y unidas entre sí por fuerzas débiles de van der Waals fuera de él. Estos sistemas exhiben un comportamiento intermedio entre el de electrones localizados, con momentos magnéticos bien definidos en cada núcleo atómico, y el de electrones itinerantes, deslocalizados a lo largo de bandas de conducción sin poder asignarles un momento neto a cada átomo. Para estudiar su orden magnético y sus inestabilidades electrónicas se llevaron a cabo cálculos ab initio mediante el código WIEN2k, utilizando el método FP LAPW lo y la aproximación de gradiente generalizado PBE. Primero se caracterizó la monocapa rígida 1 por 1: su estado fundamental resulta ferromagnético y su densidad de estados está dominada por orbitales t2g de Cr en el nivel de Fermi, indicio de inestabilidades electrónicas. Para capturar las ondas de densidad de carga asociadas a modos de Peierls se construyeron superceldas 2 por 2 y raiz(3) por raiz(3). La relajación de la celda 2 por 2 revela tetrámeros de Cr y un gap parcial propio de un mecanismo de Peierls unidireccional. La reconstrucción raiz(3) por raiz(3) trimeriza simultáneamente los tres orbitales t2g, abriendo pseudogaps por encima y por debajo del nivel de Fermi y dejando solo una banda plana residual. Dado que la DFT pura tiende a subestimar la interacción de Coulomb local, implementamos la corrección LDA U sobre los orbitales d de Cr. Para valores moderados de U se refuerza la apertura del pseudogap y se estabiliza aún más la fase CDW ferromagnética, mientras que un U excesivo provoca reordenaciones de subbandas que reintroducen picos de densidad de estados en EF.
Dirección
PARDO CASTRO, VICTOR (Tutoría)
PARDO CASTRO, VICTOR (Tutoría)
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Baterías nucleares controladas por láser
Autoría
M.G.R.
Grado en Física
M.G.R.
Grado en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
Las baterías nucleares se encargan de convertir la energía liberada por la desintegración de isótopos radioactivos en electricidad, aunque, a diferencia de un reactor nuclear, no lo hacen mediante una reacción en cadena. Sin embargo, su potencia de salida no puede regularse directamente, ya que esta va disminuyendo según avanza el proceso de desintegración, así que vamos a explorar como esta puede controlarse para así poder utilizarlas cuando queramos. Para abordar esto, será preferible emplear núcleos con isómeros de vida larga, pero que puedan pasar (de manera simple) a un estado intermedio excitado de vida corta, que después emita energía desexcitándose. El estado isomérico a estudiar será el Mo-93m, con t(1/2)=6.85 h, que podrá obtenerse a partir de la reacción 93Nb(p,n)93mMo. Esta reacción será llevada a cabo numéricamente bombeando, usando láseres ultraintensos, protones sobre un blanco de niobio. Además, trataremos de estudiar si un proceso denominado NEEC (Nuclear Excitation by Electron Capture) puede hacer que el Mo-93m se excite a un estado intermedio de vida corta (t(1/2)=3.52 ns), que liberaría 2.430 MeV por núcleo al desexcitarse. En el proceso de NEEC, se captura un electrón libre en una vacante atómica, transfiriendo su energía y momento al núcleo, excitándose así el electrón. No obstante, no está experimentalmente demostrado que esta pueda tener lugar, aunque sí que hay físicos que aseguran haberlo probado, no habiendo consenso en la comunidad científica de la validez de su experimento. En definitiva, a partir de simulaciones numéricas en Python, estudiaremos la viabilidad de producir Mo-93m tanto en el Laboratorio Láser de Aceleración e Aplicacións de la Universidade de Santiago de Compostela (L2A2) como en el Centro de Láseres Pulsados de Salamanca (CLPU). Los resultados permitirán aportarnos información sobre si compensaría llevar a cabo este experimento, muy importante en la investigación acerca de mejorar el almacenamiento y gestión tecnológica de la energía en el futuro.
Las baterías nucleares se encargan de convertir la energía liberada por la desintegración de isótopos radioactivos en electricidad, aunque, a diferencia de un reactor nuclear, no lo hacen mediante una reacción en cadena. Sin embargo, su potencia de salida no puede regularse directamente, ya que esta va disminuyendo según avanza el proceso de desintegración, así que vamos a explorar como esta puede controlarse para así poder utilizarlas cuando queramos. Para abordar esto, será preferible emplear núcleos con isómeros de vida larga, pero que puedan pasar (de manera simple) a un estado intermedio excitado de vida corta, que después emita energía desexcitándose. El estado isomérico a estudiar será el Mo-93m, con t(1/2)=6.85 h, que podrá obtenerse a partir de la reacción 93Nb(p,n)93mMo. Esta reacción será llevada a cabo numéricamente bombeando, usando láseres ultraintensos, protones sobre un blanco de niobio. Además, trataremos de estudiar si un proceso denominado NEEC (Nuclear Excitation by Electron Capture) puede hacer que el Mo-93m se excite a un estado intermedio de vida corta (t(1/2)=3.52 ns), que liberaría 2.430 MeV por núcleo al desexcitarse. En el proceso de NEEC, se captura un electrón libre en una vacante atómica, transfiriendo su energía y momento al núcleo, excitándose así el electrón. No obstante, no está experimentalmente demostrado que esta pueda tener lugar, aunque sí que hay físicos que aseguran haberlo probado, no habiendo consenso en la comunidad científica de la validez de su experimento. En definitiva, a partir de simulaciones numéricas en Python, estudiaremos la viabilidad de producir Mo-93m tanto en el Laboratorio Láser de Aceleración e Aplicacións de la Universidade de Santiago de Compostela (L2A2) como en el Centro de Láseres Pulsados de Salamanca (CLPU). Los resultados permitirán aportarnos información sobre si compensaría llevar a cabo este experimento, muy importante en la investigación acerca de mejorar el almacenamiento y gestión tecnológica de la energía en el futuro.
Dirección
ALEJO ALONSO, AARON JOSE (Tutoría)
ALEJO ALONSO, AARON JOSE (Tutoría)
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Modelización y gestión de calor en un conversor de potencia láser fotovoltaico de SiC
Autoría
I.G.G.
Grado en Física
I.G.G.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
El principal problema que limita las misiones al espacio profundo, así como la investigación de otros lugares remotos con acceso limitado a la luz, es la ausencia de una fuente de energía fiable. La transmisión de energía vía láser de alta potencia se ha señalado como la principal solución y un aspecto clave para lograrlo es obtener un convertidor de potencia láser (LPC) de alta eficiencia; aun así, las pérdidas por calor serían el principal problema a resolver. Actualmente, se están investigando arquitecturas basadas en semiconductores de alto gap de energía, siendo los tres politipos de SiC (3C, 4H y 6H) unos de los principales candidatos para estas nuevas tecnologías. En este trabajo, se realizará una simulación térmica en un convertidor de potencia láser horizontal (hLPC) basado en 4H-SiC para observar la magnitud del efecto de las pérdidas por calor en el dispositivo y probar los enfoques actuales de gestión térmica. No se encontraron problemas importantes de aumento de temperatura, pero el escalado a celdas más grandes y arquitecturas más complejas podría requerir un análisis más en profundidad.
El principal problema que limita las misiones al espacio profundo, así como la investigación de otros lugares remotos con acceso limitado a la luz, es la ausencia de una fuente de energía fiable. La transmisión de energía vía láser de alta potencia se ha señalado como la principal solución y un aspecto clave para lograrlo es obtener un convertidor de potencia láser (LPC) de alta eficiencia; aun así, las pérdidas por calor serían el principal problema a resolver. Actualmente, se están investigando arquitecturas basadas en semiconductores de alto gap de energía, siendo los tres politipos de SiC (3C, 4H y 6H) unos de los principales candidatos para estas nuevas tecnologías. En este trabajo, se realizará una simulación térmica en un convertidor de potencia láser horizontal (hLPC) basado en 4H-SiC para observar la magnitud del efecto de las pérdidas por calor en el dispositivo y probar los enfoques actuales de gestión térmica. No se encontraron problemas importantes de aumento de temperatura, pero el escalado a celdas más grandes y arquitecturas más complejas podría requerir un análisis más en profundidad.
Dirección
GARCIA LOUREIRO, ANTONIO JESUS (Tutoría)
FERNANDEZ LOZANO, JAVIER Cotutoría
GARCIA LOUREIRO, ANTONIO JESUS (Tutoría)
FERNANDEZ LOZANO, JAVIER Cotutoría
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Caracterización y Simulación de la Fuente de Americio/Berilio (AmBe) para la calibración del detector Water Cherenkov Test Experiment (WCTE) para Hyper-Kamiokande (HK)
Autoría
A.G.A.
Grado en Física
A.G.A.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Hyper-Kamiokande (HK) es el tercero de la familia japonesa de Water Cherenkov Detectors (WCDs), que centran su esfuerzo en el estudio de los neutrinos y la posible desintegración del protón, predicha por teorías de gran unificación (GUT). Para este, varios experimentos de prueba están siendo construidos, siendo uno de ellos el Water Cherenkov Test Experiment (WCTE), actualmente operando en el CERN. WCTE implementa nuevas tecnologías a los WCDs, como un nuevo tipo de MultiPMT, así como nuevas técnicas de calibración, que permitirán que Hyper-Kamiokande mejore su capacidad de separación e identificación de partículas. Parte de la calibración se llevará a cabo utilizando dos fuentes radiactivas, una de ellas de Americio/Berilio (AmBe), cuya simulación y caracterización se presenta en este texto. En este trabajo se presenta la simulación y caracterización de una fuente de Americio/Berilio (AmBe), una de las dos fuentes radiactivas que se utilizarán para la calibración del experimento WCTE.
Hyper-Kamiokande (HK) es el tercero de la familia japonesa de Water Cherenkov Detectors (WCDs), que centran su esfuerzo en el estudio de los neutrinos y la posible desintegración del protón, predicha por teorías de gran unificación (GUT). Para este, varios experimentos de prueba están siendo construidos, siendo uno de ellos el Water Cherenkov Test Experiment (WCTE), actualmente operando en el CERN. WCTE implementa nuevas tecnologías a los WCDs, como un nuevo tipo de MultiPMT, así como nuevas técnicas de calibración, que permitirán que Hyper-Kamiokande mejore su capacidad de separación e identificación de partículas. Parte de la calibración se llevará a cabo utilizando dos fuentes radiactivas, una de ellas de Americio/Berilio (AmBe), cuya simulación y caracterización se presenta en este texto. En este trabajo se presenta la simulación y caracterización de una fuente de Americio/Berilio (AmBe), una de las dos fuentes radiactivas que se utilizarán para la calibración del experimento WCTE.
Dirección
HERNANDO MORATA, JOSE ANGEL (Tutoría)
Costas Rodríguez, Diego Cotutoría
HERNANDO MORATA, JOSE ANGEL (Tutoría)
Costas Rodríguez, Diego Cotutoría
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Segmentación Automática de Imágenes de Resonancia Magnética Preclínica
Autoría
A.G.A.
Doble Grado en Matemáticas y en Física
A.G.A.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
El objetivo principal de este trabajo es desarrollar un sistema automatizado para la detección y segmentación de glioblastomas, un tipo agresivo de tumor cerebral, en modelos animales (ratones y ratas) mediante imágenes de resonancia magnética preclínica (RM). Para ello, se emplean técnicas de aprendizaje supervisado con el fin de segmentar automáticamente el glioblastoma y calcular su volumen de forma precisa. En el Capítulo 3 se presenta el modelo U-Net, una red neuronal convolucional especializada en tareas de segmentación médica. Este modelo se entrena utilizando imágenes de RM de ratones con segmentaciones manuales (ground truth), con el objetivo de localizar automáticamente el glioblastoma en nuevas imágenes. Se explora el impacto de diferentes configuraciones de hiperparámetros y se evalúa el rendimiento del modelo mediante métricas específicas de segmentación. El Capítulo 4 aborda el desarrollo de modelos predictivos para estimar el volumen tumoral en ratones, a partir de las mismas imágenes utilizadas en el capítulo anterior. El proceso incluye la extracción de variables radiómicas, su comparación con las obtenidas previamente por la investigadora Sara Ortega, la selección de las variables más relevantes, y el entrenamiento de modelos de regresión. Nuevamente, se analizan distintas combinaciones de hiperparámetros para estudiar su influencia sobre la calidad de las predicciones. En el Capítulo 5, se replica el procedimiento anterior, esta vez empleando imágenes de ratas. Además, se lleva a cabo un análisis sobre el impacto del aumento del tamaño muestral en el rendimiento de los modelos predictivos, entrenando los algoritmos con distintas cantidades de datos. Finalmente, se consideró la posibilidad de construir un modelo para predecir la supervivencia de los animales a partir de las imágenes. Sin embargo, un análisis preliminar reveló que los datos disponibles eran insuficientes para obtener predicciones fiables, por lo que esta posibilidad se planteó como futura línea de investigación.
El objetivo principal de este trabajo es desarrollar un sistema automatizado para la detección y segmentación de glioblastomas, un tipo agresivo de tumor cerebral, en modelos animales (ratones y ratas) mediante imágenes de resonancia magnética preclínica (RM). Para ello, se emplean técnicas de aprendizaje supervisado con el fin de segmentar automáticamente el glioblastoma y calcular su volumen de forma precisa. En el Capítulo 3 se presenta el modelo U-Net, una red neuronal convolucional especializada en tareas de segmentación médica. Este modelo se entrena utilizando imágenes de RM de ratones con segmentaciones manuales (ground truth), con el objetivo de localizar automáticamente el glioblastoma en nuevas imágenes. Se explora el impacto de diferentes configuraciones de hiperparámetros y se evalúa el rendimiento del modelo mediante métricas específicas de segmentación. El Capítulo 4 aborda el desarrollo de modelos predictivos para estimar el volumen tumoral en ratones, a partir de las mismas imágenes utilizadas en el capítulo anterior. El proceso incluye la extracción de variables radiómicas, su comparación con las obtenidas previamente por la investigadora Sara Ortega, la selección de las variables más relevantes, y el entrenamiento de modelos de regresión. Nuevamente, se analizan distintas combinaciones de hiperparámetros para estudiar su influencia sobre la calidad de las predicciones. En el Capítulo 5, se replica el procedimiento anterior, esta vez empleando imágenes de ratas. Además, se lleva a cabo un análisis sobre el impacto del aumento del tamaño muestral en el rendimiento de los modelos predictivos, entrenando los algoritmos con distintas cantidades de datos. Finalmente, se consideró la posibilidad de construir un modelo para predecir la supervivencia de los animales a partir de las imágenes. Sin embargo, un análisis preliminar reveló que los datos disponibles eran insuficientes para obtener predicciones fiables, por lo que esta posibilidad se planteó como futura línea de investigación.
Dirección
IGLESIAS REY, RAMON (Tutoría)
IGLESIAS REY, RAMON (Tutoría)
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Modelado Estadístico de Datos Deportivos
Autoría
A.G.A.
Doble Grado en Matemáticas y en Física
A.G.A.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
02.07.2025 12:45
02.07.2025 12:45
Resumen
A lo largo de este trabajo se presenta una aplicación del modelo de aprendizaje supervisado Random Forest a datos deportivos. En concreto, a datos asociados a los equipos de la NBA en las últimas temporadas. En el primer capítulo se realiza una breve introducción a los algoritmos de aprendizaje supervisado haciendo especial énfasis en el dilema sesgo-varianza, problema fundamental en este tipo de modelos. A continuación, se realiza una descripción sistemática de los árboles de decisión. Estos son unos de los modelos más sencillos de aprendizaje supervisado, pero son piezas fundamentales en otros modelos más complejos como el Random Forest. En el Capítulo 3 se introduce el modelo Random Forest tal y como lo definió Leo Breiman en 2001. Además, se presentan unos resultados fundamentales relacionados con la reducción de su error relativo y su varianza. Finalmente, en el último capítulo se aplica el modelo Random Forest a datos de estadística avanzada de los equipos de la NBA. Se analizará tanto un caso de clasificación como uno de regresión. En ambos casos, se estudiará la dependencia de los modelos con sus hiperparámetros y se compararán los resultados con otros modelos habituales en este tipo de problemas.
A lo largo de este trabajo se presenta una aplicación del modelo de aprendizaje supervisado Random Forest a datos deportivos. En concreto, a datos asociados a los equipos de la NBA en las últimas temporadas. En el primer capítulo se realiza una breve introducción a los algoritmos de aprendizaje supervisado haciendo especial énfasis en el dilema sesgo-varianza, problema fundamental en este tipo de modelos. A continuación, se realiza una descripción sistemática de los árboles de decisión. Estos son unos de los modelos más sencillos de aprendizaje supervisado, pero son piezas fundamentales en otros modelos más complejos como el Random Forest. En el Capítulo 3 se introduce el modelo Random Forest tal y como lo definió Leo Breiman en 2001. Además, se presentan unos resultados fundamentales relacionados con la reducción de su error relativo y su varianza. Finalmente, en el último capítulo se aplica el modelo Random Forest a datos de estadística avanzada de los equipos de la NBA. Se analizará tanto un caso de clasificación como uno de regresión. En ambos casos, se estudiará la dependencia de los modelos con sus hiperparámetros y se compararán los resultados con otros modelos habituales en este tipo de problemas.
Dirección
RODRIGUEZ CASAL, ALBERTO (Tutoría)
RODRIGUEZ CASAL, ALBERTO (Tutoría)
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
Atajos a la adiabaticidad en sistemas cuánticos simples
Autoría
J.G.C.
Doble Grado en Matemáticas y en Física
J.G.C.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Dado un sistema cuántico en el que queremos modificar algún parámetro de control sin que exista un cambio en su nivel de energía el teorema adiabático nos permite hacerlo. A cambio, la velocidad a la que se realiza este cambio ha de ser lo suficientemente pequeña. Esto conlleva una mayor vulnerabilidad del sistema a efectos como el ruido o la decoherencia que hacen que el sistema pierda sus propiedades cuánticas. Con el objetivo de solventar esta dificultad se diseñan los métodos conocidos como atajos a la adiabaticidad que nos permiten acelerar el tiempo de preparación del sistema sin tener que depender del teorema adiabático. En particular, en este trabajo nos centraremos en el método conocido como Counterdiabatic Driving(CD) basado en introducir un término adicional en el hamiltoniano que evite las transiciones entre autoestados instantáneos. Primero, motivaremos y daremos el enunciado preciso del teorema adiabático. Luego, introduciremos el formalismo del CD y lo aplicaremos a varios sistemas simples. Finalmente, se dará una breve introducción a otros atajos a la adiabaticidad y sus limitaciones.
Dado un sistema cuántico en el que queremos modificar algún parámetro de control sin que exista un cambio en su nivel de energía el teorema adiabático nos permite hacerlo. A cambio, la velocidad a la que se realiza este cambio ha de ser lo suficientemente pequeña. Esto conlleva una mayor vulnerabilidad del sistema a efectos como el ruido o la decoherencia que hacen que el sistema pierda sus propiedades cuánticas. Con el objetivo de solventar esta dificultad se diseñan los métodos conocidos como atajos a la adiabaticidad que nos permiten acelerar el tiempo de preparación del sistema sin tener que depender del teorema adiabático. En particular, en este trabajo nos centraremos en el método conocido como Counterdiabatic Driving(CD) basado en introducir un término adicional en el hamiltoniano que evite las transiciones entre autoestados instantáneos. Primero, motivaremos y daremos el enunciado preciso del teorema adiabático. Luego, introduciremos el formalismo del CD y lo aplicaremos a varios sistemas simples. Finalmente, se dará una breve introducción a otros atajos a la adiabaticidad y sus limitaciones.
Dirección
Vázquez Ramallo, Alfonso (Tutoría)
Vázquez Ramallo, Alfonso (Tutoría)
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Funciones L de curvas elípticas y formas modulares
Autoría
J.G.C.
Doble Grado en Matemáticas y en Física
J.G.C.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
02.07.2025 17:45
02.07.2025 17:45
Resumen
Las funciones L son funciones definidas en el plano complejo que permiten obtener información aritmética a partir de propiedades analíticas como la localización de sus ceros, polos o el cumplimiento de cierta ecuación funcional. Además, nos permiten conectar objetos de naturaleza distinta como las curvas elípticas, de naturaleza geométrica, y las formas modulares, de naturaleza analítica, a través del teorema de modularidad que establece una correspondencia entre ambos a través de sus funciones L asociadas. En este trabajo nos centraremos en el estudio de las funciones L asociadas a generalizaciones de las formas modulares, las llamadas formas automorfas, y a las representaciones de Galois. En particular, comenzaremos introduciendo las representaciones de Galois y sus conexiones con las curvas elípticas y formas modulares. Luego, pasaremos a estudiar las formas y representaciones automorfas comenzando con el caso de GL2 donde se introducirán las técnicas para establecer ecuaciones funcionales de sus funciones L asociadas trabajadas en la tesis de Tate. En los dos siguientes capítulos se generalizarán estos conceptos para el caso general de un grupo algebraico reductivo cualquiera. Todo esto se estudiará enmarcándolo dentro del programa de Langlands que generaliza la conexión entre curvas elípticas y formas modulares a un contexto más general.
Las funciones L son funciones definidas en el plano complejo que permiten obtener información aritmética a partir de propiedades analíticas como la localización de sus ceros, polos o el cumplimiento de cierta ecuación funcional. Además, nos permiten conectar objetos de naturaleza distinta como las curvas elípticas, de naturaleza geométrica, y las formas modulares, de naturaleza analítica, a través del teorema de modularidad que establece una correspondencia entre ambos a través de sus funciones L asociadas. En este trabajo nos centraremos en el estudio de las funciones L asociadas a generalizaciones de las formas modulares, las llamadas formas automorfas, y a las representaciones de Galois. En particular, comenzaremos introduciendo las representaciones de Galois y sus conexiones con las curvas elípticas y formas modulares. Luego, pasaremos a estudiar las formas y representaciones automorfas comenzando con el caso de GL2 donde se introducirán las técnicas para establecer ecuaciones funcionales de sus funciones L asociadas trabajadas en la tesis de Tate. En los dos siguientes capítulos se generalizarán estos conceptos para el caso general de un grupo algebraico reductivo cualquiera. Todo esto se estudiará enmarcándolo dentro del programa de Langlands que generaliza la conexión entre curvas elípticas y formas modulares a un contexto más general.
Dirección
RIVERO SALGADO, OSCAR (Tutoría)
RIVERO SALGADO, OSCAR (Tutoría)
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Diseño y optimización de un apósito para úlceras mediante técnicas de CFD.
Autoría
S.G.B.
Grado en Física
S.G.B.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
El tratamiento eficaz de las úlceras crónicas representa un importante desafío clínico que requiere de soluciones avanzadas para reducir tanto la morbilidad asociada como la carga socioeconómica que suponen para los sistemas sanitarios. Se trata de heridas exudativas difíciles de controlar, ya que una abundante secreción puede provocar la maceración de la piel circundante y retrasar la cicatrización, dando lugar a infecciones. En este contexto, el presente trabajo propone el diseño y la optimización de un apósito que permita la administración de fármacos y el drenaje de exudado de forma simultánea, destinado al cuidado de dichas heridas en casos especialmente graves. Se trata de diseñar un material estructurado de forma inteligente que favorezca la retirada de esta secreción. Para llevar a cabo el estudio se utilizó como herramienta principal la simulación mediante dinámica de fluidos computacional (CFD), a través del programa Simcenter STAR-CCM+, que nos permitió modelar el comportamiento de los fluidos implicados dentro de la estructura del apósito. Con el objetivo de explorar un amplio rango de configuraciones en cuanto a la geometría del dispositivo, se realizó un análisis comparativo entre cuatro diseños distintos, construidos de forma paramétrica para posteriormente poder llevar a cabo un proceso de optimización en el que se buscó la configuración más eficiente de sus variables. Una vez determinada la estructura óptima para cada uno de los diseños, se realizó un análisis de sensibilidad para evaluar su rendimiento bajo distintas condiciones clínicas: ¿qué sucede cuando cambia la velocidad de entrada del medicamento?, ¿y la profundidad de la herida?
El tratamiento eficaz de las úlceras crónicas representa un importante desafío clínico que requiere de soluciones avanzadas para reducir tanto la morbilidad asociada como la carga socioeconómica que suponen para los sistemas sanitarios. Se trata de heridas exudativas difíciles de controlar, ya que una abundante secreción puede provocar la maceración de la piel circundante y retrasar la cicatrización, dando lugar a infecciones. En este contexto, el presente trabajo propone el diseño y la optimización de un apósito que permita la administración de fármacos y el drenaje de exudado de forma simultánea, destinado al cuidado de dichas heridas en casos especialmente graves. Se trata de diseñar un material estructurado de forma inteligente que favorezca la retirada de esta secreción. Para llevar a cabo el estudio se utilizó como herramienta principal la simulación mediante dinámica de fluidos computacional (CFD), a través del programa Simcenter STAR-CCM+, que nos permitió modelar el comportamiento de los fluidos implicados dentro de la estructura del apósito. Con el objetivo de explorar un amplio rango de configuraciones en cuanto a la geometría del dispositivo, se realizó un análisis comparativo entre cuatro diseños distintos, construidos de forma paramétrica para posteriormente poder llevar a cabo un proceso de optimización en el que se buscó la configuración más eficiente de sus variables. Una vez determinada la estructura óptima para cada uno de los diseños, se realizó un análisis de sensibilidad para evaluar su rendimiento bajo distintas condiciones clínicas: ¿qué sucede cuando cambia la velocidad de entrada del medicamento?, ¿y la profundidad de la herida?
Dirección
Pérez Muñuzuri, Alberto (Tutoría)
Paramés Estévez, Santiago Cotutoría
Pérez Muñuzuri, Alberto (Tutoría)
Paramés Estévez, Santiago Cotutoría
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Análisis de la conductividad eléctrica de lubricantes para vehículos eléctricos
Autoría
F.G.P.
Grado en Física
F.G.P.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
Este Trabajo de Fin de Grado explora cómo la presencia de aditivos polares y nanopartículas influye en el comportamiento eléctrico de lubricantes sintéticos empleados en aplicaciones donde se requiere controlar la acumulación de carga, como ocurre en componentes de vehículos eléctricos. El estudio combina ensayos de laboratorio sobre una base de aceite polialfaolefínico (PAO-4) y lubricantes comerciales, trabajando con mezclas a distintas concentraciones de 1-butanol, 1-hexanol y 1-nonanol, así como con nanopartículas conductoras o semicondutoras (TiC, TiO2, Al2O3). Se aborda experimentalmente la relación entre la fracción de aditivo, la temperatura y la evolución de la conductividad, prestando atención a la formación de posibles dominios polares dentro de sistemas tradicionalmente aislantes. Para cada configuración se evalúa la coherencia de los resultados con la teoría disponible sobre ionización en medios no polares y se discute el papel de la estabilidad y la dispersión de los aditivos como factores críticos para garantizar un comportamiento reproducible. Esta aproximación pretende aportar datos útiles para comprender los mecanismos físicos que gobiernan la variación de la conductividad eléctrica en lubricantes de base sintética, reforzando la importancia de optimizar la selección y dosificación de aditivos para compatibilizar propiedades tribológicas y eléctricas en aplicaciones industriales actuales.
Este Trabajo de Fin de Grado explora cómo la presencia de aditivos polares y nanopartículas influye en el comportamiento eléctrico de lubricantes sintéticos empleados en aplicaciones donde se requiere controlar la acumulación de carga, como ocurre en componentes de vehículos eléctricos. El estudio combina ensayos de laboratorio sobre una base de aceite polialfaolefínico (PAO-4) y lubricantes comerciales, trabajando con mezclas a distintas concentraciones de 1-butanol, 1-hexanol y 1-nonanol, así como con nanopartículas conductoras o semicondutoras (TiC, TiO2, Al2O3). Se aborda experimentalmente la relación entre la fracción de aditivo, la temperatura y la evolución de la conductividad, prestando atención a la formación de posibles dominios polares dentro de sistemas tradicionalmente aislantes. Para cada configuración se evalúa la coherencia de los resultados con la teoría disponible sobre ionización en medios no polares y se discute el papel de la estabilidad y la dispersión de los aditivos como factores críticos para garantizar un comportamiento reproducible. Esta aproximación pretende aportar datos útiles para comprender los mecanismos físicos que gobiernan la variación de la conductividad eléctrica en lubricantes de base sintética, reforzando la importancia de optimizar la selección y dosificación de aditivos para compatibilizar propiedades tribológicas y eléctricas en aplicaciones industriales actuales.
Dirección
AMIGO POMBO, ALFREDO JOSE (Tutoría)
GINER RAJALA, OSCAR VICENT Cotutoría
AMIGO POMBO, ALFREDO JOSE (Tutoría)
GINER RAJALA, OSCAR VICENT Cotutoría
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Exploración de la dinámica del Universo a través de los modelos de Fridmann.
Autoría
P.H.S.
Grado en Física
P.H.S.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
Este trabajo tiene como propuesta ampliar los conceptos trabajados en la materia de Astrofísica y Cosmología del grado en Física. Concretamente, el objetivo es estudiar modelos cosmológicos de un carácter más complejo que los que se tratan habitualmente en la literatura de cosmología fundamental. Para esto, se trabajará con el formalismo centrado en las ecuaciones de Fridmann y se desarrollarán algoritmos de Python para poder resolver numéricamente las ecuaciones que surgen en las cosmologías de varios componentes.
Este trabajo tiene como propuesta ampliar los conceptos trabajados en la materia de Astrofísica y Cosmología del grado en Física. Concretamente, el objetivo es estudiar modelos cosmológicos de un carácter más complejo que los que se tratan habitualmente en la literatura de cosmología fundamental. Para esto, se trabajará con el formalismo centrado en las ecuaciones de Fridmann y se desarrollarán algoritmos de Python para poder resolver numéricamente las ecuaciones que surgen en las cosmologías de varios componentes.
Dirección
ALVAREZ MUÑIZ, JAIME (Tutoría)
ALVAREZ MUÑIZ, JAIME (Tutoría)
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Estudio ab initio de defectos en semiconductores y su influencia en la estructura de bandas.
Autoría
B.I.F.
Grado en Física
B.I.F.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
En este trabajo se lleva a cabo un estudio ab initio de distintos semiconductores, con el objetivo de analizar su estructura electrónica y evaluar el impacto de defectos y de distintos funcionales en el cálculo del gap. Se emplea la Teoría del Funcional de la Densidad (DFT) junto con el método ''Linearized Augmented Plane Waves'' (LAPW), implementado en el software WIEN2k. En primer lugar, se analiza el comportamiento del silicio frente al dopado tipo p (boro), tipo n (fósforo) y la creación de vacantes. Se observa cómo el dopado introduce niveles aceptores o donadores poco profundos, desplazando el nivel de Fermi, mientras que las vacantes generan estados localizados dentro del gap. En segundo lugar, se estudia la estructura electrónica del titanato de estroncio (SrTiO3), un semiconductor iónico con estructura de perovskita. Se confirma mediante análisis orbital que la banda de valencia está dominada por orbitales p del oxígeno, mientras que la banda de conducción tiene su origen en los orbitales d del titanio. Además, se analiza el desdoblamiento de estos últimos en un entorno octaédrico ideal. Por último, se evalúa la capacidad del potencial ''modified Becke Johnson Potential'' (mBJ) para corregir el valor del gap, comparando sus resultados con los del funcional ''Generalized Gradient Approximation'' (GGA) y los valores experimentales. En el caso de Si y Ge (semiconductores tipo sp), se obtiene una mejora notable en el gap. En el SrTiO3, la corrección es más modesta, pero también relevante. Este trabajo demuestra la utilidad del mBJ como alternativa semilocal eficiente para mejorar la predicción del gap en semiconductores, así como la importancia de estudiar defectos a nivel electrónico para comprender sus propiedades físicas.
En este trabajo se lleva a cabo un estudio ab initio de distintos semiconductores, con el objetivo de analizar su estructura electrónica y evaluar el impacto de defectos y de distintos funcionales en el cálculo del gap. Se emplea la Teoría del Funcional de la Densidad (DFT) junto con el método ''Linearized Augmented Plane Waves'' (LAPW), implementado en el software WIEN2k. En primer lugar, se analiza el comportamiento del silicio frente al dopado tipo p (boro), tipo n (fósforo) y la creación de vacantes. Se observa cómo el dopado introduce niveles aceptores o donadores poco profundos, desplazando el nivel de Fermi, mientras que las vacantes generan estados localizados dentro del gap. En segundo lugar, se estudia la estructura electrónica del titanato de estroncio (SrTiO3), un semiconductor iónico con estructura de perovskita. Se confirma mediante análisis orbital que la banda de valencia está dominada por orbitales p del oxígeno, mientras que la banda de conducción tiene su origen en los orbitales d del titanio. Además, se analiza el desdoblamiento de estos últimos en un entorno octaédrico ideal. Por último, se evalúa la capacidad del potencial ''modified Becke Johnson Potential'' (mBJ) para corregir el valor del gap, comparando sus resultados con los del funcional ''Generalized Gradient Approximation'' (GGA) y los valores experimentales. En el caso de Si y Ge (semiconductores tipo sp), se obtiene una mejora notable en el gap. En el SrTiO3, la corrección es más modesta, pero también relevante. Este trabajo demuestra la utilidad del mBJ como alternativa semilocal eficiente para mejorar la predicción del gap en semiconductores, así como la importancia de estudiar defectos a nivel electrónico para comprender sus propiedades físicas.
Dirección
PARDO CASTRO, VICTOR (Tutoría)
PARDO CASTRO, VICTOR (Tutoría)
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Influencia del grupo alilo en la refractividad molar de líquidos iónicos
Autoría
C.J.F.
Grado en Física
C.J.F.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
En este trabajo se realiza la caracterización óptica de dos líquidos iónicos basados en imidazolio mediante interferometría de luz blanca con resolución espectral, del cual se calibra tanto el sistema como el micrómetro incorporado. A partir de las medidas interferométricas se obtiene el índice de refracción en función de la longitud de onda, lo que permite calcular la refractividad molar. Este análisis se emplea para evaluar la contribución tanto del grupo alilo como de su doble enlace a la refractividad molar en los líquidos iónicos seleccionados.
En este trabajo se realiza la caracterización óptica de dos líquidos iónicos basados en imidazolio mediante interferometría de luz blanca con resolución espectral, del cual se calibra tanto el sistema como el micrómetro incorporado. A partir de las medidas interferométricas se obtiene el índice de refracción en función de la longitud de onda, lo que permite calcular la refractividad molar. Este análisis se emplea para evaluar la contribución tanto del grupo alilo como de su doble enlace a la refractividad molar en los líquidos iónicos seleccionados.
Dirección
AROSA LOBATO, YAGO (Tutoría)
AROSA LOBATO, YAGO (Tutoría)
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Generación de neutrones con láseres ultra-intensos
Autoría
C.D.L.M.L.G.
Grado en Física
C.D.L.M.L.G.
Grado en Física
Fecha de la defensa
15.09.2025 11:00
15.09.2025 11:00
Resumen
Este trabajo estudia la generación de neutrones con láser, utilizando la reacción 7Li(p,n)7Be, mediante tres simulaciones realizadas con el código FLUKA. Cada una de ellas está basada en datos experimentales y tiene un propósito definido: evaluar la capacidad de FLUKA para simular neutrones replicando un experimento real, estimar cuántos neutrones podrían generarse con el sistema láser del Laboratorio Láser de Aceleración y Aplicaciones (L2A2) y comparar la producción de neutrones de esta reacción con la obtenida de la reacción d(d,n)3He. El trabajo está compuesto por cuatro capítulos. El primero es la introducción, que presenta el interés de la generación de neutrones con láser y los objetivos de este trabajo. El segundo explica los fundamentos teóricos detrás de la generación de neutrones con láser, mientras que el tercero describe las simulaciones realizadas y sus resultados. El cuarto capítulo resume las conclusiones del trabajo. En la primera simulación se determinó que FLUKA es capaz simular la generación de neutrones correctamente, por la similitud entre los resultados de la simulación y los del experimento. En la segunda, tras obtener un flujo de neutrones inferior a 1e3 n/sr, se concluyó que el sistema láser del L2A2 no tiene la intensidad necesaria para ser una fuente eficiente de neutrones. En la tercera simulación el flujo de neutrones con un blanco de litio fue de 7.19e8 n/sr mientras que en el experimento con deuterio el flujo fue de 2.1e9 n/sr, por lo que se concluyó que con la reacción d(d,n)3He se generan más neutrones.
Este trabajo estudia la generación de neutrones con láser, utilizando la reacción 7Li(p,n)7Be, mediante tres simulaciones realizadas con el código FLUKA. Cada una de ellas está basada en datos experimentales y tiene un propósito definido: evaluar la capacidad de FLUKA para simular neutrones replicando un experimento real, estimar cuántos neutrones podrían generarse con el sistema láser del Laboratorio Láser de Aceleración y Aplicaciones (L2A2) y comparar la producción de neutrones de esta reacción con la obtenida de la reacción d(d,n)3He. El trabajo está compuesto por cuatro capítulos. El primero es la introducción, que presenta el interés de la generación de neutrones con láser y los objetivos de este trabajo. El segundo explica los fundamentos teóricos detrás de la generación de neutrones con láser, mientras que el tercero describe las simulaciones realizadas y sus resultados. El cuarto capítulo resume las conclusiones del trabajo. En la primera simulación se determinó que FLUKA es capaz simular la generación de neutrones correctamente, por la similitud entre los resultados de la simulación y los del experimento. En la segunda, tras obtener un flujo de neutrones inferior a 1e3 n/sr, se concluyó que el sistema láser del L2A2 no tiene la intensidad necesaria para ser una fuente eficiente de neutrones. En la tercera simulación el flujo de neutrones con un blanco de litio fue de 7.19e8 n/sr mientras que en el experimento con deuterio el flujo fue de 2.1e9 n/sr, por lo que se concluyó que con la reacción d(d,n)3He se generan más neutrones.
Dirección
ALEJO ALONSO, AARON JOSE (Tutoría)
ALEJO ALONSO, AARON JOSE (Tutoría)
Tribunal
GONZALEZ FERREIRO, ELENA (Presidente/a)
VAZQUEZ RAMALLO, MANUEL (Secretario/a)
BAO VARELA, Mª CARMEN (Vocal)
GONZALEZ FERREIRO, ELENA (Presidente/a)
VAZQUEZ RAMALLO, MANUEL (Secretario/a)
BAO VARELA, Mª CARMEN (Vocal)
Estudio de los límites de masa en estrellas de neutrones
Autoría
C.L.V.
Grado en Física
C.L.V.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Este trabajo se centra en el estudio de la física de las estrellas de neutrones, examinando su estructura a través de las ecuaciones de estado (EOS), que describen el comportamiento de la materia a las densidades extremas características del interior de estos cuerpos, y analizando los denominados límites de masa. Se describirán las observaciones atronómicas existentes, incluyendo púlsares aislados, magnetares y sistemas binarios, que permiten evaluar de forma directa las masas de las estrellas de neutrones. Finalmente, y apoyándose en la detección de ondas gravitacionales, se pondrá en contexto el estado actual y la reevaluación de dichos límites de masa, con un profundo impacto en las ecuaciones de estado de materia nuclear.
Este trabajo se centra en el estudio de la física de las estrellas de neutrones, examinando su estructura a través de las ecuaciones de estado (EOS), que describen el comportamiento de la materia a las densidades extremas características del interior de estos cuerpos, y analizando los denominados límites de masa. Se describirán las observaciones atronómicas existentes, incluyendo púlsares aislados, magnetares y sistemas binarios, que permiten evaluar de forma directa las masas de las estrellas de neutrones. Finalmente, y apoyándose en la detección de ondas gravitacionales, se pondrá en contexto el estado actual y la reevaluación de dichos límites de masa, con un profundo impacto en las ecuaciones de estado de materia nuclear.
Dirección
ALVAREZ POL, HECTOR (Tutoría)
ALVAREZ POL, HECTOR (Tutoría)
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Análisis del fenómeno de Espacio-Carga en la TPC Presurizada del experimento DUNE (ND-GAr)
Autoría
A.L.B.
Grado en Física
A.L.B.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
El espacio carga consiste en la deformación del campo eléctrico en un detector de ionización, producido por una velocidad de deriva de los iones mucho menor a la de los electrones. Esta deformación en el campo induce a su vez una deformación en la medida de la posición transversal de las partículas detectadas. En este trabajo se propone un análisis analítico para los campos de espacio carga en los casos de inyección de carga continua y pulsada. Este análisis es usado para estimar el efecto que tendrá el espacio carga en la TPC ND-GAr del experimento DUNE, que tendrá como objetivo principal el estudio del proceso de oscilación de neutrinos. Se usan valores realistas para este detector, y se estudian mezclas de Ar/CH4 y Ar/CF4, tanto para el espacio carga producido por el propio haz de neutrinos, como por los muones cósmicos. El resultado es una deformación en la posición transversal para el caso más desfavorable de O(mm).
El espacio carga consiste en la deformación del campo eléctrico en un detector de ionización, producido por una velocidad de deriva de los iones mucho menor a la de los electrones. Esta deformación en el campo induce a su vez una deformación en la medida de la posición transversal de las partículas detectadas. En este trabajo se propone un análisis analítico para los campos de espacio carga en los casos de inyección de carga continua y pulsada. Este análisis es usado para estimar el efecto que tendrá el espacio carga en la TPC ND-GAr del experimento DUNE, que tendrá como objetivo principal el estudio del proceso de oscilación de neutrinos. Se usan valores realistas para este detector, y se estudian mezclas de Ar/CH4 y Ar/CF4, tanto para el espacio carga producido por el propio haz de neutrinos, como por los muones cósmicos. El resultado es una deformación en la posición transversal para el caso más desfavorable de O(mm).
Dirección
GONZALEZ DIAZ, DIEGO (Tutoría)
GONZALEZ DIAZ, DIEGO (Tutoría)
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Detectores de centelleo y sistemas electrónicos para la evaluación de dosis en contenedores de residuos radiactivos
Autoría
S.T.L.P.
Grado en Física
S.T.L.P.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Los contenedores de residuos radiactivos almacenan los residuos del combustible gastado en centrales nucleares, para su almacenamiento temporal o definitivo en repositorios geológicamente estables de alta profundidad. La medida de la dosis generada por los residuos de los contenedores es un problema que se puede abordar con diferentes detectores simples pero que permitan una caracterización dosimétrica suficiente para determinar el estado del contenedor. En este proyecto, se plantea y diseña un detector basado en fotodiodos de avalancha (APDs) para la determinación de la dosis radiactiva mediante un diseño electrónico sencillo, que optimice el tamaño y la puesta en funcionamiento del detector.
Los contenedores de residuos radiactivos almacenan los residuos del combustible gastado en centrales nucleares, para su almacenamiento temporal o definitivo en repositorios geológicamente estables de alta profundidad. La medida de la dosis generada por los residuos de los contenedores es un problema que se puede abordar con diferentes detectores simples pero que permitan una caracterización dosimétrica suficiente para determinar el estado del contenedor. En este proyecto, se plantea y diseña un detector basado en fotodiodos de avalancha (APDs) para la determinación de la dosis radiactiva mediante un diseño electrónico sencillo, que optimice el tamaño y la puesta en funcionamiento del detector.
Dirección
ALVAREZ POL, HECTOR (Tutoría)
CASAREJOS RUIZ, ENRIQUE Cotutoría
ALVAREZ POL, HECTOR (Tutoría)
CASAREJOS RUIZ, ENRIQUE Cotutoría
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Estudio del rendimiento del sistema de seguimiento en colisiones PbPb en el experimento LHCb.
Autoría
A.L.M.
Grado en Física
A.L.M.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
El objetivo de este trabajo es estimar correctamente el porcentaje de trazas reales reconstruidas respecto al total en colisiones plomo plomo en el experimento LHCb. Para llevar a cabo este análisis se utiliza inicialmente una simulación de Monte Carlo corregida mediante un algoritmo de reponderación denominado GBReweighter. A continuación, la distribución de probabilidad de que una traza sea fantasma en la simulación se ajusta a la distribución experimental con el fin de mejorar la concordancia y obtener una estimación más precisa de la pureza de nuestros datos. Este análisis es fundamental para evitar interpretaciones erróneas de la información procedente de la colisión de iones pesados, que podrían conducir a conclusiones incorrectas sobre la física real del sistema.
El objetivo de este trabajo es estimar correctamente el porcentaje de trazas reales reconstruidas respecto al total en colisiones plomo plomo en el experimento LHCb. Para llevar a cabo este análisis se utiliza inicialmente una simulación de Monte Carlo corregida mediante un algoritmo de reponderación denominado GBReweighter. A continuación, la distribución de probabilidad de que una traza sea fantasma en la simulación se ajusta a la distribución experimental con el fin de mejorar la concordancia y obtener una estimación más precisa de la pureza de nuestros datos. Este análisis es fundamental para evitar interpretaciones erróneas de la información procedente de la colisión de iones pesados, que podrían conducir a conclusiones incorrectas sobre la física real del sistema.
Dirección
SANTAMARINA RIOS, CIBRAN (Tutoría)
BELIN , SAMUEL JULES Cotutoría
SANTAMARINA RIOS, CIBRAN (Tutoría)
BELIN , SAMUEL JULES Cotutoría
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Caos y Fractalidad
Autoría
J.M.L.P.
Grado en Física
J.M.L.P.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
El objetivo de este trabajo es establecer la relación entre los sistemas caóticos y la fractalidad. Las ecuaciones de Lorenz constituyen un ejemplo de sistema caótico, y haremos un análisis de la región de parámetros en la que presentan ese carácter caótico. Posteriormente, describiremos en qué consisten los atractores extraños y justificaremos su estructura fractal. Por último, indagaremos brevemente en las diferentes definiciones de dimensión fractal, y calcularemos la dimensión del conjunto de Cantor y la dimensión de correlación del atractor extraño de Lorenz.
El objetivo de este trabajo es establecer la relación entre los sistemas caóticos y la fractalidad. Las ecuaciones de Lorenz constituyen un ejemplo de sistema caótico, y haremos un análisis de la región de parámetros en la que presentan ese carácter caótico. Posteriormente, describiremos en qué consisten los atractores extraños y justificaremos su estructura fractal. Por último, indagaremos brevemente en las diferentes definiciones de dimensión fractal, y calcularemos la dimensión del conjunto de Cantor y la dimensión de correlación del atractor extraño de Lorenz.
Dirección
MIGUEZ MACHO, GONZALO (Tutoría)
MIGUEZ MACHO, GONZALO (Tutoría)
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Fluctuaciones críticas en superconductores laminares de pocos planos: Extensión de las predicciones teóricas de conductividad eléctrica
Autoría
F.L.S.
Grado en Física
F.L.S.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Se presenta un estudio teórico en que se calculan varias expresiones novedosas para la conductividad eléctrica en el estado precursor de superconductores compuestos por un número finito pequeño de planos paralelos (few-layer superconductors). En particular, a través de un tratamiento matricial del funcional Ginzburg-Landau superconductor adaptado a la geometría a estudiar, se obtienen expresiones explícitas para las contribuciones directas e indirectas a la paraconductividad, mientras que cálculos anteriores (que precisaban del cálculo de los autovalores de la energía de dicho funcional) no alcanzaban los casos de un número arbitrario de planos ni las contribuciones indirectas. Asímismo, estas expresiones se comparan, obteniéndose un buen acuerdo, con datos existentes de sistemas few-layer de Bi3O2S3, cuyo estado precursor hasta nuestro conocimiento nunca había sido analizado con anterioridad.
Se presenta un estudio teórico en que se calculan varias expresiones novedosas para la conductividad eléctrica en el estado precursor de superconductores compuestos por un número finito pequeño de planos paralelos (few-layer superconductors). En particular, a través de un tratamiento matricial del funcional Ginzburg-Landau superconductor adaptado a la geometría a estudiar, se obtienen expresiones explícitas para las contribuciones directas e indirectas a la paraconductividad, mientras que cálculos anteriores (que precisaban del cálculo de los autovalores de la energía de dicho funcional) no alcanzaban los casos de un número arbitrario de planos ni las contribuciones indirectas. Asímismo, estas expresiones se comparan, obteniéndose un buen acuerdo, con datos existentes de sistemas few-layer de Bi3O2S3, cuyo estado precursor hasta nuestro conocimiento nunca había sido analizado con anterioridad.
Dirección
VAZQUEZ RAMALLO, MANUEL (Tutoría)
VAZQUEZ RAMALLO, MANUEL (Tutoría)
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Terapias de control en modelos de crecimiento tumoral con radioterapia
Autoría
A.L.R.
Grado en Física
A.L.R.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Tras una pequeña introducción sobre la dinámica general y los aspectos más básicos del cáncer, el trabajo propuesto parte de un breve estudio bibliográfico de diversos modelos de crecimiento tumoral (exponencial, Gompertz y Verhulst) y de respuesta a la radioterapia (modelo Linear-Quadratic), en los que se aprecian dinámicas de competición entre dos poblaciones (células sanas y cancerígenas). De este modo, se hace un análisis de su formulación matemática, determinándose cuál reproduce mejor los resultados de la literatura. Asimismo, se combinan dichos modelos con la ecuación de difusión, obteniéndose así simulaciones numéricas en 1D y 2D en la dimensión espacial y temporal. El resto del trabajo se centra en mejorar y optimizar todo lo visto con anterioridad, tratando de minimizar la dosis de radioterapia recibida por el paciente durante la ventana de tratamiento. Para ello, se emplean estrategias de control óptimo sobre un sistema de dos ecuaciones diferenciales acopladas y descritas por un modelo de Verhulst levemente modificado. Esto nos permite comparar los tres escenarios posibles y sus diagramas de estabilidad: sin controlar, con control constante y con control óptimo. En esencia, en este trabajo se va construyendo progresivamente un modelo matemático simple sobre el cáncer, que se va corrigiendo y mejorando, involucrando métodos de resolución numéricos y un estudio bibliográfico y matemático.
Tras una pequeña introducción sobre la dinámica general y los aspectos más básicos del cáncer, el trabajo propuesto parte de un breve estudio bibliográfico de diversos modelos de crecimiento tumoral (exponencial, Gompertz y Verhulst) y de respuesta a la radioterapia (modelo Linear-Quadratic), en los que se aprecian dinámicas de competición entre dos poblaciones (células sanas y cancerígenas). De este modo, se hace un análisis de su formulación matemática, determinándose cuál reproduce mejor los resultados de la literatura. Asimismo, se combinan dichos modelos con la ecuación de difusión, obteniéndose así simulaciones numéricas en 1D y 2D en la dimensión espacial y temporal. El resto del trabajo se centra en mejorar y optimizar todo lo visto con anterioridad, tratando de minimizar la dosis de radioterapia recibida por el paciente durante la ventana de tratamiento. Para ello, se emplean estrategias de control óptimo sobre un sistema de dos ecuaciones diferenciales acopladas y descritas por un modelo de Verhulst levemente modificado. Esto nos permite comparar los tres escenarios posibles y sus diagramas de estabilidad: sin controlar, con control constante y con control óptimo. En esencia, en este trabajo se va construyendo progresivamente un modelo matemático simple sobre el cáncer, que se va corrigiendo y mejorando, involucrando métodos de resolución numéricos y un estudio bibliográfico y matemático.
Dirección
Pérez Muñuzuri, Alberto (Tutoría)
López Pedrares, Javier Cotutoría
Pérez Muñuzuri, Alberto (Tutoría)
López Pedrares, Javier Cotutoría
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Aprendizaje automático para la selección de mesones B en el experimento LHCb
Autoría
M.L.R.
Grado en Física
M.L.R.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Las discrepancias actuales en las razones semileptónicas R(D) frente al Modelo Estándar ponen de manifiesto la necesidad de muestras de señal extremadamente puras. Tras presentar brevemente el contexto teórico y el experimento LHCb, nos centramos en el estudio del canal hadrónico B0 a D(menos) pi(mas) pi(menos) pi(mas) con D(menos) a pi(menos) K(mas) pi(menos), empleando datos reales de LHCb (Run 2, 2016 hasta 2018) junto con simulaciones Monte Carlo. Seleccionamos las variables con mayor contraste entre señal simulada y fondo real, y probamos distintas arquitecturas del perceptrón multicapa (MLP) con scikit learn con el objetivo de conseguir una red neuronal capaz de encontrar el corte óptimo que rechace el mayor número de eventos de fondo posible manteniendo una alta eficiencia de la señal en nuestros datos. El clasificador alcanzó un AUC de 0.97 y mejoró la relación señal fondo del 82 por ciento al 288 por ciento, conservando más del 96 por ciento de la señal. Posteriormente, con la muestra purificada, ajustamos la distribución de masa del mesón B0 mediante ROOT RooFit, obteniendo m(B0) igual a 5280,00 MeV por c2 con una incertidumbre de 0,13 MeV por c2, en concordancia con las referencias existentes. Estos resultados muestran el potencial de las redes neuronales para preparar muestras de alta pureza, clave en futuras mediciones semileptónicas y en la búsqueda de nueva física.
Las discrepancias actuales en las razones semileptónicas R(D) frente al Modelo Estándar ponen de manifiesto la necesidad de muestras de señal extremadamente puras. Tras presentar brevemente el contexto teórico y el experimento LHCb, nos centramos en el estudio del canal hadrónico B0 a D(menos) pi(mas) pi(menos) pi(mas) con D(menos) a pi(menos) K(mas) pi(menos), empleando datos reales de LHCb (Run 2, 2016 hasta 2018) junto con simulaciones Monte Carlo. Seleccionamos las variables con mayor contraste entre señal simulada y fondo real, y probamos distintas arquitecturas del perceptrón multicapa (MLP) con scikit learn con el objetivo de conseguir una red neuronal capaz de encontrar el corte óptimo que rechace el mayor número de eventos de fondo posible manteniendo una alta eficiencia de la señal en nuestros datos. El clasificador alcanzó un AUC de 0.97 y mejoró la relación señal fondo del 82 por ciento al 288 por ciento, conservando más del 96 por ciento de la señal. Posteriormente, con la muestra purificada, ajustamos la distribución de masa del mesón B0 mediante ROOT RooFit, obteniendo m(B0) igual a 5280,00 MeV por c2 con una incertidumbre de 0,13 MeV por c2, en concordancia con las referencias existentes. Estos resultados muestran el potencial de las redes neuronales para preparar muestras de alta pureza, clave en futuras mediciones semileptónicas y en la búsqueda de nueva física.
Dirección
ROMERO VIDAL, ANTONIO (Tutoría)
NÓVOA FERNÁNDEZ, JULIO Cotutoría
ROMERO VIDAL, ANTONIO (Tutoría)
NÓVOA FERNÁNDEZ, JULIO Cotutoría
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Eficiencia de colección en cámaras de ionización
Autoría
L.L.S.
Grado en Física
L.L.S.
Grado en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
La radioterapia FLASH, emergente en el ámbito oncológico, se presenta como una herramienta prometedora, aunque acompañada de importantes desafíos dosimétricos. Este trabajo aborda el funcionamiento de las cámaras de ionización y los procesos físicos asociados, así como el estudio de su eficiencia de colección bajo las condiciones extremas de este régimen, donde las altas dosis por pulso desafían a la física de la recombinación y evidencian las limitaciones de los modelos tradicionales. Con este propósito, se analizan los datos obtenidos en el acelerador MELAF del PTB de Alemania y se contrastan con las predicciones de un modelo numérico existente que incorpora efectos relevantes no contemplados por las formulaciones clásicas. Este enfoque combinado permite evaluar la consistencia de los modelos actuales y profundizar en la comprensión del rendimiento real de las cámaras de ionización en FLASH, avanzando hacia una dosimetría más precisa que pueda acompañar el potencial terapéutico de esta técnica.
La radioterapia FLASH, emergente en el ámbito oncológico, se presenta como una herramienta prometedora, aunque acompañada de importantes desafíos dosimétricos. Este trabajo aborda el funcionamiento de las cámaras de ionización y los procesos físicos asociados, así como el estudio de su eficiencia de colección bajo las condiciones extremas de este régimen, donde las altas dosis por pulso desafían a la física de la recombinación y evidencian las limitaciones de los modelos tradicionales. Con este propósito, se analizan los datos obtenidos en el acelerador MELAF del PTB de Alemania y se contrastan con las predicciones de un modelo numérico existente que incorpora efectos relevantes no contemplados por las formulaciones clásicas. Este enfoque combinado permite evaluar la consistencia de los modelos actuales y profundizar en la comprensión del rendimiento real de las cámaras de ionización en FLASH, avanzando hacia una dosimetría más precisa que pueda acompañar el potencial terapéutico de esta técnica.
Dirección
GOMEZ RODRIGUEZ, FAUSTINO (Tutoría)
Paz Martín, José Cotutoría
GOMEZ RODRIGUEZ, FAUSTINO (Tutoría)
Paz Martín, José Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
El quarkonium y su relación con la materia a alta densidad y temperatura
Autoría
C.P.L.C.
Grado en Física
C.P.L.C.
Grado en Física
Fecha de la defensa
18.02.2025 11:00
18.02.2025 11:00
Resumen
El objetivo de este trabajo será el estudio de la materia a alta densidad y temperatura a través de los mesones formados por quarks y antiquarks pesados, conocidos como quarkonium. Para llegar a este objetivo comenzaremos con una introducción de la cromodinámica cuántica (QCD) desde sus origenes hasta la formación del plasma de quarks y gluones en los experimentos actuales. Entre los señales propuestos para el estudio del plasma, las partículas formadas por quark-antiquark c ocupan un lugar muy relevante basado en la modificación de sus propiedades en función de la densidad y temperatura del medio, como mostraremos en este trabajo.
El objetivo de este trabajo será el estudio de la materia a alta densidad y temperatura a través de los mesones formados por quarks y antiquarks pesados, conocidos como quarkonium. Para llegar a este objetivo comenzaremos con una introducción de la cromodinámica cuántica (QCD) desde sus origenes hasta la formación del plasma de quarks y gluones en los experimentos actuales. Entre los señales propuestos para el estudio del plasma, las partículas formadas por quark-antiquark c ocupan un lugar muy relevante basado en la modificación de sus propiedades en función de la densidad y temperatura del medio, como mostraremos en este trabajo.
Dirección
GONZALEZ FERREIRO, ELENA (Tutoría)
GONZALEZ FERREIRO, ELENA (Tutoría)
Tribunal
ARES PENA, FRANCISCO JOSE (Presidente/a)
FERNANDEZ DOMINGUEZ, BEATRIZ (Secretario/a)
GONZALEZ ALEMANY, MANUEL MARIA (Vocal)
ARES PENA, FRANCISCO JOSE (Presidente/a)
FERNANDEZ DOMINGUEZ, BEATRIZ (Secretario/a)
GONZALEZ ALEMANY, MANUEL MARIA (Vocal)
Aplicación del mecanismo de pistón a reacciones de arranque de protón
Autoría
M.L.F.
Grado en Física
M.L.F.
Grado en Física
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
En este trabajo se estudia la aplicabilidad del mecanismo del pistón en desintegraciones nucleares con emisión de dos neutrones, originadas tras reacciones de knockout. Mediante un modelo de mezcla de configuraciones nucleares y su evolución temporal, se analiza en qué condiciones puede desarrollarse este mecanismo y dar lugar a oscilaciones coherentes entre estados cuánticos. El estudio se enmarca en el contexto de experimentos actuales en el GSI con detectores de neutrones de alta resolución, que permiten observar correlaciones entre partículas en los productos de desintegración. Se identifican los parámetros clave que determinan la relevancia física del mecanismo, como la vida media del estado excitado, el período de oscilación y el grado de mezcla entre configuraciones.
En este trabajo se estudia la aplicabilidad del mecanismo del pistón en desintegraciones nucleares con emisión de dos neutrones, originadas tras reacciones de knockout. Mediante un modelo de mezcla de configuraciones nucleares y su evolución temporal, se analiza en qué condiciones puede desarrollarse este mecanismo y dar lugar a oscilaciones coherentes entre estados cuánticos. El estudio se enmarca en el contexto de experimentos actuales en el GSI con detectores de neutrones de alta resolución, que permiten observar correlaciones entre partículas en los productos de desintegración. Se identifican los parámetros clave que determinan la relevancia física del mecanismo, como la vida media del estado excitado, el período de oscilación y el grado de mezcla entre configuraciones.
Dirección
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
FEIJOO FONTAN, MARTINA Cotutoría
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
FEIJOO FONTAN, MARTINA Cotutoría
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Sistemas de almacenamiento de energía
Autoría
M.M.F.
Grado en Física
M.M.F.
Grado en Física
Fecha de la defensa
15.09.2025 11:00
15.09.2025 11:00
Resumen
En el presente trabajo de fin de grado se realiza una revisión de los sistemas de almacenamiento actuales, centrándose en su funcionamiento, aplicaciones, innovaciones y perspectivas futuras. Se examinan cinco categorías principales: sistemas mecánicos (volantes de inercia, bombeo reversible y aire comprimido), electroquímicos (baterías convencionales y de flujo), térmicos (calor sensible, latente y termoquímico), químicos (hidrógeno y pilas de combustible) y eléctricos (supercondensadores e imanes superconductores), destacando parámetros clave como eficiencia, densidad energética, costes e impacto ambiental. Además, el trabajo incluye un análisis de cuatro estudios concretos: dos en Galicia, el proyecto Sil-Xares-Santiago (bombeo reversible) y la Alianza Industrial del H2 Verde (hidrógeno renovable); y dos en entornos próximos, los supercondensadores de la Isla de Palma y las baterías de ion-litio en Pego (Portugal). En estos ejemplos se ilustran la viabilidad técnica y los desafíos de las tecnologías en distintos contextos geográficos y energéticos. La investigación revela que, mientras el bombeo reversible y las baterías de litio son tecnologías maduras con alta capacidad, el hidrógeno verde y los supercondensadores ofrecen soluciones prometedoras para la flexibilidad y la respuesta rápida. Se concluye que la elección del sistema óptimo depende de factores como la escala, la localización y las necesidades de la red, destacando el papel clave del almacenamiento en la transición energética.
En el presente trabajo de fin de grado se realiza una revisión de los sistemas de almacenamiento actuales, centrándose en su funcionamiento, aplicaciones, innovaciones y perspectivas futuras. Se examinan cinco categorías principales: sistemas mecánicos (volantes de inercia, bombeo reversible y aire comprimido), electroquímicos (baterías convencionales y de flujo), térmicos (calor sensible, latente y termoquímico), químicos (hidrógeno y pilas de combustible) y eléctricos (supercondensadores e imanes superconductores), destacando parámetros clave como eficiencia, densidad energética, costes e impacto ambiental. Además, el trabajo incluye un análisis de cuatro estudios concretos: dos en Galicia, el proyecto Sil-Xares-Santiago (bombeo reversible) y la Alianza Industrial del H2 Verde (hidrógeno renovable); y dos en entornos próximos, los supercondensadores de la Isla de Palma y las baterías de ion-litio en Pego (Portugal). En estos ejemplos se ilustran la viabilidad técnica y los desafíos de las tecnologías en distintos contextos geográficos y energéticos. La investigación revela que, mientras el bombeo reversible y las baterías de litio son tecnologías maduras con alta capacidad, el hidrógeno verde y los supercondensadores ofrecen soluciones prometedoras para la flexibilidad y la respuesta rápida. Se concluye que la elección del sistema óptimo depende de factores como la escala, la localización y las necesidades de la red, destacando el papel clave del almacenamiento en la transición energética.
Dirección
MENDEZ MORALES, TRINIDAD (Tutoría)
Montes Campos, Hadrián Cotutoría
MENDEZ MORALES, TRINIDAD (Tutoría)
Montes Campos, Hadrián Cotutoría
Tribunal
GONZALEZ FERREIRO, ELENA (Presidente/a)
VAZQUEZ RAMALLO, MANUEL (Secretario/a)
BAO VARELA, Mª CARMEN (Vocal)
GONZALEZ FERREIRO, ELENA (Presidente/a)
VAZQUEZ RAMALLO, MANUEL (Secretario/a)
BAO VARELA, Mª CARMEN (Vocal)
Poniendo a prueba la observación conjunta madiante ondas gravitacionales y electromagnéticas del evento GW190521 mediante medidas de spin y retroceso gravitacional.
Autoría
U.M.R.
Grado en Física
U.M.R.
Grado en Física
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
El objetivo de este trabajo será evaluar la hipótesis de origen común para la señal de onda gravitacional GW190521 y su contrapartida electromagnética candidata ZTF19abanrhr. Introduciremos el formalismo estadístico que emplearemos para llevar a cabo el análisis de datos y presentaremos las restricciones que se impondrán a los parámetros estudiados. En primer lugar haremos el análisis centrándonos solamente en la localización en el cielo y en la distancia de luminosidad de las fuentes para después introducir restricciones adicionales relacionadas con el mecanismo de emisión de la señal electromagnética.
El objetivo de este trabajo será evaluar la hipótesis de origen común para la señal de onda gravitacional GW190521 y su contrapartida electromagnética candidata ZTF19abanrhr. Introduciremos el formalismo estadístico que emplearemos para llevar a cabo el análisis de datos y presentaremos las restricciones que se impondrán a los parámetros estudiados. En primer lugar haremos el análisis centrándonos solamente en la localización en el cielo y en la distancia de luminosidad de las fuentes para después introducir restricciones adicionales relacionadas con el mecanismo de emisión de la señal electromagnética.
Dirección
CALDERON BUSTILLO, JUAN (Tutoría)
CALDERON BUSTILLO, JUAN (Tutoría)
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Modelización del comportamiento térmico de suelos afectados por incendios forestales.
Autoría
J.J.M.B.
Grado en Física
J.J.M.B.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
En este Trabajo de Fin de Grado se propone un avance en el estudio del comportamiento térmico de suelos afectados por incendios forestales mediante la modelización de los termogramas de suelos obtenidos previamente por Calorimetría Diferencial de Barrido (DSC). El objetivo principal es la separación de los procesos térmicos que ocurren en la materia orgánica del suelo y analizar sus cambios como consecuencia de un calentamiento en laboratorio, aplicando diferentes funciones matemáticas Para ello, se ha desarrollado un software en Python que permite el ajuste de curvas térmicas a partir de datos experimentales, integrando herramientas de suavizado, corrección de ruido, detección de mínimos y ajuste de parámetros mediante el algoritmo de Levenberg-Marquardt. Se han analizado muestras de un suelo de la zona de Antela (Xinzo de Limia, Ourense), tanto sin tratar como sometidas a tratamiento térmico de 300 grados Celsius. Los resultados muestran que la suma de tres funciones gaussianas es el modelo más eficaz y estadísticamente robusto (Coeficiente de determinación mayor que 0.999) para describir las curvas DSC, identificando tres eventos exotérmcios principales: combustión de la materia orgánica lábil (200-300 grados Celsius), combustión de la materia orgánica recalcitrante (300-400 grados Celsius) y degradación de compuestos generados durante la propia combustión (mayor que 400 grados Celsius). Se concluye que el modelo propuesto permite caracterizar con precisión el estado térmico del suelo, facilitando la identificación del daño sufrido y su posible recuperación. Esta metodología constituye una herramienta replicable y transferible para la evaluación de suelos post-incendio, con aplicaciones potenciales en la restauración ecológica y la gestión forestal.
En este Trabajo de Fin de Grado se propone un avance en el estudio del comportamiento térmico de suelos afectados por incendios forestales mediante la modelización de los termogramas de suelos obtenidos previamente por Calorimetría Diferencial de Barrido (DSC). El objetivo principal es la separación de los procesos térmicos que ocurren en la materia orgánica del suelo y analizar sus cambios como consecuencia de un calentamiento en laboratorio, aplicando diferentes funciones matemáticas Para ello, se ha desarrollado un software en Python que permite el ajuste de curvas térmicas a partir de datos experimentales, integrando herramientas de suavizado, corrección de ruido, detección de mínimos y ajuste de parámetros mediante el algoritmo de Levenberg-Marquardt. Se han analizado muestras de un suelo de la zona de Antela (Xinzo de Limia, Ourense), tanto sin tratar como sometidas a tratamiento térmico de 300 grados Celsius. Los resultados muestran que la suma de tres funciones gaussianas es el modelo más eficaz y estadísticamente robusto (Coeficiente de determinación mayor que 0.999) para describir las curvas DSC, identificando tres eventos exotérmcios principales: combustión de la materia orgánica lábil (200-300 grados Celsius), combustión de la materia orgánica recalcitrante (300-400 grados Celsius) y degradación de compuestos generados durante la propia combustión (mayor que 400 grados Celsius). Se concluye que el modelo propuesto permite caracterizar con precisión el estado térmico del suelo, facilitando la identificación del daño sufrido y su posible recuperación. Esta metodología constituye una herramienta replicable y transferible para la evaluación de suelos post-incendio, con aplicaciones potenciales en la restauración ecológica y la gestión forestal.
Dirección
SALGADO CARBALLO, JOSEFA (Tutoría)
PARAJO VIEITO, JUAN JOSE Cotutoría
SALGADO CARBALLO, JOSEFA (Tutoría)
PARAJO VIEITO, JUAN JOSE Cotutoría
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Estudio de la turbulencia débil en las ecuaciones de Einstein
Autoría
A.M.F.
Grado en Física
A.M.F.
Grado en Física
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
Este trabajo explora la dinámica no lineal de un campo estocástico de ondas gravitacionales, un escenario físico relevante para el universo primordial. Partiendo de las ecuaciones de Einstein en el vacío bajo la métrica de Hadad-Zakharov, se aplica el método de las múltiples escalas temporales para superar las limitaciones de las teorías perturbativas estándar, que fracasan debido a la aparición de términos seculares. El objetivo principal es la derivación de la ecuación cinética que gobierna la evolución estadística del espectro de acción de onda para un sistema dominado por interacciones de cuatro ondas. Una vez obtenida la ecuación cinética, se analizan sus soluciones estacionarias, identificando dos familias: los espectros de equilibrio termodinámico de Rayleigh-Jeans y los de no-equilibrio de Kolmogorov-Zakharov. El resultado más significativo es la predicción de una doble cascada: una cascada directa de energía hacia las escalas pequeñas y una cascada inversa de acción de onda hacia las escalas grandes.
Este trabajo explora la dinámica no lineal de un campo estocástico de ondas gravitacionales, un escenario físico relevante para el universo primordial. Partiendo de las ecuaciones de Einstein en el vacío bajo la métrica de Hadad-Zakharov, se aplica el método de las múltiples escalas temporales para superar las limitaciones de las teorías perturbativas estándar, que fracasan debido a la aparición de términos seculares. El objetivo principal es la derivación de la ecuación cinética que gobierna la evolución estadística del espectro de acción de onda para un sistema dominado por interacciones de cuatro ondas. Una vez obtenida la ecuación cinética, se analizan sus soluciones estacionarias, identificando dos familias: los espectros de equilibrio termodinámico de Rayleigh-Jeans y los de no-equilibrio de Kolmogorov-Zakharov. El resultado más significativo es la predicción de una doble cascada: una cascada directa de energía hacia las escalas pequeñas y una cascada inversa de acción de onda hacia las escalas grandes.
Dirección
FARIÑA BIASI, ANXO (Tutoría)
FARIÑA BIASI, ANXO (Tutoría)
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Estudio teórico-computacional de mezclas de líquidos iónicos, carbonatos y sales de litio.
Autoría
P.M.N.
Grado en Física
P.M.N.
Grado en Física
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
Los líquidos iónicos (LI) son compuestos de gran interés en el campo del almacenamiento energético y unos candidatos para sustituir los electrolitos habitualmente utilizados. En este estudio se analizarán tanto experimental como computacionalmente mezclas ternarias entre el LI 1-etil-3-metilimidazolio bis(trifluorometilsulfonil)imida (EMIM-TFSI), una sal de litio (Li-TFSI) y carbonato de etileno (EC) como cosolvente. En particular obtendremos valores para la conductividad eléctrica de las mezclas y realizaremos una comparativa entre los resultados obtenidos.
Los líquidos iónicos (LI) son compuestos de gran interés en el campo del almacenamiento energético y unos candidatos para sustituir los electrolitos habitualmente utilizados. En este estudio se analizarán tanto experimental como computacionalmente mezclas ternarias entre el LI 1-etil-3-metilimidazolio bis(trifluorometilsulfonil)imida (EMIM-TFSI), una sal de litio (Li-TFSI) y carbonato de etileno (EC) como cosolvente. En particular obtendremos valores para la conductividad eléctrica de las mezclas y realizaremos una comparativa entre los resultados obtenidos.
Dirección
MENDEZ MORALES, TRINIDAD (Tutoría)
PARAJO VIEITO, JUAN JOSE Cotutoría
MENDEZ MORALES, TRINIDAD (Tutoría)
PARAJO VIEITO, JUAN JOSE Cotutoría
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Estudio de las desintegraciones al estado final Ds+pi+pi- con los datos del Run 3 tomados por el experimento LHCb del CERN.
Autoría
H.M.F.
Grado en Física
H.M.F.
Grado en Física
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
Los hadrones Ds1(2460)+ y Ds1(2536)+ son estados excitados, con el mismo sabor, pero con mayor masa que el Ds+. El Ds1(2460)+ es un hadrón candidato a tetraquark debido a cualidades como su pequeña anchura y su proximidad al umbral D*K. Por lo tanto, el objetivo de este trabajo es estudiar la naturaleza del Ds1(2460)+ mediante su producción usando como referencia el Ds1(2536)+, al ser este un mesón común. Para ello, usaremos las desintegraciones DsJ a Ds+pi+pi-, que nos proporciona un canal más limpio al solo tener hadrones en el estado final. Gracias al aumento de luminosidad y las mejoras en la reconstrucción de hadrones en el reciente Upgrade I del experimento LHCb se espera una mayor eficiencia de detección de estas desintegraciones, lo que permite suplir su relativa baja tasa de desintegración. Entonces, usaremos los nuevos datos del Run 3 del experimento LHCb, los comprobaremos y haremos un test del detector para este tipo de análisis. Para el estudio, lo primero es hacer una selección con cortes cinemáticos e identificativos mientras reconstruimos el mesón Ds+ mediante la desintegración Ds+ a K+K-pi+. Posteriormente reconstruiremos los mesones Ds1(2460)+ y Ds1(2536)+ y haremos un ajuste en masa invariante para obtener los sucesos de señal. Repetiremos este proceso en función de unos bines de pT y así conseguimos un cociente de la señal de los hadrones en función del pT que tomaremos como resultado final del análisis.
Los hadrones Ds1(2460)+ y Ds1(2536)+ son estados excitados, con el mismo sabor, pero con mayor masa que el Ds+. El Ds1(2460)+ es un hadrón candidato a tetraquark debido a cualidades como su pequeña anchura y su proximidad al umbral D*K. Por lo tanto, el objetivo de este trabajo es estudiar la naturaleza del Ds1(2460)+ mediante su producción usando como referencia el Ds1(2536)+, al ser este un mesón común. Para ello, usaremos las desintegraciones DsJ a Ds+pi+pi-, que nos proporciona un canal más limpio al solo tener hadrones en el estado final. Gracias al aumento de luminosidad y las mejoras en la reconstrucción de hadrones en el reciente Upgrade I del experimento LHCb se espera una mayor eficiencia de detección de estas desintegraciones, lo que permite suplir su relativa baja tasa de desintegración. Entonces, usaremos los nuevos datos del Run 3 del experimento LHCb, los comprobaremos y haremos un test del detector para este tipo de análisis. Para el estudio, lo primero es hacer una selección con cortes cinemáticos e identificativos mientras reconstruimos el mesón Ds+ mediante la desintegración Ds+ a K+K-pi+. Posteriormente reconstruiremos los mesones Ds1(2460)+ y Ds1(2536)+ y haremos un ajuste en masa invariante para obtener los sucesos de señal. Repetiremos este proceso en función de unos bines de pT y así conseguimos un cociente de la señal de los hadrones en función del pT que tomaremos como resultado final del análisis.
Dirección
GALLAS TORREIRA, ABRAHAM ANTONIO (Tutoría)
Cambón Bouzas, José Iván Cotutoría
GALLAS TORREIRA, ABRAHAM ANTONIO (Tutoría)
Cambón Bouzas, José Iván Cotutoría
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Caracterización de un tubo de rayos X de potencial constante.
Autoría
D.M.C.
Grado en Física
D.M.C.
Grado en Física
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
Este trabajo presenta una caracterización experimental completa de un tubo de rayos X de potencial constante, centrada en la determinación de su capa hemirreductora (HVL) y el perfil espacial del haz emitido. La HVL, que cuantifica la capacidad de penetración del haz y permite evaluar su calidad, se obtiene mediante métodos directos utilizando una cámara de ionización, y también se estima de forma indirecta a partir de espectros de energía registrados con un detector semiconductor de CdTe. Para corregir las distorsiones en los espectros medidos (debidas a efectos de escape, coincidencias aleatorias y dispersión Compton), se ha desarrollado y aplicado una matriz de respuesta específica del detector obtenida mediante simulaciones tipo Montecarlo. El estudio se complementa con comparaciones entre los resultados experimentales y modelos espectrales generados con el software SpekPy, lo que permite estimar parámetros como la filtración inherente del tubo y evaluar la influencia de la geometría del ánodo (efecto talón) sobre la distribución del haz. Asimismo, se analiza el perfil del haz en direcciones ortogonales empleando una bancada lineal motorizada, observándose la influencia de componentes estructurales y de la inclinación del ánodo sobre la homogeneidad del campo. Este trabajo proporciona una visión detallada del comportamiento real de un tubo de rayos X frente a modelos ideales, subrayando la importancia de combinar mediciones experimentales, simulaciones y modelos analíticos para una caracterización precisa. Los resultados son relevantes tanto desde el punto de vista de la dosimetría como para aplicaciones clínicas o experimentales donde se requiere un control riguroso de la calidad del haz.
Este trabajo presenta una caracterización experimental completa de un tubo de rayos X de potencial constante, centrada en la determinación de su capa hemirreductora (HVL) y el perfil espacial del haz emitido. La HVL, que cuantifica la capacidad de penetración del haz y permite evaluar su calidad, se obtiene mediante métodos directos utilizando una cámara de ionización, y también se estima de forma indirecta a partir de espectros de energía registrados con un detector semiconductor de CdTe. Para corregir las distorsiones en los espectros medidos (debidas a efectos de escape, coincidencias aleatorias y dispersión Compton), se ha desarrollado y aplicado una matriz de respuesta específica del detector obtenida mediante simulaciones tipo Montecarlo. El estudio se complementa con comparaciones entre los resultados experimentales y modelos espectrales generados con el software SpekPy, lo que permite estimar parámetros como la filtración inherente del tubo y evaluar la influencia de la geometría del ánodo (efecto talón) sobre la distribución del haz. Asimismo, se analiza el perfil del haz en direcciones ortogonales empleando una bancada lineal motorizada, observándose la influencia de componentes estructurales y de la inclinación del ánodo sobre la homogeneidad del campo. Este trabajo proporciona una visión detallada del comportamiento real de un tubo de rayos X frente a modelos ideales, subrayando la importancia de combinar mediciones experimentales, simulaciones y modelos analíticos para una caracterización precisa. Los resultados son relevantes tanto desde el punto de vista de la dosimetría como para aplicaciones clínicas o experimentales donde se requiere un control riguroso de la calidad del haz.
Dirección
GOMEZ RODRIGUEZ, FAUSTINO (Tutoría)
GOMEZ RODRIGUEZ, FAUSTINO (Tutoría)
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Desarrollo y caracterización de un detector de fuentes de ignición en el rango del ultravioleta
Autoría
C.N.L.
Grado en Física
C.N.L.
Grado en Física
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
En este trabajo se presenta el desarrollo y caracterización de un sistema de detección de radiación en el rango ultravioleta (UV), cuyo elemento principal es el UVTron R13192 de Hamamatsu. Dicho dispositivo permite detectar en un rango de 185 a 260 nm y cuenta con una alta velocidad de respuesta, sensibilidad y capacidad de operación sin interferencia de la luz solar. El estudio incluye la construcción de un montaje experimental haciendo uso de un circuito C10807 y un osciloscopio y Arduino para la toma de medidas. Se realiza una calibración con una fuente alfa de americio gracias a la radioluminiscencia inducida en el nitrógeno del aire y se consigue un valor estimado para el número de fotones por pulso al cual es sensible el detector. Se analiza la sensibilidad tanto espacial como angular del sistema a partir de una fuente UV (lámpara L9657-03) de forma experimental y se completa con el desarrollo de una simulación en Geant4. Esta última permite reproducir el comportamiento del detector bajo diferentes configuraciones geométricas de forma versátil y sencilla. Por último, se proponen una serie de mejoras mediante un colimador recubierto de PTFE y se exploran tecnologías más avanzadas como los detectores S-RETGEM. Estos nuevos sistemas ofrecen una mayor sensibilidad y adaptabilidad a aplicaciones más exigentes, como la detección de incendios forestales. Esta investigación concluye y verifica la eficacia del UVTron para la detección de fuentes de ignición, además de ofrecer alternativas de mejoras futuras.
En este trabajo se presenta el desarrollo y caracterización de un sistema de detección de radiación en el rango ultravioleta (UV), cuyo elemento principal es el UVTron R13192 de Hamamatsu. Dicho dispositivo permite detectar en un rango de 185 a 260 nm y cuenta con una alta velocidad de respuesta, sensibilidad y capacidad de operación sin interferencia de la luz solar. El estudio incluye la construcción de un montaje experimental haciendo uso de un circuito C10807 y un osciloscopio y Arduino para la toma de medidas. Se realiza una calibración con una fuente alfa de americio gracias a la radioluminiscencia inducida en el nitrógeno del aire y se consigue un valor estimado para el número de fotones por pulso al cual es sensible el detector. Se analiza la sensibilidad tanto espacial como angular del sistema a partir de una fuente UV (lámpara L9657-03) de forma experimental y se completa con el desarrollo de una simulación en Geant4. Esta última permite reproducir el comportamiento del detector bajo diferentes configuraciones geométricas de forma versátil y sencilla. Por último, se proponen una serie de mejoras mediante un colimador recubierto de PTFE y se exploran tecnologías más avanzadas como los detectores S-RETGEM. Estos nuevos sistemas ofrecen una mayor sensibilidad y adaptabilidad a aplicaciones más exigentes, como la detección de incendios forestales. Esta investigación concluye y verifica la eficacia del UVTron para la detección de fuentes de ignición, además de ofrecer alternativas de mejoras futuras.
Dirección
AYYAD LIMONGE, FRANCESC YASSID (Tutoría)
CABO LANDEIRA, CRISTINA Cotutoría
AYYAD LIMONGE, FRANCESC YASSID (Tutoría)
CABO LANDEIRA, CRISTINA Cotutoría
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Propiedades Tribológicas de Nanofluidos de Transmisión para Vehículos Eléctricos y su Compatibilidad con Elastómeros
Autoría
P.N.P.
Grado en Física
P.N.P.
Grado en Física
Fecha de la defensa
17.07.2025 16:00
17.07.2025 16:00
Resumen
En este Trabajo Fin de Grado (TFG) se ha realizado un estudio tribológico de ocho nanolubricantes preparados a partir de un aceite base (PAO6) aditivado con nanopartículas (NPs) de Carburo de Titanio (TiC) o Carburo de Zirconio (ZrC). Se ha analizado el comportamiento antifricción y antidesgaste de ambas NPs mediante la medida del coeficiente de fricción en un tribómetro y de la huella de desgaste en un perfilómetro óptico. Para el nanolubricante con NPs de TiC solo se ha logrado una mejora del coeficiente de fricción del 8%, mientras que el que contiene NPs de ZrC ha reducido tanto el coeficiente de fricción en un 10% como el área de desgaste en un 17%. La concentración óptima para la cual se consiguió la mayor reducción de estos parámetros con respecto a la PAO6 fue del 0.01 wt% de NPs de ZrC. Con las dos dispersiones de concentración óptima se ha realizado un estudio de compatibilidad con tres elastómeros (cauchos de silicona, FKM y EPDM) efectuando tests de tracción y variación de volumen.
En este Trabajo Fin de Grado (TFG) se ha realizado un estudio tribológico de ocho nanolubricantes preparados a partir de un aceite base (PAO6) aditivado con nanopartículas (NPs) de Carburo de Titanio (TiC) o Carburo de Zirconio (ZrC). Se ha analizado el comportamiento antifricción y antidesgaste de ambas NPs mediante la medida del coeficiente de fricción en un tribómetro y de la huella de desgaste en un perfilómetro óptico. Para el nanolubricante con NPs de TiC solo se ha logrado una mejora del coeficiente de fricción del 8%, mientras que el que contiene NPs de ZrC ha reducido tanto el coeficiente de fricción en un 10% como el área de desgaste en un 17%. La concentración óptima para la cual se consiguió la mayor reducción de estos parámetros con respecto a la PAO6 fue del 0.01 wt% de NPs de ZrC. Con las dos dispersiones de concentración óptima se ha realizado un estudio de compatibilidad con tres elastómeros (cauchos de silicona, FKM y EPDM) efectuando tests de tracción y variación de volumen.
Dirección
FERNANDEZ PEREZ, JOSEFA (Tutoría)
GARCIA GUIMAREY, MARIA JESUS Cotutoría
FERNANDEZ PEREZ, JOSEFA (Tutoría)
GARCIA GUIMAREY, MARIA JESUS Cotutoría
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Desarrollo y caracterización de un sistema de transmisión de energía usando fibra óptica
Autoría
A.O.D.A.
Grado en Física
A.O.D.A.
Grado en Física
Fecha de la defensa
17.07.2025 16:00
17.07.2025 16:00
Resumen
A lo largo de los últimos años, hubo grandes avances en torno a la transmisión de energía mediante el uso de la luz. Los llamados sistema PBL (Power By Light) son una solución a la transmisión de energía que permiten un mayor control y seguridad haciendo que sean útiles en muchos ámbitos y ambientes. En este trabajo recogemos un proceso detallado de desarrollo y caracterización de un sistema de transmisión láser por fibra óptica basado en una célula de GaAs con una estructura epitaxial vertical (VEHSA) con un número total de 6 uniones p/n.
A lo largo de los últimos años, hubo grandes avances en torno a la transmisión de energía mediante el uso de la luz. Los llamados sistema PBL (Power By Light) son una solución a la transmisión de energía que permiten un mayor control y seguridad haciendo que sean útiles en muchos ámbitos y ambientes. En este trabajo recogemos un proceso detallado de desarrollo y caracterización de un sistema de transmisión láser por fibra óptica basado en una célula de GaAs con una estructura epitaxial vertical (VEHSA) con un número total de 6 uniones p/n.
Dirección
GARCIA LOUREIRO, ANTONIO JESUS (Tutoría)
FERNANDEZ LOZANO, JAVIER Cotutoría
GARCIA LOUREIRO, ANTONIO JESUS (Tutoría)
FERNANDEZ LOZANO, JAVIER Cotutoría
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Oleaje en Sistemas Costeros
Autoría
A.P.G.
Grado en Física
A.P.G.
Grado en Física
Fecha de la defensa
17.07.2025 16:00
17.07.2025 16:00
Resumen
Las características lineales del oleaje en nuestras costas se pueden estudiar mediante un problema de ondas de gravedad superficiales en el marco de los medios continuos. Estudiaremos la propagación del oleaje, su relación de dispersión y las características dinámicas y cinemáticas del flujo de partículas. Además, explicaremos fenómenos cotidianos como el asomeramiento, la refracción y la agrupación de olas en series apoyándonos en las propiedades de las ondas, que ejemplificaremos mediante simulaciones en SWAN, uno de los modelos espectrales de oleaje que se utilizan en MeteoGalicia.
Las características lineales del oleaje en nuestras costas se pueden estudiar mediante un problema de ondas de gravedad superficiales en el marco de los medios continuos. Estudiaremos la propagación del oleaje, su relación de dispersión y las características dinámicas y cinemáticas del flujo de partículas. Además, explicaremos fenómenos cotidianos como el asomeramiento, la refracción y la agrupación de olas en series apoyándonos en las propiedades de las ondas, que ejemplificaremos mediante simulaciones en SWAN, uno de los modelos espectrales de oleaje que se utilizan en MeteoGalicia.
Dirección
MIGUEZ MACHO, GONZALO (Tutoría)
MIGUEZ MACHO, GONZALO (Tutoría)
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Formación de Singularidades en las Ecuaciones de Euler: La Implosión de un Fluido
Autoría
A.P.O.
Grado en Física
A.P.O.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Con el fin de ilustrar una serie de técnicas y métodos utilizados para el estudio de singularidades, se analizan las ecuaciones de Euler para un gas isoentrópico y compresible mediante soluciones autosimilares que representan la implosión del fluido. Este hecho simplifica el sistema acoplado y permite analizarlo mediante un sistema autónomo en el que aparecen una serie de singularidades. Las trayectorias posibles se consiguen a partir de una integración numérica, que permite determinar los perfiles de densidad y velocidad para cualquier tiempo ante una compresión.
Con el fin de ilustrar una serie de técnicas y métodos utilizados para el estudio de singularidades, se analizan las ecuaciones de Euler para un gas isoentrópico y compresible mediante soluciones autosimilares que representan la implosión del fluido. Este hecho simplifica el sistema acoplado y permite analizarlo mediante un sistema autónomo en el que aparecen una serie de singularidades. Las trayectorias posibles se consiguen a partir de una integración numérica, que permite determinar los perfiles de densidad y velocidad para cualquier tiempo ante una compresión.
Dirección
FARIÑA BIASI, ANXO (Tutoría)
FARIÑA BIASI, ANXO (Tutoría)
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Estudio de la decoherencia y determinismo con blancos activos
Autoría
P.P.B.
Grado en Física
P.P.B.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Este trabajo presenta un estudio de la decoherencia cuántica, centrado en su manifestación en interferometría de onda-materia y su papel en la transición entre los regímenes cuántico y clásico. En particular, se analiza la decoherencia inducida por colisiones, a partir del desarrollo teórico de Hornberger et al., basado en interferometría con moléculas de fullereno en presencia de un gas de fondo. A partir del análisis de la visibilidad del patrón de interferencia en un interferómetro Talbot-Lau, se reproducen los cálculos del artículo mencionado para obtener la presión característica de decoherencia en distintos gases. El objetivo principal es extrapolar estos resultados a haces de electrones y estudiar las condiciones de aplicabilidad de dicha aproximación. Además, se estudia la viabilidad de implementar un sistema interferométrico para haces de electrones dentro de una cámara de proyección temporal con blancos activos, con el fin de posibilitar estudios experimentales de decoherencia en condiciones controladas. Finalmente, se exponen brevemente algunas aplicaciones tecnológicas relevantes del estudio de la decoherencia, tanto con electrones como con moléculas, así como posibles líneas de investigación abiertas en este ámbito.
Este trabajo presenta un estudio de la decoherencia cuántica, centrado en su manifestación en interferometría de onda-materia y su papel en la transición entre los regímenes cuántico y clásico. En particular, se analiza la decoherencia inducida por colisiones, a partir del desarrollo teórico de Hornberger et al., basado en interferometría con moléculas de fullereno en presencia de un gas de fondo. A partir del análisis de la visibilidad del patrón de interferencia en un interferómetro Talbot-Lau, se reproducen los cálculos del artículo mencionado para obtener la presión característica de decoherencia en distintos gases. El objetivo principal es extrapolar estos resultados a haces de electrones y estudiar las condiciones de aplicabilidad de dicha aproximación. Además, se estudia la viabilidad de implementar un sistema interferométrico para haces de electrones dentro de una cámara de proyección temporal con blancos activos, con el fin de posibilitar estudios experimentales de decoherencia en condiciones controladas. Finalmente, se exponen brevemente algunas aplicaciones tecnológicas relevantes del estudio de la decoherencia, tanto con electrones como con moléculas, así como posibles líneas de investigación abiertas en este ámbito.
Dirección
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Aplicación del principio de distribuciones colapsadas a la síntesis y diagnóstico de agrupaciones planas de antenas
Autoría
D.M.P.O.
Grado en Física
D.M.P.O.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Este trabajo presenta dos aplicaciones del principio de las distribuciones colapsadas. Este principio afirma que cada corte acimutal de un patrón de radiación producido por una agrupación plana de antenas, con phi = phi_o, es equivalente al patrón producido por una agrupación lineal. Esta agrupación lineal se obtiene proyectando las excitaciones de todos los elementos de la agrupación plana sobre el eje phi = phi_o. La primera aplicación utiliza esta idea con el fin de sintetizar una pequeña antena plana de 32 elementos en rejilla rectangular, contorno circular, y simetría en octantes. La solución a este problema requiere resolver un sistema lineal sobredeterminado de seis ecuaciones y cuatro incógnitas. Con este fin, hemos empleado un algorítmo de optimización híbrido de Simulated Annealing y Downhill Simplex para obtener una solución aproximada. La segunda aplicación presenta un nuevo algoritmo para la detección de elementos defectuosos en agrupaciones planas dañadas, que solo considera el caso de defectos tipo on-off. El método utiliza muestras complejas de campo lejano sobre los cortes acimutales, con phi = 0, 45 y 90 grados, del patrón de radiación afectado. Estas muestras se utilizan para realizar una búsqueda exhaustiva que encuentra las tres agrupaciones lineales colapsadas, a lo largo de las direcciones mencionadas, que mejor recrean los valores de las muestras de la agrupación plana dañada. De esta manera se pueden obtener las coordenadas de los elementos defectuosos a lo largo de estos tres ejes. Hemos aplicado este algoritmo para diagnosticar una antena de 76 elementos en rejilla rectangular con contorno circular y simetría en cuadrantes.
Este trabajo presenta dos aplicaciones del principio de las distribuciones colapsadas. Este principio afirma que cada corte acimutal de un patrón de radiación producido por una agrupación plana de antenas, con phi = phi_o, es equivalente al patrón producido por una agrupación lineal. Esta agrupación lineal se obtiene proyectando las excitaciones de todos los elementos de la agrupación plana sobre el eje phi = phi_o. La primera aplicación utiliza esta idea con el fin de sintetizar una pequeña antena plana de 32 elementos en rejilla rectangular, contorno circular, y simetría en octantes. La solución a este problema requiere resolver un sistema lineal sobredeterminado de seis ecuaciones y cuatro incógnitas. Con este fin, hemos empleado un algorítmo de optimización híbrido de Simulated Annealing y Downhill Simplex para obtener una solución aproximada. La segunda aplicación presenta un nuevo algoritmo para la detección de elementos defectuosos en agrupaciones planas dañadas, que solo considera el caso de defectos tipo on-off. El método utiliza muestras complejas de campo lejano sobre los cortes acimutales, con phi = 0, 45 y 90 grados, del patrón de radiación afectado. Estas muestras se utilizan para realizar una búsqueda exhaustiva que encuentra las tres agrupaciones lineales colapsadas, a lo largo de las direcciones mencionadas, que mejor recrean los valores de las muestras de la agrupación plana dañada. De esta manera se pueden obtener las coordenadas de los elementos defectuosos a lo largo de estos tres ejes. Hemos aplicado este algoritmo para diagnosticar una antena de 76 elementos en rejilla rectangular con contorno circular y simetría en cuadrantes.
Dirección
ARES PENA, FRANCISCO JOSE (Tutoría)
ARES PENA, FRANCISCO JOSE (Tutoría)
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Interacciones fármaco-albúmina: un estudio termodinámico
Autoría
C.P.G.
Grado en Física
C.P.G.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
La albúmina sérica humana (HSA, por sus siglas en inglés) es la principal proteína de la sangre y la que funciona como medio de transporte para una gran variedad de moléculas, incluido fármacos. La clomipramina es un fármaco del grupo de los antidepresivos cíclicos que ha demostrado una gran eficacia para tratar a pacientes con trastorno obsesivo-compulsivo. Cuenta con una compleja farmacocinética y elevada unión a proteínas lo que condicionan su eficacia clínica y generan una variabilidad muy amplia según el paciente. Los nanoclusters de metales nobles son agregados de decenas de átomos que tienen propiedades ópticas únicas y generan un importante fenómeno de fluorescencia. Se han sintetizado con éxito conjugados estables (con un promedio de 45 átomos de oro por proteína) que presentan una fluorescencia característica en rojo (620 nm). Se ha caracterizado fisicoquímicamente el conjugado para comprobar como la presencia de los nanoclusters de oro afectan al comportamiento de la clomipramina. Se ha demostrado que el conjugado mantiene la capacidad para unirse a la clomipramina con una afinidad similar a la HSA nativa y con una estequiometría de 1:1. Termodinámicamente, se ha demostrado mediante ITC que la unión es espontánea y exotérmica en ambos casos. Aunque para el conjugado se obtiene una contribución entálpica menos favorable compensada por una penalización entrópica menor, lo que implica que la proteína se vuelve más rígida y requiere un menor orden de reordenamiento. Estos resultados validan al conjugado HSA-AuNCs como un análogo funcional de la HSA que puede ser utilizado como sonda óptica para futuras aplicaciones de bioimagen.
La albúmina sérica humana (HSA, por sus siglas en inglés) es la principal proteína de la sangre y la que funciona como medio de transporte para una gran variedad de moléculas, incluido fármacos. La clomipramina es un fármaco del grupo de los antidepresivos cíclicos que ha demostrado una gran eficacia para tratar a pacientes con trastorno obsesivo-compulsivo. Cuenta con una compleja farmacocinética y elevada unión a proteínas lo que condicionan su eficacia clínica y generan una variabilidad muy amplia según el paciente. Los nanoclusters de metales nobles son agregados de decenas de átomos que tienen propiedades ópticas únicas y generan un importante fenómeno de fluorescencia. Se han sintetizado con éxito conjugados estables (con un promedio de 45 átomos de oro por proteína) que presentan una fluorescencia característica en rojo (620 nm). Se ha caracterizado fisicoquímicamente el conjugado para comprobar como la presencia de los nanoclusters de oro afectan al comportamiento de la clomipramina. Se ha demostrado que el conjugado mantiene la capacidad para unirse a la clomipramina con una afinidad similar a la HSA nativa y con una estequiometría de 1:1. Termodinámicamente, se ha demostrado mediante ITC que la unión es espontánea y exotérmica en ambos casos. Aunque para el conjugado se obtiene una contribución entálpica menos favorable compensada por una penalización entrópica menor, lo que implica que la proteína se vuelve más rígida y requiere un menor orden de reordenamiento. Estos resultados validan al conjugado HSA-AuNCs como un análogo funcional de la HSA que puede ser utilizado como sonda óptica para futuras aplicaciones de bioimagen.
Dirección
TOPETE CAMACHO, ANTONIO (Tutoría)
TOPETE CAMACHO, ANTONIO (Tutoría)
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
El efecto Hanbury Brown y Twiss: Simulación con moteado láser
Autoría
G.A.P.C.
Grado en Física
G.A.P.C.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Este Trabajo de Fin de Grado aborda la interferometría de intensidad al estilo de Hanbury Brown y Twiss (HBT) inicialmente desarrollada para la medida del tamaño angular de estrellas. Revisamos primero el marco clásico: la correlación de intensidad entre dos puntos de un fuente de orden procedente para una fuente térmica deriva, su descenso con la separación entre puntos (línea base) permite recuperar el diámetro estelar sin necesidad de información de fase. También mostramos cómo la teoría cuántica predice anticorrelación para estados de fotón único. Este experimento ilustra el contraste entre luz clásica y luz cuántica. Simulamos la fuente caótica en laboratorio con un láser y un difusor rotativo que nos permite controlar la coherencia temporal generando un moteado láser (speckle), una pequeña apertura simula la extensión de la estrella y cada par de píxeles de una cámara simula una configuración del observatorio astronómico de HBT. Los resultados son consistentes con las predicciones clásicas de Hanbury Brown y Twiss
Este Trabajo de Fin de Grado aborda la interferometría de intensidad al estilo de Hanbury Brown y Twiss (HBT) inicialmente desarrollada para la medida del tamaño angular de estrellas. Revisamos primero el marco clásico: la correlación de intensidad entre dos puntos de un fuente de orden procedente para una fuente térmica deriva, su descenso con la separación entre puntos (línea base) permite recuperar el diámetro estelar sin necesidad de información de fase. También mostramos cómo la teoría cuántica predice anticorrelación para estados de fotón único. Este experimento ilustra el contraste entre luz clásica y luz cuántica. Simulamos la fuente caótica en laboratorio con un láser y un difusor rotativo que nos permite controlar la coherencia temporal generando un moteado láser (speckle), una pequeña apertura simula la extensión de la estrella y cada par de píxeles de una cámara simula una configuración del observatorio astronómico de HBT. Los resultados son consistentes con las predicciones clásicas de Hanbury Brown y Twiss
Dirección
PRIETO BLANCO, XESUS (Tutoría)
BARRAL RAÑA, DAVID Cotutoría
PRIETO BLANCO, XESUS (Tutoría)
BARRAL RAÑA, DAVID Cotutoría
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Detección de fragmentos de fisión en una TPC óptica
Autoría
D.P.C.
Grado en Física
D.P.C.
Grado en Física
Fecha de la defensa
18.02.2025 11:00
18.02.2025 11:00
Resumen
Presentamos el concepto de TPC óptica y su utilidad para la identificación de partículas de altas energías. Revisamos la literatura existente sobre fisión nuclear, con especial atención a la fisión espontánea, y exponemos la necesidad de desarrollar un método sencillo para la identificación de fragmentos de fisión de núcleos que contribuya a mejorar la teoría de la fisión. En particular, diseñamos un experimento para la reconstrucción de las trayectorias de los fragmentos de fisión del Cf-252, teniendo en cuenta el hecho de que cada tipo de fragmento tendrá teóricamente un recorrido diferente dentro de la TPC. Utilizamos varias estimaciones y simulaciones para fijar las condiciones del experimento y lo llevamos a cabo con dos tecnologías de detección diferentes. A continuación visualizamos los resultados satisfactoriamente y argumentamos que las trayectorias que obtenemos pertenecen a fragmentos de fisión y no a partículas alfa. Finalmente intentamos, sin éxito, extraer alguna conclusión sobre los núcleos concretos que estamos detectando.
Presentamos el concepto de TPC óptica y su utilidad para la identificación de partículas de altas energías. Revisamos la literatura existente sobre fisión nuclear, con especial atención a la fisión espontánea, y exponemos la necesidad de desarrollar un método sencillo para la identificación de fragmentos de fisión de núcleos que contribuya a mejorar la teoría de la fisión. En particular, diseñamos un experimento para la reconstrucción de las trayectorias de los fragmentos de fisión del Cf-252, teniendo en cuenta el hecho de que cada tipo de fragmento tendrá teóricamente un recorrido diferente dentro de la TPC. Utilizamos varias estimaciones y simulaciones para fijar las condiciones del experimento y lo llevamos a cabo con dos tecnologías de detección diferentes. A continuación visualizamos los resultados satisfactoriamente y argumentamos que las trayectorias que obtenemos pertenecen a fragmentos de fisión y no a partículas alfa. Finalmente intentamos, sin éxito, extraer alguna conclusión sobre los núcleos concretos que estamos detectando.
Dirección
CAAMAÑO FRESCO, MANUEL (Tutoría)
CABO LANDEIRA, CRISTINA Cotutoría
CAAMAÑO FRESCO, MANUEL (Tutoría)
CABO LANDEIRA, CRISTINA Cotutoría
Tribunal
ARES PENA, FRANCISCO JOSE (Presidente/a)
FERNANDEZ DOMINGUEZ, BEATRIZ (Secretario/a)
GONZALEZ ALEMANY, MANUEL MARIA (Vocal)
ARES PENA, FRANCISCO JOSE (Presidente/a)
FERNANDEZ DOMINGUEZ, BEATRIZ (Secretario/a)
GONZALEZ ALEMANY, MANUEL MARIA (Vocal)
Cálculo de la producción de núcleos exóticos con el nuevo haz de 186W en FAIR
Autoría
V.P.R.
Grado en Física
V.P.R.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
En la nueva instalación FAIR, aún en desenvolvimiento, se planea emplear un nuevo haz primario partiendo de una fuente de 186W que permitirá realizar mediciones de núcleos muy ricos en neutrones, cerca de la drip-line para elementos en la zona Z=69. En este caso, emplearemos reacciones de fragmentación de proyectiles de 186W a 1GeV/u inducidos por un blanco de Be. Para realizar estes experimentos, es preciso hacer cálculos previos sobre cuales serán las seccións eficaces de producción. A partir de estas secciones, se estimará la tasa de producción de una amplia gama de nucleidos comprendidos entre Z=55 y Z=72. Estes cálculos de produción de núcleos exóticos se harán gracias al código de simulación INCL+ABLA, de forma que se pueda concluír que esta nueva fuente se trata de una alternativa viable y de gran interés para futuros experimentos elaborados con el SUPER-FRS. Una vez producidos, los núcleos exóticos pueden enviarse a través de un espectrómetro de masas a diferentes áreas experimentais presentes en FAIR para estudiar sus propiedades: masa, desintegraciones, estrutura...
En la nueva instalación FAIR, aún en desenvolvimiento, se planea emplear un nuevo haz primario partiendo de una fuente de 186W que permitirá realizar mediciones de núcleos muy ricos en neutrones, cerca de la drip-line para elementos en la zona Z=69. En este caso, emplearemos reacciones de fragmentación de proyectiles de 186W a 1GeV/u inducidos por un blanco de Be. Para realizar estes experimentos, es preciso hacer cálculos previos sobre cuales serán las seccións eficaces de producción. A partir de estas secciones, se estimará la tasa de producción de una amplia gama de nucleidos comprendidos entre Z=55 y Z=72. Estes cálculos de produción de núcleos exóticos se harán gracias al código de simulación INCL+ABLA, de forma que se pueda concluír que esta nueva fuente se trata de una alternativa viable y de gran interés para futuros experimentos elaborados con el SUPER-FRS. Una vez producidos, los núcleos exóticos pueden enviarse a través de un espectrómetro de masas a diferentes áreas experimentais presentes en FAIR para estudiar sus propiedades: masa, desintegraciones, estrutura...
Dirección
ALVAREZ POL, HECTOR (Tutoría)
FEIJOO FONTAN, MARTINA Cotutoría
ALVAREZ POL, HECTOR (Tutoría)
FEIJOO FONTAN, MARTINA Cotutoría
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Explorando el límite físico de la resolución temporal en detectores gaseosos
Autoría
D.P.R.
Grado en Física
D.P.R.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
As RPCs (Resistive Plate Chambers) son un tipo de detectores usados actualmente en colisionadores coma o LHC do CERN entre outros, para a detección de partículas cargadas como muóns ou pións. No traballo contaremos como se desenvolveu o concepto das RPC partindo dos Geiger-Müller pasando por detectores de chispas PSC ata chegar aos modelos actuais das RPC. Ademais, estudiaremos os distintos posibles procesos que poderían acontecer dentro do detector; entre todos estes centrarémonos na aparición de avalanchas de portadores. Describiremos matematicamente tanto como se producen estas avalanchas e como evolucionan co tempo, tendo en conta as condicións do detector, obtendo á súa vez expresións coas que poder realizar simulacións de Monte Carlo do sistema. Tamén describiremos efectos importantes nas RPC, como a aparición de ‘streamers’ ou chispas e como se construíran os detectores tendo en conta ditos efectos. Por outro lado, partindo da expresión da intensidade inducida polo movemento de portadores no detector encontraremos expresións analíticas para obter a eficiencia e a resolución temporal do detector, para ambas magnitudes conseguiremos resultados de casos realistas e os compararemos cos achegados por publicacións para comprobar a veracidade de ditas expresións. Para finalizar utilizaremos o visto anteriormente nun caso particular, os detectores PICOSEC, que se están desenvolvendo estes últimos anos. Estes detectores usan a tecnoloxía das RCPs nun caso particular onde os electróns que son transportados no interior do detector son foto-electróns xerados por radiación Cherenkov. Isto último provocará certos cambios no estudio da resolución temporal do detector, cousa que nós comprobaremos obtendo a resolución para este tipo de detectores. Ao igual que coas RPCs comprobaremos a expresión usándoa en casos reais e comparando con resultados de publicacións.
As RPCs (Resistive Plate Chambers) son un tipo de detectores usados actualmente en colisionadores coma o LHC do CERN entre outros, para a detección de partículas cargadas como muóns ou pións. No traballo contaremos como se desenvolveu o concepto das RPC partindo dos Geiger-Müller pasando por detectores de chispas PSC ata chegar aos modelos actuais das RPC. Ademais, estudiaremos os distintos posibles procesos que poderían acontecer dentro do detector; entre todos estes centrarémonos na aparición de avalanchas de portadores. Describiremos matematicamente tanto como se producen estas avalanchas e como evolucionan co tempo, tendo en conta as condicións do detector, obtendo á súa vez expresións coas que poder realizar simulacións de Monte Carlo do sistema. Tamén describiremos efectos importantes nas RPC, como a aparición de ‘streamers’ ou chispas e como se construíran os detectores tendo en conta ditos efectos. Por outro lado, partindo da expresión da intensidade inducida polo movemento de portadores no detector encontraremos expresións analíticas para obter a eficiencia e a resolución temporal do detector, para ambas magnitudes conseguiremos resultados de casos realistas e os compararemos cos achegados por publicacións para comprobar a veracidade de ditas expresións. Para finalizar utilizaremos o visto anteriormente nun caso particular, os detectores PICOSEC, que se están desenvolvendo estes últimos anos. Estes detectores usan a tecnoloxía das RCPs nun caso particular onde os electróns que son transportados no interior do detector son foto-electróns xerados por radiación Cherenkov. Isto último provocará certos cambios no estudio da resolución temporal do detector, cousa que nós comprobaremos obtendo a resolución para este tipo de detectores. Ao igual que coas RPCs comprobaremos a expresión usándoa en casos reais e comparando con resultados de publicacións.
Dirección
GONZALEZ DIAZ, DIEGO (Tutoría)
GONZALEZ DIAZ, DIEGO (Tutoría)
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Desigualdades de Mermin en Ordenadores Cuánticos
Autoría
A.R.B.
Grado en Física
A.R.B.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Este traballo explora o uso das desigualdades de Mermin, unha xeneralización multipartita das desigualdades de Bell, como ferramenta de dobre propósito: por unha banda, verificar experimentalmente a non-localidade da mecánica cuántica en sistemas con múltiples qubits; e por outra, avaliar a fidelidade dos computadores cuánticos actuais segundo a súa capacidade para xerar correlacións cuánticas multipartitas. Co gallo disto, propóñense dúas implementacións posíbeis en forma de circuítos cuánticos, inspiradas nos experimentos bipartitos de Clauser, Horne, Shimony e Holt (CHSH) e Aspect. Estas compleméntanse con métodos de mitigación de erros e unha rutina adaptábel para a xeración do estado GHZ, un estado cuántico altamente entrelazado que maximiza a violación das desigualdades. Por último, execútanse os experimentos tanto en emuladores de circuítos cuánticos como en computadores cuánticos reais.
Este traballo explora o uso das desigualdades de Mermin, unha xeneralización multipartita das desigualdades de Bell, como ferramenta de dobre propósito: por unha banda, verificar experimentalmente a non-localidade da mecánica cuántica en sistemas con múltiples qubits; e por outra, avaliar a fidelidade dos computadores cuánticos actuais segundo a súa capacidade para xerar correlacións cuánticas multipartitas. Co gallo disto, propóñense dúas implementacións posíbeis en forma de circuítos cuánticos, inspiradas nos experimentos bipartitos de Clauser, Horne, Shimony e Holt (CHSH) e Aspect. Estas compleméntanse con métodos de mitigación de erros e unha rutina adaptábel para a xeración do estado GHZ, un estado cuántico altamente entrelazado que maximiza a violación das desigualdades. Por último, execútanse os experimentos tanto en emuladores de circuítos cuánticos como en computadores cuánticos reais.
Dirección
MAS SOLE, JAVIER (Tutoría)
Díaz Camacho, Guillermo Cotutoría
MAS SOLE, JAVIER (Tutoría)
Díaz Camacho, Guillermo Cotutoría
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Redes neuronales para alineamiento de blancos para aceleración laser
Autoría
X.R.R.
Grado en Física
X.R.R.
Grado en Física
Fecha de la defensa
15.09.2025 11:00
15.09.2025 11:00
Resumen
En este TFG se estudia la viabilidad de emplear redes neuronales para automatizar el proceso de alineamiento de blancos en experimentos de aceleración láser basados en el mecanismo Target Normal Sheath Acceleration (TNSA). El método actual utiliza un sensor de posición que no funciona en condiciones de vacío y que requiere montarse y desmontarse en cada uso. Debido a estas limitaciones, se propone emplear fotografías de los blancos tomadas con una cámara CMOS, que serán procesadas por una red neuronal que estimará su posición. Para el entrenamiento se construyó un conjunto de datos con más de 16.000 imágenes etiquetadas con la medida del sensor, reduciendo su resolución a 256x256 píxeles. Se evaluaron distintas arquitecturas de redes convolucionales, priorizando modelos ligeros adaptados al hardware disponible en el laboratorio. Los resultados muestran que la mejor red alcanza una desviación típica de alrededor de 10 micras respecto al sensor, valor que garantiza que la mayor parte de los blancos se encuentren dentro del rango de Rayleigh del sistema óptico del láser. Para conseguir que todos los blancos estén dentro de dicho rango se propone un método iterativo, que sería viable gracias a que el tiempo de inferencia de la red es muy inferior al necesario para utilizar el método actual. Como líneas futuras, se propone validar el método en el setup experimental definitivo y evaluar su comportamiento con blancos de distintos materiales.
En este TFG se estudia la viabilidad de emplear redes neuronales para automatizar el proceso de alineamiento de blancos en experimentos de aceleración láser basados en el mecanismo Target Normal Sheath Acceleration (TNSA). El método actual utiliza un sensor de posición que no funciona en condiciones de vacío y que requiere montarse y desmontarse en cada uso. Debido a estas limitaciones, se propone emplear fotografías de los blancos tomadas con una cámara CMOS, que serán procesadas por una red neuronal que estimará su posición. Para el entrenamiento se construyó un conjunto de datos con más de 16.000 imágenes etiquetadas con la medida del sensor, reduciendo su resolución a 256x256 píxeles. Se evaluaron distintas arquitecturas de redes convolucionales, priorizando modelos ligeros adaptados al hardware disponible en el laboratorio. Los resultados muestran que la mejor red alcanza una desviación típica de alrededor de 10 micras respecto al sensor, valor que garantiza que la mayor parte de los blancos se encuentren dentro del rango de Rayleigh del sistema óptico del láser. Para conseguir que todos los blancos estén dentro de dicho rango se propone un método iterativo, que sería viable gracias a que el tiempo de inferencia de la red es muy inferior al necesario para utilizar el método actual. Como líneas futuras, se propone validar el método en el setup experimental definitivo y evaluar su comportamiento con blancos de distintos materiales.
Dirección
ALEJO ALONSO, AARON JOSE (Tutoría)
ALEJO ALONSO, AARON JOSE (Tutoría)
Tribunal
GONZALEZ FERREIRO, ELENA (Presidente/a)
VAZQUEZ RAMALLO, MANUEL (Secretario/a)
BAO VARELA, Mª CARMEN (Vocal)
GONZALEZ FERREIRO, ELENA (Presidente/a)
VAZQUEZ RAMALLO, MANUEL (Secretario/a)
BAO VARELA, Mª CARMEN (Vocal)
Espectrómetro de rayos X basado en detectores pasivos
Autoría
J.A.R.L.
Grado en Física
J.A.R.L.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
La producción de rayos X mediante pulsos láser ultra-cortos y de alta intensidad es una técnica emergente con aplicaciones prometedoras en medicina e investigación. Sin embargo, la caracterización espectral de este tipo de fuentes presenta algunos desafíos, debido a la gran intensidad y brevedad de los pulsos de radiación emitida, lo que limita el uso de detectores activos convencionales por fenómenos como el pile-up. En este trabajo se propone un sistema de espectroscopia basado en los detectores pasivos Image Plates (IPs), que no se ven afectados por dicha limitación. Para ello hemos realizado una calibración absoluta de estos detectores mediante la fluorescencia de rayos X de diversos materiales. Finalmente, hemos desarrollado una función de reconstrucción que permite recuperar el espectro original a partir de mediciones realizadas con filtros de distintos grosores interpuestos entre la fuente y las IPs.
La producción de rayos X mediante pulsos láser ultra-cortos y de alta intensidad es una técnica emergente con aplicaciones prometedoras en medicina e investigación. Sin embargo, la caracterización espectral de este tipo de fuentes presenta algunos desafíos, debido a la gran intensidad y brevedad de los pulsos de radiación emitida, lo que limita el uso de detectores activos convencionales por fenómenos como el pile-up. En este trabajo se propone un sistema de espectroscopia basado en los detectores pasivos Image Plates (IPs), que no se ven afectados por dicha limitación. Para ello hemos realizado una calibración absoluta de estos detectores mediante la fluorescencia de rayos X de diversos materiales. Finalmente, hemos desarrollado una función de reconstrucción que permite recuperar el espectro original a partir de mediciones realizadas con filtros de distintos grosores interpuestos entre la fuente y las IPs.
Dirección
ALEJO ALONSO, AARON JOSE (Tutoría)
ALEJO ALONSO, AARON JOSE (Tutoría)
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Reconstrucción de trazas en NEXT utilizando redes neuronales
Autoría
M.R.M.
Grado en Física
M.R.M.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
El experimento NEXT tiene como objetivo detectar la desintegración doble beta sin emisión de neutrinos, cuya observación podría tener importantes implicaciones en física de partículas. Para ello, se emplea el detector NEXT-100, una cámara de proyección temporal (Time Projection Chamber, TPC) con gas xenón a alta presión, ubicada en el Laboratorio Subterráneo de Canfranc (LSC). Este detector permite una reconstrucción tridimensional de las trazas dejadas por las partículas. Sin embargo, estas trazas reconstruidas presentan un aspecto difuso debido a efectos instrumentales. Para ello, se propone el uso de una red neuronal convolucional basada en segmentación semántica, con el objetivo de reconstruir una traza lo más similar posible a la original, eliminando las distorsiones introducidas por el detector. Se entrenaron varios modelos con distintas configuraciones, evaluando su desempeño a lo largo del proceso mediante la función de pérdida y la métrica Intersection over Union. Tras el entrenamiento y validación de la red, se aplicó el modelo a datos de prueba para generar predicciones. Finalmente, se estableció un umbral de decisión para evaluar los resultados, utilizando las métricas IoU y Accuracy para determinar el rendimiento del modelo y su capacidad para recuperar la traza original.
El experimento NEXT tiene como objetivo detectar la desintegración doble beta sin emisión de neutrinos, cuya observación podría tener importantes implicaciones en física de partículas. Para ello, se emplea el detector NEXT-100, una cámara de proyección temporal (Time Projection Chamber, TPC) con gas xenón a alta presión, ubicada en el Laboratorio Subterráneo de Canfranc (LSC). Este detector permite una reconstrucción tridimensional de las trazas dejadas por las partículas. Sin embargo, estas trazas reconstruidas presentan un aspecto difuso debido a efectos instrumentales. Para ello, se propone el uso de una red neuronal convolucional basada en segmentación semántica, con el objetivo de reconstruir una traza lo más similar posible a la original, eliminando las distorsiones introducidas por el detector. Se entrenaron varios modelos con distintas configuraciones, evaluando su desempeño a lo largo del proceso mediante la función de pérdida y la métrica Intersection over Union. Tras el entrenamiento y validación de la red, se aplicó el modelo a datos de prueba para generar predicciones. Finalmente, se estableció un umbral de decisión para evaluar los resultados, utilizando las métricas IoU y Accuracy para determinar el rendimiento del modelo y su capacidad para recuperar la traza original.
Dirección
HERNANDO MORATA, JOSE ANGEL (Tutoría)
PEREZ MANEIRO, MARTIN Cotutoría
HERNANDO MORATA, JOSE ANGEL (Tutoría)
PEREZ MANEIRO, MARTIN Cotutoría
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
La profundidad atmosférica de producción de muones en cascadas producidas por neutrinos en el Observatorio Pierre Auger
Autoría
P.R.R.
Grado en Física
P.R.R.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Los procesos astrofísicos extremos pueden producir partículas de altísima energía que llegan a la Tierra, entre ellas neutrinos. Como son partículas neutras, los neutrinos no son desviados por los campos magnéticos del cosmos en su reccorrido, y llegan apuntando directamente a su dirección de origen. Debido a su baja sección eficaz, la detección de estas partículas requiere detectores de un volumen enorme. El Observatorio Pierre Auger tiene la capacidad de detectar las cascadas atmosféricas producidas por las partículas primarias que llegan a la atmósfera. Los neutrinos, por ser capaces de atravesar grandes porciones de atmósfera sin interactuar, pueden iniciar cascadas a profundidades mucho mayores que las partículas primarias cargadas como los protones. La determinación de una cascada atmosférica a mucha profundidad permitiría su identificación como evento de neutrino. A medida que el ángulo de incidencia aumenta, crece la cantidad de atmósfera que pueden recorrer; lo que nos interesa, por tanto, es estudiar estos eventos altamente inclinados. En este trabajo vamos a analizar si el algoritmo de la reconstrucción de la distribución de Profundidad de Producción de Muones (MPD) funciona para eventos con un ángulo de inclinación elevado (mayores que 60 grados). Buscamos analizar a partir de estas reconstrucciones si la profundidad de producción de muones sirve como discriminador entre eventos de neutrino y de partículas primarias cargadas, y usar la MPD en eventos reales detectados en el Observatorio Pierre Auger, candidatos de ser iniciados por neutrinos.
Los procesos astrofísicos extremos pueden producir partículas de altísima energía que llegan a la Tierra, entre ellas neutrinos. Como son partículas neutras, los neutrinos no son desviados por los campos magnéticos del cosmos en su reccorrido, y llegan apuntando directamente a su dirección de origen. Debido a su baja sección eficaz, la detección de estas partículas requiere detectores de un volumen enorme. El Observatorio Pierre Auger tiene la capacidad de detectar las cascadas atmosféricas producidas por las partículas primarias que llegan a la atmósfera. Los neutrinos, por ser capaces de atravesar grandes porciones de atmósfera sin interactuar, pueden iniciar cascadas a profundidades mucho mayores que las partículas primarias cargadas como los protones. La determinación de una cascada atmosférica a mucha profundidad permitiría su identificación como evento de neutrino. A medida que el ángulo de incidencia aumenta, crece la cantidad de atmósfera que pueden recorrer; lo que nos interesa, por tanto, es estudiar estos eventos altamente inclinados. En este trabajo vamos a analizar si el algoritmo de la reconstrucción de la distribución de Profundidad de Producción de Muones (MPD) funciona para eventos con un ángulo de inclinación elevado (mayores que 60 grados). Buscamos analizar a partir de estas reconstrucciones si la profundidad de producción de muones sirve como discriminador entre eventos de neutrino y de partículas primarias cargadas, y usar la MPD en eventos reales detectados en el Observatorio Pierre Auger, candidatos de ser iniciados por neutrinos.
Dirección
CAZON BOADO, LORENZO (Tutoría)
CAZON BOADO, LORENZO (Tutoría)
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Explorando la materia oscura en el Universo
Autoría
B.R.M.
Grado en Física
B.R.M.
Grado en Física
Fecha de la defensa
18.02.2025 11:00
18.02.2025 11:00
Resumen
En este trabajo se tratarán los conceptos básicos sobre la cuestión de la materia oscura. Su estructura se divide en tres partes bien diferenciadas. En la primera se hablará de las evidencias actuales que sitúan a la materia oscura como una de las grandes fronteras de la física actual. Se analizan distintos fenómenos como las curvas de rotación de las galaxias, la velocidad de las galaxias dentro de cúmulos, los efectos de lente gravitacional, el bosque Lyman-alfa y el cúmulo bala. En la segunda parte se tratará de entender cuál es su naturaleza. Aquí se introducen los tipos posibles de materia oscura, cuál pudo ser su origen, cómo pudo evolucionar y qué implicaciones tiene esto en la historia del universo. Además, se presentan los neutrinos y los WIMPs como candidatos a materia oscura. Finalmente, se comentarán los dos enfoques principales para la detección de la materia oscura: la directa y la indirecta, así como algunos de los principales experimentos en esta área.
En este trabajo se tratarán los conceptos básicos sobre la cuestión de la materia oscura. Su estructura se divide en tres partes bien diferenciadas. En la primera se hablará de las evidencias actuales que sitúan a la materia oscura como una de las grandes fronteras de la física actual. Se analizan distintos fenómenos como las curvas de rotación de las galaxias, la velocidad de las galaxias dentro de cúmulos, los efectos de lente gravitacional, el bosque Lyman-alfa y el cúmulo bala. En la segunda parte se tratará de entender cuál es su naturaleza. Aquí se introducen los tipos posibles de materia oscura, cuál pudo ser su origen, cómo pudo evolucionar y qué implicaciones tiene esto en la historia del universo. Además, se presentan los neutrinos y los WIMPs como candidatos a materia oscura. Finalmente, se comentarán los dos enfoques principales para la detección de la materia oscura: la directa y la indirecta, así como algunos de los principales experimentos en esta área.
Dirección
ALVAREZ MUÑIZ, JAIME (Tutoría)
ALVAREZ MUÑIZ, JAIME (Tutoría)
Tribunal
ARES PENA, FRANCISCO JOSE (Presidente/a)
FERNANDEZ DOMINGUEZ, BEATRIZ (Secretario/a)
GONZALEZ ALEMANY, MANUEL MARIA (Vocal)
ARES PENA, FRANCISCO JOSE (Presidente/a)
FERNANDEZ DOMINGUEZ, BEATRIZ (Secretario/a)
GONZALEZ ALEMANY, MANUEL MARIA (Vocal)
Plegamiento de péptidos en interfases entre medios de diferente polaridad mediante computación cuántica
Autoría
L.R.D.L.F.
Doble Grado en Física y en Química
L.R.D.L.F.
Doble Grado en Física y en Química
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
En este trabajo analizamos el potencial de la computación cuántica como herramienta innovadora para el estudio del plegamiento tridimensional de péptidos antimicrobianos (AMPs) en interfases entre medios de distinta polaridad que simulan la superficie de una membrana celular. Para ello, utilizamos el algoritmo Variational Quantum Eigensolver (VQE) junto con el sistema de computación híbrido QMIO del CESGA. El proyecto se enmarca en el contexto de la urgente problemática sanitaria causada por la resistencia bacteriana, enfatizando la importancia de conocer a nivel atómico la estructura funcional de los AMPs para desarrollar moléculas terapéuticas más eficaces. Metodológicamente, se utiliza un modelo coarse-grained basado en el potencial de Miyazawa- Jernigan modificado para capturar efectos de gradientes polares y transiciones de fase, combinado con circuitos cuánticos parametrizados y técnicas de optimización híbrida. Se evalúan tres secuencias prototipo (P1 hidrofóbica, P2 cargada y P3 anfipática) para comparar cómo la orientación y la distancia entre el péptido y la interfase, el gradiente de polaridad entre los dos medios considerados y la distribución de residuos del péptido afectan al plegamiento. Los resultados obtenidos mediante simuladores cuánticos ideales muestran conformaciones coherentes con las características fisicoquímicas específicas de cada secuencia: P1 adopta configuraciones extendidas en medios apolares, P2 se orienta hacia fases polares, mientras que P3 forma núcleos hidrofóbicos internos con exposición selectiva de residuos polares, sugiriendo una estabilización preferente en la interfase. Por otro lado, el uso del QMIO revela la necesidad de mitigar la presencia de ruido cuántico para obtener resultados realistas. Nuestro estudio evidencia el potencial de integrar métodos cuánticos y clásicos para superar las limitaciones actuales en dinámica molecular, acelerando la búsqueda de conformaciones estables y facilitando el diseño racional de AMPs. Hay varios retos clave a resolver, como la necesidad de mejorar las estrategias de corrección y mitigación de errores, desarrollar ansatz más eficientes para los circuitos VQE y optimizar la escalabilidad del hardware cuántico.
En este trabajo analizamos el potencial de la computación cuántica como herramienta innovadora para el estudio del plegamiento tridimensional de péptidos antimicrobianos (AMPs) en interfases entre medios de distinta polaridad que simulan la superficie de una membrana celular. Para ello, utilizamos el algoritmo Variational Quantum Eigensolver (VQE) junto con el sistema de computación híbrido QMIO del CESGA. El proyecto se enmarca en el contexto de la urgente problemática sanitaria causada por la resistencia bacteriana, enfatizando la importancia de conocer a nivel atómico la estructura funcional de los AMPs para desarrollar moléculas terapéuticas más eficaces. Metodológicamente, se utiliza un modelo coarse-grained basado en el potencial de Miyazawa- Jernigan modificado para capturar efectos de gradientes polares y transiciones de fase, combinado con circuitos cuánticos parametrizados y técnicas de optimización híbrida. Se evalúan tres secuencias prototipo (P1 hidrofóbica, P2 cargada y P3 anfipática) para comparar cómo la orientación y la distancia entre el péptido y la interfase, el gradiente de polaridad entre los dos medios considerados y la distribución de residuos del péptido afectan al plegamiento. Los resultados obtenidos mediante simuladores cuánticos ideales muestran conformaciones coherentes con las características fisicoquímicas específicas de cada secuencia: P1 adopta configuraciones extendidas en medios apolares, P2 se orienta hacia fases polares, mientras que P3 forma núcleos hidrofóbicos internos con exposición selectiva de residuos polares, sugiriendo una estabilización preferente en la interfase. Por otro lado, el uso del QMIO revela la necesidad de mitigar la presencia de ruido cuántico para obtener resultados realistas. Nuestro estudio evidencia el potencial de integrar métodos cuánticos y clásicos para superar las limitaciones actuales en dinámica molecular, acelerando la búsqueda de conformaciones estables y facilitando el diseño racional de AMPs. Hay varios retos clave a resolver, como la necesidad de mejorar las estrategias de corrección y mitigación de errores, desarrollar ansatz más eficientes para los circuitos VQE y optimizar la escalabilidad del hardware cuántico.
Dirección
PIÑEIRO GUILLEN, ANGEL (Tutoría)
CONDE TORRES, DANIEL Cotutoría
PIÑEIRO GUILLEN, ANGEL (Tutoría)
CONDE TORRES, DANIEL Cotutoría
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Inteligencia Artificial y Simulación Molecular: Herramientas para el Desarrollo de Nuevos Antibióticos
Autoría
L.R.D.L.F.
Doble Grado en Física y en Química
L.R.D.L.F.
Doble Grado en Física y en Química
Fecha de la defensa
15.07.2025 09:00
15.07.2025 09:00
Resumen
La resistencia a los antibióticos se ha convertido en una crisis sanitaria mundial, con proyecciones alarmantes que estiman hasta 10 millones de muertes anuales para 2050 si no se desarrollan alternativas terapéuticas efectivas. Entre estas alternativas, los péptidos antimicrobianos (AMPs) destacan por su capacidad para interactuar selectivamente con membranas bacterianas gracias a su carga positiva y naturaleza anfipática, así como su menor tendencia a inducir resistencia. Sin embargo, su estudio estructural presenta desafíos únicos, ya que muchos AMPs solo adoptan su conformación funcional (típicamente Alpha-helicoidal) al entrar en contacto con entornos lipídicos, permaneciendo desestructurados en solución acuosa. En este estudio, empleamos dinámica molecular atomística para caracterizar la estabilidad estructural del péptido Lasioglosina III (LL-III) en una bicapa lipídica modelo (POPC:POPG 80:20), que simula la composición aniónica de membranas bacterianas. Mediante simulaciones de 200 ns y réplicas independientes, comparamos configuraciones superficiales y preinsertadas (parcialmente inmersas en la membrana). Los resultados muestran que la inserción en la membrana favorece la conservación de la estructura helicoidal, mientras que la adsorción superficial induce desorganización conformacional. Además, se observó una marcada dependencia de la orientación inicial del péptido en su evolución estructural. Estos hallazgos demuestran que la dinámica molecular puede capturar el plegamiento inducido por membrana, superando limitaciones de métodos como AlphaFold (entrenado con proteínas globulares en disolución acuosa). Futuros trabajos podrían integrar estos datos en modelos de aprendizaje automático para diseñar nuevos antimicrobianos.
La resistencia a los antibióticos se ha convertido en una crisis sanitaria mundial, con proyecciones alarmantes que estiman hasta 10 millones de muertes anuales para 2050 si no se desarrollan alternativas terapéuticas efectivas. Entre estas alternativas, los péptidos antimicrobianos (AMPs) destacan por su capacidad para interactuar selectivamente con membranas bacterianas gracias a su carga positiva y naturaleza anfipática, así como su menor tendencia a inducir resistencia. Sin embargo, su estudio estructural presenta desafíos únicos, ya que muchos AMPs solo adoptan su conformación funcional (típicamente Alpha-helicoidal) al entrar en contacto con entornos lipídicos, permaneciendo desestructurados en solución acuosa. En este estudio, empleamos dinámica molecular atomística para caracterizar la estabilidad estructural del péptido Lasioglosina III (LL-III) en una bicapa lipídica modelo (POPC:POPG 80:20), que simula la composición aniónica de membranas bacterianas. Mediante simulaciones de 200 ns y réplicas independientes, comparamos configuraciones superficiales y preinsertadas (parcialmente inmersas en la membrana). Los resultados muestran que la inserción en la membrana favorece la conservación de la estructura helicoidal, mientras que la adsorción superficial induce desorganización conformacional. Además, se observó una marcada dependencia de la orientación inicial del péptido en su evolución estructural. Estos hallazgos demuestran que la dinámica molecular puede capturar el plegamiento inducido por membrana, superando limitaciones de métodos como AlphaFold (entrenado con proteínas globulares en disolución acuosa). Futuros trabajos podrían integrar estos datos en modelos de aprendizaje automático para diseñar nuevos antimicrobianos.
Dirección
GARCIA FANDIÑO, REBECA (Tutoría)
PIÑEIRO GUILLEN, ANGEL Cotutoría
GARCIA FANDIÑO, REBECA (Tutoría)
PIÑEIRO GUILLEN, ANGEL Cotutoría
Tribunal
SAA RODRIGUEZ, CARLOS EUGENIO (Presidente/a)
SOUSA PEDRARES, ANTONIO (Secretario/a)
GARCIA DEIBE, ANA MARIA (Vocal)
SAA RODRIGUEZ, CARLOS EUGENIO (Presidente/a)
SOUSA PEDRARES, ANTONIO (Secretario/a)
GARCIA DEIBE, ANA MARIA (Vocal)
Búsqueda de Partículas de Larga Vida en Dark Sectors a través de algoritmos de Machine Learning
Autoría
A.R.G.
Grado en Física
A.R.G.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
El Modelo Estándar (SM) es una teoría extremadamente precisa para describir las interacciones fundamentales entre partículas. No obstante, sabemos que no es completo al no ser capaz de acomodar la gravedad, explicar el origen de la materia oscura y energía oscura, o el origen de la asimetría materia-antimateria en el Universo; entre otros problemas que nos motivan a buscar modelos de nueva física (NP) o física más allá del SM (BSM). En este contexto, las partículas de larga vida (LLPs) emergen como solución natural al poder pasar desapercibidas en los experimentos debido a las limitaciones geométricas de los detectores. Ciertos modelos de NP incorporan los ''sectores oscuros'' y predicen la existencia de LLPs débilmente acopladas al SM. En este trabajo se estudiará el decaimiento de un hadrón oscuro, pi_v to Ks0 (to pi+ pi-) K+ pi-, con una masa de 2.5 GeV/c2, propuesto por uno de estos modelos, utilizando datos reales del LHCb y un algoritmo XGBoost para discriminar el fondo de la señal de interés. LHCb es un detector adecuado para realizar esta búsqueda gracias a su excelente resolución en la reconstrucción de vértices desplazados, su capacidad de identificación de partículas y su baja luminosidad en comparación con ATLAS y CMS, que facilita el tratamiento de fondos a baja masa.
El Modelo Estándar (SM) es una teoría extremadamente precisa para describir las interacciones fundamentales entre partículas. No obstante, sabemos que no es completo al no ser capaz de acomodar la gravedad, explicar el origen de la materia oscura y energía oscura, o el origen de la asimetría materia-antimateria en el Universo; entre otros problemas que nos motivan a buscar modelos de nueva física (NP) o física más allá del SM (BSM). En este contexto, las partículas de larga vida (LLPs) emergen como solución natural al poder pasar desapercibidas en los experimentos debido a las limitaciones geométricas de los detectores. Ciertos modelos de NP incorporan los ''sectores oscuros'' y predicen la existencia de LLPs débilmente acopladas al SM. En este trabajo se estudiará el decaimiento de un hadrón oscuro, pi_v to Ks0 (to pi+ pi-) K+ pi-, con una masa de 2.5 GeV/c2, propuesto por uno de estos modelos, utilizando datos reales del LHCb y un algoritmo XGBoost para discriminar el fondo de la señal de interés. LHCb es un detector adecuado para realizar esta búsqueda gracias a su excelente resolución en la reconstrucción de vértices desplazados, su capacidad de identificación de partículas y su baja luminosidad en comparación con ATLAS y CMS, que facilita el tratamiento de fondos a baja masa.
Dirección
CID VIDAL, XABIER (Tutoría)
Rodríguez Fernández, Emilio Xosé Cotutoría
CID VIDAL, XABIER (Tutoría)
Rodríguez Fernández, Emilio Xosé Cotutoría
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Análisis de la desintegración semileptónica B a tau nu en el experimento LHCb
Autoría
L.R.L.
Grado en Física
L.R.L.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
La desintegración B a tau nu es relativamente sencilla de entender desde un punto de vista teórico, al presentar una contribución de un diagrama de tipo árbol. La probabilidad de esta desintegración es bien conocida en el Modelo Estándar, y es muy sensible a alteraciones si existiesen otras nuevas partículas que pudiesen mediar dicha interacción. Por otro lado, desde un punto de vista experimental, la desintegración es un reto ya que el estado final más favorable, en el cual el leptón tau decae a tres piones y un neutrino, presenta dos neutrinos. Su reconstrucción resulta especialmente complicada en el contexto de los experimentos situados en colisionadores hadrónicos, como el LHCb, en el cual no se detectan dichos neutrinos. El objetivo del trabajo consistirá en desarrollar una serie de estrategias cinemáticas que permitan reconstruir la cadena B tau nu con tau a pi pi pi nu. Se estudiará el efecto de la reconstrucción en un canal similar Ds a tau nu con tau a pi pi pi nu y si se pueden separar ambas contribuciones, con el objetivo de aislar este fondo en un análisis de datos posterior. Se busca así, o bien aumentar la precisión a nivel experimental de la fracción de desintegración, o bien la del elemento de matriz CKM correspondiente. Si la fracción de desintegración no siguiese lo establecido por el Modelo Estándar podría ser un indicio de nueva física.
La desintegración B a tau nu es relativamente sencilla de entender desde un punto de vista teórico, al presentar una contribución de un diagrama de tipo árbol. La probabilidad de esta desintegración es bien conocida en el Modelo Estándar, y es muy sensible a alteraciones si existiesen otras nuevas partículas que pudiesen mediar dicha interacción. Por otro lado, desde un punto de vista experimental, la desintegración es un reto ya que el estado final más favorable, en el cual el leptón tau decae a tres piones y un neutrino, presenta dos neutrinos. Su reconstrucción resulta especialmente complicada en el contexto de los experimentos situados en colisionadores hadrónicos, como el LHCb, en el cual no se detectan dichos neutrinos. El objetivo del trabajo consistirá en desarrollar una serie de estrategias cinemáticas que permitan reconstruir la cadena B tau nu con tau a pi pi pi nu. Se estudiará el efecto de la reconstrucción en un canal similar Ds a tau nu con tau a pi pi pi nu y si se pueden separar ambas contribuciones, con el objetivo de aislar este fondo en un análisis de datos posterior. Se busca así, o bien aumentar la precisión a nivel experimental de la fracción de desintegración, o bien la del elemento de matriz CKM correspondiente. Si la fracción de desintegración no siguiese lo establecido por el Modelo Estándar podría ser un indicio de nueva física.
Dirección
VIEITES DIAZ, MARIA (Tutoría)
Brea Rodríguez, Alexandre Cotutoría
VIEITES DIAZ, MARIA (Tutoría)
Brea Rodríguez, Alexandre Cotutoría
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Optimización de un sistema de polimerización de dos fotones para modificación de superficies de materiales biocompatibles
Autoría
M.R.L.
Grado en Física
M.R.L.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
En este trabajo se optimizó un sistema de polimerización de dos fotones (2PP) para la fabricación de microestructuras biocompatibles, con el objetivo final de aplicarlas al cultivo celular de fibroblastos (células del tejido conectivo). Esta técnica se basa en un proceso óptico no lineal de absorción simultánea de dos fotones y permite la fabricación de estructuras en materiales fotosensibles con una resolución muy superior a la de técnicas convencionales. Esto, junto a su gran versatilidad, la convierte en una herramienta prometedora en ámbitos como la biomedicina y la óptica. Se empleó la resina SZ2080 por su alta biocompatibilidad, estabilidad y fotosensibilidad. Con ella se fabricaron redes combinando distintas velocidades y potencias del láser, con el fin de estudiar el efecto de estos parámetros sobre el grosor y la altura de las estructuras polimerizadas. La caracterización se llevó a cabo mediante microscopía óptica, confocal y electrónica (FESEM), lo que permitió un análisis preciso de las dimensiones y la integridad de las estructuras. Posteriormente, se evaluó la viabilidad del sistema mediante el cultivo de fibroblastos humanos sobre las redes fabricadas. En conclusión, se adquirieron conocimientos técnicos clave sobre la técnica 2PP y se identificaron líneas de mejora tanto en el proceso de fabricación, incluyendo tratado del sustrato, procesado y revelado, como en los protocolos del cultivo celular.
En este trabajo se optimizó un sistema de polimerización de dos fotones (2PP) para la fabricación de microestructuras biocompatibles, con el objetivo final de aplicarlas al cultivo celular de fibroblastos (células del tejido conectivo). Esta técnica se basa en un proceso óptico no lineal de absorción simultánea de dos fotones y permite la fabricación de estructuras en materiales fotosensibles con una resolución muy superior a la de técnicas convencionales. Esto, junto a su gran versatilidad, la convierte en una herramienta prometedora en ámbitos como la biomedicina y la óptica. Se empleó la resina SZ2080 por su alta biocompatibilidad, estabilidad y fotosensibilidad. Con ella se fabricaron redes combinando distintas velocidades y potencias del láser, con el fin de estudiar el efecto de estos parámetros sobre el grosor y la altura de las estructuras polimerizadas. La caracterización se llevó a cabo mediante microscopía óptica, confocal y electrónica (FESEM), lo que permitió un análisis preciso de las dimensiones y la integridad de las estructuras. Posteriormente, se evaluó la viabilidad del sistema mediante el cultivo de fibroblastos humanos sobre las redes fabricadas. En conclusión, se adquirieron conocimientos técnicos clave sobre la técnica 2PP y se identificaron líneas de mejora tanto en el proceso de fabricación, incluyendo tratado del sustrato, procesado y revelado, como en los protocolos del cultivo celular.
Dirección
Gómez Varela, Ana Isabel (Tutoría)
BAO VARELA, Mª CARMEN Cotutoría
Gómez Varela, Ana Isabel (Tutoría)
BAO VARELA, Mª CARMEN Cotutoría
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Síntesis y caracterización de nanocorazas de oro huecas
Autoría
S.R.P.
Grado en Física
S.R.P.
Grado en Física
Fecha de la defensa
18.02.2025 11:00
18.02.2025 11:00
Resumen
A lo largo de los últimos años, las nanopartículas de oro han sido objeto de extensas investigaciones por sus propiedades fototérmicas, así como por su alta biocompatibilidad y baja toxicidad. Estas características las vuelven útiles tanto en aplicaciones médicas como no médicas. En este trabajo recogemos un proceso detallado de síntesis de una morfología concreta de estas nanopartículas: las nanocorazas. Realizamos además un estudio de sus capacidades fototérmicas, así como un estudio de su morfología en base a imágenes obtenidas a través de microscopía TEM.
A lo largo de los últimos años, las nanopartículas de oro han sido objeto de extensas investigaciones por sus propiedades fototérmicas, así como por su alta biocompatibilidad y baja toxicidad. Estas características las vuelven útiles tanto en aplicaciones médicas como no médicas. En este trabajo recogemos un proceso detallado de síntesis de una morfología concreta de estas nanopartículas: las nanocorazas. Realizamos además un estudio de sus capacidades fototérmicas, así como un estudio de su morfología en base a imágenes obtenidas a través de microscopía TEM.
Dirección
TOPETE CAMACHO, ANTONIO (Tutoría)
TOPETE CAMACHO, ANTONIO (Tutoría)
Tribunal
ARES PENA, FRANCISCO JOSE (Presidente/a)
FERNANDEZ DOMINGUEZ, BEATRIZ (Secretario/a)
GONZALEZ ALEMANY, MANUEL MARIA (Vocal)
ARES PENA, FRANCISCO JOSE (Presidente/a)
FERNANDEZ DOMINGUEZ, BEATRIZ (Secretario/a)
GONZALEZ ALEMANY, MANUEL MARIA (Vocal)
Propagación de rayos cósmicos de muy altas energías en el Universo
Autoría
A.R.S.
Doble Grado en Matemáticas y en Física
A.R.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Los rayos cósmicos de muy altas energías (UHECRs) son las partículas más energéticas detectadas hasta la fecha en el Universo, alcanzando energías del orden del exaelectronvoltio (EeV). Su estudio resulta fundamental para explorar la física más allá del modelo estándar, analizar la estructura del campo magnético galáctico y abordar cuestiones relevantes en el ámbito de la cosmología. En la actualidad, existen múltiples líneas de investigación centradas en la comprensión de estos eventos, y observatorios como el Observatorio Pierre Auger o el Telescope Array se dedican a la detección de este tipo de partículas extragalácticas. Este trabajo estudia la propagación de estos rayos cósmicos dentro de la Galaxia, con el objetivo de analizar cómo influye el campo magnético galáctico en dicha propagación y cómo podrían identificarse las fuentes de las que provienen. Para ello, se utiliza el marco de simulación astrofísica CRPropa, que permite realizar simulaciones a través de su interfaz en Python. De este modo, se llevan a cabo simulaciones de la retropropagación de los UHECRs detectados por el Observatorio Pierre Auger, obteniendo tanto su dirección de llegada a la frontera galáctica como la deflexión experimentada durante su trayectoria. El estudio se centra en realizar simulaciones variando las componentes del campo magnético empleadas dentro del modelo JF12 [1, 2], considerando tanto la presencia de turbulencia aleatoria a pequeña escala como su ausencia, así como el tipo de partícula que se propaga.
Los rayos cósmicos de muy altas energías (UHECRs) son las partículas más energéticas detectadas hasta la fecha en el Universo, alcanzando energías del orden del exaelectronvoltio (EeV). Su estudio resulta fundamental para explorar la física más allá del modelo estándar, analizar la estructura del campo magnético galáctico y abordar cuestiones relevantes en el ámbito de la cosmología. En la actualidad, existen múltiples líneas de investigación centradas en la comprensión de estos eventos, y observatorios como el Observatorio Pierre Auger o el Telescope Array se dedican a la detección de este tipo de partículas extragalácticas. Este trabajo estudia la propagación de estos rayos cósmicos dentro de la Galaxia, con el objetivo de analizar cómo influye el campo magnético galáctico en dicha propagación y cómo podrían identificarse las fuentes de las que provienen. Para ello, se utiliza el marco de simulación astrofísica CRPropa, que permite realizar simulaciones a través de su interfaz en Python. De este modo, se llevan a cabo simulaciones de la retropropagación de los UHECRs detectados por el Observatorio Pierre Auger, obteniendo tanto su dirección de llegada a la frontera galáctica como la deflexión experimentada durante su trayectoria. El estudio se centra en realizar simulaciones variando las componentes del campo magnético empleadas dentro del modelo JF12 [1, 2], considerando tanto la presencia de turbulencia aleatoria a pequeña escala como su ausencia, así como el tipo de partícula que se propaga.
Dirección
ALVAREZ MUÑIZ, JAIME (Tutoría)
ALVAREZ MUÑIZ, JAIME (Tutoría)
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Variedades con estructura de producto deformado
Autoría
A.R.S.
Doble Grado en Matemáticas y en Física
A.R.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 12:15
16.07.2025 12:15
Resumen
Las variedades pseudo-Riemannianas con estructura local de producto han desempeñado un papel fundamental en la resolución de una amplia gama de problemas geométricos y físicos. En particular, este tipo de variedades constituye una de las técnicas más utilizadas para la construcción de métricas Riemannianas de Einstein y forma la estructura subyacente de la mayoría de los espaciotiempos relativistas. El objetivo de este trabajo es realizar un estudio sistemático de las variedades con estructura local de producto deformado centrado en el análisis de sus propiedades de curvatura.
Las variedades pseudo-Riemannianas con estructura local de producto han desempeñado un papel fundamental en la resolución de una amplia gama de problemas geométricos y físicos. En particular, este tipo de variedades constituye una de las técnicas más utilizadas para la construcción de métricas Riemannianas de Einstein y forma la estructura subyacente de la mayoría de los espaciotiempos relativistas. El objetivo de este trabajo es realizar un estudio sistemático de las variedades con estructura local de producto deformado centrado en el análisis de sus propiedades de curvatura.
Dirección
GARCIA RIO, EDUARDO (Tutoría)
CAEIRO OLIVEIRA, SANDRO Cotutoría
GARCIA RIO, EDUARDO (Tutoría)
CAEIRO OLIVEIRA, SANDRO Cotutoría
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Propiedades ópticas de multiplicadores gaseosos de electrones
Autoría
D.R.T.
Grado en Física
D.R.T.
Grado en Física
Fecha de la defensa
18.07.2025 16:00
18.07.2025 16:00
Resumen
El objetivo de este trabajo es caracterizar las propiedades difractivas y respuesta óptica de estructuras tipo GEM(Gas Electron Multiplier) en un entorno de avalancha de gases, con el objetivo final de comprender el diseño óptimo de estas estructuras para su uso en en una cámara de proyección temporal para física de neutrinos, como en el experimento DUNE.
El objetivo de este trabajo es caracterizar las propiedades difractivas y respuesta óptica de estructuras tipo GEM(Gas Electron Multiplier) en un entorno de avalancha de gases, con el objetivo final de comprender el diseño óptimo de estas estructuras para su uso en en una cámara de proyección temporal para física de neutrinos, como en el experimento DUNE.
Dirección
GONZALEZ DIAZ, DIEGO (Tutoría)
GONZALEZ DIAZ, DIEGO (Tutoría)
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Espectroscopía de alta resolución de atmósferas de exoplanetas
Autoría
H.R.F.
Grado en Física
H.R.F.
Grado en Física
Fecha de la defensa
18.07.2025 16:00
18.07.2025 16:00
Resumen
Este trabajo está centrado en la espectroscopía de alta resolución de atmósferas de exoplanetas. Para ello tomamos como caso de estudio el super-Neptuno/sub-Saturno cálido WASP-107b, descubierto en 2017 por el proyecto WASP, y que se trata de uno de los exoplanetas de menor densidad conocidos a día de hoy. El objetivo principal del proyecto es el estudio de la presencia (o ausencia) de 4 moléculas en la atmósfera de dicho planeta: H2O, CO, CO2 y CH4. Para este estudio se utilizaron 3 simulaciones de la atmósfera de este exoplaneta con diferentes cantidades de ruido, basadas en observaciones reales realizadas con el instrumento CRIRES+ en el Very Large Telescope (VLT) en Chile. Este instrumento es fundamental tanto por su alto poder de resolución como por su capacidad de operar en el rango infrarrojo, imprescindible para la detección de las moléculas mencionadas, ya que estas presentan fuertes transiciones en esta región. Para el procesamiento de los datos se usaron 2 métodos. En primer lugar se pasaron los datos por el pipeline de reducción del CRIRES+. Posteriormente se utilizaron 2 algoritmos de reducción de datos diferentes: SYSREM Y PCA. Cualquiera de los 2 sirve para eliminar las líneas espectrales de la estrella anfitriona (WASP-107) y de la atmósfera terrestre. Por último se utilizó la técnica de la correlación cruzada, la cual compara el espectro planetario con modelos de las 4 moléculas que buscamos detectar. En primer lugar estudiamos los resultados de la utilización de SYSREM y correlación cruzada, los cuales revelan la presencia únicamente de agua en nuestras simulaciones de la atmósfera de WASP-107b. Debido a esto, luego solo se realizó el estudio con PCA y correlación cruzada para esta molécula, cuyos resultados confirmaron los del procedimiento anterior.
Este trabajo está centrado en la espectroscopía de alta resolución de atmósferas de exoplanetas. Para ello tomamos como caso de estudio el super-Neptuno/sub-Saturno cálido WASP-107b, descubierto en 2017 por el proyecto WASP, y que se trata de uno de los exoplanetas de menor densidad conocidos a día de hoy. El objetivo principal del proyecto es el estudio de la presencia (o ausencia) de 4 moléculas en la atmósfera de dicho planeta: H2O, CO, CO2 y CH4. Para este estudio se utilizaron 3 simulaciones de la atmósfera de este exoplaneta con diferentes cantidades de ruido, basadas en observaciones reales realizadas con el instrumento CRIRES+ en el Very Large Telescope (VLT) en Chile. Este instrumento es fundamental tanto por su alto poder de resolución como por su capacidad de operar en el rango infrarrojo, imprescindible para la detección de las moléculas mencionadas, ya que estas presentan fuertes transiciones en esta región. Para el procesamiento de los datos se usaron 2 métodos. En primer lugar se pasaron los datos por el pipeline de reducción del CRIRES+. Posteriormente se utilizaron 2 algoritmos de reducción de datos diferentes: SYSREM Y PCA. Cualquiera de los 2 sirve para eliminar las líneas espectrales de la estrella anfitriona (WASP-107) y de la atmósfera terrestre. Por último se utilizó la técnica de la correlación cruzada, la cual compara el espectro planetario con modelos de las 4 moléculas que buscamos detectar. En primer lugar estudiamos los resultados de la utilización de SYSREM y correlación cruzada, los cuales revelan la presencia únicamente de agua en nuestras simulaciones de la atmósfera de WASP-107b. Debido a esto, luego solo se realizó el estudio con PCA y correlación cruzada para esta molécula, cuyos resultados confirmaron los del procedimiento anterior.
Dirección
ALVAREZ POL, HECTOR (Tutoría)
Morello , Giuseppe Cotutoría
ALVAREZ POL, HECTOR (Tutoría)
Morello , Giuseppe Cotutoría
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Búsqueda del decaimiento B+ - gamma pi+pi-pi+ con el detector LHCb
Autoría
J.P.S.T.
Grado en Física
J.P.S.T.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
Este informe se centra en el estudio de dos canales de desintegración de los mesones B+ en estados finales que contienen un fotón de alta energía y tres hadrones (dos piones y un kaón cargados o tres piones cargados). El objetivo principal es comparar ambos canales y determinar la presencia del segundo en datos del LHCb. Para lograr este objetivo, se utilizan tanto muestras de datos obtenidos durante la toma de datos del RunII del LHCb como simulaciones Monte Carlo. La eficiencia de la selección se evalúa ajustando la distribución de la masa invariante de los eventos seleccionados, comparando las características de los datos seleccionados en ambos canales de desintegración y realizando una prueba de razón de similitud en el segundo canal. Desde una perspectiva técnica, se emplearon nociones de Python-ROOT, técnicas de análisis con redes neuronales y módulos de visualización y ajuste de datos.
Este informe se centra en el estudio de dos canales de desintegración de los mesones B+ en estados finales que contienen un fotón de alta energía y tres hadrones (dos piones y un kaón cargados o tres piones cargados). El objetivo principal es comparar ambos canales y determinar la presencia del segundo en datos del LHCb. Para lograr este objetivo, se utilizan tanto muestras de datos obtenidos durante la toma de datos del RunII del LHCb como simulaciones Monte Carlo. La eficiencia de la selección se evalúa ajustando la distribución de la masa invariante de los eventos seleccionados, comparando las características de los datos seleccionados en ambos canales de desintegración y realizando una prueba de razón de similitud en el segundo canal. Desde una perspectiva técnica, se emplearon nociones de Python-ROOT, técnicas de análisis con redes neuronales y módulos de visualización y ajuste de datos.
Dirección
SANTAMARINA RIOS, CIBRAN (Tutoría)
VIEITES DIAZ, MARIA Cotutoría
SANTAMARINA RIOS, CIBRAN (Tutoría)
VIEITES DIAZ, MARIA Cotutoría
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Búsqueda de fuentes astrofísicas de neutrinos y rayos gamma a través de autocorrelaciones espacio-temporales de cascadas atmosféricas en el Observatorio Pierre Auger
Autoría
M.S.B.
Doble Grado en Física y en Química
M.S.B.
Doble Grado en Física y en Química
Fecha de la defensa
15.09.2025 11:00
15.09.2025 11:00
Resumen
Este trabajo es un estudio sobre los rayos cósmicos centrado en el análisis de sus direcciones de llegada a la Tierra y en la identificación de sus fuentes astrofísicas mediante métodos computacionales y estadísticos, utilizando para ello datos públicos del Observatorio Pierre Auger. Para llevarlo a cabo, se trató el caso en el que la distribución de direcciones de llegada de los rayos cósmicos a la Tierra fuese isotrópica o no lo fuese, evaluando así la hipótesis de isotropía frente a la existencia de fuentes de eventos transitorios, en concreto, galaxias de núcleos activos. La metodología de comparación se basó en el análisis de las diferencias temporales de los rayos cósmicos incidentes en la atmósfera y en el conteo de eventos simultáneos o dobletes.
Este trabajo es un estudio sobre los rayos cósmicos centrado en el análisis de sus direcciones de llegada a la Tierra y en la identificación de sus fuentes astrofísicas mediante métodos computacionales y estadísticos, utilizando para ello datos públicos del Observatorio Pierre Auger. Para llevarlo a cabo, se trató el caso en el que la distribución de direcciones de llegada de los rayos cósmicos a la Tierra fuese isotrópica o no lo fuese, evaluando así la hipótesis de isotropía frente a la existencia de fuentes de eventos transitorios, en concreto, galaxias de núcleos activos. La metodología de comparación se basó en el análisis de las diferencias temporales de los rayos cósmicos incidentes en la atmósfera y en el conteo de eventos simultáneos o dobletes.
Dirección
CAZON BOADO, LORENZO (Tutoría)
JESUS DA SILVA MARTINS, MIGUEL ALEXANDRE Cotutoría
CAZON BOADO, LORENZO (Tutoría)
JESUS DA SILVA MARTINS, MIGUEL ALEXANDRE Cotutoría
Tribunal
GONZALEZ FERREIRO, ELENA (Presidente/a)
VAZQUEZ RAMALLO, MANUEL (Secretario/a)
BAO VARELA, Mª CARMEN (Vocal)
GONZALEZ FERREIRO, ELENA (Presidente/a)
VAZQUEZ RAMALLO, MANUEL (Secretario/a)
BAO VARELA, Mª CARMEN (Vocal)
Estudio Conformacional de Cicloalcanos
Autoría
M.S.B.
Doble Grado en Física y en Química
M.S.B.
Doble Grado en Física y en Química
Fecha de la defensa
18.09.2025 09:00
18.09.2025 09:00
Resumen
En este trabajo se ha realizado un estudio conformacional de cicloalcanos con anillos de entre seis y diez átomos de carbono mediante el uso de un algoritmo de búsqueda conformacional en sistemas cíclicos del grupo del profesor Fernández-Ramos a alto y bajo nivel computacional. Primero, se lanzaron los cálculos a bajo nivel, empleando el método Hartee-Fock, y se estudiaron los mínimos de la superficie de energía potencial (PES). Para explorar mayor supercie conformacional y tener una perspectiva más detallada de las posibles conformaciones y las interconversiones entre ellas, también se estudiaron los estados de transición (TS), que posteriormente pudieron evolucionar a conformaciones estables (mínimos de la PES). Como método a alto nivel se empleó la Teoría del Funcional de Densidad (DFT) para optimizar las estructuras obtenidas a bajo nivel. El análisis de las estucturas se basó en la comparación de coordenadas de Cremer-Pople (CP), para el que se desarrolló un script en Python, y comparación visual con los confórmeros de las publicaciones científicas. Los confórmeros encontrados experimentalmente se corresponden en su mayoría con lo descrito en la literatura, aunque en algunos casos también se encontraron nuevas estructuras.
En este trabajo se ha realizado un estudio conformacional de cicloalcanos con anillos de entre seis y diez átomos de carbono mediante el uso de un algoritmo de búsqueda conformacional en sistemas cíclicos del grupo del profesor Fernández-Ramos a alto y bajo nivel computacional. Primero, se lanzaron los cálculos a bajo nivel, empleando el método Hartee-Fock, y se estudiaron los mínimos de la superficie de energía potencial (PES). Para explorar mayor supercie conformacional y tener una perspectiva más detallada de las posibles conformaciones y las interconversiones entre ellas, también se estudiaron los estados de transición (TS), que posteriormente pudieron evolucionar a conformaciones estables (mínimos de la PES). Como método a alto nivel se empleó la Teoría del Funcional de Densidad (DFT) para optimizar las estructuras obtenidas a bajo nivel. El análisis de las estucturas se basó en la comparación de coordenadas de Cremer-Pople (CP), para el que se desarrolló un script en Python, y comparación visual con los confórmeros de las publicaciones científicas. Los confórmeros encontrados experimentalmente se corresponden en su mayoría con lo descrito en la literatura, aunque en algunos casos también se encontraron nuevas estructuras.
Dirección
FERNANDEZ RAMOS, ANTONIO (Tutoría)
CASTIÑEIRA REIS, MARTA Cotutoría
FERNANDEZ RAMOS, ANTONIO (Tutoría)
CASTIÑEIRA REIS, MARTA Cotutoría
Tribunal
FERNANDEZ RODRIGUEZ, BERTA (Presidente/a)
ESTEVEZ VALCARCEL, CARLOS MANUEL (Secretario/a)
YEBRA BIURRUN, MARIA DEL CARMEN (Vocal)
FERNANDEZ RODRIGUEZ, BERTA (Presidente/a)
ESTEVEZ VALCARCEL, CARLOS MANUEL (Secretario/a)
YEBRA BIURRUN, MARIA DEL CARMEN (Vocal)
Comportamiento orbital en el sistema Sol-Júpiter: Una aproximación mediante el problema restringido circular plano de tres cuerpos
Autoría
A.S.C.
Grado en Física
A.S.C.
Grado en Física
Fecha de la defensa
16.09.2025 10:30
16.09.2025 10:30
Resumen
El Problema Restringido Circular Plano de Tres Cuerpos (PCRTBP) es un modelo fundamental en mecánica celeste. Este trabajo presenta un análisis detallado de su marco teórico y de la estabilidad de sus soluciones, los puntos de Lagrange, aplicándolo al sistema Sol-Júpiter como caso de estudio. Partiendo del problema de dos cuerpos, se desarrollan las ecuaciones del PCRTBP y se determinan las posiciones de sus puntos de equilibrio para el sistema Sol-Júpiter. A continuación, se explora numéricamente la dinámica en su vecindad, lo que permite visualizar la inestabilidad de los puntos colineales y la estabilidad de los triangulares. Dicha estabilidad se justifica teóricamente mediante un análisis lineal que revela el origen del movimiento de libración característico de los puntos L4 y L5. Finalmente, el trabajo culmina con la aplicación de todo el modelo al asteroide troyano (588) Achilles, demostrando que su trayectoria real se corresponde con una órbita de libración estable alrededor del punto L4. Este resultado valida la eficacia del PCRTBP para describir fenómenos coorbitales en el Sistema Solar.
El Problema Restringido Circular Plano de Tres Cuerpos (PCRTBP) es un modelo fundamental en mecánica celeste. Este trabajo presenta un análisis detallado de su marco teórico y de la estabilidad de sus soluciones, los puntos de Lagrange, aplicándolo al sistema Sol-Júpiter como caso de estudio. Partiendo del problema de dos cuerpos, se desarrollan las ecuaciones del PCRTBP y se determinan las posiciones de sus puntos de equilibrio para el sistema Sol-Júpiter. A continuación, se explora numéricamente la dinámica en su vecindad, lo que permite visualizar la inestabilidad de los puntos colineales y la estabilidad de los triangulares. Dicha estabilidad se justifica teóricamente mediante un análisis lineal que revela el origen del movimiento de libración característico de los puntos L4 y L5. Finalmente, el trabajo culmina con la aplicación de todo el modelo al asteroide troyano (588) Achilles, demostrando que su trayectoria real se corresponde con una órbita de libración estable alrededor del punto L4. Este resultado valida la eficacia del PCRTBP para describir fenómenos coorbitales en el Sistema Solar.
Dirección
NICOLAS AVILA, BEGOÑA (Tutoría)
NICOLAS AVILA, BEGOÑA (Tutoría)
Tribunal
LIÑARES BEIRAS, JESUS (Presidente/a)
AROSA LOBATO, YAGO (Secretario/a)
VILLANUEVA LOPEZ, MARIA (Vocal)
LIÑARES BEIRAS, JESUS (Presidente/a)
AROSA LOBATO, YAGO (Secretario/a)
VILLANUEVA LOPEZ, MARIA (Vocal)
Estudio de una desintegración rara del 40K: Implicaciones en geocronología.
Autoría
L.S.M.
Grado en Física
L.S.M.
Grado en Física
Fecha de la defensa
18.07.2025 16:00
18.07.2025 16:00
Resumen
En este trabajo se analiza una desintegración nuclear rara del isótopo 40K, la captura electrónica directa al estado fundamental del 40Ar, una transición nuclear prohibida de tercer orden. Aunque esta desintegración había sido predicha teóricamente, su detección experimental no se consiguió hasta 2023, gracias al experimento KDK (Potassium Decay). Su observación representa un hito en física nuclear, ya que es la única captura electrónica prohibida de tercer orden observada hasta la fecha. El estudio se centra en los fundamentos físicos del proceso, en la medición experimental hecha por KDK, y en las implicaciones de este descubrimiento en distintos ámbitos. En primer lugar, se analiza su impacto en experimentos de detección de materia oscura, como DAMA/LIBRA, ya que los electrones Auger y rayos X generados por esta rara desintegración pueden confundirse con señales esperadas de materia oscura. En segundo lugar, se estudia su relación con la desintegración doble beta sin neutrinos, proporcionando datos clave para refinar los modelos nucleares que predicen su vida media, hasta ahora subestimada. Por último, se evalúan las consecuencias en geocronología, ya que la nueva rama de desintegración altera el cálculo de la edad de una muestras mediante el método de datación 40K/40Ar. La inclusión de esta nueva rama de desintegración implica una ligera reducción en las edades geológicas estimadas con alta precisión, especialmente en muestras de gran antigüedad. Se presenta una simulación cuantitativa del impacto de esta corrección en función de la razón isotópica 40K/40Ar. En conjunto, este trabajo muestra cómo un hallazgo experimental en física nuclear puede tener consecuencias significativas y transversales, desde la búsqueda de nueva física hasta la mejora en la precisión de las escalas temporales geológicas.
En este trabajo se analiza una desintegración nuclear rara del isótopo 40K, la captura electrónica directa al estado fundamental del 40Ar, una transición nuclear prohibida de tercer orden. Aunque esta desintegración había sido predicha teóricamente, su detección experimental no se consiguió hasta 2023, gracias al experimento KDK (Potassium Decay). Su observación representa un hito en física nuclear, ya que es la única captura electrónica prohibida de tercer orden observada hasta la fecha. El estudio se centra en los fundamentos físicos del proceso, en la medición experimental hecha por KDK, y en las implicaciones de este descubrimiento en distintos ámbitos. En primer lugar, se analiza su impacto en experimentos de detección de materia oscura, como DAMA/LIBRA, ya que los electrones Auger y rayos X generados por esta rara desintegración pueden confundirse con señales esperadas de materia oscura. En segundo lugar, se estudia su relación con la desintegración doble beta sin neutrinos, proporcionando datos clave para refinar los modelos nucleares que predicen su vida media, hasta ahora subestimada. Por último, se evalúan las consecuencias en geocronología, ya que la nueva rama de desintegración altera el cálculo de la edad de una muestras mediante el método de datación 40K/40Ar. La inclusión de esta nueva rama de desintegración implica una ligera reducción en las edades geológicas estimadas con alta precisión, especialmente en muestras de gran antigüedad. Se presenta una simulación cuantitativa del impacto de esta corrección en función de la razón isotópica 40K/40Ar. En conjunto, este trabajo muestra cómo un hallazgo experimental en física nuclear puede tener consecuencias significativas y transversales, desde la búsqueda de nueva física hasta la mejora en la precisión de las escalas temporales geológicas.
Dirección
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Simulación de Modelos de Inteligencia Artificial con dispositivos electrónicos
Autoría
M.S.Y.
Grado en Física
M.S.Y.
Grado en Física
Fecha de la defensa
18.02.2025 11:00
18.02.2025 11:00
Resumen
El objetivo de este trabajo de fin de grado es explorar distintas herramientas de simulación de modelos de inteligencia artificial con dispositivos electrónicos, estudiando en particular las memorias de cambio de fase (PCM). La motivación del trabajo es el desarrollo de aceleradores físicos de modelos de IA orientados a un menor consumo de energía y una mayor velocidad de cómputo. Para ello, se analiza la implementación de arquitecturas de computación en memoria (CIM), que permiten reducir la carga asociada a la clásica arquitectura de Von Neumann, la cual ya no es la más adecuada para los modelos actuales de IA. Se abordarán tanto el entrenamiento como la inferencia mediante la herramienta AIHWKit, desarrollada por IBM, que permite simular redes neuronales teniendo en cuenta las no idealidades de los dispositivos emergentes. También se analizarán diferentes opciones de personalización de los modelos para mejorar su precisión y estabilidad. La primera parte del trabajo se centrará en introducir las limitaciones del hardware actual y cómo la computación analógica puede solucionar estos problemas. Posteriormente, se explicarán las propiedades físicas de las PCM, se introducirán las redes neuronales y se detallará el funcionamiento de AIHWKit. Finalmente, se comparará el rendimiento de las redes neuronales en diferentes configuraciones.
El objetivo de este trabajo de fin de grado es explorar distintas herramientas de simulación de modelos de inteligencia artificial con dispositivos electrónicos, estudiando en particular las memorias de cambio de fase (PCM). La motivación del trabajo es el desarrollo de aceleradores físicos de modelos de IA orientados a un menor consumo de energía y una mayor velocidad de cómputo. Para ello, se analiza la implementación de arquitecturas de computación en memoria (CIM), que permiten reducir la carga asociada a la clásica arquitectura de Von Neumann, la cual ya no es la más adecuada para los modelos actuales de IA. Se abordarán tanto el entrenamiento como la inferencia mediante la herramienta AIHWKit, desarrollada por IBM, que permite simular redes neuronales teniendo en cuenta las no idealidades de los dispositivos emergentes. También se analizarán diferentes opciones de personalización de los modelos para mejorar su precisión y estabilidad. La primera parte del trabajo se centrará en introducir las limitaciones del hardware actual y cómo la computación analógica puede solucionar estos problemas. Posteriormente, se explicarán las propiedades físicas de las PCM, se introducirán las redes neuronales y se detallará el funcionamiento de AIHWKit. Finalmente, se comparará el rendimiento de las redes neuronales en diferentes configuraciones.
Dirección
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
Tribunal
ARES PENA, FRANCISCO JOSE (Presidente/a)
FERNANDEZ DOMINGUEZ, BEATRIZ (Secretario/a)
GONZALEZ ALEMANY, MANUEL MARIA (Vocal)
ARES PENA, FRANCISCO JOSE (Presidente/a)
FERNANDEZ DOMINGUEZ, BEATRIZ (Secretario/a)
GONZALEZ ALEMANY, MANUEL MARIA (Vocal)
Trabajo fin de grado
Autoría
M.J.S.P.
Doble Grado en Física y en Química
M.J.S.P.
Doble Grado en Física y en Química
Fecha de la defensa
18.09.2025 09:00
18.09.2025 09:00
Resumen
La eutrofización es un problema medioambiental causado por la acumulación de nutrientes, principalmente fosfato y nitrato. Las principales consecuencias son la proliferación de microorganismos y plantas que generan condiciones anóxicas y dificultan la fotosíntesis. El resultado es un empeoramiento de la calidad del agua y un ecosistema dañado. Con el objetivo de afrontar los problemas de eutrofización en medios acuáticos, se ha analizado la reducción de nutrientes empleando hidróxidos de hierro y Tecnosoles. Se ha evaluado la eficacia de materiales adsorbentes para la retención del fosfato en función del pH en presencia de ácidos orgánicos sencillos como precursores de la materia orgánica. Asimismo, se ha aplicado la hipótesis de la “rueda ferrosa” para la eliminación de nitrato generando formas reducidas en presencia de ferrihidrita o Tecnosol y ácidos orgánicos. Los resultados confirman que se trata de una alternativa viable para abordar este problema. En cuanto al fosfato, la ferrihidrita presenta una adsorción significativa, que disminuye al aumentar el pH y en presencia de ácidos orgánicos debido a la competencia entre aniones. En el caso del nitrato, la eliminación depende del pH y de la naturaleza del ácido orgánico debido a su efecto en los procesos de reducción del anión.
La eutrofización es un problema medioambiental causado por la acumulación de nutrientes, principalmente fosfato y nitrato. Las principales consecuencias son la proliferación de microorganismos y plantas que generan condiciones anóxicas y dificultan la fotosíntesis. El resultado es un empeoramiento de la calidad del agua y un ecosistema dañado. Con el objetivo de afrontar los problemas de eutrofización en medios acuáticos, se ha analizado la reducción de nutrientes empleando hidróxidos de hierro y Tecnosoles. Se ha evaluado la eficacia de materiales adsorbentes para la retención del fosfato en función del pH en presencia de ácidos orgánicos sencillos como precursores de la materia orgánica. Asimismo, se ha aplicado la hipótesis de la “rueda ferrosa” para la eliminación de nitrato generando formas reducidas en presencia de ferrihidrita o Tecnosol y ácidos orgánicos. Los resultados confirman que se trata de una alternativa viable para abordar este problema. En cuanto al fosfato, la ferrihidrita presenta una adsorción significativa, que disminuye al aumentar el pH y en presencia de ácidos orgánicos debido a la competencia entre aniones. En el caso del nitrato, la eliminación depende del pH y de la naturaleza del ácido orgánico debido a su efecto en los procesos de reducción del anión.
Dirección
Fiol López, Sarah (Tutoría)
Antelo Martínez, Juan Cotutoría
Fiol López, Sarah (Tutoría)
Antelo Martínez, Juan Cotutoría
Tribunal
FERNANDEZ RODRIGUEZ, BERTA (Presidente/a)
ESTEVEZ VALCARCEL, CARLOS MANUEL (Secretario/a)
YEBRA BIURRUN, MARIA DEL CARMEN (Vocal)
FERNANDEZ RODRIGUEZ, BERTA (Presidente/a)
ESTEVEZ VALCARCEL, CARLOS MANUEL (Secretario/a)
YEBRA BIURRUN, MARIA DEL CARMEN (Vocal)
Constante de acoplamiento y cargas efectivas en Cromodinámica Cuántica
Autoría
J.S.F.
Grado en Física
J.S.F.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
La Cromodinámica Cuántica (QCD) es la teoría del Modelo Estándar que describe la interacción fuerte. En este trabajo se repasan los conceptos fundamentales de QCD y, en particular, la constante de acoplamiento fuerte, alpha_s, cuya dependencia con el momento transferido es esencial para comprender la dinámica de quarks y gluones. A altos momentos transferidos, esta constante puede calcularse mediante teoría de perturbaciones, gracias a la propiedad de libertad asintótica. Sin embargo, a bajos momentos transferidos la teoría de perturbaciones deja de ser válida, y es necesario recurrir a métodos no perturbativos. Estos métodos permiten describir fenómenos como la generación de masa de los hadrones y el confinamiento de quarks, que están profundamente relacionados con el comportamiento infrarrojo de alpha_s. Además, se introduce el concepto de carga efectiva, una forma alternativa de definir la constante a partir de observables físicos, y se presentan distintas definiciones relevantes en QCD que permiten extender el análisis de alpha_s más allá del régimen perturbativo, evitando ambigüedades asociadas al esquema de renormalización. Finalmente, se comentarán las perspectivas de futuro en el estudio de QCD que podrían contribuir a una comprensión más profunda de la interacción fuerte.
La Cromodinámica Cuántica (QCD) es la teoría del Modelo Estándar que describe la interacción fuerte. En este trabajo se repasan los conceptos fundamentales de QCD y, en particular, la constante de acoplamiento fuerte, alpha_s, cuya dependencia con el momento transferido es esencial para comprender la dinámica de quarks y gluones. A altos momentos transferidos, esta constante puede calcularse mediante teoría de perturbaciones, gracias a la propiedad de libertad asintótica. Sin embargo, a bajos momentos transferidos la teoría de perturbaciones deja de ser válida, y es necesario recurrir a métodos no perturbativos. Estos métodos permiten describir fenómenos como la generación de masa de los hadrones y el confinamiento de quarks, que están profundamente relacionados con el comportamiento infrarrojo de alpha_s. Además, se introduce el concepto de carga efectiva, una forma alternativa de definir la constante a partir de observables físicos, y se presentan distintas definiciones relevantes en QCD que permiten extender el análisis de alpha_s más allá del régimen perturbativo, evitando ambigüedades asociadas al esquema de renormalización. Finalmente, se comentarán las perspectivas de futuro en el estudio de QCD que podrían contribuir a una comprensión más profunda de la interacción fuerte.
Dirección
MERINO GAYOSO, CARLOS MIGUEL (Tutoría)
MERINO GAYOSO, CARLOS MIGUEL (Tutoría)
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Estudio Ab Initio de heteroestructuras semiconductor semiconductor y semiconductor metal
Autoría
P.S.R.
Grado en Física
P.S.R.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
Las heteroestructuras de distintos materiales son fundamentales para la electrónica moderna permitiendo ampliar la configuración de distintos parámetros de las propiedades electrónicas de distintos dispositivos empleados en toda la tecnología de vanguardia. En este trabajo estudiaremos a nivel de estructura electrónica las heteroestructuras semiconductor semiconductor y semiconductor metal a partir de semiconductores como Si y Ge y metales como Ca y Ag. Para llevar a cabo el estudio nos valdremos de cálculos DFT amplamente utilizados na física computacional da Física da Materia Condensada a través del software Wien2K uno de los más utilizados y de mayor importancia a nivel de investigación científica en este ámbito. Así indagaremos en el comportamiento de portadores y los estados electrónicos cuando provocamos diferentes heterouniones a partir de un entorno computacional de altas prestaciones acompañándolo de un estudio cualitativo de los resultados.
Las heteroestructuras de distintos materiales son fundamentales para la electrónica moderna permitiendo ampliar la configuración de distintos parámetros de las propiedades electrónicas de distintos dispositivos empleados en toda la tecnología de vanguardia. En este trabajo estudiaremos a nivel de estructura electrónica las heteroestructuras semiconductor semiconductor y semiconductor metal a partir de semiconductores como Si y Ge y metales como Ca y Ag. Para llevar a cabo el estudio nos valdremos de cálculos DFT amplamente utilizados na física computacional da Física da Materia Condensada a través del software Wien2K uno de los más utilizados y de mayor importancia a nivel de investigación científica en este ámbito. Así indagaremos en el comportamiento de portadores y los estados electrónicos cuando provocamos diferentes heterouniones a partir de un entorno computacional de altas prestaciones acompañándolo de un estudio cualitativo de los resultados.
Dirección
PARDO CASTRO, VICTOR (Tutoría)
PARDO CASTRO, VICTOR (Tutoría)
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Caracterización del plasma de Quarks y Gluones y sus señales
Autoría
G.S.R.
Grado en Física
G.S.R.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
El estudio de la materia regida por la interacción fuerte a altas temperaturas y densidades es un tema de gran actualidad, debido a su producción en colisiones entre iones pesados en aceleradores como el Large Hadron Collider (LHC) del CERN, y por sus implicaciones en la cosmología y en el comportamiento de objetos astrofísicos masivos como las estrellas de neutrones. El trabajo se centrará en la descripción del Plasma de Quarks y Gluones (QGP), analizando su transición de fase entre esta y la materia hadrónica y determinando la temperatura crítica a la que se produce este cambio. En particular, será útil el modelo de la bolsa del MIT, ya que permite obtener los valores de la temperatura a potencial químico nulo y de la densidad bariónica a temperatura nula en los que se produce el desconfinamiento.
El estudio de la materia regida por la interacción fuerte a altas temperaturas y densidades es un tema de gran actualidad, debido a su producción en colisiones entre iones pesados en aceleradores como el Large Hadron Collider (LHC) del CERN, y por sus implicaciones en la cosmología y en el comportamiento de objetos astrofísicos masivos como las estrellas de neutrones. El trabajo se centrará en la descripción del Plasma de Quarks y Gluones (QGP), analizando su transición de fase entre esta y la materia hadrónica y determinando la temperatura crítica a la que se produce este cambio. En particular, será útil el modelo de la bolsa del MIT, ya que permite obtener los valores de la temperatura a potencial químico nulo y de la densidad bariónica a temperatura nula en los que se produce el desconfinamiento.
Dirección
GONZALEZ FERREIRO, ELENA (Tutoría)
GONZALEZ FERREIRO, ELENA (Tutoría)
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Aproximación de Skyrmiones por la holonomía de instantones en una teoría de Yang-Mills
Autoría
C.S.H.
Grado en Física
C.S.H.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
El modelo de Skyrme fue propuesto por el físico matemático inglés Tony Skyrme como un modelo efectivo de los bariones descritos por solitones de un campo que toma valores en el grupo de Lie SU(2) (Skyrmiones). Posteriormente, Atiyah y Manton publicaron un artículo en el que obtenían tales solitones a partir de otras configuraciones de tipo solitón de un campo de Yang-Mills en cuatro dimensiones euclídeas (instantones). En este trabajo se revisará la relación entre Skyrmiones e instantones, reproduciendo los resultados obtenidos por Atiyah y Manton.
El modelo de Skyrme fue propuesto por el físico matemático inglés Tony Skyrme como un modelo efectivo de los bariones descritos por solitones de un campo que toma valores en el grupo de Lie SU(2) (Skyrmiones). Posteriormente, Atiyah y Manton publicaron un artículo en el que obtenían tales solitones a partir de otras configuraciones de tipo solitón de un campo de Yang-Mills en cuatro dimensiones euclídeas (instantones). En este trabajo se revisará la relación entre Skyrmiones e instantones, reproduciendo los resultados obtenidos por Atiyah y Manton.
Dirección
ADAM , CHRISTOPH (Tutoría)
García Martín-Caro, Alberto Cotutoría
ADAM , CHRISTOPH (Tutoría)
García Martín-Caro, Alberto Cotutoría
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Tomografía de neutrones potenciada por IA para la inspección avanzada de materiales
Autoría
R.S.D.
Grado en Física
R.S.D.
Grado en Física
Fecha de la defensa
18.07.2025 16:00
18.07.2025 16:00
Resumen
Este trabajo explora la viabilidad de utilizar redes neuronales convolucionales (CNN) para resolver el problema inverso en la caracterización de materiales mediante transmisión de neutrones. El objetivo es determinar la composición isotópica de una muestra a partir de su espectro de transmitancia energética. Para ello, se ha desarrollado un doble enfoque. Primero, se implementó una simulación en Geant4 para generar datos de transmitancia de alta fidelidad. Segundo, se construyó un modelo de inteligencia artificial en Python con Keras y TensorFlow, entrenado con un gran dataset de curvas teóricas generadas mediante la ley de Beer-Lambert y datos de secciones eficaces de la base de datos EXFOR. Los resultados demuestran que el modelo de IA es capaz de predecir la composición de mezclas isotópicas con un error absoluto medio muy bajo en condiciones de simulación ideales (alta colimación). Se ha cuantificado la degradación del rendimiento al reducir la colimación, validando que el efecto de build-up es una fuente de error sistemático. Adicionalmente, se ha analizado la robustez del modelo frente a la incertidumbre energética, concluyendo que el entrenamiento con datos ruidosos mejora su generalización. El estudio de escalabilidad muestra que la precisión se mantiene alta para mezclas de múltiples componentes, identificando que el límite principal del método no es el número de isótopos, sino el solapamiento entre sus firmas espectrales. Se establece así una base sólida que demuestra el potencial de la combinación de la simulación Monte Carlo y el machine learning para el desarrollo de nuevas técnicas de inspección no destructivas mediante tomografía de neutrones.
Este trabajo explora la viabilidad de utilizar redes neuronales convolucionales (CNN) para resolver el problema inverso en la caracterización de materiales mediante transmisión de neutrones. El objetivo es determinar la composición isotópica de una muestra a partir de su espectro de transmitancia energética. Para ello, se ha desarrollado un doble enfoque. Primero, se implementó una simulación en Geant4 para generar datos de transmitancia de alta fidelidad. Segundo, se construyó un modelo de inteligencia artificial en Python con Keras y TensorFlow, entrenado con un gran dataset de curvas teóricas generadas mediante la ley de Beer-Lambert y datos de secciones eficaces de la base de datos EXFOR. Los resultados demuestran que el modelo de IA es capaz de predecir la composición de mezclas isotópicas con un error absoluto medio muy bajo en condiciones de simulación ideales (alta colimación). Se ha cuantificado la degradación del rendimiento al reducir la colimación, validando que el efecto de build-up es una fuente de error sistemático. Adicionalmente, se ha analizado la robustez del modelo frente a la incertidumbre energética, concluyendo que el entrenamiento con datos ruidosos mejora su generalización. El estudio de escalabilidad muestra que la precisión se mantiene alta para mezclas de múltiples componentes, identificando que el límite principal del método no es el número de isótopos, sino el solapamiento entre sus firmas espectrales. Se establece así una base sólida que demuestra el potencial de la combinación de la simulación Monte Carlo y el machine learning para el desarrollo de nuevas técnicas de inspección no destructivas mediante tomografía de neutrones.
Dirección
AYYAD LIMONGE, FRANCESC YASSID (Tutoría)
AYYAD LIMONGE, FRANCESC YASSID (Tutoría)
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Uso de GNN para mejorar el alcance de LHCb buscando partículas de larga duración
Autoría
R.S.R.
Grado en Física
R.S.R.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
En este Trabajo de Fin de Grado se estudia la reconstrucción de trayectorias de partículas cargadas en el experimento LHCb mediante redes neuronales de grafos (GNN). Las eficiencias de reconstrucción obtenidas para trayectorias con impactos en el localizador de vértices (VELO) son elevadas, comparables a las correspondientes al proyecto de software de LHCb conocido como Allen. La segunda etapa de este Trabajo consiste en la aplicación del conocimiento adquirido a la reconstrucción de trayectorias T, aquellas que solo presentan impactos en el detector SciFi, instalado a varios metros de separación del VELO. Esto supone dificultades añadidas, al abordar un problema con mayor multiplicidad, es decir, con una mayor densidad de trayectorias a reconstruir. En consecuencia, las eficiencias que se consiguen son inferiores. Sin embargo, es un ejercicio interesante debido a dos motivos principales: su carácter novedoso, con resultados nunca antes obtenidos, y la potencial importancia de las trayectorias T, habitualmente excluidas de los análisis, a la hora de extender la capacidad del experimento LHCb en la búsqueda de partículas de larga vida, tanto dentro como más allá del Modelo Estándar de la Física de Partículas.
En este Trabajo de Fin de Grado se estudia la reconstrucción de trayectorias de partículas cargadas en el experimento LHCb mediante redes neuronales de grafos (GNN). Las eficiencias de reconstrucción obtenidas para trayectorias con impactos en el localizador de vértices (VELO) son elevadas, comparables a las correspondientes al proyecto de software de LHCb conocido como Allen. La segunda etapa de este Trabajo consiste en la aplicación del conocimiento adquirido a la reconstrucción de trayectorias T, aquellas que solo presentan impactos en el detector SciFi, instalado a varios metros de separación del VELO. Esto supone dificultades añadidas, al abordar un problema con mayor multiplicidad, es decir, con una mayor densidad de trayectorias a reconstruir. En consecuencia, las eficiencias que se consiguen son inferiores. Sin embargo, es un ejercicio interesante debido a dos motivos principales: su carácter novedoso, con resultados nunca antes obtenidos, y la potencial importancia de las trayectorias T, habitualmente excluidas de los análisis, a la hora de extender la capacidad del experimento LHCb en la búsqueda de partículas de larga vida, tanto dentro como más allá del Modelo Estándar de la Física de Partículas.
Dirección
CID VIDAL, XABIER (Tutoría)
Fernández Gómez, Miguel Cotutoría
CID VIDAL, XABIER (Tutoría)
Fernández Gómez, Miguel Cotutoría
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Generalizaciones del modelo Jaynes-Cummings.
Autoría
R.S.L.
Grado en Física
R.S.L.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
El modelo Jaynes-Cummings es una herramienta simple utilizada para describir la interacción entre un átomo de Rydberg (con dos niveles energéticos) y la radiación electromagnética cuantizada. En su versión más elemental, el modelo es soluble de forma exacta y se ha utilizado con el objetivo de representar la electrodinámica cuántica en cavidades y para demostrar algunas propiedades fundamentales de la mecánica cuántica. En este trabajo, nos enfocamos en la generalización donde el acoplamiento entre el átomo y el campo es función del tiempo, lo que permite el estudio efectos dinámicos y la exploración de nuevas posibilidades en el control de la interacción radiación-materia. El interés en esta generalización radica en su aplicabilidad en circuitos superconductores y cavidades ópticas donde la modulación del acoplamiento puede implementarse experimentalmente. A su vez, la dependencia temporal del acoplamiento introduce fenómenos como la generación controlada de entrelazamiento y la ingeniería de estados cuánticos.
El modelo Jaynes-Cummings es una herramienta simple utilizada para describir la interacción entre un átomo de Rydberg (con dos niveles energéticos) y la radiación electromagnética cuantizada. En su versión más elemental, el modelo es soluble de forma exacta y se ha utilizado con el objetivo de representar la electrodinámica cuántica en cavidades y para demostrar algunas propiedades fundamentales de la mecánica cuántica. En este trabajo, nos enfocamos en la generalización donde el acoplamiento entre el átomo y el campo es función del tiempo, lo que permite el estudio efectos dinámicos y la exploración de nuevas posibilidades en el control de la interacción radiación-materia. El interés en esta generalización radica en su aplicabilidad en circuitos superconductores y cavidades ópticas donde la modulación del acoplamiento puede implementarse experimentalmente. A su vez, la dependencia temporal del acoplamiento introduce fenómenos como la generación controlada de entrelazamiento y la ingeniería de estados cuánticos.
Dirección
Vázquez Ramallo, Alfonso (Tutoría)
Vázquez Ramallo, Alfonso (Tutoría)
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Modelización matemática del sistema vestibular: correlaciones entre membranas reales y simuladas mediante geometría diferencial
Autoría
U.T.B.
Grado en Física
U.T.B.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
El Vértigo Posicional Paroxístico Benigno (VPPB) se produce por el desplazamiento de otoconias en el sistema vestibular y aunque la maniobra de Epley es el tratamiento estándar, falla en un 12.5% de los casos, principalmente por diferencias anatómicas individuales. Ante esto se propuso un enfoque personalizado mediante la reconstrucción matemática del laberinto membranoso, difícil de visualizar directamente por su tamaño y fragilidad. El proceso se fundamenta en el empleo del laberinto óseo como referencia anatómica y en el uso de centerlines para describir la geometría de los canales semicirculares, incorporando un triedro móvil modificado que mejora la estabilidad numérica frente al sistema tradicional de Frenet-Serret. Lo que permite representar con mayor precisión la geometría compleja del oído interno, evitando los posibles errores derivados de las coordenadas globales. El análisis de los cinco oídos muestra una mayor consistencia en las correlaciones angulares entre los vectores del triedro móvil que entre sus módulos. Además, se vio que las discrepancias entre las estructuras simuladas y reales se concentran en regiones localizadas, manteniendo una coherencia general en la orientación de las membranas. Los resultados validan el uso de técnicas de geometría diferencial para adaptar los tratamientos del VPPB a cada paciente, permitiendo una mayor precisión en la planificación de maniobras terapéuticas. Este tratamiento personalizado podría reducir significativamente los fallos del convencional y aumentar así su eficacia representando una mejora prometedora en la lucha contra VPPB.
El Vértigo Posicional Paroxístico Benigno (VPPB) se produce por el desplazamiento de otoconias en el sistema vestibular y aunque la maniobra de Epley es el tratamiento estándar, falla en un 12.5% de los casos, principalmente por diferencias anatómicas individuales. Ante esto se propuso un enfoque personalizado mediante la reconstrucción matemática del laberinto membranoso, difícil de visualizar directamente por su tamaño y fragilidad. El proceso se fundamenta en el empleo del laberinto óseo como referencia anatómica y en el uso de centerlines para describir la geometría de los canales semicirculares, incorporando un triedro móvil modificado que mejora la estabilidad numérica frente al sistema tradicional de Frenet-Serret. Lo que permite representar con mayor precisión la geometría compleja del oído interno, evitando los posibles errores derivados de las coordenadas globales. El análisis de los cinco oídos muestra una mayor consistencia en las correlaciones angulares entre los vectores del triedro móvil que entre sus módulos. Además, se vio que las discrepancias entre las estructuras simuladas y reales se concentran en regiones localizadas, manteniendo una coherencia general en la orientación de las membranas. Los resultados validan el uso de técnicas de geometría diferencial para adaptar los tratamientos del VPPB a cada paciente, permitiendo una mayor precisión en la planificación de maniobras terapéuticas. Este tratamiento personalizado podría reducir significativamente los fallos del convencional y aumentar así su eficacia representando una mejora prometedora en la lucha contra VPPB.
Dirección
Pérez Muñuzuri, Alberto (Tutoría)
SAAVEDRA LOPEZ, MARTIN Cotutoría
Pérez Muñuzuri, Alberto (Tutoría)
SAAVEDRA LOPEZ, MARTIN Cotutoría
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Estudo del núcleo no ligado 10Li con ACTAR TPC
Autoría
D.V.L.
Grado en Física
D.V.L.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
Este trabajo se centra en el estudio de la función de onda del estado fundamental del 11Li y en el estudio de la estructura del núcleo 10Li mediante la reacción de transferencia 11Li(d,t)10Li. Esta reacción permite determinar las distintas proporciones de los orbitales 2s1/2 y 1p1/2 presentes en el estado fundamental del 11Li y medir la espectroscopía del 10Li. Se utilizó el detector ACTAR TPC, que permite registrar con gran precisión las trazas de las partículas gracias a su funcionamiento en cinemática inversa y al uso de un gas activo que actúa como objetivo y medio de detección. Además, se dispone de muros de detectores de silicio que permiten medir la energía residual de las partículas salientes, clave para reconstruir la energía de excitación de 10Li. La simulación desarrollada, basada en métodos de Monte Carlo, tuvo en cuenta efectos como el straggling, la resolución energética de los detectores y la resolución angular. Los resultados obtenidos muestran que la resolución angular es la principal fuente de incertidumbre, limitando la capacidad de separar claramente los estados 2s1/2 y 1p1/2. Mejorar esta precisión permitiría una caracterización más detallada de los estados resonantes de 10Li y, por extensión, del halo de 11Li. También se observan perspectivas de mejora de la estadística a través de la reconstrucción de trazas con el detector ACTAR TPC. Este estudio contribuye a la mejora de los modelos fenomenológicos que describen núcleos exóticos cerca de la dripline, fundamentales para comprender los procesos de nucleosíntesis de elementos pesados en el universo.
Este trabajo se centra en el estudio de la función de onda del estado fundamental del 11Li y en el estudio de la estructura del núcleo 10Li mediante la reacción de transferencia 11Li(d,t)10Li. Esta reacción permite determinar las distintas proporciones de los orbitales 2s1/2 y 1p1/2 presentes en el estado fundamental del 11Li y medir la espectroscopía del 10Li. Se utilizó el detector ACTAR TPC, que permite registrar con gran precisión las trazas de las partículas gracias a su funcionamiento en cinemática inversa y al uso de un gas activo que actúa como objetivo y medio de detección. Además, se dispone de muros de detectores de silicio que permiten medir la energía residual de las partículas salientes, clave para reconstruir la energía de excitación de 10Li. La simulación desarrollada, basada en métodos de Monte Carlo, tuvo en cuenta efectos como el straggling, la resolución energética de los detectores y la resolución angular. Los resultados obtenidos muestran que la resolución angular es la principal fuente de incertidumbre, limitando la capacidad de separar claramente los estados 2s1/2 y 1p1/2. Mejorar esta precisión permitiría una caracterización más detallada de los estados resonantes de 10Li y, por extensión, del halo de 11Li. También se observan perspectivas de mejora de la estadística a través de la reconstrucción de trazas con el detector ACTAR TPC. Este estudio contribuye a la mejora de los modelos fenomenológicos que describen núcleos exóticos cerca de la dripline, fundamentales para comprender los procesos de nucleosíntesis de elementos pesados en el universo.
Dirección
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
LOZANO GONZALEZ, MIGUEL Cotutoría
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
LOZANO GONZALEZ, MIGUEL Cotutoría
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)