Control basado en visión 2D para procesos de embalaje de madera
Autoría
A.R.C.
Máster Universitario en Visión por Computador
A.R.C.
Máster Universitario en Visión por Computador
Fecha de la defensa
03.02.2025 13:00
03.02.2025 13:00
Resumen
En la industria de la madera, la automatización de las líneas de producción es cada vez más esencial para mejorar la eficiencia y reducir la dependencia de la mano de obra manual. Este proyecto aborda específicamente la automatización de una línea de embalaje de madera seca mediante la integración de dos brazos robóticos ABB para la manipulación. Sin embargo, el control de todas las variables del proceso en un entorno industrial real demostró ser un desafío. Para hacer frente a esta situación, se implementó un sistema de control basado en visión, utilizando una cámara matricial 2D para verificar la posición y el estado de cada capa de tablones antes de que fueran manipulados por los robots. Este sistema de visión es crucial para garantizar la precisión y la fiabilidad del embalaje, ya que detecta cualquier desalineación o defecto que pueda comprometer la operación. Al integrar visión por computador, el sistema no solo mejora la eficiencia general, sino que también incrementa significativamente la precisión y la seguridad del proceso. Este artículo presenta el diseño, la implementación y el impacto del sistema de visión en el contexto más amplio de la automatización industrial.
En la industria de la madera, la automatización de las líneas de producción es cada vez más esencial para mejorar la eficiencia y reducir la dependencia de la mano de obra manual. Este proyecto aborda específicamente la automatización de una línea de embalaje de madera seca mediante la integración de dos brazos robóticos ABB para la manipulación. Sin embargo, el control de todas las variables del proceso en un entorno industrial real demostró ser un desafío. Para hacer frente a esta situación, se implementó un sistema de control basado en visión, utilizando una cámara matricial 2D para verificar la posición y el estado de cada capa de tablones antes de que fueran manipulados por los robots. Este sistema de visión es crucial para garantizar la precisión y la fiabilidad del embalaje, ya que detecta cualquier desalineación o defecto que pueda comprometer la operación. Al integrar visión por computador, el sistema no solo mejora la eficiencia general, sino que también incrementa significativamente la precisión y la seguridad del proceso. Este artículo presenta el diseño, la implementación y el impacto del sistema de visión en el contexto más amplio de la automatización industrial.
Dirección
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
Ferreiro Miranda, José Miguel Cotutoría
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
Ferreiro Miranda, José Miguel Cotutoría
Tribunal
Cernadas García, Eva (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
FLORES GONZALEZ, JULIAN CARLOS (Vocal)
Cernadas García, Eva (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
FLORES GONZALEZ, JULIAN CARLOS (Vocal)
Estudio microestructural de oleogeles de aceite de oliva con quitosano y quitina a partir de emulsiones pickering
Autoría
S.V.M.
Máster Universitario en Ingeniería Química y Bioprocesos
S.V.M.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
19.02.2025 09:15
19.02.2025 09:15
Resumen
Uno de los principales objetivos de la industria alimentaria actual es reemplazar las grasas perjudiciales para la salud por aceites o grasas con propiedades organolepticas similares y un buen perfil nutricional. Este trabajo de fin de master estudia el desarrollo de oleogeles a partir de aceites vegetales, especificamente de aceite de oliva. La emulsion se genera a partir de una fase acuosa de quitosano como agente estructurante y vainillina, que al reaccionar con el quitosano, forma una base de Schiff y crea una red tridimensional que atrapa el aceite. Ademas, se incorpora quitina en forma de particulas para estabilizar la emulsion mediante el efecto Pickering. Posteriormente, se elimina el agua de las emulsiones mediante secado convectivo para obtener una emulsion seca, y tras su trituracion, se obtiene el oleogel final.El objetivo principal de este trabajo es estudiar el impacto de la concentracion de particulas de quitina, 0,5, 1,0, 1,5 y 2,0 porciento, sobre las propiedades de la emulsion y el oleogel, tanto en presencia como en ausencia de vainillina. Se estudiaron las propiedades reologicas de la emulsion mediante ensayos oscilatorios. Primero se realizaron barridos de deformacion para determinar el regimen viscoelasticol lineal de las emulsiones y luego se midieron los espectros mecanicos para observar la variacion de los modulos elastico y viscoso con la frecuencia. En el oleogel, se analizaron las propiedades reologicas mediante barridos de deformacion y frecuencia, ademas de ensayos de calidad como colorimetria, textura y retencion de aceite.Los ensayos reologicos mostraron que las emulsiones presentaron un comportamiento predominantemente viscoso a concentraciones de quitina inferiores al 1,5 porciento en peso, y que a concentraciones mayores, el comportamiento se invirtio. El comportamiento reologico de las emulsiones se modeló con el modelo de Cross-Williamson para los sistemas sin quitina, y se anadio un termino empirico en funcion de la concentracion de particulas para los sistemas con quitina, lo que permitio obtener un modelo valido de viscosidad compleja para el rango de concentraciones ensayado. Tambien se analizo la distribucion del tamano de gota de las emulsiones mediante imagenes de microscopia optica, observandose que el diametro de las gotas disminuia con la concentracion de quitina.En cuanto a los oleogeles, se modelizo el secado convectivo a 70 grados celsius usando el modelo de Page, verificando que a mayor concentracion de quitina, aumentaba el tiempo de secado de las emulsiones. Ademas, se observo que las particulas de quitina desestabilizaban los oleogeles, resultando en una menor retencion de aceite en los sistemas con quitina. Aunque la vainillina no tuvo un efecto significativo sobre la reologia de las emulsiones, su presencia en el oleogel final mostro una mejora considerable en las propiedades determinadas. Esto se atribuye a las reacciones endotermicas entre los grupos amino y aldehido, favorecidas por la temperatura de secado.En general, al aumentar la cantidad de quitina, la dureza del oleogel disminuye, mientras que su adhesividad y elasticidad aumentan, alcanzando un maximo a una concentracion de 1,5 porciento de quitina. La cohesividad permanece casi inalterada. En conclusion, la presencia de particulas de quitina no mejora la calidad de los oleogeles en comparacion con los sistemas sin particulas, pero si incrementa la estabilidad de las emulsiones, lo cual es relevante a nivel industrial.
Uno de los principales objetivos de la industria alimentaria actual es reemplazar las grasas perjudiciales para la salud por aceites o grasas con propiedades organolepticas similares y un buen perfil nutricional. Este trabajo de fin de master estudia el desarrollo de oleogeles a partir de aceites vegetales, especificamente de aceite de oliva. La emulsion se genera a partir de una fase acuosa de quitosano como agente estructurante y vainillina, que al reaccionar con el quitosano, forma una base de Schiff y crea una red tridimensional que atrapa el aceite. Ademas, se incorpora quitina en forma de particulas para estabilizar la emulsion mediante el efecto Pickering. Posteriormente, se elimina el agua de las emulsiones mediante secado convectivo para obtener una emulsion seca, y tras su trituracion, se obtiene el oleogel final.El objetivo principal de este trabajo es estudiar el impacto de la concentracion de particulas de quitina, 0,5, 1,0, 1,5 y 2,0 porciento, sobre las propiedades de la emulsion y el oleogel, tanto en presencia como en ausencia de vainillina. Se estudiaron las propiedades reologicas de la emulsion mediante ensayos oscilatorios. Primero se realizaron barridos de deformacion para determinar el regimen viscoelasticol lineal de las emulsiones y luego se midieron los espectros mecanicos para observar la variacion de los modulos elastico y viscoso con la frecuencia. En el oleogel, se analizaron las propiedades reologicas mediante barridos de deformacion y frecuencia, ademas de ensayos de calidad como colorimetria, textura y retencion de aceite.Los ensayos reologicos mostraron que las emulsiones presentaron un comportamiento predominantemente viscoso a concentraciones de quitina inferiores al 1,5 porciento en peso, y que a concentraciones mayores, el comportamiento se invirtio. El comportamiento reologico de las emulsiones se modeló con el modelo de Cross-Williamson para los sistemas sin quitina, y se anadio un termino empirico en funcion de la concentracion de particulas para los sistemas con quitina, lo que permitio obtener un modelo valido de viscosidad compleja para el rango de concentraciones ensayado. Tambien se analizo la distribucion del tamano de gota de las emulsiones mediante imagenes de microscopia optica, observandose que el diametro de las gotas disminuia con la concentracion de quitina.En cuanto a los oleogeles, se modelizo el secado convectivo a 70 grados celsius usando el modelo de Page, verificando que a mayor concentracion de quitina, aumentaba el tiempo de secado de las emulsiones. Ademas, se observo que las particulas de quitina desestabilizaban los oleogeles, resultando en una menor retencion de aceite en los sistemas con quitina. Aunque la vainillina no tuvo un efecto significativo sobre la reologia de las emulsiones, su presencia en el oleogel final mostro una mejora considerable en las propiedades determinadas. Esto se atribuye a las reacciones endotermicas entre los grupos amino y aldehido, favorecidas por la temperatura de secado.En general, al aumentar la cantidad de quitina, la dureza del oleogel disminuye, mientras que su adhesividad y elasticidad aumentan, alcanzando un maximo a una concentracion de 1,5 porciento de quitina. La cohesividad permanece casi inalterada. En conclusion, la presencia de particulas de quitina no mejora la calidad de los oleogeles en comparacion con los sistemas sin particulas, pero si incrementa la estabilidad de las emulsiones, lo cual es relevante a nivel industrial.
Dirección
MOREIRA MARTINEZ, RAMON FELIPE (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
MOREIRA MARTINEZ, RAMON FELIPE (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
Tribunal
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vocal)
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vocal)
Reconocimiento de Imágenes en el Borde con Algoritmos Eficientes
Autoría
L.C.
Máster Universitario en Visión por Computador
L.C.
Máster Universitario en Visión por Computador
Fecha de la defensa
25.02.2025 10:00
25.02.2025 10:00
Resumen
Este trabajo se centra en optimizar la detección de objetos para dispositivos de borde utilizando modelos ligeros de aprendizaje profundo. Abordamos los desafíos del tamaño de los modelos grandes y la sobrecarga computacional mediante técnicas como la destilación de conocimientos, el podado y la cuantización. Presentamos una versión mejorada de YOLOv11 que utiliza imágenes RGB y térmicas para la detección, mejorando la eficiencia y precisión para dispositivos de borde de bajo consumo.
Este trabajo se centra en optimizar la detección de objetos para dispositivos de borde utilizando modelos ligeros de aprendizaje profundo. Abordamos los desafíos del tamaño de los modelos grandes y la sobrecarga computacional mediante técnicas como la destilación de conocimientos, el podado y la cuantización. Presentamos una versión mejorada de YOLOv11 que utiliza imágenes RGB y térmicas para la detección, mejorando la eficiencia y precisión para dispositivos de borde de bajo consumo.
Dirección
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
PARDO SECO, FERNANDO RAFAEL Cotutoría
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
PARDO SECO, FERNANDO RAFAEL Cotutoría
Tribunal
Cernadas García, Eva (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
FLORES GONZALEZ, JULIAN CARLOS (Vocal)
Cernadas García, Eva (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
FLORES GONZALEZ, JULIAN CARLOS (Vocal)
Predicción de la calidad en la industria: Detección de tableros reventados.
Autoría
A.F.G.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
A.F.G.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
19.02.2025 10:00
19.02.2025 10:00
Resumen
Finsa es una empresa dedicada desde hace casi cien años a la transformación industrial de la madera, diseñando y fabricando soluciones en los sectores del hábitat y la construcción. Este conjunto de soluciones abarca materiales decorativos, materiales técnicos, suelo laminado, muebles y componentes, así como soluciones en madera sólida. Una parte importante del proceso industrial de Finsa es la producción de tableros, tanto aglomerados como de fibra (MDF, o tablero de densidad media). Su proceso de fabricación es extremadamente complejo debido a los procesos físicos y químicos, así como a las complejas interacciones que se producen en él. Esto, sumado a la variedad en la cartera de productos, provoca cambios continuos en la producción, afectando a la estabilidad del propio proceso. Por ello, en ocasiones, estos tableros pueden verse afectados por problemas de calidad debido a la variabilidad del proceso, generándose distintos tipos de defectos, como por ejemplo los reventados. Asegurar el cumplimiento de las especificaciones técnicas y la calidad del producto es esencial. Con este fin, se instalan diversos dispositivos de medición a lo largo del proceso. Actualmente, en gran parte de sus líneas de producción, Finsa dispone de un sensor que analiza el tablero a la salida de la prensa e indica si este presenta un reventado, debiendo ser descartado en tal caso. Sin embargo, este mecanismo no es completamente fiable en ciertas situaciones debido a diversos problemas, como suciedad, fallos de calibración, entre otros, lo que impide que esté operativo en todo momento. Además, la implantación de esta tecnología en fábrica es costosa y compleja. Por todo ello, surge la necesidad de desarrollar un modelo predictivo de reventado que funcione como un 'sensor virtual' de apoyo. Para su implementación, se dispone de cientos de señales de proceso registradas segundo a segundo. El estudio de la viabilidad de este tipo de modelos predictivos aplicados al problema de los reventados en la salida de la prensa será el objetivo principal de este TFM. Para ello, se llevarán a cabo varias aproximaciones utilizando diferentes tipos de modelos, se calcularán las métricas obtenidas, se compararán los resultados y se seleccionará aquel modelo que ofrezca la mejor solución. Si los resultados son favorables, el siguiente paso será trasladar el modelo a la fábrica mediante la implementación de un cuadro de mando que permita al operario visualizar si un tablero presenta un reventado o no, de manera que pueda tomar acciones correctivas y minimizar el impacto del defecto.
Finsa es una empresa dedicada desde hace casi cien años a la transformación industrial de la madera, diseñando y fabricando soluciones en los sectores del hábitat y la construcción. Este conjunto de soluciones abarca materiales decorativos, materiales técnicos, suelo laminado, muebles y componentes, así como soluciones en madera sólida. Una parte importante del proceso industrial de Finsa es la producción de tableros, tanto aglomerados como de fibra (MDF, o tablero de densidad media). Su proceso de fabricación es extremadamente complejo debido a los procesos físicos y químicos, así como a las complejas interacciones que se producen en él. Esto, sumado a la variedad en la cartera de productos, provoca cambios continuos en la producción, afectando a la estabilidad del propio proceso. Por ello, en ocasiones, estos tableros pueden verse afectados por problemas de calidad debido a la variabilidad del proceso, generándose distintos tipos de defectos, como por ejemplo los reventados. Asegurar el cumplimiento de las especificaciones técnicas y la calidad del producto es esencial. Con este fin, se instalan diversos dispositivos de medición a lo largo del proceso. Actualmente, en gran parte de sus líneas de producción, Finsa dispone de un sensor que analiza el tablero a la salida de la prensa e indica si este presenta un reventado, debiendo ser descartado en tal caso. Sin embargo, este mecanismo no es completamente fiable en ciertas situaciones debido a diversos problemas, como suciedad, fallos de calibración, entre otros, lo que impide que esté operativo en todo momento. Además, la implantación de esta tecnología en fábrica es costosa y compleja. Por todo ello, surge la necesidad de desarrollar un modelo predictivo de reventado que funcione como un 'sensor virtual' de apoyo. Para su implementación, se dispone de cientos de señales de proceso registradas segundo a segundo. El estudio de la viabilidad de este tipo de modelos predictivos aplicados al problema de los reventados en la salida de la prensa será el objetivo principal de este TFM. Para ello, se llevarán a cabo varias aproximaciones utilizando diferentes tipos de modelos, se calcularán las métricas obtenidas, se compararán los resultados y se seleccionará aquel modelo que ofrezca la mejor solución. Si los resultados son favorables, el siguiente paso será trasladar el modelo a la fábrica mediante la implementación de un cuadro de mando que permita al operario visualizar si un tablero presenta un reventado o no, de manera que pueda tomar acciones correctivas y minimizar el impacto del defecto.
Dirección
MERA PEREZ, DAVID (Tutoría)
CONDE LEBORAN, IVAN Cotutoría
MERA PEREZ, DAVID (Tutoría)
CONDE LEBORAN, IVAN Cotutoría
Tribunal
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
AMEIJEIRAS ALONSO, JOSE (Vocal)
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
AMEIJEIRAS ALONSO, JOSE (Vocal)
Modelado cinético de fermentación para la valorización de residuos en carboxilatos a través de la producción de ácido láctico
Autoría
S.G.G.
Máster Universitario en Ingeniería Ambiental (3ª ed)
S.G.G.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
20.02.2025 11:30
20.02.2025 11:30
Resumen
La economía circular propone un cambio de paradigma en la gestión de residuos, promoviendo su conversión en recursos reutilizables y valorizables. En este contexto, la creciente generación de desechos orgánicos, como los residuos alimentarios, está impulsando el desarrollo de biorrefinerías, que transforman estos residuos en productos como biocombustibles y compuestos químicos de alto valor añadido. Un residuo agroalimentario con alto potencial de valorización es el lactosuero, un subproducto muy abundante generado en la producción de quesos. La fermentación anaerobia se posiciona como un proceso clave en la valorización de residuos. Mediante el uso de cultivos mixtos, que ofrecen flexibilidad metabólica, robustez frente fluctuaciones ambientales y la capacidad para procesar sustratos no estériles y complejos, permite la conversión de una amplia variedad de residuos en ácidos grasos volátiles (AGV), que tienen numerosas aplicaciones como precursores de biopolímeros, biocombustibles y productos químicos. Los AGV también pueden transformarse en ácidos grasos de cadena media (AGCM), como el caproato, que presentan ventajas económicas sobre los AGV. Los AGCM son producidos mediante un proceso de elongación de cadena, que requiere donadores de electrones como etanol o lactato. Una ventaja clave de este proceso es la posibilidad de sustituir los donadores externos por lactato, producido en procesos de fermentación abierta a partir de residuos orgánicos ricos en lactosa, como el lactosuero, optimizando así la producción de AGCM. El uso de cultivos mixtos también presenta ciertos desafíos, como la competencia entre las diferentes especies microbianas. Además, con el uso de residuos como sustratos, estos retos aumentan debido a su composición compleja. Los modelos matemáticos se presentan como herramientas esenciales para el diseño preliminar de procesos biotecnológicos, ya que permiten simular y predecir el comportamiento microbiano bajo condiciones específicas, como pH, tiempo de residencia hidráulico (TRH) y concentración de sustratos. Esta capacidad de predicción facilita el diseño de los procesos, permitiendo ajustar las condiciones operativas sin necesidad de realizar experimentos costosos y prolongados. Aunque existen modelos para procesos de fermentación anaerobia, estos no integran la elongación de cadena, lo que limita su aplicación al no describir completamente la conversión de sustratos complejos en AGCM. En este trabajo se desarrolló un modelo cinético de fermentación anaerobia que integra la elongación de cadena mediada por lactato para la producción de AGCM a partir de carbohidratos y lactato presentes en el lactosuero. Se construyó una red metabólica basada en microorganismos modelo que incluye los principales procesos relacionados con la producción y consumo de lactato. El modelo fue calibrado mediante la estimación de parámetros cinéticos clave, utilizando datos experimentales, y se empleó para el diseño de experimentos in silico.
La economía circular propone un cambio de paradigma en la gestión de residuos, promoviendo su conversión en recursos reutilizables y valorizables. En este contexto, la creciente generación de desechos orgánicos, como los residuos alimentarios, está impulsando el desarrollo de biorrefinerías, que transforman estos residuos en productos como biocombustibles y compuestos químicos de alto valor añadido. Un residuo agroalimentario con alto potencial de valorización es el lactosuero, un subproducto muy abundante generado en la producción de quesos. La fermentación anaerobia se posiciona como un proceso clave en la valorización de residuos. Mediante el uso de cultivos mixtos, que ofrecen flexibilidad metabólica, robustez frente fluctuaciones ambientales y la capacidad para procesar sustratos no estériles y complejos, permite la conversión de una amplia variedad de residuos en ácidos grasos volátiles (AGV), que tienen numerosas aplicaciones como precursores de biopolímeros, biocombustibles y productos químicos. Los AGV también pueden transformarse en ácidos grasos de cadena media (AGCM), como el caproato, que presentan ventajas económicas sobre los AGV. Los AGCM son producidos mediante un proceso de elongación de cadena, que requiere donadores de electrones como etanol o lactato. Una ventaja clave de este proceso es la posibilidad de sustituir los donadores externos por lactato, producido en procesos de fermentación abierta a partir de residuos orgánicos ricos en lactosa, como el lactosuero, optimizando así la producción de AGCM. El uso de cultivos mixtos también presenta ciertos desafíos, como la competencia entre las diferentes especies microbianas. Además, con el uso de residuos como sustratos, estos retos aumentan debido a su composición compleja. Los modelos matemáticos se presentan como herramientas esenciales para el diseño preliminar de procesos biotecnológicos, ya que permiten simular y predecir el comportamiento microbiano bajo condiciones específicas, como pH, tiempo de residencia hidráulico (TRH) y concentración de sustratos. Esta capacidad de predicción facilita el diseño de los procesos, permitiendo ajustar las condiciones operativas sin necesidad de realizar experimentos costosos y prolongados. Aunque existen modelos para procesos de fermentación anaerobia, estos no integran la elongación de cadena, lo que limita su aplicación al no describir completamente la conversión de sustratos complejos en AGCM. En este trabajo se desarrolló un modelo cinético de fermentación anaerobia que integra la elongación de cadena mediada por lactato para la producción de AGCM a partir de carbohidratos y lactato presentes en el lactosuero. Se construyó una red metabólica basada en microorganismos modelo que incluye los principales procesos relacionados con la producción y consumo de lactato. El modelo fue calibrado mediante la estimación de parámetros cinéticos clave, utilizando datos experimentales, y se empleó para el diseño de experimentos in silico.
Dirección
MAURICIO IGLESIAS, MIGUEL (Tutoría)
REGUEIRA LOPEZ, ALBERTE Cotutoría
Catenacci , Arianna Cotutoría
MAURICIO IGLESIAS, MIGUEL (Tutoría)
REGUEIRA LOPEZ, ALBERTE Cotutoría
Catenacci , Arianna Cotutoría
Tribunal
Rojo Alboreca, Alberto (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
FERNANDEZ ESCRIBANO, JOSE ANGEL (Vocal)
Rojo Alboreca, Alberto (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
FERNANDEZ ESCRIBANO, JOSE ANGEL (Vocal)
Evaluación de la eficacia de estaciones depuradoras de aguas residuales para la eliminación de contaminantes orgánicos emergentes
Autoría
I.R.R.
Máster Universitario en Ingeniería Ambiental (3ª ed)
I.R.R.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
20.02.2025 17:00
20.02.2025 17:00
Resumen
La Unión Europea publicó su primera Directiva relativa a la depuración de aguas residuales en el año 1991. Después de treinta y tres años dicha Directiva ha sido revisada y exige unos requerimientos de depuración más estrictos, además de incluir explícitamente la necesidad de eliminar microcontaminantes entre los que se encuentran los contaminantes de preocupación emergente. Por eso, esta nueva Directiva de aguas residuales incluye una lista de doce compuestos indicadores cuya eficacia de eliminación podría extrapolarse a la eliminación de otros muchos contaminantes emergentes. En cuanto al estado general de las masas de agua es de aplicación la Directiva Marco del Agua que ya incluye una serie de compuestos químicos que deben ser monitorizados de manera sistemática para asegurar la calidad del agua y adicionalmente, en los últimos años la Unión Europea ha ido publicando cuatro listas de observación en las que se incluyeron varias sustancias que requerían de control y vigilancia en las masas de agua para poder determinar sus efectos sobre la salud ambiental, animal y humana. Teniendo en cuenta que la principal entrada de los contaminantes al ciclo del agua es a través de los vertidos de las estaciones depuradoras de agua residual (EDAR) además de vertidos industriales o accidentales, resulta clave analizar la eficacia de eliminación con los tratamientos de las EDAR actuales de esos doce compuestos incluidos en la nueva Directiva de aguas residuales y de otros contaminantes incluidos en las listas de observación, lo que constituye el objetivo general de este trabajo. Se estudiaron dos EDAR y las masas de agua conectadas a su vertido y, como aproximación a un tratamiento cuaternario añadido, se analizó el desempeño de un sistema piloto de ozonización para la eliminación de esos mismos contaminantes. Para la cuantificación de los compuestos se desarrolló un método analítico basado en la extracción en fase sólida y la cromatografía líquida de alta resolución acoplada a espectrometría de masas. El método resultó ser eficaz para la mayoría de los compuestos objeto de estudio. Los resultados obtenidos en las muestras del medio receptor de los vertidos mostraron que la descarga del efluente no aumenta las concentraciones de los contaminantes en el medio, debido principalmente al efecto de la dilución. De los compuestos medidos se calculó la eficacia de eliminación, siendo muy dependiente del compuesto analizado, pero presentando resultados comparables entre las distintas EDAR. Los porcentajes de eliminación no cumplirían los criterios establecidos en la nueva legislación, por lo que se hace necesario implementar tratamientos adicionales enfocados en la eliminación de los contaminantes emergentes. Por otra parte, los ensayos de ozonización muestran que esta tecnología es eficaz para la eliminación de muchos contaminantes, logrando eficacias superiores al 90% para la mayoría de los compuestos medidos.
La Unión Europea publicó su primera Directiva relativa a la depuración de aguas residuales en el año 1991. Después de treinta y tres años dicha Directiva ha sido revisada y exige unos requerimientos de depuración más estrictos, además de incluir explícitamente la necesidad de eliminar microcontaminantes entre los que se encuentran los contaminantes de preocupación emergente. Por eso, esta nueva Directiva de aguas residuales incluye una lista de doce compuestos indicadores cuya eficacia de eliminación podría extrapolarse a la eliminación de otros muchos contaminantes emergentes. En cuanto al estado general de las masas de agua es de aplicación la Directiva Marco del Agua que ya incluye una serie de compuestos químicos que deben ser monitorizados de manera sistemática para asegurar la calidad del agua y adicionalmente, en los últimos años la Unión Europea ha ido publicando cuatro listas de observación en las que se incluyeron varias sustancias que requerían de control y vigilancia en las masas de agua para poder determinar sus efectos sobre la salud ambiental, animal y humana. Teniendo en cuenta que la principal entrada de los contaminantes al ciclo del agua es a través de los vertidos de las estaciones depuradoras de agua residual (EDAR) además de vertidos industriales o accidentales, resulta clave analizar la eficacia de eliminación con los tratamientos de las EDAR actuales de esos doce compuestos incluidos en la nueva Directiva de aguas residuales y de otros contaminantes incluidos en las listas de observación, lo que constituye el objetivo general de este trabajo. Se estudiaron dos EDAR y las masas de agua conectadas a su vertido y, como aproximación a un tratamiento cuaternario añadido, se analizó el desempeño de un sistema piloto de ozonización para la eliminación de esos mismos contaminantes. Para la cuantificación de los compuestos se desarrolló un método analítico basado en la extracción en fase sólida y la cromatografía líquida de alta resolución acoplada a espectrometría de masas. El método resultó ser eficaz para la mayoría de los compuestos objeto de estudio. Los resultados obtenidos en las muestras del medio receptor de los vertidos mostraron que la descarga del efluente no aumenta las concentraciones de los contaminantes en el medio, debido principalmente al efecto de la dilución. De los compuestos medidos se calculó la eficacia de eliminación, siendo muy dependiente del compuesto analizado, pero presentando resultados comparables entre las distintas EDAR. Los porcentajes de eliminación no cumplirían los criterios establecidos en la nueva legislación, por lo que se hace necesario implementar tratamientos adicionales enfocados en la eliminación de los contaminantes emergentes. Por otra parte, los ensayos de ozonización muestran que esta tecnología es eficaz para la eliminación de muchos contaminantes, logrando eficacias superiores al 90% para la mayoría de los compuestos medidos.
Dirección
RODIL RODRIGUEZ, MARIA DEL ROSARIO (Tutoría)
MONTES GOYANES, ROSA MARIA Cotutoría
RODIL RODRIGUEZ, MARIA DEL ROSARIO (Tutoría)
MONTES GOYANES, ROSA MARIA Cotutoría
Tribunal
CARBALLA ARCOS, MARTA (Presidente/a)
VAL DEL RIO, MARIA ANGELES (Secretario/a)
PARADELO NUÑEZ, REMIGIO (Vocal)
CARBALLA ARCOS, MARTA (Presidente/a)
VAL DEL RIO, MARIA ANGELES (Secretario/a)
PARADELO NUÑEZ, REMIGIO (Vocal)
Mejorando la calidad nutricional de forrajes para ganado bovino mediante la fertilización con selenio, yodo y boro: un enfoque para mejorar la reproducción y prevenir enfermedades
Autoría
V.S.V.
Máster Universitario en Ingeniería Ambiental (3ª ed)
V.S.V.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
20.02.2025 16:00
20.02.2025 16:00
Resumen
El presente trabajo explora el impacto de una fertilización con selenio, boro y yodo en la calidad y productividad del raigrás (Lolium sp.), un cultivo forrajero de suma relevancia en Galicia. Ante la importancia de los pastos en los sistemas ganaderos de la región, esta investigación propone una innovadora formulación de fertilizante que incluye estos micronutrientes para mejorar tanto el valor nutricional del forraje como la salud del ganado y, en consecuencia, la calidad de los productos derivados como la leche. El experimento se llevó a cabo en macetas bajo condiciones ambientales en Vilanova de Arousa, utilizando cuatro tratamientos: el fertilizante experimental combinado con otro formulado en base a nitrógeno (SeBI), un fertilizante comercial que incluye selenio, nitrógeno y azufre (Y), solo fertilizante nitrogenado (BA) y un control sin fertilización (BB). Se analizaron parámetros como crecimiento, peso seco, concentración de nutrientes en la planta y propiedades del suelo antes y después del ensayo. Los resultados indican que los tratamientos SeBI y Y mejoraron el crecimiento del raigrás, aumentando su biomasa y contenido nutricional. Sin embargo, la productividad fue inferior a la esperada (4000 kg MS/ha), debido posiblemente a la restricción radicular en macetas y a la lixiviación de nutrientes. El análisis del yodo mostró una mayor acumulación en SeBI, confirmando el efecto positivo de la fertilización con este elemento. Sin embargo, no fue posible constatar el selenio y el boro. Este trabajo subraya la importancia de la fertilización estratégica para maximizar la producción forrajera, los sistemas ganaderos y, potencialmente, enriquecer la cadena alimentaria con productos más nutritivos.
El presente trabajo explora el impacto de una fertilización con selenio, boro y yodo en la calidad y productividad del raigrás (Lolium sp.), un cultivo forrajero de suma relevancia en Galicia. Ante la importancia de los pastos en los sistemas ganaderos de la región, esta investigación propone una innovadora formulación de fertilizante que incluye estos micronutrientes para mejorar tanto el valor nutricional del forraje como la salud del ganado y, en consecuencia, la calidad de los productos derivados como la leche. El experimento se llevó a cabo en macetas bajo condiciones ambientales en Vilanova de Arousa, utilizando cuatro tratamientos: el fertilizante experimental combinado con otro formulado en base a nitrógeno (SeBI), un fertilizante comercial que incluye selenio, nitrógeno y azufre (Y), solo fertilizante nitrogenado (BA) y un control sin fertilización (BB). Se analizaron parámetros como crecimiento, peso seco, concentración de nutrientes en la planta y propiedades del suelo antes y después del ensayo. Los resultados indican que los tratamientos SeBI y Y mejoraron el crecimiento del raigrás, aumentando su biomasa y contenido nutricional. Sin embargo, la productividad fue inferior a la esperada (4000 kg MS/ha), debido posiblemente a la restricción radicular en macetas y a la lixiviación de nutrientes. El análisis del yodo mostró una mayor acumulación en SeBI, confirmando el efecto positivo de la fertilización con este elemento. Sin embargo, no fue posible constatar el selenio y el boro. Este trabajo subraya la importancia de la fertilización estratégica para maximizar la producción forrajera, los sistemas ganaderos y, potencialmente, enriquecer la cadena alimentaria con productos más nutritivos.
Dirección
MONTERROSO MARTINEZ, MARIA DEL CARMEN (Tutoría)
Gago Otero, Rafael Cotutoría
MONTERROSO MARTINEZ, MARIA DEL CARMEN (Tutoría)
Gago Otero, Rafael Cotutoría
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
PARADELO NUÑEZ, REMIGIO (Secretario/a)
CARBALLA ARCOS, MARTA (Vocal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
PARADELO NUÑEZ, REMIGIO (Secretario/a)
CARBALLA ARCOS, MARTA (Vocal)
Valorización de biomasa lignocelulósica en ácidos grasos de cadena media mediante fermentación anaerobia en cultivo mixto.
Autoría
A.R.G.
Máster Universitario en Ingeniería Ambiental (3ª ed)
A.R.G.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
20.02.2025 11:00
20.02.2025 11:00
Resumen
La creciente preocupación por el medio ambiente y el agotamiento de recursos fósiles ha aumentado el interés en la búsqueda de procesos que sean capaces de reemplazar la utilización de recursos no renovables y reducir la huella de carbono. La economía circular se presenta como clave para reducir la cantidad de residuos generados y producir compuestos de alto valor añadido, y los residuos orgánicos son una materia prima clave en este propósito. En este contexto, la biomasa lignocelulósica se encuentra en una situación de preponderancia respecto a otras materias primas debido a su enorme abundancia. La biomasa lignocelulósica procede generalmente de residuos agrícolas y forestales y está compuesta por celulosa, hemicelulosa y lignina, siendo el contenido de cada una de las fracciones muy variable según el origen de ésta. El contenido de estas fracciones determina las propiedades de la biomasa lignocelulósica, así como sus posibles aplicaciones. La hemicelulosa es la fracción más biodegradable, seguida por la celulosa y la lignina, cuya presencia dificulta la mayoría de las aplicaciones. La más establecida en la actualidad es la digestión anaerobia, pero el biogás es un producto de menor valor añadido que los AGV o los AGCM, muy requeridos en industrias como la farmacéutica o la cosmética. El proceso para obtener AGV es la fermentación anaerobia, proceso que sigue los pasos de la digestión anaerobia evitando la acetogénesis y la metanogénesis para obtener AGV. A partir de los mismos, y mediante un proceso de elongación de cadena y la presencia de dadores electrónicos, se obtienen los AGCM, principalmente ácido caproico. El objetivo general de este TFM es obtener ahondar en el conocimiento de la valorización de la biomasa lignocelulósica para obtener AGCM. Para ello, se evalúa la producción de ácido caproico a partir de una mezcla sintética de celulosa y xilano y a partir de rastrojo de maíz. Para alcanzar este objetivo, se utiliza un SBR fed-batch que es operado con ciclos de 2 y 3,5 días y dos cargas por ciclo. Los resultados de este TFM muestran que el un reactor secuencial con dos cargas de sustrato es adecuado para la formación de AGCM. La no adición de BES y el control del TRS mediante purgas del reactor de cofermentación resultaron en una mayor producción de ácido caproico que en condiciones contrarias. En los experimentos realizados con residuo de maíz se ha observado una conversión limitada del sustrato a causa de una baja hidrólisis y han mostrado como la presencia de AGV limitan la aparición de moho en el reactor. De cara a la posible continuación de este trabajo, se considera que sería interesante la realización de experimentación con sustrato sintético en los que estudiar otros parámetros como la VCO o la relación entre las cargas de sustrato. En cuanto a la experimentación de residuo real de rastrojo de maíz, sería interesante la realización de algún pretratramiento que pudiera mejorar la conversión del sustrato.
La creciente preocupación por el medio ambiente y el agotamiento de recursos fósiles ha aumentado el interés en la búsqueda de procesos que sean capaces de reemplazar la utilización de recursos no renovables y reducir la huella de carbono. La economía circular se presenta como clave para reducir la cantidad de residuos generados y producir compuestos de alto valor añadido, y los residuos orgánicos son una materia prima clave en este propósito. En este contexto, la biomasa lignocelulósica se encuentra en una situación de preponderancia respecto a otras materias primas debido a su enorme abundancia. La biomasa lignocelulósica procede generalmente de residuos agrícolas y forestales y está compuesta por celulosa, hemicelulosa y lignina, siendo el contenido de cada una de las fracciones muy variable según el origen de ésta. El contenido de estas fracciones determina las propiedades de la biomasa lignocelulósica, así como sus posibles aplicaciones. La hemicelulosa es la fracción más biodegradable, seguida por la celulosa y la lignina, cuya presencia dificulta la mayoría de las aplicaciones. La más establecida en la actualidad es la digestión anaerobia, pero el biogás es un producto de menor valor añadido que los AGV o los AGCM, muy requeridos en industrias como la farmacéutica o la cosmética. El proceso para obtener AGV es la fermentación anaerobia, proceso que sigue los pasos de la digestión anaerobia evitando la acetogénesis y la metanogénesis para obtener AGV. A partir de los mismos, y mediante un proceso de elongación de cadena y la presencia de dadores electrónicos, se obtienen los AGCM, principalmente ácido caproico. El objetivo general de este TFM es obtener ahondar en el conocimiento de la valorización de la biomasa lignocelulósica para obtener AGCM. Para ello, se evalúa la producción de ácido caproico a partir de una mezcla sintética de celulosa y xilano y a partir de rastrojo de maíz. Para alcanzar este objetivo, se utiliza un SBR fed-batch que es operado con ciclos de 2 y 3,5 días y dos cargas por ciclo. Los resultados de este TFM muestran que el un reactor secuencial con dos cargas de sustrato es adecuado para la formación de AGCM. La no adición de BES y el control del TRS mediante purgas del reactor de cofermentación resultaron en una mayor producción de ácido caproico que en condiciones contrarias. En los experimentos realizados con residuo de maíz se ha observado una conversión limitada del sustrato a causa de una baja hidrólisis y han mostrado como la presencia de AGV limitan la aparición de moho en el reactor. De cara a la posible continuación de este trabajo, se considera que sería interesante la realización de experimentación con sustrato sintético en los que estudiar otros parámetros como la VCO o la relación entre las cargas de sustrato. En cuanto a la experimentación de residuo real de rastrojo de maíz, sería interesante la realización de algún pretratramiento que pudiera mejorar la conversión del sustrato.
Dirección
CARBALLA ARCOS, MARTA (Tutoría)
Iglesias Riobó, Juan Cotutoría
CARBALLA ARCOS, MARTA (Tutoría)
Iglesias Riobó, Juan Cotutoría
Tribunal
Rojo Alboreca, Alberto (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
FERNANDEZ ESCRIBANO, JOSE ANGEL (Vocal)
Rojo Alboreca, Alberto (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
FERNANDEZ ESCRIBANO, JOSE ANGEL (Vocal)
Evaluación de la sostenibilidad de granjas bajo la perspectiva de los límites planetarios: Una extensión global del análisis de ciclo de vida.
Autoría
M.G.P.
Máster Universitario en Ingeniería Ambiental (3ª ed)
M.G.P.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
21.02.2025 09:30
21.02.2025 09:30
Resumen
La búsqueda de modelos de producción más adecuados y con menores cargas ambientales en el sector ganadero se considera uno de los ejes clave para impulsar la sostenibilidad y la bioeconomía en este sector. Aunque, actualmente, existe una gran controversia sobre los impactos ambientales de este sector productivo, es necesario realizar un análisis detallado para evaluar, en profundidad, las cargas ambientales, las mejoras necesarias e, incluso, las tecnologías empleadas en los sistemas de producción. También es necesario considerar la diferencia entre sistemas de producción extensivos e intensivos, con el objetivo de identificar qué modelo es más apropiado en términos de impactos, eficiencia y tecnologías. Dado este contexto, el objetivo de este Trabajo de Fin de Máster es la evaluación de los efectos ambientales, a nivel planetario, que las explotaciones lecheras suponen para la producción de leche y carne. Para ello, se consideraron datos primarios de 100 explotaciones lecheras de Galicia, de diferentes tamaños, con diversas tecnologías y capacidades de producción, a las que se aplicó la metodología de Análisis de Ciclo de Vida bajo la perspectiva de límites planetarios. En concreto, se evaluaron tres límites: el cambio climático, la acidificación de los océanos y el agotamiento de la capa de ozono. Los resultados mostraron que, aunque las contribuciones individuales de las granjas son insignificantes en comparación con los límites planetarios, su acumulación a escala global tiene un impacto significativo. Además, se demostró que las contribuciones individuales de las granjas dependen de varios factores, como el tamaño, la edad y la tecnología utilizada. Por lo tanto, no se puede llegar a una única conclusión, sino que la evaluación ambiental y la carga sobre los límites planetarios debe realizarse de forma particular para cada granja. Aunque se pueden llegar a ciertas conclusiones una vez que se agrupan las 100 granjas según tecnologías, capacidades de producción y tiempo de explotación. Por otro lado, en cuanto a los productos obtenidos (leche y carne), la leche es, sin duda, el principal contribuyente ambiental, representando el 94% de la asignación económica del impacto.
La búsqueda de modelos de producción más adecuados y con menores cargas ambientales en el sector ganadero se considera uno de los ejes clave para impulsar la sostenibilidad y la bioeconomía en este sector. Aunque, actualmente, existe una gran controversia sobre los impactos ambientales de este sector productivo, es necesario realizar un análisis detallado para evaluar, en profundidad, las cargas ambientales, las mejoras necesarias e, incluso, las tecnologías empleadas en los sistemas de producción. También es necesario considerar la diferencia entre sistemas de producción extensivos e intensivos, con el objetivo de identificar qué modelo es más apropiado en términos de impactos, eficiencia y tecnologías. Dado este contexto, el objetivo de este Trabajo de Fin de Máster es la evaluación de los efectos ambientales, a nivel planetario, que las explotaciones lecheras suponen para la producción de leche y carne. Para ello, se consideraron datos primarios de 100 explotaciones lecheras de Galicia, de diferentes tamaños, con diversas tecnologías y capacidades de producción, a las que se aplicó la metodología de Análisis de Ciclo de Vida bajo la perspectiva de límites planetarios. En concreto, se evaluaron tres límites: el cambio climático, la acidificación de los océanos y el agotamiento de la capa de ozono. Los resultados mostraron que, aunque las contribuciones individuales de las granjas son insignificantes en comparación con los límites planetarios, su acumulación a escala global tiene un impacto significativo. Además, se demostró que las contribuciones individuales de las granjas dependen de varios factores, como el tamaño, la edad y la tecnología utilizada. Por lo tanto, no se puede llegar a una única conclusión, sino que la evaluación ambiental y la carga sobre los límites planetarios debe realizarse de forma particular para cada granja. Aunque se pueden llegar a ciertas conclusiones una vez que se agrupan las 100 granjas según tecnologías, capacidades de producción y tiempo de explotación. Por otro lado, en cuanto a los productos obtenidos (leche y carne), la leche es, sin duda, el principal contribuyente ambiental, representando el 94% de la asignación económica del impacto.
Dirección
FEIJOO COSTA, GUMERSINDO (Tutoría)
Arias Calvo, Ana Cotutoría
FEIJOO COSTA, GUMERSINDO (Tutoría)
Arias Calvo, Ana Cotutoría
Tribunal
PRIETO LAMAS, BEATRIZ LORETO (Presidente/a)
RIOS VIQUEIRA, JOSE RAMON (Secretario/a)
ROMERO CASTRO, NOELIA MARIA (Vocal)
PRIETO LAMAS, BEATRIZ LORETO (Presidente/a)
RIOS VIQUEIRA, JOSE RAMON (Secretario/a)
ROMERO CASTRO, NOELIA MARIA (Vocal)
Cálculo de la huella de agua de una entidad bancaria con actividad internacional
Autoría
A.B.G.
Máster Universitario en Ingeniería Ambiental (3ª ed)
A.B.G.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
21.02.2025 10:45
21.02.2025 10:45
Resumen
El acceso y gestión sostenible del agua es actualmente un desafío global debido al crecimiento poblacional, la urbanización y el cambio climático, que generan un aumento en la demanda del recurso y afectan su disponibilidad. En este contexto, el uso de herramientas de evaluación ambiental, como el análisis de ciclo de vida y metodologías de cálculo de impactos, permiten cuantificar el impacto del uso del agua en diferentes sectores, incluyendo el financiero. Este estudio analiza la huella de agua de una entidad bancaria con presencia internacional, aplicando la metodología de la ISO 14046. Se evalúan tanto la huella de agua directa (asociada al consumo de agua en oficinas y sucursales) como la huella de agua indirecta (relacionada con el consumo de energía, combustibles y materiales). Para ello, se emplean bases de datos como Ecoinvent y metodologías de evaluación ambiental como AWARE, ReCiPe y USETox. Los resultados muestran que la huella de agua se distribuye de manera diferente en las diferentes regiones, entre impactos directos e indirectos, siendo estos últimos los predominantes debido al consumo energético. Países como Perú y Turquía presentan los valores más altos de huella de agua, mientras que Uruguay por otra parte muestra el más bajo, debido a su menor estrés hídrico y mayor uso de energías renovables. El estudio ayuda a identificar los puntos críticos desde una perspectiva ambiental, abriendo la posibilidad de enfocar esfuerzos en las áreas de mayor impacto. Además, se discuten escenarios simulados, como la influencia de la movilidad de los empleados o el uso de energías renovables, los cuales podrían suponer un impacto significativo en estudios futuros.
El acceso y gestión sostenible del agua es actualmente un desafío global debido al crecimiento poblacional, la urbanización y el cambio climático, que generan un aumento en la demanda del recurso y afectan su disponibilidad. En este contexto, el uso de herramientas de evaluación ambiental, como el análisis de ciclo de vida y metodologías de cálculo de impactos, permiten cuantificar el impacto del uso del agua en diferentes sectores, incluyendo el financiero. Este estudio analiza la huella de agua de una entidad bancaria con presencia internacional, aplicando la metodología de la ISO 14046. Se evalúan tanto la huella de agua directa (asociada al consumo de agua en oficinas y sucursales) como la huella de agua indirecta (relacionada con el consumo de energía, combustibles y materiales). Para ello, se emplean bases de datos como Ecoinvent y metodologías de evaluación ambiental como AWARE, ReCiPe y USETox. Los resultados muestran que la huella de agua se distribuye de manera diferente en las diferentes regiones, entre impactos directos e indirectos, siendo estos últimos los predominantes debido al consumo energético. Países como Perú y Turquía presentan los valores más altos de huella de agua, mientras que Uruguay por otra parte muestra el más bajo, debido a su menor estrés hídrico y mayor uso de energías renovables. El estudio ayuda a identificar los puntos críticos desde una perspectiva ambiental, abriendo la posibilidad de enfocar esfuerzos en las áreas de mayor impacto. Además, se discuten escenarios simulados, como la influencia de la movilidad de los empleados o el uso de energías renovables, los cuales podrían suponer un impacto significativo en estudios futuros.
Dirección
FEIJOO COSTA, GUMERSINDO (Tutoría)
FEIJOO COSTA, GUMERSINDO (Tutoría)
Tribunal
PRIETO LAMAS, BEATRIZ LORETO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
ROMERO CASTRO, NOELIA MARIA (Vocal)
PRIETO LAMAS, BEATRIZ LORETO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
ROMERO CASTRO, NOELIA MARIA (Vocal)
Análisis tecnoeconómico del reciclaje enzimático de PET utilizando enzima inmovilizada
Autoría
L.G.G.
Máster Universitario en Ingeniería Química y Bioprocesos
L.G.G.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
19.02.2025 11:15
19.02.2025 11:15
Resumen
Los plásticos, en especial el tereftalato de polietileno o PET, han transformado nuestra sociedad, impulsando una gran cantidad de avances, aunque su producción masiva ha generado graves problemas ambientales. En la actualidad, solo una pequeña parte del plástico producido se recicla de manera adecuada, por lo que se requiere de soluciones que permitan mejorar la gestión de estos residuos. En este estudio se realiza un análisis tecnoeconómico de la producción y aplicación de enzimas degradativas de PET, expresadas tanto en forma encapsulada mediante nanoesferas como de forma libre. En concreto, se propone el diseño conceptual de dos plantas industriales que incluyen las etapas de producción de la bacteria E. coli en la que se va a producir la enzima, separación y purificación de la enzima de interés, degradación del plástico residual y, finalmente, purificación de los productos de reacción. Después de analizar los costes e indicadores económicos de los casos base planteados, se estudian distintos escenarios en los que se modifican parámetros clave del proceso, como el rendimiento de producción de microorganismos, el de producción de enzimas y el porcentaje de degradación del plástico. Los resultados indican que, aunque no se alcanza la viabilidad económica en ninguno de los casos propuestos, la etapa limitante del proceso es la degradación del polímero. Una vez identificado el punto crítico, se finaliza planteando distintas opciones de mejora que permitan lograr la viabilidad económica a través de la optimización del proceso y, consecuentemente, convertir esta tecnología en una opción competitiva en el mercado del reciclaje del PET.
Los plásticos, en especial el tereftalato de polietileno o PET, han transformado nuestra sociedad, impulsando una gran cantidad de avances, aunque su producción masiva ha generado graves problemas ambientales. En la actualidad, solo una pequeña parte del plástico producido se recicla de manera adecuada, por lo que se requiere de soluciones que permitan mejorar la gestión de estos residuos. En este estudio se realiza un análisis tecnoeconómico de la producción y aplicación de enzimas degradativas de PET, expresadas tanto en forma encapsulada mediante nanoesferas como de forma libre. En concreto, se propone el diseño conceptual de dos plantas industriales que incluyen las etapas de producción de la bacteria E. coli en la que se va a producir la enzima, separación y purificación de la enzima de interés, degradación del plástico residual y, finalmente, purificación de los productos de reacción. Después de analizar los costes e indicadores económicos de los casos base planteados, se estudian distintos escenarios en los que se modifican parámetros clave del proceso, como el rendimiento de producción de microorganismos, el de producción de enzimas y el porcentaje de degradación del plástico. Los resultados indican que, aunque no se alcanza la viabilidad económica en ninguno de los casos propuestos, la etapa limitante del proceso es la degradación del polímero. Una vez identificado el punto crítico, se finaliza planteando distintas opciones de mejora que permitan lograr la viabilidad económica a través de la optimización del proceso y, consecuentemente, convertir esta tecnología en una opción competitiva en el mercado del reciclaje del PET.
Dirección
EIBES GONZALEZ, GEMMA MARIA (Tutoría)
LU CHAU, THELMO ALEJANDRO Cotutoría
EIBES GONZALEZ, GEMMA MARIA (Tutoría)
LU CHAU, THELMO ALEJANDRO Cotutoría
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
GONZALEZ GARCIA, SARA (Vocal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
GONZALEZ GARCIA, SARA (Vocal)
Oleogeles de aceite de canola obtenidos por metodo indirecto empleando carragenina hibrida como agente estructurante
Autoría
C.I.G.
Máster Universitario en Ingeniería Química y Bioprocesos
C.I.G.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
19.02.2025 10:15
19.02.2025 10:15
Resumen
En las ultimas decadas el ser humano esta haciendo un esfuerzo considerable por mejorar su salud y condiciones de vida. Una de las vias para lograrlo esta relacionada con los habitos alimenticios. La sustitucion de grasas saturadas por grasas insaturadas permite reducir las probabilidades de sufrir cardiopatias y sobrepeso. Sin embargo, las grasas saturadas poseen una serie de características mecanicas y organolepticas que no presentan los aceites. Por ello, este trabajo se centra en la investigacion de tecnicas de estructuracion de aceites que logren obtener un producto final con lo mejor de los dos mundos. Se ha llevado a cabo la preparacion y estudio de geles de emulsion de aceite de canola empleando carragenina hibrida como agente estructurante. Dicho proceso pasa la aplicación del metodo emulsion template, debido a la dificultad de dispersion del aceite en la fase acuosa que contiene el agente gelificante. Por su parte, la carragenina ha sido extraida de la especie de alga Chondrus crispus mediante una tecnica de inmersion en caliente, asi como se ha determinado su peso molecular por viscosimetria capilar. La determinacion de las propiedades mecanicas en diferentes condiciones resulta fundamental. Por este motivo, se han realizado estudios reologicos sobre la emulsion y los geles que permiten relacionar dichas propiedades con la variación de la concentración de carragenina, sal y la proporción aceite agua, así como determinar la termorreversibilidad y fenomenos de histeresis de los geles. Por otro lado, teniendo en cuenta las potenciales aplicaciones en la industria alimentaria y farmaceutica, se han realizado pruebas de retención de aceite y agua, textura y color, enmarcadas dentro de un proceso de control de calidad, y cuyos resultados han mostrado relación con la reologia. Los resultados obtenidos son prometedores, gracias a los cuales, se plantean futuros retos de cara a conseguir que el uso de estos geles a nivel industrial se logre en un corto plazo
En las ultimas decadas el ser humano esta haciendo un esfuerzo considerable por mejorar su salud y condiciones de vida. Una de las vias para lograrlo esta relacionada con los habitos alimenticios. La sustitucion de grasas saturadas por grasas insaturadas permite reducir las probabilidades de sufrir cardiopatias y sobrepeso. Sin embargo, las grasas saturadas poseen una serie de características mecanicas y organolepticas que no presentan los aceites. Por ello, este trabajo se centra en la investigacion de tecnicas de estructuracion de aceites que logren obtener un producto final con lo mejor de los dos mundos. Se ha llevado a cabo la preparacion y estudio de geles de emulsion de aceite de canola empleando carragenina hibrida como agente estructurante. Dicho proceso pasa la aplicación del metodo emulsion template, debido a la dificultad de dispersion del aceite en la fase acuosa que contiene el agente gelificante. Por su parte, la carragenina ha sido extraida de la especie de alga Chondrus crispus mediante una tecnica de inmersion en caliente, asi como se ha determinado su peso molecular por viscosimetria capilar. La determinacion de las propiedades mecanicas en diferentes condiciones resulta fundamental. Por este motivo, se han realizado estudios reologicos sobre la emulsion y los geles que permiten relacionar dichas propiedades con la variación de la concentración de carragenina, sal y la proporción aceite agua, así como determinar la termorreversibilidad y fenomenos de histeresis de los geles. Por otro lado, teniendo en cuenta las potenciales aplicaciones en la industria alimentaria y farmaceutica, se han realizado pruebas de retención de aceite y agua, textura y color, enmarcadas dentro de un proceso de control de calidad, y cuyos resultados han mostrado relación con la reologia. Los resultados obtenidos son prometedores, gracias a los cuales, se plantean futuros retos de cara a conseguir que el uso de estos geles a nivel industrial se logre en un corto plazo
Dirección
SINEIRO TORRES, JORGE (Tutoría)
MOREIRA MARTINEZ, RAMON FELIPE Cotutoría
SINEIRO TORRES, JORGE (Tutoría)
MOREIRA MARTINEZ, RAMON FELIPE Cotutoría
Tribunal
GONZALEZ ALVAREZ, JULIA (Coordinador)
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Coordinador)
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
Análisis tecnoeconómico y ambiental de una biorrefinería centrada en la valorización de huesos de aceituna
Autoría
S.C.A.
Máster Universitario en Ingeniería Química y Bioprocesos
S.C.A.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
19.02.2025 09:45
19.02.2025 09:45
Resumen
El cambio climático representa un desafío crucial para la agricultura, afectando la disponibilidad de alimentos debido a la variabilidad climática y alteraciones en los patrones de lluvia. La aceituna, es uno de los principales cultivos de nuestro país, siendo España el mayor productor mundial tanto de aceitunas de mesa como de aceite de oliva. En concreto, en 2023 se produjeron en España en torno a 767.000 t de aceite de oliva. El proceso de producción del aceite de oliva conlleva la generación de corrientes residuales, como ocurre con los huesos de aceituna, ramas u hojas, que en conjunto suponen hasta un 10 por ciento del peso de la aceituna. Este estudio se enfoca es la búsqueda de una nueva vida para este residuo de acuerdo con los principios de la economía circular. Para ello, se realizará el diseño de una biorrefinería para la valorización de este residuo de acuerdo con datos experimentales, procediendo también a su simulación, se identificará su perfil ambiental, y finalmente, se realizará un análisis tecno-económico del sistema.
El cambio climático representa un desafío crucial para la agricultura, afectando la disponibilidad de alimentos debido a la variabilidad climática y alteraciones en los patrones de lluvia. La aceituna, es uno de los principales cultivos de nuestro país, siendo España el mayor productor mundial tanto de aceitunas de mesa como de aceite de oliva. En concreto, en 2023 se produjeron en España en torno a 767.000 t de aceite de oliva. El proceso de producción del aceite de oliva conlleva la generación de corrientes residuales, como ocurre con los huesos de aceituna, ramas u hojas, que en conjunto suponen hasta un 10 por ciento del peso de la aceituna. Este estudio se enfoca es la búsqueda de una nueva vida para este residuo de acuerdo con los principios de la economía circular. Para ello, se realizará el diseño de una biorrefinería para la valorización de este residuo de acuerdo con datos experimentales, procediendo también a su simulación, se identificará su perfil ambiental, y finalmente, se realizará un análisis tecno-económico del sistema.
Dirección
GONZALEZ GARCIA, SARA (Tutoría)
GONZALEZ GARCIA, SARA (Tutoría)
Tribunal
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vocal)
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vocal)
Evaluación de la calidad del agua residual industrial tratada mediante ósmosis inversa y su viabilidad de reutilización
Autoría
A.L.D.L.T.
Máster Universitario en Ingeniería Química y Bioprocesos
A.L.D.L.T.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
19.02.2025 11:45
19.02.2025 11:45
Resumen
Las aguas residuales de origen industrial constituyen un importante problema medioambiental. Además de los residuos característicos de cada industria, todas ellas, independientemente del sector, generan aguas residuales. Los vertidos industriales están sujetos a normativas que establecen límites máximos para cada contaminante, así como rangos aceptables para parámetros como el pH, la conductividad o la temperatura. Sin embargo, los caudales de vertido pueden ser tan elevados que sigan representando un problema, incluso cuando se cumplen todos los límites establecidos. Además, la escasez de recursos hídricos, agravada por el cambio climático, afecta a comunidades y ecosistemas. Por ello, es crucial implementar políticas que minimicen el uso de estos recursos naturales para garantizar su sostenibilidad. La planta de celulosa de Pontevedra cuenta con una planta depuradora propia que trata las aguas generadas durante su proceso productivo antes de ser vertidas a la ría de Pontevedra. Con el fin de anticiparse a las problemáticas mencionadas, recientemente se ha ampliado el sistema de tratamiento terciario con la incorporación de una etapa de ósmosis inversa, que permite recircular una parte del agua tratada, reduciendo considerablemente los caudales de agua fresca captada y de aguas residuales vertidas. El objetivo de este proyecto es analizar como mejora la calidad del agua tratada con el sistema de ósmosis inversa y comprobar si realmente se asemeja al agua fresca que se alimenta al proceso. Además, considerando los problemas relacionados con los costes asociados a este sistema debido a su elevado consumo energético, se evaluarán dichos costes y se estudiarán posibles soluciones.
Las aguas residuales de origen industrial constituyen un importante problema medioambiental. Además de los residuos característicos de cada industria, todas ellas, independientemente del sector, generan aguas residuales. Los vertidos industriales están sujetos a normativas que establecen límites máximos para cada contaminante, así como rangos aceptables para parámetros como el pH, la conductividad o la temperatura. Sin embargo, los caudales de vertido pueden ser tan elevados que sigan representando un problema, incluso cuando se cumplen todos los límites establecidos. Además, la escasez de recursos hídricos, agravada por el cambio climático, afecta a comunidades y ecosistemas. Por ello, es crucial implementar políticas que minimicen el uso de estos recursos naturales para garantizar su sostenibilidad. La planta de celulosa de Pontevedra cuenta con una planta depuradora propia que trata las aguas generadas durante su proceso productivo antes de ser vertidas a la ría de Pontevedra. Con el fin de anticiparse a las problemáticas mencionadas, recientemente se ha ampliado el sistema de tratamiento terciario con la incorporación de una etapa de ósmosis inversa, que permite recircular una parte del agua tratada, reduciendo considerablemente los caudales de agua fresca captada y de aguas residuales vertidas. El objetivo de este proyecto es analizar como mejora la calidad del agua tratada con el sistema de ósmosis inversa y comprobar si realmente se asemeja al agua fresca que se alimenta al proceso. Además, considerando los problemas relacionados con los costes asociados a este sistema debido a su elevado consumo energético, se evaluarán dichos costes y se estudiarán posibles soluciones.
Dirección
MOSQUERA CORRAL, ANUSKA (Tutoría)
Raposo Fernández, Fernanda Cotutoría
MOSQUERA CORRAL, ANUSKA (Tutoría)
Raposo Fernández, Fernanda Cotutoría
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
GONZALEZ GARCIA, SARA (Vocal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
GONZALEZ GARCIA, SARA (Vocal)
De la detección de objetos sintéticos a la real con Adaptación de Dominio No Supervisada
Autoría
P.G.P.
Máster Universitario en Visión por Computador
P.G.P.
Máster Universitario en Visión por Computador
Fecha de la defensa
03.02.2025 11:30
03.02.2025 11:30
Resumen
La detección de objetos ha avanzado notablemente en los últimos años, impulsada por los avances en el aprendizaje profundo y la disponibilidad de conjuntos de datos anotados a gran escala. Sin embargo, estos métodos a menudo requieren grandes cantidades de datos etiquetados, los cuales pueden no estar disponibles para aplicaciones específicas o emergentes. Esta limitación ha generado interés en la Adaptación de Dominio No Supervisada (UDA, por sus siglas en inglés), que facilita la transferencia de conocimiento desde un dominio fuente etiquetado hacia un dominio objetivo no etiquetado o con una distribución diferente. Este estudio aborda el desafío de la Adaptación de Dominio entre datos sintéticos y del mundo real. Se ha desarrollado una metodología innovadora para generar conjuntos de datos sintéticos utilizando AirSim y Unreal Engine, lo que permite la creación de conjuntos de datos altamente personalizables y diversos. Se emplearon dos técnicas diferentes de Adaptación de Dominio: D3T, derivada de las técnicas más avanzadas de UDA, y MixPL, adoptada del Aprendizaje Semi-Supervisado. Se propusieron diferentes mejoras para maximizar la utilidad del conjunto de datos sintético y mejorar la alineación del dominio: en el caso de D3T, se propusieron modificaciones en la función de costo, mientras que en MixPL se incorporó un nuevo detector con una arquitectura de backbone basada en transformer. Los resultados obtenidos mediante D3T y MixPL demuestran un progreso alentador, ya que se acercan al rendimiento de los modelos entrenados directamente en el dominio objetivo. Estos hallazgos sugieren que los conjuntos de datos sintéticos tienen un gran potencial para abordar la escasez de datos y mejorar la generalización del modelo, además de señalar direcciones prometedoras para futuras investigaciones en esta área.
La detección de objetos ha avanzado notablemente en los últimos años, impulsada por los avances en el aprendizaje profundo y la disponibilidad de conjuntos de datos anotados a gran escala. Sin embargo, estos métodos a menudo requieren grandes cantidades de datos etiquetados, los cuales pueden no estar disponibles para aplicaciones específicas o emergentes. Esta limitación ha generado interés en la Adaptación de Dominio No Supervisada (UDA, por sus siglas en inglés), que facilita la transferencia de conocimiento desde un dominio fuente etiquetado hacia un dominio objetivo no etiquetado o con una distribución diferente. Este estudio aborda el desafío de la Adaptación de Dominio entre datos sintéticos y del mundo real. Se ha desarrollado una metodología innovadora para generar conjuntos de datos sintéticos utilizando AirSim y Unreal Engine, lo que permite la creación de conjuntos de datos altamente personalizables y diversos. Se emplearon dos técnicas diferentes de Adaptación de Dominio: D3T, derivada de las técnicas más avanzadas de UDA, y MixPL, adoptada del Aprendizaje Semi-Supervisado. Se propusieron diferentes mejoras para maximizar la utilidad del conjunto de datos sintético y mejorar la alineación del dominio: en el caso de D3T, se propusieron modificaciones en la función de costo, mientras que en MixPL se incorporó un nuevo detector con una arquitectura de backbone basada en transformer. Los resultados obtenidos mediante D3T y MixPL demuestran un progreso alentador, ya que se acercan al rendimiento de los modelos entrenados directamente en el dominio objetivo. Estos hallazgos sugieren que los conjuntos de datos sintéticos tienen un gran potencial para abordar la escasez de datos y mejorar la generalización del modelo, además de señalar direcciones prometedoras para futuras investigaciones en esta área.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
CORES COSTA, DANIEL Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
CORES COSTA, DANIEL Cotutoría
Tribunal
Cernadas García, Eva (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
FLORES GONZALEZ, JULIAN CARLOS (Vocal)
Cernadas García, Eva (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
FLORES GONZALEZ, JULIAN CARLOS (Vocal)
Mejorando la extracción de características de los píxeles con Quantum Machine Learning
Autoría
D.B.F.P.
Máster Universitario en Visión por Computador
D.B.F.P.
Máster Universitario en Visión por Computador
Fecha de la defensa
03.02.2025 10:30
03.02.2025 10:30
Resumen
En este trabajo se ha analizado el uso de modelo de Quantum Machine Learning (QML) para mejorar la extracción de características de los píxeles. El principal objetivo fue estudiar si los modelos de QML pueden mejorar la calidad de las características y reducir drásticamente el número de parámetros que se necesitan para entrenar un modelo. Las características de la imagen fueron extraidas usando un Variational Quantum Circuit (VQC) de 4 qubits, que fue adecuadamente entrenado utilizando el algoritmo shift rule. El rendimiendo conseguido con el modelo de QML mejora el rendimiento de modelos de aprendizaje profundo para pequeños datasets. No obstante, al aumentar el tamaño del dataset, las características extraídas eran menos relevantes, dando lugar a un peor rendimiento que las aproximaciones clásicas, demandando un mayor análisis y aumentar el número de qubits y capas del VQC. Concluimos que QML se presenta como un nuevo paradigma para mejorar la extracción de características y reducir drásticamente el número de parámetros entrenables.
En este trabajo se ha analizado el uso de modelo de Quantum Machine Learning (QML) para mejorar la extracción de características de los píxeles. El principal objetivo fue estudiar si los modelos de QML pueden mejorar la calidad de las características y reducir drásticamente el número de parámetros que se necesitan para entrenar un modelo. Las características de la imagen fueron extraidas usando un Variational Quantum Circuit (VQC) de 4 qubits, que fue adecuadamente entrenado utilizando el algoritmo shift rule. El rendimiendo conseguido con el modelo de QML mejora el rendimiento de modelos de aprendizaje profundo para pequeños datasets. No obstante, al aumentar el tamaño del dataset, las características extraídas eran menos relevantes, dando lugar a un peor rendimiento que las aproximaciones clásicas, demandando un mayor análisis y aumentar el número de qubits y capas del VQC. Concluimos que QML se presenta como un nuevo paradigma para mejorar la extracción de características y reducir drásticamente el número de parámetros entrenables.
Dirección
VILA BLANCO, NICOLAS (Tutoría)
Fernández Pena, Anselmo Tomás Cotutoría
VILA BLANCO, NICOLAS (Tutoría)
Fernández Pena, Anselmo Tomás Cotutoría
Tribunal
Cernadas García, Eva (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
FLORES GONZALEZ, JULIAN CARLOS (Vocal)
Cernadas García, Eva (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
FLORES GONZALEZ, JULIAN CARLOS (Vocal)
Segmentación de hemorragias intracraneales asistida por aprendizaje profundo en CT cerebral: nnU-Net, MedNeXt y arquitectura ensamblada..
Autoría
M.P.F.
Máster Universitario en Visión por Computador
M.P.F.
Máster Universitario en Visión por Computador
Fecha de la defensa
03.02.2025 12:30
03.02.2025 12:30
Resumen
Este estudio comparó diferentes modelos de aprendizaje profundo para la segmentación de hemorragias intracraneales (ICH) en imágenes CT, incluyendo nnU-Net 2D, nnU-Net 3D y MedNeXt, así como un modelo conjunto que combina nnU-Net 2D y 3D. Los modelos se entrenaron con 200 imágenes utilizando validación cruzada de 5 folds durante 1,000 épocas y se probaron en datos no vistos. MedNeXt alcanzó el mejor rendimiento con una puntuación Dice de 0.6433+/-0.2417, seguido por el modelo conjunto 2D-3D nnU-Net con 0.6405+/-0.2256. Los modelos nnU-Net 2D y 3D obtuvieron puntuaciones de 0.6348+/-0.2179 y 0.6331+/-0.2636, respectivamente. El rendimiento superior de MedNeXt resalta el beneficio de incorporar transformadores para capturar dependencias a largo alcance y contexto global, aunque a costa de tiempos de entrenamiento más largos debido a su mayor complejidad. El modelo conjunto demostró que combinar arquitecturas U-Net 2D y 3D puede mejorar la precisión de la segmentación sin aumentar la complejidad del modelo. A pesar de las ventajas potenciales de nnU-Net 3D, los modelos nnU-Net 2D y 3D mostraron rendimientos similares, lo que indica que cualquiera de las configuraciones puede ser efectiva dependiendo del caso de uso. Estos hallazgos indican que el rendimiento superior de MedNeXt en la segmentación de ICH (puntuación Dice 0.6433) lo convierte en la opción preferida para la implementación clínica, mientras que el modelo conjunto ofrece una alternativa robusta que logra resultados comparables (puntuación Dice 0.6405) sin requerir modificaciones arquitectónicas, proporcionando flexibilidad para diferentes escenarios de implementación clínica.
Este estudio comparó diferentes modelos de aprendizaje profundo para la segmentación de hemorragias intracraneales (ICH) en imágenes CT, incluyendo nnU-Net 2D, nnU-Net 3D y MedNeXt, así como un modelo conjunto que combina nnU-Net 2D y 3D. Los modelos se entrenaron con 200 imágenes utilizando validación cruzada de 5 folds durante 1,000 épocas y se probaron en datos no vistos. MedNeXt alcanzó el mejor rendimiento con una puntuación Dice de 0.6433+/-0.2417, seguido por el modelo conjunto 2D-3D nnU-Net con 0.6405+/-0.2256. Los modelos nnU-Net 2D y 3D obtuvieron puntuaciones de 0.6348+/-0.2179 y 0.6331+/-0.2636, respectivamente. El rendimiento superior de MedNeXt resalta el beneficio de incorporar transformadores para capturar dependencias a largo alcance y contexto global, aunque a costa de tiempos de entrenamiento más largos debido a su mayor complejidad. El modelo conjunto demostró que combinar arquitecturas U-Net 2D y 3D puede mejorar la precisión de la segmentación sin aumentar la complejidad del modelo. A pesar de las ventajas potenciales de nnU-Net 3D, los modelos nnU-Net 2D y 3D mostraron rendimientos similares, lo que indica que cualquiera de las configuraciones puede ser efectiva dependiendo del caso de uso. Estos hallazgos indican que el rendimiento superior de MedNeXt en la segmentación de ICH (puntuación Dice 0.6433) lo convierte en la opción preferida para la implementación clínica, mientras que el modelo conjunto ofrece una alternativa robusta que logra resultados comparables (puntuación Dice 0.6405) sin requerir modificaciones arquitectónicas, proporcionando flexibilidad para diferentes escenarios de implementación clínica.
Dirección
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
Gómez González, Juan Pablo Cotutoría
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
Gómez González, Juan Pablo Cotutoría
Tribunal
Cernadas García, Eva (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
FLORES GONZALEZ, JULIAN CARLOS (Vocal)
Cernadas García, Eva (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
FLORES GONZALEZ, JULIAN CARLOS (Vocal)
Sostenibilidad de la producción de enzimas bajo la perspectiva del análisis del ciclo de vida y los principios de química verde
Autoría
A.C.N.
Máster Universitario en Ingeniería Ambiental (3ª ed)
A.C.N.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
20.02.2025 16:30
20.02.2025 16:30
Resumen
Muchos consumidores buscan alternativas sostenibles debido a los problemas ambientales que presentan los plásticos convencionales. Un polímero verde similar al PET (tereftalato de polietileno) es el PEF (furanoato de polietileno) que surge como una solución más ecológica, fabricado a partir de fuentes renovables. Este estudio presenta los resultados de la Evaluación del Ciclo de Vida (ACV) de la producción de la enzima HMFO (5-hidroximetilfurfural oixdasa), clave en la síntesis de PEF, desde una perspectiva de la cuna a la puerta. Se evaluaron cuatro escenarios de producción, comenzando en una escala de laboratorio de 5 litros y escalando hasta 1 m3, considerando también escenarios intermedios de 25 y 50 litros, con el objetivo de analizar los impactos ambientales a una escala industrial. El análisis reveló que la glucosa, la energía y el K2HPO4 son los principales contribuyentes al impacto ambiental del proceso. Entre las diversas etapas, las fases de fermentación y purificación mostraron los impactos ambientales más significativos. En contraste, las etapas de preinóculo e inóculo demostraron impactos comparativamente menores, en gran parte debido a sus períodos operativos más cortos. Además, al escalar la producción a una capacidad de 1 m3, se observó una disminución notable en los impactos ambientales generales, destacando una mejor eficiencia en el uso de recursos y una reducción en la generación de residuos. Al comparar este estudio con otras investigaciones en la literatura, se encontró que este proceso demuestra un mayor grado de sostenibilidad. La aplicación de los principios de la química verde fue central en esta evaluación, con la sostenibilidad evaluada a través de 15 métricas distintas. Esta metodología destacó que la escala de producción de 1 m3 es sustancialmente más sostenible que las operaciones a escala de laboratorio. Además, en lo que respecta a la comparación de los impactos ambientales asociados a este proceso y los de estudios sobre la producción de enzimas, las comparaciones directas con este Trabajo Final de Máster fueron limitadas debido a las discrepancias en las unidades funcionales y las categorías de impacto consideradas.
Muchos consumidores buscan alternativas sostenibles debido a los problemas ambientales que presentan los plásticos convencionales. Un polímero verde similar al PET (tereftalato de polietileno) es el PEF (furanoato de polietileno) que surge como una solución más ecológica, fabricado a partir de fuentes renovables. Este estudio presenta los resultados de la Evaluación del Ciclo de Vida (ACV) de la producción de la enzima HMFO (5-hidroximetilfurfural oixdasa), clave en la síntesis de PEF, desde una perspectiva de la cuna a la puerta. Se evaluaron cuatro escenarios de producción, comenzando en una escala de laboratorio de 5 litros y escalando hasta 1 m3, considerando también escenarios intermedios de 25 y 50 litros, con el objetivo de analizar los impactos ambientales a una escala industrial. El análisis reveló que la glucosa, la energía y el K2HPO4 son los principales contribuyentes al impacto ambiental del proceso. Entre las diversas etapas, las fases de fermentación y purificación mostraron los impactos ambientales más significativos. En contraste, las etapas de preinóculo e inóculo demostraron impactos comparativamente menores, en gran parte debido a sus períodos operativos más cortos. Además, al escalar la producción a una capacidad de 1 m3, se observó una disminución notable en los impactos ambientales generales, destacando una mejor eficiencia en el uso de recursos y una reducción en la generación de residuos. Al comparar este estudio con otras investigaciones en la literatura, se encontró que este proceso demuestra un mayor grado de sostenibilidad. La aplicación de los principios de la química verde fue central en esta evaluación, con la sostenibilidad evaluada a través de 15 métricas distintas. Esta metodología destacó que la escala de producción de 1 m3 es sustancialmente más sostenible que las operaciones a escala de laboratorio. Además, en lo que respecta a la comparación de los impactos ambientales asociados a este proceso y los de estudios sobre la producción de enzimas, las comparaciones directas con este Trabajo Final de Máster fueron limitadas debido a las discrepancias en las unidades funcionales y las categorías de impacto consideradas.
Dirección
MOREIRA VILAR, MARIA TERESA (Tutoría)
Arias Calvo, Ana Cotutoría
MOREIRA VILAR, MARIA TERESA (Tutoría)
Arias Calvo, Ana Cotutoría
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
PARADELO NUÑEZ, REMIGIO (Secretario/a)
CARBALLA ARCOS, MARTA (Vocal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
PARADELO NUÑEZ, REMIGIO (Secretario/a)
CARBALLA ARCOS, MARTA (Vocal)
Producción de ácidos grasos volátiles teniendo en cuenta dimensiones de sostenibilidad y circularidad
Autoría
A.S.L.
Máster Universitario en Ingeniería Ambiental (3ª ed)
A.S.L.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
20.02.2025 12:00
20.02.2025 12:00
Resumen
El aumento de la escasez de agua, el cambio climático y la explotación intensiva de los recursos naturales tienen un impacto negativo en el ciclo del agua. Estos factores reducen la disponibilidad de agua, lo que pone en riesgo tanto a las comunidades humanas como a los ecosistemas naturales que dependen de este recurso. Por ello, es imprescindible implementar soluciones innovadoras y sostenibles que garanticen el acceso a agua limpia y la protección del medio ambiente. Una estrategia clave para abordar estos problemas es el tratamiento de aguas residuales. Este proceso contribuye a reducir la contaminación, mejorando la calidad del agua tratada. Además, no sólo asegura la sostenibilidad hídrica al devolver el agua a los cuerpos hídricos, sino que también permite recuperar recursos valiosos como nutrientes y energía. En el contexto de la Unión Europea, la taxonomía europea se ha establecido como un marco legislativo diseñado para fomentar actividades económicas sostenibles en línea con seis objetivos ambientales fundamentales: la mitigación del cambio climático, la adaptación al cambio climático, el uso sostenible y la protección de los recursos acuáticos y marinos, la transición hacia una economía circular, la prevención y el control de la contaminación, y la protección y restauración de la biodiversidad y los ecosistemas. Dentro de este marco, las actividades relacionadas con el tratamiento de aguas residuales y la gestión de biorresiduos destacan por su capacidad para contribuir a la mitigación del cambio climático y favorecer la economía circular. Este Trabajo Final de Máster se centra en el análisis de tres casos de estudio específicos: La Estación Depuradora de Aguas Residuales (EDAR) de Os Praceres, la EDAR de Lagares y una planta piloto dedicada a la producción de Ácidos Grasos Volátiles a partir de lodos y biorresiduos. En cada caso, se aplicó la metodología de taxonomía europea para evaluar las actividades que se alinean con los objetivos de sostenibilidad definidos por este marco regulatorio. Adicionalmente, se emplearon los indicadores del proyecto BioReCer para evaluar el desarrollo de estas instalaciones en términos de circularidad y sostenibilidad.
El aumento de la escasez de agua, el cambio climático y la explotación intensiva de los recursos naturales tienen un impacto negativo en el ciclo del agua. Estos factores reducen la disponibilidad de agua, lo que pone en riesgo tanto a las comunidades humanas como a los ecosistemas naturales que dependen de este recurso. Por ello, es imprescindible implementar soluciones innovadoras y sostenibles que garanticen el acceso a agua limpia y la protección del medio ambiente. Una estrategia clave para abordar estos problemas es el tratamiento de aguas residuales. Este proceso contribuye a reducir la contaminación, mejorando la calidad del agua tratada. Además, no sólo asegura la sostenibilidad hídrica al devolver el agua a los cuerpos hídricos, sino que también permite recuperar recursos valiosos como nutrientes y energía. En el contexto de la Unión Europea, la taxonomía europea se ha establecido como un marco legislativo diseñado para fomentar actividades económicas sostenibles en línea con seis objetivos ambientales fundamentales: la mitigación del cambio climático, la adaptación al cambio climático, el uso sostenible y la protección de los recursos acuáticos y marinos, la transición hacia una economía circular, la prevención y el control de la contaminación, y la protección y restauración de la biodiversidad y los ecosistemas. Dentro de este marco, las actividades relacionadas con el tratamiento de aguas residuales y la gestión de biorresiduos destacan por su capacidad para contribuir a la mitigación del cambio climático y favorecer la economía circular. Este Trabajo Final de Máster se centra en el análisis de tres casos de estudio específicos: La Estación Depuradora de Aguas Residuales (EDAR) de Os Praceres, la EDAR de Lagares y una planta piloto dedicada a la producción de Ácidos Grasos Volátiles a partir de lodos y biorresiduos. En cada caso, se aplicó la metodología de taxonomía europea para evaluar las actividades que se alinean con los objetivos de sostenibilidad definidos por este marco regulatorio. Adicionalmente, se emplearon los indicadores del proyecto BioReCer para evaluar el desarrollo de estas instalaciones en términos de circularidad y sostenibilidad.
Dirección
MOREIRA VILAR, MARIA TERESA (Tutoría)
MOREIRA VILAR, MARIA TERESA (Tutoría)
Tribunal
FERNANDEZ ESCRIBANO, JOSE ANGEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
GONZALEZ GARCIA, SARA (Vocal)
FERNANDEZ ESCRIBANO, JOSE ANGEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
GONZALEZ GARCIA, SARA (Vocal)
Evaluación del impacto de un activador en tecnosuelos versus el proceso convencional
Autoría
X.R.B.
Máster Universitario en Ingeniería Ambiental (3ª ed)
X.R.B.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
21.02.2025 10:15
21.02.2025 10:15
Resumen
La mina de Touro es un yacimiento de sulfuros metálicos, explotado durante 1974-1988 para la obtención de cobre. A causa de esta operación minera se provocó una gran alteración ambiental. Los materiales expuestos al aire libre, donde no hay rastro de vegetación o suelo, generan grandes cantidades de drenaje hiperácido con altas concentraciones de metales pesados. Con el objetivo de solucionar este problema ambiental, actualmente se está llevando a cabo la restauración de la mina con la aplicación de tecnosuelos reductores y amortiguadores. A lo largo de este trabajo se pretende realizar un estudio para optimizar el proceso de producción de estos tecnosuelos, estudiando la viabilidad de utilizar un acelerador del proceso de compostaje. Asimismo, se analizarán las ventajas que aporta este aditivo al proceso de compostaje respecto al proceso convencional. A lo largo del estudio se abordarán los siguientes puntos para determinar la idoneidad o no de un producto acelerador: - Tiempos de compostaje - Temperaturas de compostaje - Estabilización de la materia orgánica - Diferencias microbiológicas - Eliminación de olores - Impacto económico Además, también se realizarán pruebas sobre las dosis y formas de aplicación del acelerador en cuestión.
La mina de Touro es un yacimiento de sulfuros metálicos, explotado durante 1974-1988 para la obtención de cobre. A causa de esta operación minera se provocó una gran alteración ambiental. Los materiales expuestos al aire libre, donde no hay rastro de vegetación o suelo, generan grandes cantidades de drenaje hiperácido con altas concentraciones de metales pesados. Con el objetivo de solucionar este problema ambiental, actualmente se está llevando a cabo la restauración de la mina con la aplicación de tecnosuelos reductores y amortiguadores. A lo largo de este trabajo se pretende realizar un estudio para optimizar el proceso de producción de estos tecnosuelos, estudiando la viabilidad de utilizar un acelerador del proceso de compostaje. Asimismo, se analizarán las ventajas que aporta este aditivo al proceso de compostaje respecto al proceso convencional. A lo largo del estudio se abordarán los siguientes puntos para determinar la idoneidad o no de un producto acelerador: - Tiempos de compostaje - Temperaturas de compostaje - Estabilización de la materia orgánica - Diferencias microbiológicas - Eliminación de olores - Impacto económico Además, también se realizarán pruebas sobre las dosis y formas de aplicación del acelerador en cuestión.
Dirección
GONZALEZ GARCIA, SARA (Tutoría)
Castro Fernández, Noelia Cotutoría
GONZALEZ GARCIA, SARA (Tutoría)
Castro Fernández, Noelia Cotutoría
Tribunal
PRIETO LAMAS, BEATRIZ LORETO (Presidente/a)
RIOS VIQUEIRA, JOSE RAMON (Secretario/a)
ROMERO CASTRO, NOELIA MARIA (Vocal)
PRIETO LAMAS, BEATRIZ LORETO (Presidente/a)
RIOS VIQUEIRA, JOSE RAMON (Secretario/a)
ROMERO CASTRO, NOELIA MARIA (Vocal)
Validación de heurísticas de diseño y escalado integrando externalidades ambientales
Autoría
A.P.C.
Máster Universitario en Ingeniería Química y Bioprocesos
A.P.C.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
19.02.2025 10:45
19.02.2025 10:45
Resumen
Las evaluaciones tempranas resultan de interés en la validación de la confiabilidad actual de heurísticas de diseño en ingeniería química al anticipar la viabilidad técnica, económica y ambiental de un proyecto con una perspectiva holística. Su desarrollo depende del estado de madurez de una tecnología, por lo que el presente documento aborda su aplicación a dos casos de estudio representativos. Inicialmente, se propone la comprobación de la idoneidad del factor típico entre la relación de reflujo y su valor mínimo en una columna de destilación con un doble análisis en un sistema azeotrópico a gran escala en una unidad de platos, y de contacto por relleno en una producción típica del sector de química fina. En una segunda evaluación, se revisan los métodos de escalado más adecuados para una hipotética fábrica industrial de polihidroxialcanoatos con cultivos microbianos mixtos y un sustrato orgánico residual partiendo de registros experimentales piloto. Los resultados obtenidos en la tecnología madura demostraron un favorecimiento a un punto de equilibrio entre la eficiencia de separación y costes operativos en relaciones de reflujo más bajas, abordando una mayor inversión inicial para primar una reducción de emisiones y gastos de proceso. En cuanto a la casuística del sistema emergente, las heurísticas de ampliación de ingeniería de procesos resultaron óptimas en términos de aplicabilidad e incertidumbre, mientras que el análisis económico y de huella de carbono señalaron la conversión de acidificación, extracción del producto intracelular y el coste de adquisición de materias primas como las principales limitaciones para su introducción en el mercado.
Las evaluaciones tempranas resultan de interés en la validación de la confiabilidad actual de heurísticas de diseño en ingeniería química al anticipar la viabilidad técnica, económica y ambiental de un proyecto con una perspectiva holística. Su desarrollo depende del estado de madurez de una tecnología, por lo que el presente documento aborda su aplicación a dos casos de estudio representativos. Inicialmente, se propone la comprobación de la idoneidad del factor típico entre la relación de reflujo y su valor mínimo en una columna de destilación con un doble análisis en un sistema azeotrópico a gran escala en una unidad de platos, y de contacto por relleno en una producción típica del sector de química fina. En una segunda evaluación, se revisan los métodos de escalado más adecuados para una hipotética fábrica industrial de polihidroxialcanoatos con cultivos microbianos mixtos y un sustrato orgánico residual partiendo de registros experimentales piloto. Los resultados obtenidos en la tecnología madura demostraron un favorecimiento a un punto de equilibrio entre la eficiencia de separación y costes operativos en relaciones de reflujo más bajas, abordando una mayor inversión inicial para primar una reducción de emisiones y gastos de proceso. En cuanto a la casuística del sistema emergente, las heurísticas de ampliación de ingeniería de procesos resultaron óptimas en términos de aplicabilidad e incertidumbre, mientras que el análisis económico y de huella de carbono señalaron la conversión de acidificación, extracción del producto intracelular y el coste de adquisición de materias primas como las principales limitaciones para su introducción en el mercado.
Dirección
HOSPIDO QUINTANA, ALMUDENA (Tutoría)
MAURICIO IGLESIAS, MIGUEL Cotutoría
HOSPIDO QUINTANA, ALMUDENA (Tutoría)
MAURICIO IGLESIAS, MIGUEL Cotutoría
Tribunal
GONZALEZ ALVAREZ, JULIA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
GONZALEZ GARCIA, SARA (Vocal)
GONZALEZ ALVAREZ, JULIA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
GONZALEZ GARCIA, SARA (Vocal)
Impacto de la base de datos de controles sanos en cuantificación de imagen PET cerebral.
Autoría
E.F.Z.
Máster Universitario en Visión por Computador
E.F.Z.
Máster Universitario en Visión por Computador
Fecha de la defensa
03.02.2025 11:00
03.02.2025 11:00
Resumen
La Tomografía por Emisión de Positrones (PET) es crucial en la investigación neurológica y en la práctica clínica, proporcionando información sobre el metabolismo cerebral, especialmente a través del uso de PET con [18F]FDG, que ayuda en el diagnóstico de condiciones como la epilepsia. Aunque el análisis cuantitativo de PET puede mejorar la precisión diagnóstica, sus resultados pueden verse influenciados por la selección del conjunto de datos de control sano (HC). Este estudio utiliza datos sintéticos generados por SimPET para explorar cómo la base de datos de controles sanos, adquirida en seis escáneres diferentes, impacta en el análisis cuantitativo de PET, con el objetivo de mejorar la robustez de los métodos de cuantificación clínica. Para evaluar el impacto de la variabilidad entre escáneres, se realizaron análisis basados tanto en VOI como en vóxeles, comparando una base de datos sintética de pacientes con epilepsia con las diferentes bases de datos sintéticas de HC. Los resultados muestran que la variabilidad entre escáneres afectó significativamente la detección de lesiones epilépticas tanto focales como extendidas. Estos hallazgos resaltan la importancia de la armonización de datos para garantizar una cuantificación PET fiable y precisa. En conclusión, aunque la elección de una base de datos de control sano adquirida localmente es importante, su impacto en la cuantificación PET podría ser limitado al comparar escáneres de la misma generación.
La Tomografía por Emisión de Positrones (PET) es crucial en la investigación neurológica y en la práctica clínica, proporcionando información sobre el metabolismo cerebral, especialmente a través del uso de PET con [18F]FDG, que ayuda en el diagnóstico de condiciones como la epilepsia. Aunque el análisis cuantitativo de PET puede mejorar la precisión diagnóstica, sus resultados pueden verse influenciados por la selección del conjunto de datos de control sano (HC). Este estudio utiliza datos sintéticos generados por SimPET para explorar cómo la base de datos de controles sanos, adquirida en seis escáneres diferentes, impacta en el análisis cuantitativo de PET, con el objetivo de mejorar la robustez de los métodos de cuantificación clínica. Para evaluar el impacto de la variabilidad entre escáneres, se realizaron análisis basados tanto en VOI como en vóxeles, comparando una base de datos sintética de pacientes con epilepsia con las diferentes bases de datos sintéticas de HC. Los resultados muestran que la variabilidad entre escáneres afectó significativamente la detección de lesiones epilépticas tanto focales como extendidas. Estos hallazgos resaltan la importancia de la armonización de datos para garantizar una cuantificación PET fiable y precisa. En conclusión, aunque la elección de una base de datos de control sano adquirida localmente es importante, su impacto en la cuantificación PET podría ser limitado al comparar escáneres de la misma generación.
Dirección
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
Aguiar Fernández, Pablo Cotutoría
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
Aguiar Fernández, Pablo Cotutoría
Tribunal
Cernadas García, Eva (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
FLORES GONZALEZ, JULIAN CARLOS (Vocal)
Cernadas García, Eva (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
FLORES GONZALEZ, JULIAN CARLOS (Vocal)
Sistema de Visión Artificial en Tiempo Real para el Control de Calidad en Líneas de Embalaje
Autoría
M.K.M.H.
Máster Universitario en Visión por Computador
M.K.M.H.
Máster Universitario en Visión por Computador
Fecha de la defensa
03.02.2025 12:00
03.02.2025 12:00
Resumen
Este artículo presenta un sistema de visión artificial en tiempo real implementado en una línea de embalaje de Financiera Maderera S.A., un fabricante líder español de productos de madera industrializada. El sistema aborda el desafío de detectar cajas abiertas en una producción de alta velocidad. Cuenta con un sistema personalizado de adquisición de imágenes y procesamiento de imágenes para identificar defectos. Integrado perfectamente en la línea de embalaje, el sistema alcanza una precisión general del 99.89%, con una precisión del 96.31% y una recuperación del 96.56% para la detección de cajas abiertas, todo en menos de 0.25 segundos por caja. Estos resultados demuestran el potencial del sistema para mejorar el control de calidad en aplicaciones de líneas de embalaje de alta velocidad en diversos sectores.
Este artículo presenta un sistema de visión artificial en tiempo real implementado en una línea de embalaje de Financiera Maderera S.A., un fabricante líder español de productos de madera industrializada. El sistema aborda el desafío de detectar cajas abiertas en una producción de alta velocidad. Cuenta con un sistema personalizado de adquisición de imágenes y procesamiento de imágenes para identificar defectos. Integrado perfectamente en la línea de embalaje, el sistema alcanza una precisión general del 99.89%, con una precisión del 96.31% y una recuperación del 96.56% para la detección de cajas abiertas, todo en menos de 0.25 segundos por caja. Estos resultados demuestran el potencial del sistema para mejorar el control de calidad en aplicaciones de líneas de embalaje de alta velocidad en diversos sectores.
Dirección
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
Ferreiro Miranda, José Miguel Cotutoría
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
Ferreiro Miranda, José Miguel Cotutoría
Tribunal
Cernadas García, Eva (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
FLORES GONZALEZ, JULIAN CARLOS (Vocal)
Cernadas García, Eva (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
FLORES GONZALEZ, JULIAN CARLOS (Vocal)
Investigación y desarrollo de modelos de predicción de ingresos en el sector hotelero
Autoría
C.B.L.
Máster Universitario en Inteligencia Artificial
C.B.L.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
20.02.2025 11:00
20.02.2025 11:00
Resumen
La industria hotelera es un entorno dinámico donde los ajustes constantes en los precios de las habitaciones son necesarios para optimizar los ingresos de cada hotel. En este contexto, la capacidad de predecir con precisión los ingresos futuros es clave para la toma de decisiones estratégicas y la optimización de precios. La previsión de ingresos se refiere a la capacidad de estimar las ganancias que un hotel generará en un día determinado, considerando toda la información disponible hasta el momento en que se realiza la predicción, independientemente de la anticipación con la que se haga. En este proyecto, utilizando técnicas de Machine Learning, se desarrollan modelos de predicción de ingresos para Eurostars Hotel Company, abordando desafíos relacionados con la calidad de los datos, los costos computacionales y la necesidad de interpretabilidad. Mediante técnicas de Ciencia de Datos, se analizan las limitaciones del conjunto de datos y se tratan problemas como la alta dimensionalidad, el tamaño del conjunto de datos y la presencia de valores atípicos. Se explora la efectividad de modelos generalizados que cubren múltiples hoteles para reducir el número total de modelos y permitir la previsión de ingresos en hoteles con datos históricos insuficientes. Además, se introduce una separación en la predicción según el lead time (corto y largo plazo), lo que permite mejorar la precisión en períodos críticos de ventas. Finalmente, se evalúan los resultados de estas implementaciones tanto de forma individual como en comparación con los modelos previos en uso, extrayendo conclusiones sobre su efectividad y utilidad para la empresa.
La industria hotelera es un entorno dinámico donde los ajustes constantes en los precios de las habitaciones son necesarios para optimizar los ingresos de cada hotel. En este contexto, la capacidad de predecir con precisión los ingresos futuros es clave para la toma de decisiones estratégicas y la optimización de precios. La previsión de ingresos se refiere a la capacidad de estimar las ganancias que un hotel generará en un día determinado, considerando toda la información disponible hasta el momento en que se realiza la predicción, independientemente de la anticipación con la que se haga. En este proyecto, utilizando técnicas de Machine Learning, se desarrollan modelos de predicción de ingresos para Eurostars Hotel Company, abordando desafíos relacionados con la calidad de los datos, los costos computacionales y la necesidad de interpretabilidad. Mediante técnicas de Ciencia de Datos, se analizan las limitaciones del conjunto de datos y se tratan problemas como la alta dimensionalidad, el tamaño del conjunto de datos y la presencia de valores atípicos. Se explora la efectividad de modelos generalizados que cubren múltiples hoteles para reducir el número total de modelos y permitir la previsión de ingresos en hoteles con datos históricos insuficientes. Además, se introduce una separación en la predicción según el lead time (corto y largo plazo), lo que permite mejorar la precisión en períodos críticos de ventas. Finalmente, se evalúan los resultados de estas implementaciones tanto de forma individual como en comparación con los modelos previos en uso, extrayendo conclusiones sobre su efectividad y utilidad para la empresa.
Dirección
LAMA PENIN, MANUEL (Tutoría)
Comesaña García, Alejandra Cotutoría
Freire Martínez, Ignacio Cotutoría
LAMA PENIN, MANUEL (Tutoría)
Comesaña García, Alejandra Cotutoría
Freire Martínez, Ignacio Cotutoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
VILA BLANCO, NICOLAS (Vocal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
VILA BLANCO, NICOLAS (Vocal)
Automatización y Optimización de Algoritmos de Predicción para Dispositivos IoT en el Sector Eléctrico: Una Estrategia Escalable
Autoría
B.G.M.
Máster Universitario en Inteligencia Artificial
B.G.M.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
21.02.2025 11:00
21.02.2025 11:00
Resumen
La creciente cantidad de datos procedentes de dispositivos IoT afecta a todos los sectores empresariales. Por lo tanto, el sector eléctrico no es la excepción. La rápida evolución de la IA ha mejorado la automatización y optimización del procesamiento de datos, permitiendo un manejo más eficiente de conjuntos de datos a gran escala en el modelado predictivo. En este artículo, se presenta una herramienta que automatiza eficientemente predicciones de series temporales basadas en datos históricos de medidas eléctricas, utilizando un conjunto de algoritmos de Deep Learning, con su respectiva validación y posterior análisis de los resultados. Estos resultados ilustran la eficacia de los algoritmos de IA en la generación de predicciones precisas. Mediante el establecimiento de un marco escalable y automatizado para el entrenamiento y evaluación de modelos, este trabajo contribuye al avance continuo de las tecnologías de IA en el sector eléctrico, allanando el camino para una gestión más eficiente de los recursos en este sector.
La creciente cantidad de datos procedentes de dispositivos IoT afecta a todos los sectores empresariales. Por lo tanto, el sector eléctrico no es la excepción. La rápida evolución de la IA ha mejorado la automatización y optimización del procesamiento de datos, permitiendo un manejo más eficiente de conjuntos de datos a gran escala en el modelado predictivo. En este artículo, se presenta una herramienta que automatiza eficientemente predicciones de series temporales basadas en datos históricos de medidas eléctricas, utilizando un conjunto de algoritmos de Deep Learning, con su respectiva validación y posterior análisis de los resultados. Estos resultados ilustran la eficacia de los algoritmos de IA en la generación de predicciones precisas. Mediante el establecimiento de un marco escalable y automatizado para el entrenamiento y evaluación de modelos, este trabajo contribuye al avance continuo de las tecnologías de IA en el sector eléctrico, allanando el camino para una gestión más eficiente de los recursos en este sector.
Dirección
CONDORI FERNANDEZ, OLINDA NELLY (Tutoría)
Franco Romero, Carlos Cotutoría
Dacosta Tapia, Jorge Cotutoría
CONDORI FERNANDEZ, OLINDA NELLY (Tutoría)
Franco Romero, Carlos Cotutoría
Dacosta Tapia, Jorge Cotutoría
Tribunal
Gamallo Otero, Pablo (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
CHAVES FRAGA, DAVID (Vocal)
Gamallo Otero, Pablo (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
CHAVES FRAGA, DAVID (Vocal)
Asistente Virtual Basado en Agentes para Sistemas de Soporte a la Decisión Clínica
Autoría
A.G.L.
Máster Universitario en Inteligencia Artificial
A.G.L.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
21.02.2025 11:30
21.02.2025 11:30
Resumen
Los Sistema de Soporte a la Decisión Clínica (CDSSs) desempeñan un papel crucial en la asistencia sanitaria moderna al ayudar a los médicos en el diagnóstico, la evaluación de riesgos y las recomendaciones de tratamiento. Este estudio presenta el desarrollo de un Asistente Virtual Basado en Agentes para CDSS, mediante el uso de agentes LLM y la tecnología de Retrieval-Augmented Generation para mejorar la toma de decisiones en el manejo de la Embolia Pulmonar (EP). El sistema propuesto está diseñado para ofrecer cuatro servicios básicos: un Servicio de Respuesta Estándar para consultas generales sobre información médica en guías clinicas, un Servicio de Datos del Paciente para acceder a datos clínicos estructurados del paciente, un Servicio de Métricas para el cálculo de métricas de riesgo relacionadas con la EP, y un Servicio de Recomendaciones para generar recomendaciones clínicas personalizadas para la situación del paciente. El sistema se evaluó mediante metodologías cuantitativas y cualitativas, incorporando evaluaciones empíricas de rendimiento y validación médica experta. Los resultados experimentales demostraron gran precisión y fiabilidad para todos los servicios, con el Servicio de Respuesta Estándar logrando una fuerte alineación semántica (ASS: 89,50\%) y coherencia factual (F: 97,50\%). El Servicio de Métricas mostró una precisión del 100\% en la clasificación de los niveles de gravedad de la EP. El Servicio de Recomendaciones, a pesar de la subjetividad inherente a las recomendaciones clínicas, mostró una alineación razonable con las indicaciones de los médicos. Además, la evaluación del experto confirmó que el proceso de razonamiento del sistema imita fielmente la lógica clínica, identificando con éxito las consideraciones clínicas clave y mejorando la eficacia en la consulta de guías clinicas.
Los Sistema de Soporte a la Decisión Clínica (CDSSs) desempeñan un papel crucial en la asistencia sanitaria moderna al ayudar a los médicos en el diagnóstico, la evaluación de riesgos y las recomendaciones de tratamiento. Este estudio presenta el desarrollo de un Asistente Virtual Basado en Agentes para CDSS, mediante el uso de agentes LLM y la tecnología de Retrieval-Augmented Generation para mejorar la toma de decisiones en el manejo de la Embolia Pulmonar (EP). El sistema propuesto está diseñado para ofrecer cuatro servicios básicos: un Servicio de Respuesta Estándar para consultas generales sobre información médica en guías clinicas, un Servicio de Datos del Paciente para acceder a datos clínicos estructurados del paciente, un Servicio de Métricas para el cálculo de métricas de riesgo relacionadas con la EP, y un Servicio de Recomendaciones para generar recomendaciones clínicas personalizadas para la situación del paciente. El sistema se evaluó mediante metodologías cuantitativas y cualitativas, incorporando evaluaciones empíricas de rendimiento y validación médica experta. Los resultados experimentales demostraron gran precisión y fiabilidad para todos los servicios, con el Servicio de Respuesta Estándar logrando una fuerte alineación semántica (ASS: 89,50\%) y coherencia factual (F: 97,50\%). El Servicio de Métricas mostró una precisión del 100\% en la clasificación de los niveles de gravedad de la EP. El Servicio de Recomendaciones, a pesar de la subjetividad inherente a las recomendaciones clínicas, mostró una alineación razonable con las indicaciones de los médicos. Además, la evaluación del experto confirmó que el proceso de razonamiento del sistema imita fielmente la lógica clínica, identificando con éxito las consideraciones clínicas clave y mejorando la eficacia en la consulta de guías clinicas.
Dirección
MERA PEREZ, DAVID (Tutoría)
Piñeiro Martín, Andrés Cotutoría
López Pérez, María Carmen Cotutoría
MERA PEREZ, DAVID (Tutoría)
Piñeiro Martín, Andrés Cotutoría
López Pérez, María Carmen Cotutoría
Tribunal
Gamallo Otero, Pablo (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
CHAVES FRAGA, DAVID (Vocal)
Gamallo Otero, Pablo (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
CHAVES FRAGA, DAVID (Vocal)
Hacia una Navegación Web Autónoma usando Agentes basados en LLMs
Autoría
M.I.A.
Máster Universitario en Inteligencia Artificial
M.I.A.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
21.02.2025 12:00
21.02.2025 12:00
Resumen
La navegación web autónoma sigue siendo un desafío complejo, principalmente debido a la naturaleza dinámica, diversa y no estructurada de los entornos web. Las técnicas tradicionales de web scraping, aunque efectivas, requieren configuraciones rígidas vinculadas a estructuras específicas de sitios web, lo que limita su capacidad de generalización. Para abordar estos desafíos, este trabajo explora el uso de agentes autónomos impulsados por Modelos de Lenguaje de Gran Escala (Large Language Models, LLMs) para la navegación web autónoma, centrándose en la recuperación de publicaciones académicas desde repositorios de preprints. La solución propuesta emplea una arquitectura multiagente y un enfoque estructurado similar al recorrido de árboles para explorar hipervínculos y extraer documentos relevantes. Cada agente desempeña un rol específico, incluyendo la identificación de URLs relevantes, la recopilación de documentos, la planificación, la presentación y el control de calidad. El sistema se implementa utilizando AutoGen, lo que permite interacciones flexibles entre los agentes y un diseño modular. A diferencia de las técnicas tradicionales de extracción de información web, este enfoque generaliza los patrones de navegación sin depender de selectores HTML predefinidos, permitiendo su uso en diferentes páginas web. Los resultados experimentales son prometedores, demostrando la efectividad del sistema en la recuperación de contenido académico relevante. Sin embargo, desafíos como tiempos de respuesta elevados y alucinaciones ocasionales indican áreas de mejora. El trabajo futuro busca mejorar la interactividad mediante la integración de capacidades avanzadas de búsqueda basada en formularios, optimizar la eficiencia de recuperación e implementar marcos de evaluación más sólidos. Estas mejoras podrían contribuir a una exploración web completamente automatizada basada en IA, mediante al desarrollo de herramientas de navegación autónoma más generalizables.
La navegación web autónoma sigue siendo un desafío complejo, principalmente debido a la naturaleza dinámica, diversa y no estructurada de los entornos web. Las técnicas tradicionales de web scraping, aunque efectivas, requieren configuraciones rígidas vinculadas a estructuras específicas de sitios web, lo que limita su capacidad de generalización. Para abordar estos desafíos, este trabajo explora el uso de agentes autónomos impulsados por Modelos de Lenguaje de Gran Escala (Large Language Models, LLMs) para la navegación web autónoma, centrándose en la recuperación de publicaciones académicas desde repositorios de preprints. La solución propuesta emplea una arquitectura multiagente y un enfoque estructurado similar al recorrido de árboles para explorar hipervínculos y extraer documentos relevantes. Cada agente desempeña un rol específico, incluyendo la identificación de URLs relevantes, la recopilación de documentos, la planificación, la presentación y el control de calidad. El sistema se implementa utilizando AutoGen, lo que permite interacciones flexibles entre los agentes y un diseño modular. A diferencia de las técnicas tradicionales de extracción de información web, este enfoque generaliza los patrones de navegación sin depender de selectores HTML predefinidos, permitiendo su uso en diferentes páginas web. Los resultados experimentales son prometedores, demostrando la efectividad del sistema en la recuperación de contenido académico relevante. Sin embargo, desafíos como tiempos de respuesta elevados y alucinaciones ocasionales indican áreas de mejora. El trabajo futuro busca mejorar la interactividad mediante la integración de capacidades avanzadas de búsqueda basada en formularios, optimizar la eficiencia de recuperación e implementar marcos de evaluación más sólidos. Estas mejoras podrían contribuir a una exploración web completamente automatizada basada en IA, mediante al desarrollo de herramientas de navegación autónoma más generalizables.
Dirección
FERNANDEZ PICHEL, MARCOS (Tutoría)
Morón Reyes, Francisco José Cotutoría
FERNANDEZ PICHEL, MARCOS (Tutoría)
Morón Reyes, Francisco José Cotutoría
Tribunal
Gamallo Otero, Pablo (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
CHAVES FRAGA, DAVID (Vocal)
Gamallo Otero, Pablo (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
CHAVES FRAGA, DAVID (Vocal)
CRASHED: Sistema de Generación Aumentada de Recuperación Consistente para la Recuperación Eficaz de Documentos
Autoría
M.J.
Máster Universitario en Inteligencia Artificial
M.J.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
21.02.2025 12:30
21.02.2025 12:30
Resumen
En este trabajo, presentamos CRASHED, un sistema de Generación Mejorada de Recuperación (RAG) que aprovecha lo mejor de las bases de datos vectoriales y los grandes modelos lingüísticos para obtener respuestas correctas y contextualmente apropiadas. Nuestro sistema combina una base de datos de incrustación de documentos con un gran modelo lingüístico para producir respuestas. Mediante una búsqueda híbrida con métodos de reordenación, CRASHED selecciona los fragmentos de documentos más pertinentes y los utiliza para producir respuestas basadas en conocimientos externos. Introducimos una interfaz de agente conversacional basada en LangChain para que los usuarios puedan comunicarse con el sistema en un lenguaje fluido y natural. Nuestra evaluación cualitativa confirma que CRASHED recupera e incorpora eficazmente pasajes relevantes, produciendo respuestas precisas y contextualmente pertinentes. Este proyecto demuestra el potencial de los sistemas RAG para generar respuestas de alta calidad y allana el camino para seguir investigando y desarrollando en este campo.
En este trabajo, presentamos CRASHED, un sistema de Generación Mejorada de Recuperación (RAG) que aprovecha lo mejor de las bases de datos vectoriales y los grandes modelos lingüísticos para obtener respuestas correctas y contextualmente apropiadas. Nuestro sistema combina una base de datos de incrustación de documentos con un gran modelo lingüístico para producir respuestas. Mediante una búsqueda híbrida con métodos de reordenación, CRASHED selecciona los fragmentos de documentos más pertinentes y los utiliza para producir respuestas basadas en conocimientos externos. Introducimos una interfaz de agente conversacional basada en LangChain para que los usuarios puedan comunicarse con el sistema en un lenguaje fluido y natural. Nuestra evaluación cualitativa confirma que CRASHED recupera e incorpora eficazmente pasajes relevantes, produciendo respuestas precisas y contextualmente pertinentes. Este proyecto demuestra el potencial de los sistemas RAG para generar respuestas de alta calidad y allana el camino para seguir investigando y desarrollando en este campo.
Dirección
FERNANDEZ PICHEL, MARCOS (Tutoría)
Fontenla Seco, Yago Cotutoría
FERNANDEZ PICHEL, MARCOS (Tutoría)
Fontenla Seco, Yago Cotutoría
Tribunal
Gamallo Otero, Pablo (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
CHAVES FRAGA, DAVID (Vocal)
Gamallo Otero, Pablo (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
CHAVES FRAGA, DAVID (Vocal)
Detección de Deepfakes: Estudio comparativo de una base de datos original contra referencias del estado del arte.
Autoría
A.M.O.
Máster Universitario en Inteligencia Artificial
A.M.O.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
20.02.2025 10:00
20.02.2025 10:00
Resumen
El estudio realizado en la presente memoria encuentra su motivación en el desarrollo de un sistema basado en IA capaz de detectar vídeos generados por IA. Los modelos de IA generativa son cada vez más potentes y accesibles, es por ello que pueden suponer una amenaza hacia la población general, ya que estos vídeos tienen la capacidad de engañar a individuos y propagar desinformación. El objetivo de este estudio es desplegar una primera aproximación para combatir estas amenazas detectando si un vídeo es generado por IA o real. Comprobaremos la eficacia de nuestro modelo en distintos escenarios y extraeremos conclusiones para mejorar nuestro trabajo futuro.
El estudio realizado en la presente memoria encuentra su motivación en el desarrollo de un sistema basado en IA capaz de detectar vídeos generados por IA. Los modelos de IA generativa son cada vez más potentes y accesibles, es por ello que pueden suponer una amenaza hacia la población general, ya que estos vídeos tienen la capacidad de engañar a individuos y propagar desinformación. El objetivo de este estudio es desplegar una primera aproximación para combatir estas amenazas detectando si un vídeo es generado por IA o real. Comprobaremos la eficacia de nuestro modelo en distintos escenarios y extraeremos conclusiones para mejorar nuestro trabajo futuro.
Dirección
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Segura Muros, José Ángel Cotutoría
Román Sarmiento, Raquel Cotutoría
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Segura Muros, José Ángel Cotutoría
Román Sarmiento, Raquel Cotutoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
CELARD PEREZ, PEDRO (Vocal)
GARCIA TAHOCES, PABLO (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
CELARD PEREZ, PEDRO (Vocal)
Desarrollo de un Agente Conversacional basado en Grandes Modelos de Lenguaje (LLMs) para consultas a bases de datos en SQL
Autoría
V.I.D.L.M.O.P.
Máster Universitario en Inteligencia Artificial
V.I.D.L.M.O.P.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
20.02.2025 10:30
20.02.2025 10:30
Resumen
La creciente dependencia de la toma de decisiones basada en datos en las organizaciones modernas ha incrementado la demanda de soluciones de consulta de bases de datos intuitivas y accesibles. Sin embargo, las interacciones tradicionales basadas en SQL siguen siendo una barrera para los usuarios no técnicos, limitando su capacidad para obtener información valiosa a partir de datos estructurados. Esta tesis presenta el desarrollo de un Agente Conversacional para SQL, un sistema inteligente que utiliza Grandes Modelos de Lenguaje (LLMs) para permitir la interacción en lenguaje natural con bases de datos relacionales. El enfoque propuesto emplea AutoGen, un marco de agentes basados en LLM, para construir un sistema multiagente que interpreta, valida y ejecuta consultas SQL de manera autónoma en función de la entrada del usuario. Las principales innovaciones incluyen un Agente Planificador, que supervisa la ejecución de consultas y un Agente de Información de la Base de Datos, que mejora la comprensión del esquema. El sistema ha sido evaluado en comparación con el SQL Agent de LangChain utilizando un subconjunto del benchmark Spider, demostrando una mejora del 57% en la precisión de ejecución. Además, introduce mecanismos para gestionar la ambigüedad, corregir errores de los usuarios y refinar iterativamente las consultas para garantizar su precisión. Los resultados destacan el potencial de los agentes basados en LLM para democratizar el acceso a los datos, facilitando la consulta estructurada para usuarios sin conocimientos en SQL.
La creciente dependencia de la toma de decisiones basada en datos en las organizaciones modernas ha incrementado la demanda de soluciones de consulta de bases de datos intuitivas y accesibles. Sin embargo, las interacciones tradicionales basadas en SQL siguen siendo una barrera para los usuarios no técnicos, limitando su capacidad para obtener información valiosa a partir de datos estructurados. Esta tesis presenta el desarrollo de un Agente Conversacional para SQL, un sistema inteligente que utiliza Grandes Modelos de Lenguaje (LLMs) para permitir la interacción en lenguaje natural con bases de datos relacionales. El enfoque propuesto emplea AutoGen, un marco de agentes basados en LLM, para construir un sistema multiagente que interpreta, valida y ejecuta consultas SQL de manera autónoma en función de la entrada del usuario. Las principales innovaciones incluyen un Agente Planificador, que supervisa la ejecución de consultas y un Agente de Información de la Base de Datos, que mejora la comprensión del esquema. El sistema ha sido evaluado en comparación con el SQL Agent de LangChain utilizando un subconjunto del benchmark Spider, demostrando una mejora del 57% en la precisión de ejecución. Además, introduce mecanismos para gestionar la ambigüedad, corregir errores de los usuarios y refinar iterativamente las consultas para garantizar su precisión. Los resultados destacan el potencial de los agentes basados en LLM para democratizar el acceso a los datos, facilitando la consulta estructurada para usuarios sin conocimientos en SQL.
Dirección
FERNANDEZ PICHEL, MARCOS (Tutoría)
RAMA MANEIRO, EFREN Cotutoría
FERNANDEZ PICHEL, MARCOS (Tutoría)
RAMA MANEIRO, EFREN Cotutoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
CELARD PEREZ, PEDRO (Vocal)
GARCIA TAHOCES, PABLO (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
CELARD PEREZ, PEDRO (Vocal)
Integrando Grandes Modelos de Lenguaje con sistemas basados en reglas borrosas para generar explicaciones fiables
Autoría
P.M.P.F.
Máster Universitario en Inteligencia Artificial
P.M.P.F.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
20.02.2025 11:00
20.02.2025 11:00
Resumen
En este trabajo, hemos desarrollado y validado explicaciones en lenguaje natural fiables y basadas en lógica borrosa mediante la integración de grandes modelos de lenguaje (LLMs) con sistemas basados en reglas borrosas. Nos beneficiamos de la destreza de la lógica borrosa a la hora de lidiar con la vaguedad y la incertidumbre inherentes al lenguaje humano, y proponemos una forma eficaz de combinar la inferencia basada en reglas borrosas con las potentes capacidades de verbalización de los LLMs. Nuestro objetivo es que las explicaciones equilibren naturalidad y fidelidad a los datos subyacentes. La arquitectura de software propuesta es de código abierto, modular y fácil de transferir entre contextos y dominios de aplicación. Utilizamos el campo de la medicina para la prueba de concepto, ya que se trata de un ámbito en el que la fiabilidad es fundamental. Observamos una mejora significativa en nuestra métrica de detección de alucinaciones para las configuraciones experimentales estudiadas, lo que apunta a una mayor fidelidad; y nuestra arquitectura también produjo narrativas significativamente más compactas, evitando el habitual problema de «sobreexplicación» de los LLMs que puede dañar su naturalidad, sin pérdida de precisión predictiva.
En este trabajo, hemos desarrollado y validado explicaciones en lenguaje natural fiables y basadas en lógica borrosa mediante la integración de grandes modelos de lenguaje (LLMs) con sistemas basados en reglas borrosas. Nos beneficiamos de la destreza de la lógica borrosa a la hora de lidiar con la vaguedad y la incertidumbre inherentes al lenguaje humano, y proponemos una forma eficaz de combinar la inferencia basada en reglas borrosas con las potentes capacidades de verbalización de los LLMs. Nuestro objetivo es que las explicaciones equilibren naturalidad y fidelidad a los datos subyacentes. La arquitectura de software propuesta es de código abierto, modular y fácil de transferir entre contextos y dominios de aplicación. Utilizamos el campo de la medicina para la prueba de concepto, ya que se trata de un ámbito en el que la fiabilidad es fundamental. Observamos una mejora significativa en nuestra métrica de detección de alucinaciones para las configuraciones experimentales estudiadas, lo que apunta a una mayor fidelidad; y nuestra arquitectura también produjo narrativas significativamente más compactas, evitando el habitual problema de «sobreexplicación» de los LLMs que puede dañar su naturalidad, sin pérdida de precisión predictiva.
Dirección
ALONSO MORAL, JOSE MARIA (Tutoría)
CATALA BOLOS, ALEJANDRO Cotutoría
ALONSO MORAL, JOSE MARIA (Tutoría)
CATALA BOLOS, ALEJANDRO Cotutoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
CELARD PEREZ, PEDRO (Vocal)
GARCIA TAHOCES, PABLO (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
CELARD PEREZ, PEDRO (Vocal)
Maestría en Optimización de la Gestión de Portafolios de Proyectos
Autoría
E.P.V.
Máster Universitario en Inteligencia Artificial
E.P.V.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
20.02.2025 10:00
20.02.2025 10:00
Resumen
Este TFM tiene como objetivo desarrollar y poner en producción una herramienta mejorada de gestión de portafolios con aprendizaje automático (ML). Se trata de un trabajo realizado tanto en la Agencia de Gobierno Electrónico y Sociedad de la Información y del Conocimiento (AGESIC) como en las Naciones Unidas, en respuesta a la creciente necesidad de sistemas de apoyo a la toma de decisiones basados en ML. El principal problema identificado es la escasez de herramientas que faciliten la toma de decisiones con ML, lo que limita la eficiencia en la gestión de portafolios y la selección de proyectos. Esta debilidad afecta tanto a Uruguay como a instituciones financieras internacionales, incluidas agencias de crédito y el Banco Interamericano de Desarrollo (BID). Una gestión ineficiente del portafolio puede impactar la distribución del financiamiento, la calificación crediticia de AGESIC y la prestación de servicios en general. La metodología sigue un modelo jerárquico de inteligencia artificial que abarca el desarrollo integral de IA, la IA para la gestión de datos (DAMA), la IA para la gestión de proyectos, la ingeniería de software y TOGAF IA para la gobernanza a nivel estratégico. El conjunto de datos utilizado cuenta con 183,281 registros y 362 variables, organizadas en tres niveles para un procesamiento eficiente de la información. EDA FULL es la plataforma principal de análisis e incluye datos de fecha y hora, valores numéricos, enteros, categóricos y texto, ocupando 506.2 MB de espacio en disco. SUB EDA segmenta los datos en subconjuntos temáticos más específicos, como Riesgos, Lecciones Aprendidas, Programas, Entregables, Presupuesto, Otros Datos e Información No Relevante, con 71,383 registros en cada uno. EDA MODELS emplea técnicas estadísticas para extraer información y desarrollar modelos predictivos, incluyendo EDA Regression y Random Forest Model (37,050 registros, 16 variables), EDA Time Series Models (29,704 registros, 8 variables) y EDA Recommendation System (9,564 registros, 4 variables). Durante el análisis exploratorio de datos (EDA), se desarrollaron modelos como Regresión Logística y un modelo en conjunto con Random Forest para clasificación. Para predicciones en series temporales, se probaron y utilizaron algoritmos avanzados como Simple RNN, LSTM, GRU y Bidirectional RNN. Para el sistema de recomendación, se evaluaron varios algoritmos, incluyendo NormalPredictor, BaselineOnly y KNNWithZScore, con métricas de similitud como coseno, MSD y Pearson, además de SVD. Los resultados obtenidos validaron una precisión del 86.48% en pruebas de clasificación con Regresión Logística, un MAE de 0.0001 en la predicción de presupuesto con Prophet y un modelo de recomendación basado en SVD con un MAE de 0.7748 en pruebas. Los tres modelos superaron las pruebas de aceptación, lo que confirma que son eficaces, eficientes y confiables para mejorar la gestión de portafolios. Finalmente, clasificada como una innovación de proceso fuerte según el Manual de Oslo, esta metodología optimiza la eficiencia e introduce una nueva perspectiva en la toma de decisiones basada en IA.
Este TFM tiene como objetivo desarrollar y poner en producción una herramienta mejorada de gestión de portafolios con aprendizaje automático (ML). Se trata de un trabajo realizado tanto en la Agencia de Gobierno Electrónico y Sociedad de la Información y del Conocimiento (AGESIC) como en las Naciones Unidas, en respuesta a la creciente necesidad de sistemas de apoyo a la toma de decisiones basados en ML. El principal problema identificado es la escasez de herramientas que faciliten la toma de decisiones con ML, lo que limita la eficiencia en la gestión de portafolios y la selección de proyectos. Esta debilidad afecta tanto a Uruguay como a instituciones financieras internacionales, incluidas agencias de crédito y el Banco Interamericano de Desarrollo (BID). Una gestión ineficiente del portafolio puede impactar la distribución del financiamiento, la calificación crediticia de AGESIC y la prestación de servicios en general. La metodología sigue un modelo jerárquico de inteligencia artificial que abarca el desarrollo integral de IA, la IA para la gestión de datos (DAMA), la IA para la gestión de proyectos, la ingeniería de software y TOGAF IA para la gobernanza a nivel estratégico. El conjunto de datos utilizado cuenta con 183,281 registros y 362 variables, organizadas en tres niveles para un procesamiento eficiente de la información. EDA FULL es la plataforma principal de análisis e incluye datos de fecha y hora, valores numéricos, enteros, categóricos y texto, ocupando 506.2 MB de espacio en disco. SUB EDA segmenta los datos en subconjuntos temáticos más específicos, como Riesgos, Lecciones Aprendidas, Programas, Entregables, Presupuesto, Otros Datos e Información No Relevante, con 71,383 registros en cada uno. EDA MODELS emplea técnicas estadísticas para extraer información y desarrollar modelos predictivos, incluyendo EDA Regression y Random Forest Model (37,050 registros, 16 variables), EDA Time Series Models (29,704 registros, 8 variables) y EDA Recommendation System (9,564 registros, 4 variables). Durante el análisis exploratorio de datos (EDA), se desarrollaron modelos como Regresión Logística y un modelo en conjunto con Random Forest para clasificación. Para predicciones en series temporales, se probaron y utilizaron algoritmos avanzados como Simple RNN, LSTM, GRU y Bidirectional RNN. Para el sistema de recomendación, se evaluaron varios algoritmos, incluyendo NormalPredictor, BaselineOnly y KNNWithZScore, con métricas de similitud como coseno, MSD y Pearson, además de SVD. Los resultados obtenidos validaron una precisión del 86.48% en pruebas de clasificación con Regresión Logística, un MAE de 0.0001 en la predicción de presupuesto con Prophet y un modelo de recomendación basado en SVD con un MAE de 0.7748 en pruebas. Los tres modelos superaron las pruebas de aceptación, lo que confirma que son eficaces, eficientes y confiables para mejorar la gestión de portafolios. Finalmente, clasificada como una innovación de proceso fuerte según el Manual de Oslo, esta metodología optimiza la eficiencia e introduce una nueva perspectiva en la toma de decisiones basada en IA.
Dirección
Cotos Yáñez, José Manuel (Tutoría)
MERA PEREZ, DAVID Cotutoría
Mato Fernández, Daniel Cotutoría
Cotos Yáñez, José Manuel (Tutoría)
MERA PEREZ, DAVID Cotutoría
Mato Fernández, Daniel Cotutoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
VILA BLANCO, NICOLAS (Vocal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
VILA BLANCO, NICOLAS (Vocal)
Despliegue de Redes de Aprendizaje Profundo en el Borde mediante Técnicas de Compresión.
Autoría
M.R.R.
Máster Universitario en Inteligencia Artificial
M.R.R.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
20.02.2025 10:30
20.02.2025 10:30
Resumen
En los últimos años, los modelos de aprendizaje profundo han crecido exponencialmente en complejidad y tamaño, haciendo que su despliegue en dispositivos en el borde con recursos limitados sea un reto significativo. Este TFM/MSc explora técnicas de compresión de modelos, incluyendo la cuantización, poda y destilación del conocimiento, para optimizar las redes neuronales profundas para la computación en el borde manteniendo una alta precisión. Los métodos propuestos se aplican a un modelo ResNet-50 entrenado en el conjunto de datos CIFAR-10, evaluando su impacto en el tamaño del modelo, la velocidad de inferencia y la precisión. Los modelos optimizados se despliegan en la FPGA ZCU104 utilizando Vitis AI, demostrando la viabilidad de ejecutar modelos eficientes de aprendizaje profundo en hardware con recursos computacionales limitados. Los resultados experimentales muestran que una combinación de técnicas de compresión puede lograr una reducción del tamaño del modelo de hasta el 95%, preservando o incluso mejorando la precisión. Estos resultados ponen de relieve el potencial de la compresión de modelos para permitir la inferencia en tiempo real en dispositivos periféricos, reducir la latencia y mejorar la eficiencia energética.
En los últimos años, los modelos de aprendizaje profundo han crecido exponencialmente en complejidad y tamaño, haciendo que su despliegue en dispositivos en el borde con recursos limitados sea un reto significativo. Este TFM/MSc explora técnicas de compresión de modelos, incluyendo la cuantización, poda y destilación del conocimiento, para optimizar las redes neuronales profundas para la computación en el borde manteniendo una alta precisión. Los métodos propuestos se aplican a un modelo ResNet-50 entrenado en el conjunto de datos CIFAR-10, evaluando su impacto en el tamaño del modelo, la velocidad de inferencia y la precisión. Los modelos optimizados se despliegan en la FPGA ZCU104 utilizando Vitis AI, demostrando la viabilidad de ejecutar modelos eficientes de aprendizaje profundo en hardware con recursos computacionales limitados. Los resultados experimentales muestran que una combinación de técnicas de compresión puede lograr una reducción del tamaño del modelo de hasta el 95%, preservando o incluso mejorando la precisión. Estos resultados ponen de relieve el potencial de la compresión de modelos para permitir la inferencia en tiempo real en dispositivos periféricos, reducir la latencia y mejorar la eficiencia energética.
Dirección
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
PARDO SECO, FERNANDO RAFAEL Cotutoría
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
PARDO SECO, FERNANDO RAFAEL Cotutoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
VILA BLANCO, NICOLAS (Vocal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
VILA BLANCO, NICOLAS (Vocal)