Diseño e implementación de aplicación de gestión de actividades para Ludibot
Autoría
C.R.R.
Grao en Ingeniería Informática (2ªed)
C.R.R.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
20.02.2025 16:00
20.02.2025 16:00
Resumen
En un trabajo desarrollado por un compañero hace un par de cursos, se diseñó un skill para poder comunicarnos con el robot Ludibot de Furhat. La aplicación web consiste en un servidor al que los usuarios puedan acceder para diseñar las sesiones que quieren llevar a cabo en el ordenador. Otra opción para los usuarios de esta web será la posibilidad de lanzar las sesiones desde la propia web para así evitar problemas cargando la sesión. Finalmente, el último apartado creado en la aplicación sería el módulo de estadísticas, donde podrían ver los resultados de la ejecución de la sesión.
En un trabajo desarrollado por un compañero hace un par de cursos, se diseñó un skill para poder comunicarnos con el robot Ludibot de Furhat. La aplicación web consiste en un servidor al que los usuarios puedan acceder para diseñar las sesiones que quieren llevar a cabo en el ordenador. Otra opción para los usuarios de esta web será la posibilidad de lanzar las sesiones desde la propia web para así evitar problemas cargando la sesión. Finalmente, el último apartado creado en la aplicación sería el módulo de estadísticas, donde podrían ver los resultados de la ejecución de la sesión.
Dirección
CATALA BOLOS, ALEJANDRO (Tutoría)
CONDORI FERNANDEZ, OLINDA NELLY Cotutoría
CATALA BOLOS, ALEJANDRO (Tutoría)
CONDORI FERNANDEZ, OLINDA NELLY Cotutoría
Tribunal
CATALA BOLOS, ALEJANDRO (Tutor del alumno)
CONDORI FERNANDEZ, OLINDA NELLY (Tutor del alumno)
CATALA BOLOS, ALEJANDRO (Tutor del alumno)
CONDORI FERNANDEZ, OLINDA NELLY (Tutor del alumno)
Reconstrucción de árboles filogenéticos mediante computación cuántica
Autoría
N.F.O.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
N.F.O.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
20.02.2025 10:30
20.02.2025 10:30
Resumen
La computación cuántica es un campo de la informática que utiliza principios de la física cuántica para la resolución de problemas de manera más eficiente que la computación clásica, especialmente en áreas como la optimización. Por otro lado, la bioinformática es un campo que combina elementos de la biología y la informática para analizar grandes conjuntos de datos biológicos. Un ejemplo destacado de esta disciplina es la genómica, que incluye la generación de árboles filogenéticos, herramientas clave para entender la evolución biológica de especies. La reconstrucción de estos árboles representa un problema computacional muy complicado de resolver por su complejidad. Este trabajo explora si la computación cuántica puede ofrecer soluciones efectivas para abordar dicho problema. En este contexto, se ha estudiado el funcionamiento de la computación cuántica y de los algoritmos cuánticos de optimización, haciendo énfasis en Quantum annealing y en el algoritmo cuántico de optimización aproximada (QAOA). Basándose en estos enfoques, se ha desarrollado un algoritmo cuántico capaz de reconstruir filogenias mediante el corte de grafos. El algoritmo propuesto fue implementado y probado en hardware cuántico disponible actualmente, obteniendo resultados satisfactorios que demuestran su potencial para resolver problemas complejos en el área de la bioinformática.
La computación cuántica es un campo de la informática que utiliza principios de la física cuántica para la resolución de problemas de manera más eficiente que la computación clásica, especialmente en áreas como la optimización. Por otro lado, la bioinformática es un campo que combina elementos de la biología y la informática para analizar grandes conjuntos de datos biológicos. Un ejemplo destacado de esta disciplina es la genómica, que incluye la generación de árboles filogenéticos, herramientas clave para entender la evolución biológica de especies. La reconstrucción de estos árboles representa un problema computacional muy complicado de resolver por su complejidad. Este trabajo explora si la computación cuántica puede ofrecer soluciones efectivas para abordar dicho problema. En este contexto, se ha estudiado el funcionamiento de la computación cuántica y de los algoritmos cuánticos de optimización, haciendo énfasis en Quantum annealing y en el algoritmo cuántico de optimización aproximada (QAOA). Basándose en estos enfoques, se ha desarrollado un algoritmo cuántico capaz de reconstruir filogenias mediante el corte de grafos. El algoritmo propuesto fue implementado y probado en hardware cuántico disponible actualmente, obteniendo resultados satisfactorios que demuestran su potencial para resolver problemas complejos en el área de la bioinformática.
Dirección
Fernández Pena, Anselmo Tomás (Tutoría)
PICHEL CAMPOS, JUAN CARLOS Cotutoría
Fernández Pena, Anselmo Tomás (Tutoría)
PICHEL CAMPOS, JUAN CARLOS Cotutoría
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
Implementación y Optimización de un Entorno de Virtualización con Proxmox VE para la Gestión Eficiente de Recursos en un Centro de Datos
Autoría
D.C.P.
Grao en Ingeniería Informática (2ªed)
D.C.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
20.02.2025 12:45
20.02.2025 12:45
Resumen
Este trabajo busca diseñar, implementar y optimizar un entorno de virtualización para una pequeña organización con el fin de mejorar la eficiencia de gestión de los recursos computacionales, de almacenamiento y de red en su centro de datos, garantizando un rendimiento estable y un uso adecuado del hardware disponible. La parte principal del trabajo se centra en lograr esto con Proxmox VE, configurando un clúster de tres nodos, con un sistema de almacenamiento compartido y mecanismos de alta disponibilidad y backup. Se demuestra que Proxmox VE es una solución eficiente para entornos con recursos limitados, proporcionando herramientas avanzadas para la administración centralizada y la optimización del uso de hardware. Sin embargo, también se identificaron limitaciones como la dependencia del servidor NFS, que podría generar cuellos de botella. Finalmente, se proponen ampliaciones que incluyen la migración a un sistema de almacenamiento distribuido y la incorporación de herramientas de automatización y monitorización. Además, si el presupuesto lo permite, otra vía de mejora podría ser la evaluación de entornos de virtualización alternativos para mejorar el rendimiento y la escalabilidad en futuras implementaciones.
Este trabajo busca diseñar, implementar y optimizar un entorno de virtualización para una pequeña organización con el fin de mejorar la eficiencia de gestión de los recursos computacionales, de almacenamiento y de red en su centro de datos, garantizando un rendimiento estable y un uso adecuado del hardware disponible. La parte principal del trabajo se centra en lograr esto con Proxmox VE, configurando un clúster de tres nodos, con un sistema de almacenamiento compartido y mecanismos de alta disponibilidad y backup. Se demuestra que Proxmox VE es una solución eficiente para entornos con recursos limitados, proporcionando herramientas avanzadas para la administración centralizada y la optimización del uso de hardware. Sin embargo, también se identificaron limitaciones como la dependencia del servidor NFS, que podría generar cuellos de botella. Finalmente, se proponen ampliaciones que incluyen la migración a un sistema de almacenamiento distribuido y la incorporación de herramientas de automatización y monitorización. Además, si el presupuesto lo permite, otra vía de mejora podría ser la evaluación de entornos de virtualización alternativos para mejorar el rendimiento y la escalabilidad en futuras implementaciones.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Álvarez Calvo, Francisco Javier Cotutoría
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Álvarez Calvo, Francisco Javier Cotutoría
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Tecnologías de búsqueda y análisis longitudinal sobre letras de canciones: el caso de la discografía de Bruce Springsteen
Autoría
M.B.C.
Grao en Ingeniería Informática (2ªed)
M.B.C.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
20.02.2025 12:15
20.02.2025 12:15
Resumen
Las tecnologías de procesamiento de lenguaje natural (PLN) han experimentado una gran evolución en los últimos años, impulsada por avances en arquitecturas de modelos como Transformers y el acceso a grandes volúmenes de datos. Estas técnicas dan lugar a modelos capaces de entender, interpretar y generar texto similar al humano, habilitando aplicaciones como el análisis de emociones, asistentes conversacionales avanzados, sistemas de recomendación personalizados y generación automática de contenido. En este trabajo se utilizan diferentes modelos de procesamiento de textos y recuperación de información para poder realizar un análisis exploratorio sobre letras de canciones y extraer conclusiones sobre la discografía de Bruce Springsteen. Es interesante realizar este análisis por la extensa carrera musical que tiene y por la complejidad emocional de su persona: el propio artista ha comentado en diversos medios que sufrió diferentes etapas depresivas a lo largo de su vida y ha intentado reflejar siempre su estado de ánimo en su obra. Cabe señalar que este tipo de estudios son extrapolables a otros artistas, pero se escogió este por la gran cantidad de datos que se pueden recoger y por la posibilidad de contrastar los resultados obtenidos en las diferentes pruebas con la información real que él mismo nos ofrece. El desarrollo de este TFG implica una serie de retos tecnológicos, relacionados primero con la extracción automática del corpus de canciones (para lo cual se recurrió a métodos de rastreo enfocado y extracción de información), el desarrollo de tecnologías de búsqueda (de modo que un usuario pueda realizar consultas en texto libre sobre las letras de canciones) y seguidamente con el análisis avanzado del lenguaje (para detectar por ejemplo emociones u otros aspectos psicológicos en las canciones). En primer lugar se generó un indexador que permite realizar búsquedas de canciones por títulos o letras y que devuelve en un tiempo razonable los resultados más relevantes. A continuación, se aplicaron diferentes variantes del modelo estado del conocimiento BERT para analizar y explorar la discografía. Esto incluye la posibilidad de generar resúmenes de canciones, nubes de tópicos, analizar emociones y obtener estimaciones de signos de trastornos, como la depresión. Estas técnicas fueron implementadas en módulos separados y se habilitó una interacción mediante widgets para que el usuario pueda filtrar a su gusto de manera sencilla y realizar las visualizaciones que considere relevante para lo que desee investigar. La tecnología desarrollada, además de explorar el corpus de canciones y realizar búsquedas personalizadas, permite por ejemplo comprobar si existe correlación entre las diferentes etapas emocionales del artista y su estilo, tanto de letra (tópicos, emociones, etc.) como de estructura (ritmo y tonalidad), de su música en ese momento. Basándonos en los resultados que muestra el software desarrollado y la teoría musical y comparando las diferentes etapas marcadas por el músico se puede observar que existe cierta correlación, ya que en algunos casos la diferencia entre las canciones de una época depresiva y una época neutral o alegre es bastante notoria.
Las tecnologías de procesamiento de lenguaje natural (PLN) han experimentado una gran evolución en los últimos años, impulsada por avances en arquitecturas de modelos como Transformers y el acceso a grandes volúmenes de datos. Estas técnicas dan lugar a modelos capaces de entender, interpretar y generar texto similar al humano, habilitando aplicaciones como el análisis de emociones, asistentes conversacionales avanzados, sistemas de recomendación personalizados y generación automática de contenido. En este trabajo se utilizan diferentes modelos de procesamiento de textos y recuperación de información para poder realizar un análisis exploratorio sobre letras de canciones y extraer conclusiones sobre la discografía de Bruce Springsteen. Es interesante realizar este análisis por la extensa carrera musical que tiene y por la complejidad emocional de su persona: el propio artista ha comentado en diversos medios que sufrió diferentes etapas depresivas a lo largo de su vida y ha intentado reflejar siempre su estado de ánimo en su obra. Cabe señalar que este tipo de estudios son extrapolables a otros artistas, pero se escogió este por la gran cantidad de datos que se pueden recoger y por la posibilidad de contrastar los resultados obtenidos en las diferentes pruebas con la información real que él mismo nos ofrece. El desarrollo de este TFG implica una serie de retos tecnológicos, relacionados primero con la extracción automática del corpus de canciones (para lo cual se recurrió a métodos de rastreo enfocado y extracción de información), el desarrollo de tecnologías de búsqueda (de modo que un usuario pueda realizar consultas en texto libre sobre las letras de canciones) y seguidamente con el análisis avanzado del lenguaje (para detectar por ejemplo emociones u otros aspectos psicológicos en las canciones). En primer lugar se generó un indexador que permite realizar búsquedas de canciones por títulos o letras y que devuelve en un tiempo razonable los resultados más relevantes. A continuación, se aplicaron diferentes variantes del modelo estado del conocimiento BERT para analizar y explorar la discografía. Esto incluye la posibilidad de generar resúmenes de canciones, nubes de tópicos, analizar emociones y obtener estimaciones de signos de trastornos, como la depresión. Estas técnicas fueron implementadas en módulos separados y se habilitó una interacción mediante widgets para que el usuario pueda filtrar a su gusto de manera sencilla y realizar las visualizaciones que considere relevante para lo que desee investigar. La tecnología desarrollada, además de explorar el corpus de canciones y realizar búsquedas personalizadas, permite por ejemplo comprobar si existe correlación entre las diferentes etapas emocionales del artista y su estilo, tanto de letra (tópicos, emociones, etc.) como de estructura (ritmo y tonalidad), de su música en ese momento. Basándonos en los resultados que muestra el software desarrollado y la teoría musical y comparando las diferentes etapas marcadas por el músico se puede observar que existe cierta correlación, ya que en algunos casos la diferencia entre las canciones de una época depresiva y una época neutral o alegre es bastante notoria.
Dirección
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Metaheurísticas del TSP: Un recorrido didáctico y computacional.
Autoría
E.F.D.S.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
E.F.D.S.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
13.02.2025 12:45
13.02.2025 12:45
Resumen
Durante la historia de la computación, los problemas de rutas han suscitado un gran interés debido a sus múltiples aplicaciones en diferentes campos, como son la planificación y la logística. Este trabajo se centra en el problema del viajante de comercio o TSP. En concreto, en las técnicas para resolverlo de forma aproximada en un tiempo polinómico, las metaheurísticas. El objetivo principal de este estudio es proporcionar una guía para comprender cuatro de las más importantes, tanto en el ámbito teórico como en el computacional. Para ello, se realizó una revisión bibliográfica, encontrando información relevante de ellas y sintetizándola. Estas son: la búsqueda tabú, el templado simulado, el algoritmo genético y la optimización de la colonia de hormigas. Para la parte computacional, se realizaron implementaciones en R de todas las metaheurísticas y se evaluaron con distintas instancias de la librería TSPLIB. Como resultado, se obtuvo que no hay una metaheurística mejor que el resto en todos los aspectos. La búsqueda tabú y la optimización de la colonia de hormigas obtienen resultados muy prometedores en términos de distancia al coste óptimo; sin embargo, son temporalmente más costosas que las otras dos. El templado simulado obtiene unos resultados algo peores que los anteriores, pero de forma muy rápida. Por último, el algoritmo genético obtiene muy malos resultados en un tiempo, relativamente, aceptable. En conclusión, este trabajo sirve como guía a las personas que quieran comprender estos conceptos.
Durante la historia de la computación, los problemas de rutas han suscitado un gran interés debido a sus múltiples aplicaciones en diferentes campos, como son la planificación y la logística. Este trabajo se centra en el problema del viajante de comercio o TSP. En concreto, en las técnicas para resolverlo de forma aproximada en un tiempo polinómico, las metaheurísticas. El objetivo principal de este estudio es proporcionar una guía para comprender cuatro de las más importantes, tanto en el ámbito teórico como en el computacional. Para ello, se realizó una revisión bibliográfica, encontrando información relevante de ellas y sintetizándola. Estas son: la búsqueda tabú, el templado simulado, el algoritmo genético y la optimización de la colonia de hormigas. Para la parte computacional, se realizaron implementaciones en R de todas las metaheurísticas y se evaluaron con distintas instancias de la librería TSPLIB. Como resultado, se obtuvo que no hay una metaheurística mejor que el resto en todos los aspectos. La búsqueda tabú y la optimización de la colonia de hormigas obtienen resultados muy prometedores en términos de distancia al coste óptimo; sin embargo, son temporalmente más costosas que las otras dos. El templado simulado obtiene unos resultados algo peores que los anteriores, pero de forma muy rápida. Por último, el algoritmo genético obtiene muy malos resultados en un tiempo, relativamente, aceptable. En conclusión, este trabajo sirve como guía a las personas que quieran comprender estos conceptos.
Dirección
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
Tribunal
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vocal)
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vocal)
Estudio y aplicación de AWS Rekognition para el reconocimiento automático de etiquetas de ropa en imágenes de usuario.
Autoría
E.F.D.S.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
E.F.D.S.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
20.02.2025 10:00
20.02.2025 10:00
Resumen
En la actualidad existen múltiples herramientas para realizar procesos de clasificación de imágenes, tales como las redes neuronales convolucionales y los transformers. Sin embargo, la marca Zara continúa realizando el etiquetado de manera manual, lo que deriva en un conjunto de etiquetas inexactas. Por esta razón, en este trabajo se explora la implementación de métodos automatizados que mejoren los resultados obtenidos de forma manual. El propósito de esta investigación es evaluar y analizar la eficacia del servicio de AWS Rekognition Custom Labels para etiquetar prendas de vestir. La estrategia adoptada pretende identificar los límites del servicio para la referida tarea a través de un análisis de la viabilidad del conjunto de datos origen. El desarrollo del proyecto comienza con un análisis preliminar del conjunto de datos para determinar su idoneidad para el entrenamiento de modelos. Posteriormente, se realiza un examen de las restricciones del servicio, considerando cinco variables principales: el número total de imágenes, la interrelación entre las etiquetas, el tipo de etiqueta, la cantidad de imágenes disponibles para cada etiqueta y la influencia de cada etiqueta sobre las demás. Para lograrlo, se utilizarán varios recursos como el propio servicio, un conjunto de datos inicial y una API REST desarrollada para este proyecto. Entre los principales hallazgos se destacan la baja relevancia del número total de imágenes, así como las limitaciones asociadas al tipo de etiqueta y la importancia de que las etiquetas no estén excesivamente relacionadas.
En la actualidad existen múltiples herramientas para realizar procesos de clasificación de imágenes, tales como las redes neuronales convolucionales y los transformers. Sin embargo, la marca Zara continúa realizando el etiquetado de manera manual, lo que deriva en un conjunto de etiquetas inexactas. Por esta razón, en este trabajo se explora la implementación de métodos automatizados que mejoren los resultados obtenidos de forma manual. El propósito de esta investigación es evaluar y analizar la eficacia del servicio de AWS Rekognition Custom Labels para etiquetar prendas de vestir. La estrategia adoptada pretende identificar los límites del servicio para la referida tarea a través de un análisis de la viabilidad del conjunto de datos origen. El desarrollo del proyecto comienza con un análisis preliminar del conjunto de datos para determinar su idoneidad para el entrenamiento de modelos. Posteriormente, se realiza un examen de las restricciones del servicio, considerando cinco variables principales: el número total de imágenes, la interrelación entre las etiquetas, el tipo de etiqueta, la cantidad de imágenes disponibles para cada etiqueta y la influencia de cada etiqueta sobre las demás. Para lograrlo, se utilizarán varios recursos como el propio servicio, un conjunto de datos inicial y una API REST desarrollada para este proyecto. Entre los principales hallazgos se destacan la baja relevancia del número total de imágenes, así como las limitaciones asociadas al tipo de etiqueta y la importancia de que las etiquetas no estén excesivamente relacionadas.
Dirección
CARREIRA NOUCHE, MARIA JOSE (Tutoría)
Rodríguez Díez, Helio Cotutoría
CARREIRA NOUCHE, MARIA JOSE (Tutoría)
Rodríguez Díez, Helio Cotutoría
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
Segmentación semántica eficiente de imágenes de cobertura terrestre mediante arquitectura codificador-decodificador
Autoría
I.L.C.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
I.L.C.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
20.02.2025 11:30
20.02.2025 11:30
Resumen
En el área del sensado remoto, existe gran interés en recopilar información de cobertura terrestre para identificar y clasificar los diferentes tipos de superficies presentes en el suelo, como áreas con vegetación, cuerpos de agua, suelos urbanos, pastizales, bosques o áreas agrícolas, entre otros. Por otra parte, la segmentación semántica de imágenes permite asignar una etiqueta a cada píxel de la imagen, clasificándolos en diferentes categorías o clases específicas, lo que facilita la interpretación y el análisis de imágenes satelitales o aéreas. El uso de técnicas de aprendizaje profundo ha demostrado ser eficaz en el ámbito de la visión por computador, concretamente en las tareas de segmentación semántica. No obstante, estos modelos son muy costosos computacionalmente, y suelen requerir el uso de hardware especializado y técnicas de optimización para mejorar la eficiencia y viabilidad del entrenamiento y la inferencia. En este Trabajo de Fin de Grado se persigue probar diferentes modelos con arquitectura codificador-decodificador, tratando de mejorar la eficiencia y viabilidad de los entrenamientos incluso con grandes cantidades de datos. De las técnicas de paralelismo existentes para entrenamientos multiGPU, se usará el paralelismo de datos, seleccionando un módulo de PyTorch que lo implemente de manera eficiente. Además, usando precisión mixta en punto flotante de 16 bits se consigue reducir el uso de memoria y aprovechar mejor el hardware de las GPUs, realizando el entrenamiento en la mitad de tiempo sin que la calidad de la segmentación se vea afectada.
En el área del sensado remoto, existe gran interés en recopilar información de cobertura terrestre para identificar y clasificar los diferentes tipos de superficies presentes en el suelo, como áreas con vegetación, cuerpos de agua, suelos urbanos, pastizales, bosques o áreas agrícolas, entre otros. Por otra parte, la segmentación semántica de imágenes permite asignar una etiqueta a cada píxel de la imagen, clasificándolos en diferentes categorías o clases específicas, lo que facilita la interpretación y el análisis de imágenes satelitales o aéreas. El uso de técnicas de aprendizaje profundo ha demostrado ser eficaz en el ámbito de la visión por computador, concretamente en las tareas de segmentación semántica. No obstante, estos modelos son muy costosos computacionalmente, y suelen requerir el uso de hardware especializado y técnicas de optimización para mejorar la eficiencia y viabilidad del entrenamiento y la inferencia. En este Trabajo de Fin de Grado se persigue probar diferentes modelos con arquitectura codificador-decodificador, tratando de mejorar la eficiencia y viabilidad de los entrenamientos incluso con grandes cantidades de datos. De las técnicas de paralelismo existentes para entrenamientos multiGPU, se usará el paralelismo de datos, seleccionando un módulo de PyTorch que lo implemente de manera eficiente. Además, usando precisión mixta en punto flotante de 16 bits se consigue reducir el uso de memoria y aprovechar mejor el hardware de las GPUs, realizando el entrenamiento en la mitad de tiempo sin que la calidad de la segmentación se vea afectada.
Dirección
Argüello Pedreira, Francisco Santiago (Tutoría)
Blanco Heras, Dora Cotutoría
Argüello Pedreira, Francisco Santiago (Tutoría)
Blanco Heras, Dora Cotutoría
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
Indexado semántico de grano fino de textos biomédicos con modelos linguístico
Autoría
M.G.L.
Grado en Ingeniería Informática
M.G.L.
Grado en Ingeniería Informática
Fecha de la defensa
20.02.2025 17:00
20.02.2025 17:00
Resumen
Este Traballo Fin de Grao (TFG) aborda a indexación semántica de textos biomédicos mediante o uso de grandes modelos lingüísticos (LLM), co obxectivo de mellorar o acceso á información en biomedicina mediante a asignación automatizada de descritores MeSH. O método proposto consta de varias etapas. En primeiro lugar, preprocesa a ontoloxía MeSH obtida a través de BioPortal. Os resumos biomédicos previamente indexados con etiquetas de gran groso son entón seleccionados para un maior refinamento semántico. A metodoloxía emprega unha estratexia de aviso cero co modelo LLaMa3, desenvolvendo e optimizando diferentes configuracións de avisos para mellorar a clasificación. A combinación de conxunto das estratexias máis eficaces permitiu optimizar significativamente o rendemento do sistema. Finalmente, o modelo avalíase mediante métricas estandarizadas (precisión, recordación e medida F) para analizar o seu rendemento e determinar a súa viabilidade en tarefas de indexación biomédica. Os resultados mostran que LLaMa3 supera os métodos tradicionais débilmente supervisados en canto a precisión, lembranza e medida F, consolidándose como unha alternativa eficaz para a indexación biomédica. Non obstante, seguen existindo desafíos en termos de eficiencia computacional e escalabilidade, especialmente para a implementación en grandes volumes de datos. A análise das etiquetas asignadas permitiunos identificar patróns de rendemento e definir estratexias para mellorar a calidade da indexación semántica. Para abordar estes desafíos, explorase a busca semántica mediante bases de datos vectoriais como unha posible estratexia de optimización computacional. Non obstante, os resultados obtidos non alcanzaron a calidade esperada en termos de indexación, o que suxire a necesidade de máis axustes na configuración dos limiares e na representación do contexto semántico. En conclusión, este traballo valida o potencial dos modelos de linguaxe xenerativa na indexación biomédica, destacando a importancia de optimizar o seu rendemento e escalabilidade para a súa aplicación en grandes volumes de datos. Estes achados sentan as bases para futuras investigacións dirixidas a mellorar a eficiencia e precisión dos sistemas de indexación semántica en biomedicina.
Este Traballo Fin de Grao (TFG) aborda a indexación semántica de textos biomédicos mediante o uso de grandes modelos lingüísticos (LLM), co obxectivo de mellorar o acceso á información en biomedicina mediante a asignación automatizada de descritores MeSH. O método proposto consta de varias etapas. En primeiro lugar, preprocesa a ontoloxía MeSH obtida a través de BioPortal. Os resumos biomédicos previamente indexados con etiquetas de gran groso son entón seleccionados para un maior refinamento semántico. A metodoloxía emprega unha estratexia de aviso cero co modelo LLaMa3, desenvolvendo e optimizando diferentes configuracións de avisos para mellorar a clasificación. A combinación de conxunto das estratexias máis eficaces permitiu optimizar significativamente o rendemento do sistema. Finalmente, o modelo avalíase mediante métricas estandarizadas (precisión, recordación e medida F) para analizar o seu rendemento e determinar a súa viabilidade en tarefas de indexación biomédica. Os resultados mostran que LLaMa3 supera os métodos tradicionais débilmente supervisados en canto a precisión, lembranza e medida F, consolidándose como unha alternativa eficaz para a indexación biomédica. Non obstante, seguen existindo desafíos en termos de eficiencia computacional e escalabilidade, especialmente para a implementación en grandes volumes de datos. A análise das etiquetas asignadas permitiunos identificar patróns de rendemento e definir estratexias para mellorar a calidade da indexación semántica. Para abordar estes desafíos, explorase a busca semántica mediante bases de datos vectoriais como unha posible estratexia de optimización computacional. Non obstante, os resultados obtidos non alcanzaron a calidade esperada en termos de indexación, o que suxire a necesidade de máis axustes na configuración dos limiares e na representación do contexto semántico. En conclusión, este traballo valida o potencial dos modelos de linguaxe xenerativa na indexación biomédica, destacando a importancia de optimizar o seu rendemento e escalabilidade para a súa aplicación en grandes volumes de datos. Estes achados sentan as bases para futuras investigacións dirixidas a mellorar a eficiencia e precisión dos sistemas de indexación semántica en biomedicina.
Dirección
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Tutor del alumno)
TABOADA IGLESIAS, MARÍA JESÚS (Tutor del alumno)
Planta de producción de ácido fórmico a partir de metanol y monóxido de carbono
Autoría
P.C.L.
Grado en Ingeniería Química
P.C.L.
Grado en Ingeniería Química
Fecha de la defensa
10.02.2025 09:30
10.02.2025 09:30
Resumen
El proyecto consiste en el diseño de una planta de produccion de 10.000 t/año de acido formico en dos etapas. La primera reaccion consiste en la carbonilacion de monoxido de carbono y metanol para dar lugar a formiato de metilo. Ese compuesto se hidroliza posteriormente en un segundo reactor produciendose el acido formico con un 85% de pureza. La encargada de realizar el diseño del reactor de hidrolisis del formiato R-202 en la Seccion 200 es Paula Campo Lopez. Por otra parte, el alumno Alejandro de Prado Gonzalez es el responsable del diseño de la columna de destilacion T-302 en la Seccion 300.
El proyecto consiste en el diseño de una planta de produccion de 10.000 t/año de acido formico en dos etapas. La primera reaccion consiste en la carbonilacion de monoxido de carbono y metanol para dar lugar a formiato de metilo. Ese compuesto se hidroliza posteriormente en un segundo reactor produciendose el acido formico con un 85% de pureza. La encargada de realizar el diseño del reactor de hidrolisis del formiato R-202 en la Seccion 200 es Paula Campo Lopez. Por otra parte, el alumno Alejandro de Prado Gonzalez es el responsable del diseño de la columna de destilacion T-302 en la Seccion 300.
Dirección
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vocal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vocal)
JSONSchema2SHACL: Extracción y traducción de restricciones para grafos de conocimiento.
Autoría
O.S.M.
Grao en Ingeniería Informática (2ªed)
O.S.M.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
21.02.2025 10:00
21.02.2025 10:00
Resumen
El trabajo de fin de grado consiste en el desarrollo de una librería en Python que permita la extracción de restricciones sobre datos en JSON a partir de un esquema dado en JSONSchema (https://json- schema.org/). Una vez identificadas esas restricciones se deberán traducir a SHACL Shapes (https://www.w3.org/TR/shacl/) para la validación de grafos de conocimiento construidos a partir de datos de entrada en JSON. Todo el desarrollo será acompañado de un conjunto de pruebas unitarias con el fin de mantener una cobertura del código superior al 80%. Las pruebas se integrarán en el sistema de CI/CD del repositorio público de la herramienta y la herramienta estará disponible en PyPI. El desarrollo formará parte de un sistema más global capaz de extraer y combinar SHACL shapes de diversas fuentes, como XSD, CSVW, OWL o RDB, ayudando a los ingenieros del conocimiento a reducir el trabajo manual en la generación de estas restricciones.
El trabajo de fin de grado consiste en el desarrollo de una librería en Python que permita la extracción de restricciones sobre datos en JSON a partir de un esquema dado en JSONSchema (https://json- schema.org/). Una vez identificadas esas restricciones se deberán traducir a SHACL Shapes (https://www.w3.org/TR/shacl/) para la validación de grafos de conocimiento construidos a partir de datos de entrada en JSON. Todo el desarrollo será acompañado de un conjunto de pruebas unitarias con el fin de mantener una cobertura del código superior al 80%. Las pruebas se integrarán en el sistema de CI/CD del repositorio público de la herramienta y la herramienta estará disponible en PyPI. El desarrollo formará parte de un sistema más global capaz de extraer y combinar SHACL shapes de diversas fuentes, como XSD, CSVW, OWL o RDB, ayudando a los ingenieros del conocimiento a reducir el trabajo manual en la generación de estas restricciones.
Dirección
CHAVES FRAGA, DAVID (Tutoría)
CHAVES FRAGA, DAVID (Tutoría)
Tribunal
CHAVES FRAGA, DAVID (Tutor del alumno)
CHAVES FRAGA, DAVID (Tutor del alumno)
Asistente web para la automatización de anotación de imagen médica de ámbito hepático
Autoría
R.O.F.
Grao en Ingeniería Informática (2ªed)
R.O.F.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
20.02.2025 12:00
20.02.2025 12:00
Resumen
Este trabajo de fin de grado se enmarca en el proyecto REMOVIRT H3D, el cual tiene como objetivo que, mediante el uso de técnicas de inteligencia artificial, se pueda realizar una representación tridimensional del hígado de un paciente para que el cirujano pueda llevar a cabo una planificación quirúrgica detallada. Esta primera parte del proyecto se centra en crear una base de datos informada con la que adestrar nuestra red neuronal. El principal objetivo es desarrollar una aplicación web que permita anotar imágenes de TC o RM y crear un asistente automático que, empleando una red neuronal preadestrada, delimite la región de interés y proponga una anotación inicial del hígado. Para lograrlo, primero se llevó a cabo una investigación para comprender los estándares de representación médica, centrándonos especialmente en DICOM, así como las tecnologías necesarias para desarrollar el trabajo (Cornerstone.js, Vue.js). Posteriormente, diseñamos e implementamos una base de datos que permite almacenar las imágenes médicas y las anotaciones realizadas sobre estas, asegurando también la seguridad y trazabilidad de la información, aspectos fundamentales para la aplicación. Una vez creada la infraestructura de datos, se desarrolló una aplicación web interactiva que permite la anotación manual de las imágenes por parte de los usuarios. Esta herramienta integra funcionalidades avanzadas, como la visualización de las 3 vistas del hígado y la gestión de diferentes versiones de las anotaciones. El siguiente paso fue la integración con la red neuronal, la cual delimita las regiones de interés y propone anotaciones iniciales que, posteriormente, deben ser revisadas y modificadas por los especialistas. Entre los objetivos futuros destacan el reentrenamiento continuo de la red neuronal utilizando datos reales recopilados en la plataforma, el despliegue de los distintos componentes en Dockers y la automatización de las comprobaciones de trazabilidad de la información. En conjunto, este trabajo busca sentar las bases para la implementación de un sistema avanzado y accesible que contribuya a la mejora del diagnóstico y tratamiento del cáncer hepático, reduciendo los tiempos y costos asociados a las intervenciones quirúrgicas, al mismo tiempo que potencia la precisión y eficacia de los procedimientos médicos.
Este trabajo de fin de grado se enmarca en el proyecto REMOVIRT H3D, el cual tiene como objetivo que, mediante el uso de técnicas de inteligencia artificial, se pueda realizar una representación tridimensional del hígado de un paciente para que el cirujano pueda llevar a cabo una planificación quirúrgica detallada. Esta primera parte del proyecto se centra en crear una base de datos informada con la que adestrar nuestra red neuronal. El principal objetivo es desarrollar una aplicación web que permita anotar imágenes de TC o RM y crear un asistente automático que, empleando una red neuronal preadestrada, delimite la región de interés y proponga una anotación inicial del hígado. Para lograrlo, primero se llevó a cabo una investigación para comprender los estándares de representación médica, centrándonos especialmente en DICOM, así como las tecnologías necesarias para desarrollar el trabajo (Cornerstone.js, Vue.js). Posteriormente, diseñamos e implementamos una base de datos que permite almacenar las imágenes médicas y las anotaciones realizadas sobre estas, asegurando también la seguridad y trazabilidad de la información, aspectos fundamentales para la aplicación. Una vez creada la infraestructura de datos, se desarrolló una aplicación web interactiva que permite la anotación manual de las imágenes por parte de los usuarios. Esta herramienta integra funcionalidades avanzadas, como la visualización de las 3 vistas del hígado y la gestión de diferentes versiones de las anotaciones. El siguiente paso fue la integración con la red neuronal, la cual delimita las regiones de interés y propone anotaciones iniciales que, posteriormente, deben ser revisadas y modificadas por los especialistas. Entre los objetivos futuros destacan el reentrenamiento continuo de la red neuronal utilizando datos reales recopilados en la plataforma, el despliegue de los distintos componentes en Dockers y la automatización de las comprobaciones de trazabilidad de la información. En conjunto, este trabajo busca sentar las bases para la implementación de un sistema avanzado y accesible que contribuya a la mejora del diagnóstico y tratamiento del cáncer hepático, reduciendo los tiempos y costos asociados a las intervenciones quirúrgicas, al mismo tiempo que potencia la precisión y eficacia de los procedimientos médicos.
Dirección
COMESAÑA FIGUEROA, ENRIQUE (Tutoría)
COMESAÑA FIGUEROA, ENRIQUE (Tutoría)
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
Diseño de una instalación de captura de CO2 asociado a un ciclo de recuperación de Ca(OH)2
Autoría
M.C.D.
Grado en Ingeniería Química
M.C.D.
Grado en Ingeniería Química
Fecha de la defensa
10.02.2025 10:10
10.02.2025 10:10
Resumen
El presente proyecto tiene como objetivo el diseño de una instalación de captura de CO2 asociado a un ciclo de recuperación de Ca(OH)2. La planta localizada en la provincia de A Coruña, concretamente en el polígono industrial de Curtis-Teixeiro, tendrá una capacidad de 1Mt/año de CO2 con una pureza del 97,12% y operará en régimen continuo 330 días al año y 24 horas al día. En este proceso, se lleva a cabo la captura del CO2 directamente de la atmósfera y, paralelamente, también se captura el CO2 de los gases de combustión generados en la planta para satisfacer las necesidades energéticas de esta. Para eso, se emplea la absorción química mediante la técnica del ciclo de carbonatación-calcinación. La planta consta de cuatro secciones principales: absorción, reacción, calcinación e hidratación. Paula Fariña diseñará el absorbedor A-101 de la sección de absorción y María Chao diseñará el reactor R-201 de la sección de reacción.
El presente proyecto tiene como objetivo el diseño de una instalación de captura de CO2 asociado a un ciclo de recuperación de Ca(OH)2. La planta localizada en la provincia de A Coruña, concretamente en el polígono industrial de Curtis-Teixeiro, tendrá una capacidad de 1Mt/año de CO2 con una pureza del 97,12% y operará en régimen continuo 330 días al año y 24 horas al día. En este proceso, se lleva a cabo la captura del CO2 directamente de la atmósfera y, paralelamente, también se captura el CO2 de los gases de combustión generados en la planta para satisfacer las necesidades energéticas de esta. Para eso, se emplea la absorción química mediante la técnica del ciclo de carbonatación-calcinación. La planta consta de cuatro secciones principales: absorción, reacción, calcinación e hidratación. Paula Fariña diseñará el absorbedor A-101 de la sección de absorción y María Chao diseñará el reactor R-201 de la sección de reacción.
Dirección
BELLO BUGALLO, PASTORA MARIA (Tutoría)
BELLO BUGALLO, PASTORA MARIA (Tutoría)
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vocal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vocal)
Yatter 2.0: Soporte para la traducción de reglas declarativas entre YARRRML y RML
Autoría
R.B.V.
Grao en Ingeniería Informática (2ªed)
R.B.V.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
21.02.2025 10:30
21.02.2025 10:30
Resumen
Este proyecto cubre una mejora del código y una ampliación de las funcionalidades de la herramienta Yatter. Esta aplicación facilita la generación de mapeos RML hacia contenido RDF, utilizados en proyectos relacionados con la inteligencia artificial y la web semántica, empleando YARRRML, un lenguaje diseñado para crear mapeos en un formato más comprensible para los desarrolladores. Las mejoras implementadas optimizan el rendimiento, hacen el código más legible y modular, y amplían su capacidad para gestionar datos y abarcar mapeos más complejos y diversos.
Este proyecto cubre una mejora del código y una ampliación de las funcionalidades de la herramienta Yatter. Esta aplicación facilita la generación de mapeos RML hacia contenido RDF, utilizados en proyectos relacionados con la inteligencia artificial y la web semántica, empleando YARRRML, un lenguaje diseñado para crear mapeos en un formato más comprensible para los desarrolladores. Las mejoras implementadas optimizan el rendimiento, hacen el código más legible y modular, y amplían su capacidad para gestionar datos y abarcar mapeos más complejos y diversos.
Dirección
CHAVES FRAGA, DAVID (Tutoría)
CHAVES FRAGA, DAVID (Tutoría)
Tribunal
CHAVES FRAGA, DAVID (Tutor del alumno)
CHAVES FRAGA, DAVID (Tutor del alumno)
Desarrollo de una herramienta de profiling y análisis de aplicaciones Big Data en tiempo real
Autoría
A.B.P.
Grao en Ingeniería Informática (2ªed)
A.B.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
20.02.2025 11:45
20.02.2025 11:45
Resumen
Con el avance exponencial de la tecnología en la actualidad, cada vez se producen y manejan cantidades cada vez más grandes de datos. Para poder lidiar con esta enorme cantidad de datos, se desarrollaron con los años diversas herramientas en el ámbito Big Data. Una de las técnicas de mayor interés es la Computación de Altas Prestaciones, ya que esta permite un uso eficiente de los recursos disponibles en los clústeres de computación con el objetivo de acelerar el proceso y análisis de grandes cantidades de datos. El framework IgnisHPC, combina tareas HPC y Big Data, permitiendo el desarrollo de aplicaciones multilenguaje en las cuales se paraleliza el procesamiento. Otros frameworks Big Data como Spark y Hadoop poseen interfaces web, las cuales facilitan de gran manera la visualización del estado de los clústeres. Por lo tanto, con este trabajo de fin de grado, se creará una herramienta de profiling que extraiga los datos que hay en cada uno de los trabajos que un usuario tenga lanzados, y exponerlos en una interfaz web, lo que facilitará de gran manera el análisis del estado de ejecución de las tareas. Así pues, lo primero será escoger una base de datos para el almacenaje de los datos de la interfaz, después se desarrollará el frontend, la interfaz de la aplicación, lo que ve el usuario, discutiendo brevemente primero que tecnología web sería la más adecuada. Después se creará el backend, encargado de recibir las solicitudes de IgnisHPC que garantizarán que actualizarán la base de datos y que se vea reflejado en la interfaz. Finalmente se implementarán las funciones en IgnisHPC que enviarán las solicitudes http al backend de la interfaz.
Con el avance exponencial de la tecnología en la actualidad, cada vez se producen y manejan cantidades cada vez más grandes de datos. Para poder lidiar con esta enorme cantidad de datos, se desarrollaron con los años diversas herramientas en el ámbito Big Data. Una de las técnicas de mayor interés es la Computación de Altas Prestaciones, ya que esta permite un uso eficiente de los recursos disponibles en los clústeres de computación con el objetivo de acelerar el proceso y análisis de grandes cantidades de datos. El framework IgnisHPC, combina tareas HPC y Big Data, permitiendo el desarrollo de aplicaciones multilenguaje en las cuales se paraleliza el procesamiento. Otros frameworks Big Data como Spark y Hadoop poseen interfaces web, las cuales facilitan de gran manera la visualización del estado de los clústeres. Por lo tanto, con este trabajo de fin de grado, se creará una herramienta de profiling que extraiga los datos que hay en cada uno de los trabajos que un usuario tenga lanzados, y exponerlos en una interfaz web, lo que facilitará de gran manera el análisis del estado de ejecución de las tareas. Así pues, lo primero será escoger una base de datos para el almacenaje de los datos de la interfaz, después se desarrollará el frontend, la interfaz de la aplicación, lo que ve el usuario, discutiendo brevemente primero que tecnología web sería la más adecuada. Después se creará el backend, encargado de recibir las solicitudes de IgnisHPC que garantizarán que actualizarán la base de datos y que se vea reflejado en la interfaz. Finalmente se implementarán las funciones en IgnisHPC que enviarán las solicitudes http al backend de la interfaz.
Dirección
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Uso de datos GOES-R en la nube para la monitorización del sargazo
Autoría
B.G.L.
Grao en Ingeniería Informática (2ªed)
B.G.L.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
20.02.2025 11:00
20.02.2025 11:00
Resumen
Los eventos de proliferación masiva del Sargassum se han convertido en un problema ambiental y socioeconómico de gran impacto en el mar Caribe. Su seguimiento mediante sensores satelitales de órbita baja, como MODIS u OLCI, presenta limitaciones debido a la baja frecuencia de adquisición de las imágenes. En este contexto, el satélite geoestacionario GOES-16 ofrece una alternativa prometedora gracias a su alta frecuencia temporal, permitiendo una monitorización continua de la dinámica del Sargassum. Este trabajo explora el potencial de los datos del sensor ABI del GOES-16 para la detección y monitorización del Sargassum, empleando el índice NDVI como herramienta de identificación. Se desarrolló una metodología basada en la descarga y procesamiento eficiente de los datos disponibles en AWS, incluyendo técnicas de reducción de resolución, producto horario, cálculo del NDVI y eliminación de ruido mediante filtros estadísticos. Los resultados obtenidos confirman la viabilidad del uso de GOES-16 para el seguimiento del Sargassum, demostrando una alta concordancia con trabajos previos basados en otros sensores. La alta frecuencia temporal permite una vigilancia más detallada, facilitando la predicción de movimientos y posibles arribazones costeras. Como futuras ampliaciones, se propone la integración con sensores de mayor resolución espacial y la implementación de un sistema predictivo basado en modelos oceanográficos y meteorológicos.
Los eventos de proliferación masiva del Sargassum se han convertido en un problema ambiental y socioeconómico de gran impacto en el mar Caribe. Su seguimiento mediante sensores satelitales de órbita baja, como MODIS u OLCI, presenta limitaciones debido a la baja frecuencia de adquisición de las imágenes. En este contexto, el satélite geoestacionario GOES-16 ofrece una alternativa prometedora gracias a su alta frecuencia temporal, permitiendo una monitorización continua de la dinámica del Sargassum. Este trabajo explora el potencial de los datos del sensor ABI del GOES-16 para la detección y monitorización del Sargassum, empleando el índice NDVI como herramienta de identificación. Se desarrolló una metodología basada en la descarga y procesamiento eficiente de los datos disponibles en AWS, incluyendo técnicas de reducción de resolución, producto horario, cálculo del NDVI y eliminación de ruido mediante filtros estadísticos. Los resultados obtenidos confirman la viabilidad del uso de GOES-16 para el seguimiento del Sargassum, demostrando una alta concordancia con trabajos previos basados en otros sensores. La alta frecuencia temporal permite una vigilancia más detallada, facilitando la predicción de movimientos y posibles arribazones costeras. Como futuras ampliaciones, se propone la integración con sensores de mayor resolución espacial y la implementación de un sistema predictivo basado en modelos oceanográficos y meteorológicos.
Dirección
Triñanes Fernández, Joaquín Ángel (Tutoría)
Triñanes Fernández, Joaquín Ángel (Tutoría)
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
Planta de producción de ácido fórmico a partir de metanol y monóxido de carbono
Autoría
A.D.P.G.
Grado en Ingeniería Química
A.D.P.G.
Grado en Ingeniería Química
Fecha de la defensa
10.02.2025 09:30
10.02.2025 09:30
Resumen
El proyecto consiste en el diseño de una planta de produccion de 10.000 t/año de acido formico en dos etapas. La primera reacción consiste en la carbonilacion de monoxido de carbono y metanol para dar lugar a formiato de metilo. Ese compuesto se hidroliza posteriormente en un segundo reactor produciendose el acido formico con un 85% de pureza. La encargada de realizar el diseño del reactor de hidrolisis del formiato R-202 en la Sección 200 es Paula Campo Lopez. Por otra parte, el alumno Alejandro de Prado Gonzalez es el responsable del diseño de la columna de destilacion T-302 en la Seccion 300.
El proyecto consiste en el diseño de una planta de produccion de 10.000 t/año de acido formico en dos etapas. La primera reacción consiste en la carbonilacion de monoxido de carbono y metanol para dar lugar a formiato de metilo. Ese compuesto se hidroliza posteriormente en un segundo reactor produciendose el acido formico con un 85% de pureza. La encargada de realizar el diseño del reactor de hidrolisis del formiato R-202 en la Sección 200 es Paula Campo Lopez. Por otra parte, el alumno Alejandro de Prado Gonzalez es el responsable del diseño de la columna de destilacion T-302 en la Seccion 300.
Dirección
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vocal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vocal)
Herramienta de Análisis Interactivo del Inventario Toponímico Gallego-Portugués Antiguo
Autoría
P.V.P.
Grado en Ingeniería Informática
P.V.P.
Grado en Ingeniería Informática
Fecha de la defensa
20.02.2025 11:15
20.02.2025 11:15
Resumen
Este Trabajo de Fin de Grado (TFG) contiene la información que detalla el proceso de contrucción de un sistema informático, que tiene como objetivo el enrequecimiento del Inventario Toponímico Gallego-Portugués Antiguo (ILG). Se sustenta de cuatro pilares: - Análisis de la efectividad del Linguakit: por un lado se llevó a cabo un análisis, previo a la delimitación del ámbito del TFG, con el objetivo de determinar la dirección hacia la cuál orientar los esfuerzos. Por otra parte, se mejoró la efectividad y el empleo del Linguakit, y se creó la herramienta de análisis. - API REST: servidor REST (Java Spring Boot) que contiene la mayor parte de la lógica de negocio. - Base de datos: hereda el TFG 'Explotación del inventario toponímico gallego-portugués anitguo' de Andrea Rey Presas y que será modificada de acuerdo a las nuevas necesidades. El fin de esta herencia será complementar la funcionalidad de exploración de topónimos, desenvuelta en el susodicho TFG, con la funcionalidad de enrequecimiento que se va a realizar en este trabajo de fin de grado. - Cliente web: interfaz (ReactJS) que proporciona al usuario la posibilidad de interactuar con el sistema y así poder emplear la herramienta de análisis de topónimos.
Este Trabajo de Fin de Grado (TFG) contiene la información que detalla el proceso de contrucción de un sistema informático, que tiene como objetivo el enrequecimiento del Inventario Toponímico Gallego-Portugués Antiguo (ILG). Se sustenta de cuatro pilares: - Análisis de la efectividad del Linguakit: por un lado se llevó a cabo un análisis, previo a la delimitación del ámbito del TFG, con el objetivo de determinar la dirección hacia la cuál orientar los esfuerzos. Por otra parte, se mejoró la efectividad y el empleo del Linguakit, y se creó la herramienta de análisis. - API REST: servidor REST (Java Spring Boot) que contiene la mayor parte de la lógica de negocio. - Base de datos: hereda el TFG 'Explotación del inventario toponímico gallego-portugués anitguo' de Andrea Rey Presas y que será modificada de acuerdo a las nuevas necesidades. El fin de esta herencia será complementar la funcionalidad de exploración de topónimos, desenvuelta en el susodicho TFG, con la funcionalidad de enrequecimiento que se va a realizar en este trabajo de fin de grado. - Cliente web: interfaz (ReactJS) que proporciona al usuario la posibilidad de interactuar con el sistema y así poder emplear la herramienta de análisis de topónimos.
Dirección
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
VARELA BARREIRO, FRANCISCO JAVIER Cotutoría
Gamallo Otero, Pablo Cotutoría
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
VARELA BARREIRO, FRANCISCO JAVIER Cotutoría
Gamallo Otero, Pablo Cotutoría
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)