Deseño e implementación de aplicación de xestión de actividades para Ludibot
Autoría
C.R.R.
Grao en Enxeñaría Informática (2ªed)
C.R.R.
Grao en Enxeñaría Informática (2ªed)
Data da defensa
20.02.2025 16:00
20.02.2025 16:00
Resumo
Nun traballo desenvolvido por un compañeiro fai un par de cursos, deseñouse un skill para poder comunicarnos co robot Ludibot de Furhat. A aplicación web consiste nun servidor ao que os usuarios poidan acceder para deseñar as sesións que queren levar a cabo no computador. Outra opción para os usuarios desta web será a posibilidade de lanzar as sesións desde a propia web para así evitar problemas cargando a sesión. Finalmente, o último apartado creado na aplicación sería o módulo de estatísticas, onde poderían ver os resultados da execución da sesión.
Nun traballo desenvolvido por un compañeiro fai un par de cursos, deseñouse un skill para poder comunicarnos co robot Ludibot de Furhat. A aplicación web consiste nun servidor ao que os usuarios poidan acceder para deseñar as sesións que queren levar a cabo no computador. Outra opción para os usuarios desta web será a posibilidade de lanzar as sesións desde a propia web para así evitar problemas cargando a sesión. Finalmente, o último apartado creado na aplicación sería o módulo de estatísticas, onde poderían ver os resultados da execución da sesión.
Dirección
CATALA BOLOS, ALEJANDRO (Titoría)
CONDORI FERNANDEZ, OLINDA NELLY Cotitoría
CATALA BOLOS, ALEJANDRO (Titoría)
CONDORI FERNANDEZ, OLINDA NELLY Cotitoría
Tribunal
CATALA BOLOS, ALEJANDRO (Titor do alumno)
CONDORI FERNANDEZ, OLINDA NELLY (Titor do alumno)
CATALA BOLOS, ALEJANDRO (Titor do alumno)
CONDORI FERNANDEZ, OLINDA NELLY (Titor do alumno)
Uso de datos GOES-R na nube para a monitorización do sargazo
Autoría
B.G.L.
Grao en Enxeñaría Informática (2ªed)
B.G.L.
Grao en Enxeñaría Informática (2ªed)
Data da defensa
20.02.2025 11:00
20.02.2025 11:00
Resumo
Os eventos de proliferación masiva do Sargassum convertéronse nun problema ambiental e socioeconómico de grande impacto no mar Caribe. O seu seguimento mediante sensores satelitais de órbita baixa, como MODIS ou OLCI, presenta limitacións debido á baixa frecuencia de adquisición das imaxes. Neste contexto, o satélite xeostacionario GOES-16 ofrece unha alternativa prometedora grazas á súa alta frecuencia temporal, permitindo unha monitorización continua da dinámica do Sargassum. Este traballo explora a potencialidade dos datos do sensor ABI do GOES-16 para a detección e monitorización do Sargassum, empregando o índice NDVI como ferramenta de identificación. Desenvolveuse unha metodoloxía baseada na descarga e procesamento eficiente dos datos dispoñibles en AWS, incluíndo técnicas de redución de resolución, produto horario, cálculo do NDVI e eliminación de ruído mediante filtros estatísticos. Os resultados obtidos confirman a viabilidade do uso de GOES-16 para o seguimento do Sargassum, demostrando unha alta concordancia con traballos previos baseados noutros sensores. A alta frecuencia temporal permite unha vixilancia máis detallada, facilitando a predición de movementos e posibles varamentos costeiros. Como ampliacións futuras, propóñense a integración con sensores de maior resolución espacial e a implementación dun sistema predictivo baseado en modelos oceanográficos e meteorolóxicos.
Os eventos de proliferación masiva do Sargassum convertéronse nun problema ambiental e socioeconómico de grande impacto no mar Caribe. O seu seguimento mediante sensores satelitais de órbita baixa, como MODIS ou OLCI, presenta limitacións debido á baixa frecuencia de adquisición das imaxes. Neste contexto, o satélite xeostacionario GOES-16 ofrece unha alternativa prometedora grazas á súa alta frecuencia temporal, permitindo unha monitorización continua da dinámica do Sargassum. Este traballo explora a potencialidade dos datos do sensor ABI do GOES-16 para a detección e monitorización do Sargassum, empregando o índice NDVI como ferramenta de identificación. Desenvolveuse unha metodoloxía baseada na descarga e procesamento eficiente dos datos dispoñibles en AWS, incluíndo técnicas de redución de resolución, produto horario, cálculo do NDVI e eliminación de ruído mediante filtros estatísticos. Os resultados obtidos confirman a viabilidade do uso de GOES-16 para o seguimento do Sargassum, demostrando unha alta concordancia con traballos previos baseados noutros sensores. A alta frecuencia temporal permite unha vixilancia máis detallada, facilitando a predición de movementos e posibles varamentos costeiros. Como ampliacións futuras, propóñense a integración con sensores de maior resolución espacial e a implementación dun sistema predictivo baseado en modelos oceanográficos e meteorolóxicos.
Dirección
Triñanes Fernández, Joaquín Ángel (Titoría)
Triñanes Fernández, Joaquín Ángel (Titoría)
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vogal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vogal)
JSONSchema2SHACL: Extracción e traducción de restriccións para grafos de coñecemento.
Autoría
O.S.M.
Grao en Enxeñaría Informática (2ªed)
O.S.M.
Grao en Enxeñaría Informática (2ªed)
Data da defensa
21.02.2025 10:00
21.02.2025 10:00
Resumo
O traballo de fin de grao consiste no desenvolvemento dunha biblioteca en Python que permita a extracción de restricións sobre datos en JSON a partir dun esquema dado en JSONSchema (https://json-schema.org/). Unha vez identificadas esas restricións, deberán traducirse a SHACL Shapes (https://www.w3.org/TR/shacl/) para a validación de grafos de coñecemento construídos a partir de datos de entrada en JSON. Todo o desenvolvemento irá acompañado dun conxunto de probas unitarias co fin de manter unha cobertura do código superior ao 80%. As probas integraranse no sistema de CI/CD do repositorio público da ferramenta, e esta estará dispoñible en PyPI. O desenvolvemento formará parte dun sistema máis global capaz de extraer e combinar SHACL Shapes de diversas fontes, como XSD, CSVW, OWL ou RDB, axudando aos enxeñeiros do coñecemento a reducir o traballo manual na xeración destas restricións.
O traballo de fin de grao consiste no desenvolvemento dunha biblioteca en Python que permita a extracción de restricións sobre datos en JSON a partir dun esquema dado en JSONSchema (https://json-schema.org/). Unha vez identificadas esas restricións, deberán traducirse a SHACL Shapes (https://www.w3.org/TR/shacl/) para a validación de grafos de coñecemento construídos a partir de datos de entrada en JSON. Todo o desenvolvemento irá acompañado dun conxunto de probas unitarias co fin de manter unha cobertura do código superior ao 80%. As probas integraranse no sistema de CI/CD do repositorio público da ferramenta, e esta estará dispoñible en PyPI. O desenvolvemento formará parte dun sistema máis global capaz de extraer e combinar SHACL Shapes de diversas fontes, como XSD, CSVW, OWL ou RDB, axudando aos enxeñeiros do coñecemento a reducir o traballo manual na xeración destas restricións.
Dirección
CHAVES FRAGA, DAVID (Titoría)
CHAVES FRAGA, DAVID (Titoría)
Tribunal
CHAVES FRAGA, DAVID (Titor do alumno)
CHAVES FRAGA, DAVID (Titor do alumno)
Asistente web para a automatización de anotación de imaxe médica de ámbito hepático
Autoría
R.O.F.
Grao en Enxeñaría Informática (2ªed)
R.O.F.
Grao en Enxeñaría Informática (2ªed)
Data da defensa
20.02.2025 12:00
20.02.2025 12:00
Resumo
Este traballo de fin de grao englóbase no proxecto REMOVIRT H3D, o cal ten como obxectivo facer unha representación tridimensional do fígado dun paciente mediante o uso de técnicas de intelixencia artifical para que o cirurxián poida facer unha planificación quirúrxica pormenorizada. Esta primera parte do proxecto céntrase en crear unha base de datos informada coa cal entrear a nosa rede neuronal. O principal obxectivo é crear unha aplicación web a cal permita anotar imaxes de TC ou RN e crear un asistente automático que, empregando unha rede neuronal pre-adestrada, delimite a rexión de interese e faga unha proposta de anotación do fígado. Para conseguilo, primeiro realizouse unha investigación para comprender os estándares de representación médica, DICOM é no que máis nos focalizamos, e as tecnoloxías necesarias para desenvolver o traballo (Cornestone.js, Vue.js). Posteriormente realizouse o deseño e implementación dunha base de datos que permite almacenar as imáxes médicas e as anotacións realizadas sobre estas, centrándose tamén en garantir a seguridade e a trazabilidade da información que é un pilar fundamental da aplicación. Unha vez realizada a infraestrutura de datos, desenvolveuse unha aplicación web interactiva que permite a anotación manual das imaxes por parte dos usuarios. Esta ferramenta integra funcionalidades avanzadas, como a visualización das 3 vistas do fígado e a xestión de diferentes versións das anotacións. O seguinte paso foi a integración coa rede neuronal, a cal delimita as rexións de interese e propón as anotacións iniciais que, posteriormente, deben ser revisadas e modificadas polos especialistas. Entre os obxectivos futuros, destacan o readestramento continuo da rede neuronal empregando datos reais recollidos na plataforma, o despregamento dos distintos compoñentes en Dockers e a automatización das comprobacións da trazabilidade da información. En conxunto, este traballo busca sentar as bases para a implementación dun sistema avanzado e accesible que contribúa á mellora do diagnóstico e tratamento do cancro hepático, reducindo os tempos e os custos asociados ás intervencións quirúrxicas, ao tempo que potencia a precisión e a eficacia dos procedementos médicos.
Este traballo de fin de grao englóbase no proxecto REMOVIRT H3D, o cal ten como obxectivo facer unha representación tridimensional do fígado dun paciente mediante o uso de técnicas de intelixencia artifical para que o cirurxián poida facer unha planificación quirúrxica pormenorizada. Esta primera parte do proxecto céntrase en crear unha base de datos informada coa cal entrear a nosa rede neuronal. O principal obxectivo é crear unha aplicación web a cal permita anotar imaxes de TC ou RN e crear un asistente automático que, empregando unha rede neuronal pre-adestrada, delimite a rexión de interese e faga unha proposta de anotación do fígado. Para conseguilo, primeiro realizouse unha investigación para comprender os estándares de representación médica, DICOM é no que máis nos focalizamos, e as tecnoloxías necesarias para desenvolver o traballo (Cornestone.js, Vue.js). Posteriormente realizouse o deseño e implementación dunha base de datos que permite almacenar as imáxes médicas e as anotacións realizadas sobre estas, centrándose tamén en garantir a seguridade e a trazabilidade da información que é un pilar fundamental da aplicación. Unha vez realizada a infraestrutura de datos, desenvolveuse unha aplicación web interactiva que permite a anotación manual das imaxes por parte dos usuarios. Esta ferramenta integra funcionalidades avanzadas, como a visualización das 3 vistas do fígado e a xestión de diferentes versións das anotacións. O seguinte paso foi a integración coa rede neuronal, a cal delimita as rexións de interese e propón as anotacións iniciais que, posteriormente, deben ser revisadas e modificadas polos especialistas. Entre os obxectivos futuros, destacan o readestramento continuo da rede neuronal empregando datos reais recollidos na plataforma, o despregamento dos distintos compoñentes en Dockers e a automatización das comprobacións da trazabilidade da información. En conxunto, este traballo busca sentar as bases para a implementación dun sistema avanzado e accesible que contribúa á mellora do diagnóstico e tratamento do cancro hepático, reducindo os tempos e os custos asociados ás intervencións quirúrxicas, ao tempo que potencia a precisión e a eficacia dos procedementos médicos.
Dirección
COMESAÑA FIGUEROA, ENRIQUE (Titoría)
COMESAÑA FIGUEROA, ENRIQUE (Titoría)
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vogal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vogal)
Yatter 2.0: Soporte para a tradución de regras declarativas entre YARRRML e RML
Autoría
R.B.V.
Grao en Enxeñaría Informática (2ªed)
R.B.V.
Grao en Enxeñaría Informática (2ªed)
Data da defensa
21.02.2025 10:30
21.02.2025 10:30
Resumo
Este proxecto cobre unha mellora do código e unha ampliación das funcionalidades da ferramenta Yatter. Esta aplicación facilita a xeración de mapeos RML cara a contido RDF, utilizados en proxectos relacionados coa intelixencia artificial e a web semántica, empregando YARRRML, unha linguaxe deseñada para crear mapeos nun formato máis comprensible para/os desenvolvedores. As melloras implementadas optimizan o rendemento, fan o código máis lexible e modular, e amplían a súa capacidade para xestionar datos e abranguer mapeos máis complexos e diversos.
Este proxecto cobre unha mellora do código e unha ampliación das funcionalidades da ferramenta Yatter. Esta aplicación facilita a xeración de mapeos RML cara a contido RDF, utilizados en proxectos relacionados coa intelixencia artificial e a web semántica, empregando YARRRML, unha linguaxe deseñada para crear mapeos nun formato máis comprensible para/os desenvolvedores. As melloras implementadas optimizan o rendemento, fan o código máis lexible e modular, e amplían a súa capacidade para xestionar datos e abranguer mapeos máis complexos e diversos.
Dirección
CHAVES FRAGA, DAVID (Titoría)
CHAVES FRAGA, DAVID (Titoría)
Tribunal
CHAVES FRAGA, DAVID (Titor do alumno)
CHAVES FRAGA, DAVID (Titor do alumno)
Desenvolvemento dunha ferramenta de profiling e análise de aplicacións Big Data en tempo real
Autoría
A.B.P.
Grao en Enxeñaría Informática (2ªed)
A.B.P.
Grao en Enxeñaría Informática (2ªed)
Data da defensa
20.02.2025 11:45
20.02.2025 11:45
Resumo
Co avance exponencial da tecnoloxía na actualidade, cada vez xéranse e manéxanse cantidades máis grandes de datos. Para poder xestionar esta enorme cantidade de información, desenvolvéronse ao longo dos anos diversas ferramentas no ámbito do Big Data. Unha das técnicas de maior interese é a Computación de Altas Prestacións (HPC), xa que permite un uso eficiente dos recursos dispoñibles nos clusters de computación co obxectivo de acelerar o procesamento e a análise de grandes volumes de datos. O framework IgnisHPC combina tarefas de HPC e Big Data, permitindo o desenvolvemento de aplicacións multilinguaxe nas que se paraleliza o procesamento. Outros frameworks de Big Data, como Spark e Hadoop, dispoñen de interfaces web que facilitan en gran medida a visualización do estado dos clusters. Por tanto, con este Traballo de Fin de Grao, crearase unha ferramenta de profiling que extraia os datos de cada un dos traballos que un usuario teña en execución e os expoña nunha interface web, o que permitirá analizar de maneira máis sinxela o estado de execución das tarefas. Así pois, o primeiro será escoller unha base de datos para almacenar os datos da interface. Despois, desenvolverase o frontend, a interface da aplicación, que é o que ve o usuario, discutindo previamente cal sería a tecnoloxía web máis axeitada. A continuación, crearase o backend, encargado de recibir as solicitudes de IgnisHPC, garantindo que a base de datos se actualice e que os cambios se reflictan na interface. Finalmente, implementaranse as funcións en IgnisHPC que enviarán as solicitudes HTTP ao backend da interface.
Co avance exponencial da tecnoloxía na actualidade, cada vez xéranse e manéxanse cantidades máis grandes de datos. Para poder xestionar esta enorme cantidade de información, desenvolvéronse ao longo dos anos diversas ferramentas no ámbito do Big Data. Unha das técnicas de maior interese é a Computación de Altas Prestacións (HPC), xa que permite un uso eficiente dos recursos dispoñibles nos clusters de computación co obxectivo de acelerar o procesamento e a análise de grandes volumes de datos. O framework IgnisHPC combina tarefas de HPC e Big Data, permitindo o desenvolvemento de aplicacións multilinguaxe nas que se paraleliza o procesamento. Outros frameworks de Big Data, como Spark e Hadoop, dispoñen de interfaces web que facilitan en gran medida a visualización do estado dos clusters. Por tanto, con este Traballo de Fin de Grao, crearase unha ferramenta de profiling que extraia os datos de cada un dos traballos que un usuario teña en execución e os expoña nunha interface web, o que permitirá analizar de maneira máis sinxela o estado de execución das tarefas. Así pois, o primeiro será escoller unha base de datos para almacenar os datos da interface. Despois, desenvolverase o frontend, a interface da aplicación, que é o que ve o usuario, discutindo previamente cal sería a tecnoloxía web máis axeitada. A continuación, crearase o backend, encargado de recibir as solicitudes de IgnisHPC, garantindo que a base de datos se actualice e que os cambios se reflictan na interface. Finalmente, implementaranse as funcións en IgnisHPC que enviarán as solicitudes HTTP ao backend da interface.
Dirección
PICHEL CAMPOS, JUAN CARLOS (Titoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotitoría
PICHEL CAMPOS, JUAN CARLOS (Titoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotitoría
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Implementación e Optimización dun Entorno de Virtualización con Proxmox VE para a Xestión Eficiente de Recursos nun Centro de Datos
Autoría
D.C.P.
Grao en Enxeñaría Informática (2ªed)
D.C.P.
Grao en Enxeñaría Informática (2ªed)
Data da defensa
20.02.2025 12:45
20.02.2025 12:45
Resumo
Este traballo busca deseñar, implementar e optimizar un entorno de virtualización para unha pequena organización co fin de mellorar a eficiencia de xestión dos recursos computacionais, de almacenamento e de rede no seu centro de datos, garantindo un rendemento estable e un uso adecuado do hardware dispoñible. A parte principal do traballo céntrase en conseguir isto con Proxmox VE, configurando un clúster de tres nós, cun sistema de almacenamento compartido e mecanismos de alta dispoñibilidade e backup. Demóstrase que Proxmox VE é unha solución eficiente para contornos con recursos limitados, proporcionando ferramentas avanzadas para a administración centralizada e a optimización do uso do hardware. Con todo, tamén se identificaron limitacións como a dependencia do servidor NFS, que podería xerar colos de botella. Finalmente, propóñense ampliacións que inclúen a migración a un sistema de almacenamento distribuído e a incorporación de ferramentas de automatización e monitorización. Ademais, se o orzamento o permite, outra vía de mellora podería ser a avaliación de entornos de virtualización alternativos para mellorar o rendemento e a escalabilidade en futuras implementacións.
Este traballo busca deseñar, implementar e optimizar un entorno de virtualización para unha pequena organización co fin de mellorar a eficiencia de xestión dos recursos computacionais, de almacenamento e de rede no seu centro de datos, garantindo un rendemento estable e un uso adecuado do hardware dispoñible. A parte principal do traballo céntrase en conseguir isto con Proxmox VE, configurando un clúster de tres nós, cun sistema de almacenamento compartido e mecanismos de alta dispoñibilidade e backup. Demóstrase que Proxmox VE é unha solución eficiente para contornos con recursos limitados, proporcionando ferramentas avanzadas para a administración centralizada e a optimización do uso do hardware. Con todo, tamén se identificaron limitacións como a dependencia do servidor NFS, que podería xerar colos de botella. Finalmente, propóñense ampliacións que inclúen a migración a un sistema de almacenamento distribuído e a incorporación de ferramentas de automatización e monitorización. Ademais, se o orzamento o permite, outra vía de mellora podería ser a avaliación de entornos de virtualización alternativos para mellorar o rendemento e a escalabilidade en futuras implementacións.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Titoría)
Álvarez Calvo, Francisco Javier Cotitoría
CARIÑENA AMIGO, MARIA PURIFICACION (Titoría)
Álvarez Calvo, Francisco Javier Cotitoría
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Indexado semántico de grano fino de textos biomédicos con modelos linguístico
Autoría
M.G.L.
Grao en Enxeñaría Informática
M.G.L.
Grao en Enxeñaría Informática
Data da defensa
20.02.2025 17:00
20.02.2025 17:00
Resumo
Este Traballo Fin de Grao (TFG) aborda a indexación semántica de textos biomédicos mediante o uso de grandes modelos lingüísticos (LLM), co obxectivo de mellorar o acceso á información en biomedicina mediante a asignación automatizada de descritores MeSH. O método proposto consta de varias etapas. En primeiro lugar, preprocesa a ontoloxía MeSH obtida a través de BioPortal. Os resumos biomédicos previamente indexados con etiquetas de gran groso son entón seleccionados para un maior refinamento semántico. A metodoloxía emprega unha estratexia de aviso cero co modelo LLaMa3, desenvolvendo e optimizando diferentes configuracións de avisos para mellorar a clasificación. A combinación de conxunto das estratexias máis eficaces permitiu optimizar significativamente o rendemento do sistema. Finalmente, o modelo avalíase mediante métricas estandarizadas (precisión, recordación e medida F) para analizar o seu rendemento e determinar a súa viabilidade en tarefas de indexación biomédica. Os resultados mostran que LLaMa3 supera os métodos tradicionais débilmente supervisados en canto a precisión, lembranza e medida F, consolidándose como unha alternativa eficaz para a indexación biomédica. Non obstante, seguen existindo desafíos en termos de eficiencia computacional e escalabilidade, especialmente para a implementación en grandes volumes de datos. A análise das etiquetas asignadas permitiunos identificar patróns de rendemento e definir estratexias para mellorar a calidade da indexación semántica. Para abordar estes desafíos, explorase a busca semántica mediante bases de datos vectoriais como unha posible estratexia de optimización computacional. Non obstante, os resultados obtidos non alcanzaron a calidade esperada en termos de indexación, o que suxire a necesidade de máis axustes na configuración dos limiares e na representación do contexto semántico. En conclusión, este traballo valida o potencial dos modelos de linguaxe xenerativa na indexación biomédica, destacando a importancia de optimizar o seu rendemento e escalabilidade para a súa aplicación en grandes volumes de datos. Estes achados sentan as bases para futuras investigacións dirixidas a mellorar a eficiencia e precisión dos sistemas de indexación semántica en biomedicina.
Este Traballo Fin de Grao (TFG) aborda a indexación semántica de textos biomédicos mediante o uso de grandes modelos lingüísticos (LLM), co obxectivo de mellorar o acceso á información en biomedicina mediante a asignación automatizada de descritores MeSH. O método proposto consta de varias etapas. En primeiro lugar, preprocesa a ontoloxía MeSH obtida a través de BioPortal. Os resumos biomédicos previamente indexados con etiquetas de gran groso son entón seleccionados para un maior refinamento semántico. A metodoloxía emprega unha estratexia de aviso cero co modelo LLaMa3, desenvolvendo e optimizando diferentes configuracións de avisos para mellorar a clasificación. A combinación de conxunto das estratexias máis eficaces permitiu optimizar significativamente o rendemento do sistema. Finalmente, o modelo avalíase mediante métricas estandarizadas (precisión, recordación e medida F) para analizar o seu rendemento e determinar a súa viabilidade en tarefas de indexación biomédica. Os resultados mostran que LLaMa3 supera os métodos tradicionais débilmente supervisados en canto a precisión, lembranza e medida F, consolidándose como unha alternativa eficaz para a indexación biomédica. Non obstante, seguen existindo desafíos en termos de eficiencia computacional e escalabilidade, especialmente para a implementación en grandes volumes de datos. A análise das etiquetas asignadas permitiunos identificar patróns de rendemento e definir estratexias para mellorar a calidade da indexación semántica. Para abordar estes desafíos, explorase a busca semántica mediante bases de datos vectoriais como unha posible estratexia de optimización computacional. Non obstante, os resultados obtidos non alcanzaron a calidade esperada en termos de indexación, o que suxire a necesidade de máis axustes na configuración dos limiares e na representación do contexto semántico. En conclusión, este traballo valida o potencial dos modelos de linguaxe xenerativa na indexación biomédica, destacando a importancia de optimizar o seu rendemento e escalabilidade para a súa aplicación en grandes volumes de datos. Estes achados sentan as bases para futuras investigacións dirixidas a mellorar a eficiencia e precisión dos sistemas de indexación semántica en biomedicina.
Dirección
TABOADA IGLESIAS, MARÍA JESÚS (Titoría)
TABOADA IGLESIAS, MARÍA JESÚS (Titoría)
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Titor do alumno)
TABOADA IGLESIAS, MARÍA JESÚS (Titor do alumno)
Ferramenta de Análise Interactivo do Inventario Toponímico Galego-Portugués Antigo
Autoría
P.V.P.
Grao en Enxeñaría Informática
P.V.P.
Grao en Enxeñaría Informática
Data da defensa
20.02.2025 11:15
20.02.2025 11:15
Resumo
Este Traballo de Fin de Grao (TFG) contén a información que detalla o proceso de construción dun sistema informático, que ten como obxectivo o arrequentamento do Inventario Toponímico Galego-Portugués Antigo (ILG). Susténtase en catro piares: - Análise da efectividade do Linguakit: por un lado levouse a cabo unha análise, previa ao acoutamento do ámbito do TFG, co obxectivo de determinar a dirección cara á que orientar os esforzos. Por outra parte mellorouse a efectividade e o emprego do Linguakit, e creouse a ferramenta de análise. - API REST: servidor REST (Java Spring Boot) que contén a meirande parte da lóxica de negocio. - Base de datos: herdada do TFG 'Explotación del inventario toponímico gallego-portugués antiguo' de Andrea Rey Presas e que será modificada de acordo ás novas necesidades. O fin desta herdanza é complementar a funcionalidade de exploración de topónimos, desenvolta no devandito TFG, coa funcionalidade de arrequentamento que se vai realizar neste traballo de fin de grao. - Cliente web: interface (ReactJS) que proporciona ao usuario a posibilidade de interactuar co sistema e así poder empregar a ferramenta de análise de topónimos.
Este Traballo de Fin de Grao (TFG) contén a información que detalla o proceso de construción dun sistema informático, que ten como obxectivo o arrequentamento do Inventario Toponímico Galego-Portugués Antigo (ILG). Susténtase en catro piares: - Análise da efectividade do Linguakit: por un lado levouse a cabo unha análise, previa ao acoutamento do ámbito do TFG, co obxectivo de determinar a dirección cara á que orientar os esforzos. Por outra parte mellorouse a efectividade e o emprego do Linguakit, e creouse a ferramenta de análise. - API REST: servidor REST (Java Spring Boot) que contén a meirande parte da lóxica de negocio. - Base de datos: herdada do TFG 'Explotación del inventario toponímico gallego-portugués antiguo' de Andrea Rey Presas e que será modificada de acordo ás novas necesidades. O fin desta herdanza é complementar a funcionalidade de exploración de topónimos, desenvolta no devandito TFG, coa funcionalidade de arrequentamento que se vai realizar neste traballo de fin de grao. - Cliente web: interface (ReactJS) que proporciona ao usuario a posibilidade de interactuar co sistema e así poder empregar a ferramenta de análise de topónimos.
Dirección
RIOS VIQUEIRA, JOSE RAMON (Titoría)
VARELA BARREIRO, FRANCISCO JAVIER Cotitoría
Gamallo Otero, Pablo Cotitoría
RIOS VIQUEIRA, JOSE RAMON (Titoría)
VARELA BARREIRO, FRANCISCO JAVIER Cotitoría
Gamallo Otero, Pablo Cotitoría
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Planta de produción de ácido fórmico a partir de metanol e monóxido de carbono
Autoría
A.D.P.G.
Grao en Enxeñaría Química
A.D.P.G.
Grao en Enxeñaría Química
Data da defensa
10.02.2025 09:30
10.02.2025 09:30
Resumo
O proxecto consiste no deseño dunha planta de produción de 10.000 t/ano de ácido formico en duas fases. A primeira reacción consiste na carbonilacion de monoxido de carbono e metanol para dar lugar a formiato de metilo. Este composto hidrolizase posteriormente nun segundo reactor, producindose a acido formico cunha pureza do 85%. A encargada de realizar o deseño do reactor de hidrolise de formiato R-202 no Tramo 200 e Paula Campo Lopez. Por outra banda, o estudante Alejandro de Prado Gonzalez e o responsable do deseño da columna de destilación T-303 no apartado 300.
O proxecto consiste no deseño dunha planta de produción de 10.000 t/ano de ácido formico en duas fases. A primeira reacción consiste na carbonilacion de monoxido de carbono e metanol para dar lugar a formiato de metilo. Este composto hidrolizase posteriormente nun segundo reactor, producindose a acido formico cunha pureza do 85%. A encargada de realizar o deseño do reactor de hidrolise de formiato R-202 no Tramo 200 e Paula Campo Lopez. Por outra banda, o estudante Alejandro de Prado Gonzalez e o responsable do deseño da columna de destilación T-303 no apartado 300.
Dirección
FRANCO URIA, MARIA AMAYA (Titoría)
SINEIRO TORRES, JORGE Cotitoría
FRANCO URIA, MARIA AMAYA (Titoría)
SINEIRO TORRES, JORGE Cotitoría
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vogal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vogal)
Planta de produción de ácido fórmico a partir de metanol e monóxido de carbono
Autoría
P.C.L.
Grao en Enxeñaría Química
P.C.L.
Grao en Enxeñaría Química
Data da defensa
10.02.2025 09:30
10.02.2025 09:30
Resumo
O proxecto consiste no deseño dunha planta de producion de 10.000 t/ano de acido formico en duas fases. A primeira reaccion consiste na carbonilacion de monoxido de carbono e metanol para dar lugar a formiato de metilo. Este composto hidrolizase posteriormente nun segundo reactor, producindose acido formico cunha pureza do 85%. A encargada de realizar o deseño do reactor de hidrolise de formiato R-202 no Tramo 200 e Paula Campo Lopez. Por outra banda, o estudante Alejandro de Prado Gonzalez e o responsable do deseño da columna de destilacion T-302 no apartado 300.
O proxecto consiste no deseño dunha planta de producion de 10.000 t/ano de acido formico en duas fases. A primeira reaccion consiste na carbonilacion de monoxido de carbono e metanol para dar lugar a formiato de metilo. Este composto hidrolizase posteriormente nun segundo reactor, producindose acido formico cunha pureza do 85%. A encargada de realizar o deseño do reactor de hidrolise de formiato R-202 no Tramo 200 e Paula Campo Lopez. Por outra banda, o estudante Alejandro de Prado Gonzalez e o responsable do deseño da columna de destilacion T-302 no apartado 300.
Dirección
FRANCO URIA, MARIA AMAYA (Titoría)
SINEIRO TORRES, JORGE Cotitoría
FRANCO URIA, MARIA AMAYA (Titoría)
SINEIRO TORRES, JORGE Cotitoría
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vogal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vogal)
Deseño dunha instalación de captura de CO2 asociado a un ciclo de recuperación de Ca(OH)2
Autoría
M.C.D.
Grao en Enxeñaría Química
M.C.D.
Grao en Enxeñaría Química
Data da defensa
10.02.2025 10:10
10.02.2025 10:10
Resumo
O presente proxecto ten como obxectivo o deseño dunha instalación de captura de CO2 asociado a un ciclo de recuperación de Ca(OH)2. A planta, localizada en Curtis, na provincia de A Coruña, concretamente no polígono industrial de Curtis-Teixeiro, terá unha capacidade de 1Mt/ano de CO2 cunha pureza do 97,12% e operará en réxime continuo 330 días ao ano e 24 horas ao día. Neste proceso, lévase a cabo a captura do CO2 directamente da atmosfera e, paralelamente, tamén se captura o CO2 dos gases de combustión xerados na planta para satisfacer as necesidades enerxéticas desta. Para iso, empregarase a absorción química mediante a técnica do ciclo de carbonatación-calcinación. A planta consta de catro seccións principais: absorción, reacción, calcinación e hidratación. Paula Fariña deseñará o absorbedor A-101 da sección de absorción e María Chao deseñará o reactor R-201 da sección de reacción.
O presente proxecto ten como obxectivo o deseño dunha instalación de captura de CO2 asociado a un ciclo de recuperación de Ca(OH)2. A planta, localizada en Curtis, na provincia de A Coruña, concretamente no polígono industrial de Curtis-Teixeiro, terá unha capacidade de 1Mt/ano de CO2 cunha pureza do 97,12% e operará en réxime continuo 330 días ao ano e 24 horas ao día. Neste proceso, lévase a cabo a captura do CO2 directamente da atmosfera e, paralelamente, tamén se captura o CO2 dos gases de combustión xerados na planta para satisfacer as necesidades enerxéticas desta. Para iso, empregarase a absorción química mediante a técnica do ciclo de carbonatación-calcinación. A planta consta de catro seccións principais: absorción, reacción, calcinación e hidratación. Paula Fariña deseñará o absorbedor A-101 da sección de absorción e María Chao deseñará o reactor R-201 da sección de reacción.
Dirección
BELLO BUGALLO, PASTORA MARIA (Titoría)
BELLO BUGALLO, PASTORA MARIA (Titoría)
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vogal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
GONZALEZ ALVAREZ, JULIA (Vogal)
Tecnoloxías de búsqueda e análise lonxitudinal sobre letras de cancións: o caso da discografía de Bruce Springsteen
Autoría
M.B.C.
Grao en Enxeñaría Informática (2ªed)
M.B.C.
Grao en Enxeñaría Informática (2ªed)
Data da defensa
20.02.2025 12:15
20.02.2025 12:15
Resumo
As tecnoloxías de procesamento de linguaxe natural (PLN) experimentaron unha gran evolución nos últimos anos, impulsada por avances en arquitecturas de modelos como Transformers e o acceso a grandes volúmenes de datos. Estas técnicas dan lugar a modelos capaces de entender, interpretar e xerar texto similar ao humano, habilitando aplicacións como a análise de emocións, asistentes conversacionais avanzados, sistemas de recomendación personalizados e xeración automática de contido. Neste traballo se empregan diferentes modelos de procesamiento de textos e recuperación de información para poder realizar unha análise exploratoria sobre letras de cancións e extraer conclusións sobre a discografía de Bruce Springsteen. É interesante realizar esta análise pola extensa carreira musical que ten e pola complexidade emocional da súa persoa: o propio artista comentou en diversos medios que sufriu diferentes etapas depresivas ao longo da súa vida e sempre intentou reflexar o seu estado de ánimo na súa obra. Cabe sinalar que este tipo de estudos son extrapolables a outros artistas, pero se escolleu este pola gran cantidade de datos que se poden recoller e pola posibilidade de contrastar os resultados obtidos nas diferentes probas coa información real que el mesmo nos ofrece. O desenvolvemento deste TFG implica unha serie de retos tecnolóxicos, relacionados primeiro coa extracción automática do corpus de cancións (para o cal se recurriu a métodos de rastreo enfocado e extracción de información), o desarrollo de tecnoloxías de búsqueda (de modo que un usuario poida realizar consultas en texto libre sobre as letras de cancións) e seguidamente coa análise avanzada da linguaxe (para detectar por exemplo emocións ou outros aspectos psicolóxicos nas cancións). En primeiro lugar se xerou un indexador que permite realizar búsquedas de cancións por títulos ou letras e que devolve nun tempo razoable os resultados máis relevantes. A continuación, se aplicaron diferentes variantes do modelo estado do coñecemento BERT para analizar e explorar a discografía. Isto inclúe a posibilidade de xerar resumos de cancións, nubes de tópicos, analizar emocións e obter estimacións de signos de trastornos, como a depresión. Estas técnicas foron implementadas en módulos separados e se habilitou unha interacción mediante widgets para que o usuario poida filtrar ao seu gusto de maneira sinxela e realizar as visualizacións que considere relevante para o que desexe investigar. A tecnoloxía desarrollada, ademais de explorar o corpus de cancións e realizar búsquedas personalizadas, permite por exemplo comprobar se existe correlación entre as diferentes etapas emocionales do artista e o seu estilo, tanto de letra (tópicos, emociones, etc.) como de estrutura (ritmo e tonalidade), da súa música nese momento. Basándonos nos resultados que mostra o software desarrollado e a teoría musical e comparando as diferentes etapas marcadas polo músico pódese observar que existe certa correlación, xa que nalgúns casos a diferencia entre as cancións dunha época depresiva e unha época neutral ou alegre é bastante notoria.
As tecnoloxías de procesamento de linguaxe natural (PLN) experimentaron unha gran evolución nos últimos anos, impulsada por avances en arquitecturas de modelos como Transformers e o acceso a grandes volúmenes de datos. Estas técnicas dan lugar a modelos capaces de entender, interpretar e xerar texto similar ao humano, habilitando aplicacións como a análise de emocións, asistentes conversacionais avanzados, sistemas de recomendación personalizados e xeración automática de contido. Neste traballo se empregan diferentes modelos de procesamiento de textos e recuperación de información para poder realizar unha análise exploratoria sobre letras de cancións e extraer conclusións sobre a discografía de Bruce Springsteen. É interesante realizar esta análise pola extensa carreira musical que ten e pola complexidade emocional da súa persoa: o propio artista comentou en diversos medios que sufriu diferentes etapas depresivas ao longo da súa vida e sempre intentou reflexar o seu estado de ánimo na súa obra. Cabe sinalar que este tipo de estudos son extrapolables a outros artistas, pero se escolleu este pola gran cantidade de datos que se poden recoller e pola posibilidade de contrastar os resultados obtidos nas diferentes probas coa información real que el mesmo nos ofrece. O desenvolvemento deste TFG implica unha serie de retos tecnolóxicos, relacionados primeiro coa extracción automática do corpus de cancións (para o cal se recurriu a métodos de rastreo enfocado e extracción de información), o desarrollo de tecnoloxías de búsqueda (de modo que un usuario poida realizar consultas en texto libre sobre as letras de cancións) e seguidamente coa análise avanzada da linguaxe (para detectar por exemplo emocións ou outros aspectos psicolóxicos nas cancións). En primeiro lugar se xerou un indexador que permite realizar búsquedas de cancións por títulos ou letras e que devolve nun tempo razoable os resultados máis relevantes. A continuación, se aplicaron diferentes variantes do modelo estado do coñecemento BERT para analizar e explorar a discografía. Isto inclúe a posibilidade de xerar resumos de cancións, nubes de tópicos, analizar emocións e obter estimacións de signos de trastornos, como a depresión. Estas técnicas foron implementadas en módulos separados e se habilitou unha interacción mediante widgets para que o usuario poida filtrar ao seu gusto de maneira sinxela e realizar as visualizacións que considere relevante para o que desexe investigar. A tecnoloxía desarrollada, ademais de explorar o corpus de cancións e realizar búsquedas personalizadas, permite por exemplo comprobar se existe correlación entre as diferentes etapas emocionales do artista e o seu estilo, tanto de letra (tópicos, emociones, etc.) como de estrutura (ritmo e tonalidade), da súa música nese momento. Basándonos nos resultados que mostra o software desarrollado e a teoría musical e comparando as diferentes etapas marcadas polo músico pódese observar que existe certa correlación, xa que nalgúns casos a diferencia entre as cancións dunha época depresiva e unha época neutral ou alegre é bastante notoria.
Dirección
Losada Carril, David Enrique (Titoría)
FERNANDEZ PICHEL, MARCOS Cotitoría
Losada Carril, David Enrique (Titoría)
FERNANDEZ PICHEL, MARCOS Cotitoría
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Metaheurísticas do TSP: Un recorrido didáctico e computacional.
Autoría
E.F.D.S.
Dobre Grao en Enxeñaría Informática e en Matemáticas (2ªed)
E.F.D.S.
Dobre Grao en Enxeñaría Informática e en Matemáticas (2ªed)
Data da defensa
13.02.2025 12:45
13.02.2025 12:45
Resumo
Durante a historia da computación, os problemas de rutas suscitaron un gran interese debido ás súas múltiples aplicacións en diferentes campos, como son a planificación e a loxística. Este traballo céntrase no problema do viaxante de comercio ou TSP. En concreto, nas técnicas para resolvelo de forma aproximada nun tempo polinómico, as metaheurísticas. O obxectivo principal deste estudo é proporcionar unha guía para comprender catro das máis importantes, tanto no ámbito teórico como no computacional. Para iso, realizouse unha revisión bibliográfica, atopando información relevante destas e sintetizándoa. As metaheurísticas son: a procura tabú, o tépedo simulado, o algoritmo xenético e a optimización da colonia de formigas. Para a parte computacional, realizáronse implementacións en R de todas as metaheurísticas e avaliáronse con distintas instancias da librería TSPLIB. Como resultado, obtívose que non hai unha metaheurística mellor que o resto en todos os aspectos. A procura tabú e a optimización da colonia de formigas obteñen resultados moi prometedores en termos de distancia ao custo óptimo; con todo, son temporalmente máis custosas que as outras dúas. O tépedo simulado obtén uns resultados algo peores que os anteriores, pero de forma moi rápida. Por último, o algoritmo xenético obtén moi malos resultados nun tempo, relativamente, aceptable. En conclusión, este traballo serve como guía ás persoas que queiran comprender estes conceptos.
Durante a historia da computación, os problemas de rutas suscitaron un gran interese debido ás súas múltiples aplicacións en diferentes campos, como son a planificación e a loxística. Este traballo céntrase no problema do viaxante de comercio ou TSP. En concreto, nas técnicas para resolvelo de forma aproximada nun tempo polinómico, as metaheurísticas. O obxectivo principal deste estudo é proporcionar unha guía para comprender catro das máis importantes, tanto no ámbito teórico como no computacional. Para iso, realizouse unha revisión bibliográfica, atopando información relevante destas e sintetizándoa. As metaheurísticas son: a procura tabú, o tépedo simulado, o algoritmo xenético e a optimización da colonia de formigas. Para a parte computacional, realizáronse implementacións en R de todas as metaheurísticas e avaliáronse con distintas instancias da librería TSPLIB. Como resultado, obtívose que non hai unha metaheurística mellor que o resto en todos os aspectos. A procura tabú e a optimización da colonia de formigas obteñen resultados moi prometedores en termos de distancia ao custo óptimo; con todo, son temporalmente máis custosas que as outras dúas. O tépedo simulado obtén uns resultados algo peores que os anteriores, pero de forma moi rápida. Por último, o algoritmo xenético obtén moi malos resultados nun tempo, relativamente, aceptable. En conclusión, este traballo serve como guía ás persoas que queiran comprender estes conceptos.
Dirección
CASAS MENDEZ, BALBINA VIRGINIA (Titoría)
CASAS MENDEZ, BALBINA VIRGINIA (Titoría)
Tribunal
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vogal)
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vogal)
Estudo e aplicación de AWS Rekognition para o recoñecemento automático de etiquetas de roupa en imaxes de usuario.
Autoría
E.F.D.S.
Dobre Grao en Enxeñaría Informática e en Matemáticas (2ªed)
E.F.D.S.
Dobre Grao en Enxeñaría Informática e en Matemáticas (2ªed)
Data da defensa
20.02.2025 10:00
20.02.2025 10:00
Resumo
Na actualidade existen múltiples ferramentas para realizar procesos de clasificación de imaxes, tales como as redes neuronais convolucionales e os transformers. Con todo, a marca Zara continúa realizando a etiquetaxe de maneira manual, o que deriva nun conxunto de etiquetas inexactas. Por esta razón, neste traballo explórase a implementación de métodos automatizados que melloren os resultados obtidos de forma manual. O propósito desta investigación é avaliar e analizar a eficacia do servizo de {AWS Rekognition Custom Labels para etiquetar pezas de vestir. A estratexia adoptada pretende identificar os límites do servizo para a referida tarefa a través dunha análise da viabilidade do conxunto de datos orixe. O desenvolvemento do proxecto comeza cunha análise preliminar do conxunto de datos para determinar a súa idoneidade para o adestramento de modelos. Posteriormente, realízase un exame das restricións do servizo, considerando cinco variables principais: o número total de imaxes, a interrelación entre as etiquetas, o tipo de etiqueta, a cantidade de imaxes dispoñibles para cada etiqueta e a influencia de cada etiqueta sobre as demais. Para logralo, utilizaranse varios recursos como o propio servizo, un conxunto de datos inicial e unha API REST desenvolvida para este proxecto. Entre os principais achados destácanse a baixa relevancia do número total de imaxes, así como as limitacións asociadas ao tipo de etiqueta e a importancia de que as etiquetas non estean excesivamente relacionadas.
Na actualidade existen múltiples ferramentas para realizar procesos de clasificación de imaxes, tales como as redes neuronais convolucionales e os transformers. Con todo, a marca Zara continúa realizando a etiquetaxe de maneira manual, o que deriva nun conxunto de etiquetas inexactas. Por esta razón, neste traballo explórase a implementación de métodos automatizados que melloren os resultados obtidos de forma manual. O propósito desta investigación é avaliar e analizar a eficacia do servizo de {AWS Rekognition Custom Labels para etiquetar pezas de vestir. A estratexia adoptada pretende identificar os límites do servizo para a referida tarefa a través dunha análise da viabilidade do conxunto de datos orixe. O desenvolvemento do proxecto comeza cunha análise preliminar do conxunto de datos para determinar a súa idoneidade para o adestramento de modelos. Posteriormente, realízase un exame das restricións do servizo, considerando cinco variables principais: o número total de imaxes, a interrelación entre as etiquetas, o tipo de etiqueta, a cantidade de imaxes dispoñibles para cada etiqueta e a influencia de cada etiqueta sobre as demais. Para logralo, utilizaranse varios recursos como o propio servizo, un conxunto de datos inicial e unha API REST desenvolvida para este proxecto. Entre os principais achados destácanse a baixa relevancia do número total de imaxes, así como as limitacións asociadas ao tipo de etiqueta e a importancia de que as etiquetas non estean excesivamente relacionadas.
Dirección
CARREIRA NOUCHE, MARIA JOSE (Titoría)
Rodríguez Díez, Helio Cotitoría
CARREIRA NOUCHE, MARIA JOSE (Titoría)
Rodríguez Díez, Helio Cotitoría
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vogal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vogal)
Segmentación semántica eficiente de imaxes de cobertura terrestre mediante arquitectura codificador-decodificador
Autoría
I.L.C.
Dobre Grao en Enxeñaría Informática e en Matemáticas (2ªed)
I.L.C.
Dobre Grao en Enxeñaría Informática e en Matemáticas (2ªed)
Data da defensa
20.02.2025 11:30
20.02.2025 11:30
Resumo
Na área do sensado remoto, existe gran interese en recompilar información de cobertura terrestre para identificar e clasificar os diferentes tipos de superficies presentes no chan, como áreas con vexetación, corpos de auga, chans urbanos, pasteiros, bosques ou áreas agrícolas, entre outros. Por outra banda, a segmentación semántica de imaxes permite asignar unha etiqueta a cada píxel da imaxe, clasificándoos en diferentes categorías ou clases específicas, o que facilita a interpretación e a análise de imaxes satelitales ou aéreas. O uso de técnicas de aprendizaxe profunda demostrou ser eficaz no ámbito da visión por computador, concretamente nas tarefas de segmentación semántica. Con todo, estes modelos son moi custosos computacionalmente, e adoitan requirir o uso de hardware especializado e técnicas de optimización para mellorar a eficiencia e viabilidade do adestramento e a inferencia. Neste Traballo de Fin de Grao perséguese probar diferentes modelos con arquitectura codificador-decodificador, tratando de mellorar a eficiencia e viabilidade dos adestramentos mesmo con grandes cantidades de datos. Das técnicas de paralelismo existentes para adestramentos multiGPU, usarase o paralelismo de datos, seleccionando un módulo de PyTorch que o implemente de maneira eficiente. Ademais, usando precisión mixta en punto flotante de 16 bits conséguese reducir o uso de memoria e aproveitar mellor o hardware das GPUs, realizando o adestramento na metade de tempo sen que a calidade da segmentación se vexa afectada.
Na área do sensado remoto, existe gran interese en recompilar información de cobertura terrestre para identificar e clasificar os diferentes tipos de superficies presentes no chan, como áreas con vexetación, corpos de auga, chans urbanos, pasteiros, bosques ou áreas agrícolas, entre outros. Por outra banda, a segmentación semántica de imaxes permite asignar unha etiqueta a cada píxel da imaxe, clasificándoos en diferentes categorías ou clases específicas, o que facilita a interpretación e a análise de imaxes satelitales ou aéreas. O uso de técnicas de aprendizaxe profunda demostrou ser eficaz no ámbito da visión por computador, concretamente nas tarefas de segmentación semántica. Con todo, estes modelos son moi custosos computacionalmente, e adoitan requirir o uso de hardware especializado e técnicas de optimización para mellorar a eficiencia e viabilidade do adestramento e a inferencia. Neste Traballo de Fin de Grao perséguese probar diferentes modelos con arquitectura codificador-decodificador, tratando de mellorar a eficiencia e viabilidade dos adestramentos mesmo con grandes cantidades de datos. Das técnicas de paralelismo existentes para adestramentos multiGPU, usarase o paralelismo de datos, seleccionando un módulo de PyTorch que o implemente de maneira eficiente. Ademais, usando precisión mixta en punto flotante de 16 bits conséguese reducir o uso de memoria e aproveitar mellor o hardware das GPUs, realizando o adestramento na metade de tempo sen que a calidade da segmentación se vexa afectada.
Dirección
Argüello Pedreira, Francisco Santiago (Titoría)
Blanco Heras, Dora Cotitoría
Argüello Pedreira, Francisco Santiago (Titoría)
Blanco Heras, Dora Cotitoría
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vogal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vogal)
Reconstrucción de árbores filoxenéticos mediante computación cuántica
Autoría
N.F.O.
Dobre Grao en Enxeñaría Informática e en Matemáticas (2ªed)
N.F.O.
Dobre Grao en Enxeñaría Informática e en Matemáticas (2ªed)
Data da defensa
20.02.2025 10:30
20.02.2025 10:30
Resumo
A computación cuántica é un campo da informática que utiliza principios da física cuántica para a resolución de problemas de maneira máis eficiente que a computación clásica, especialmente en áreas como a optimización. Doutra banda, a bioinformática é un campo que combina elementos da bioloxía e a informática para analizar grandes conxuntos de datos biolóxicos. Un exemplo destacado desta disciplina é a xenómica, que inclúe a xeración de árbores filoxenéticos, ferramentas clave para entender a evolución biolóxica de especies. A reconstrución destas árbores representa un problema computacional moi complicado de resolver pola súa complexidade. Este traballo explora se a computación cuántica pode ofrecer solucións efectivas para abordar o devandito problema. Neste contexto, estudouse o funcionamento da computación cuántica e dos algoritmos cuánticos de optimización, facendo énfase en Quantum annealing e no algoritmo cuántico de optimización aproximada (QAOA). Baseándose nestes enfoques, desenvolveuse un algoritmo cuántico capaz de reconstruír filoxenias mediante o corte de grafos. O algoritmo proposto foi implementado e probado en hardware cuántico dispoñible actualmente, obtendo resultados satisfactorios que demostran o seu potencial para resolver problemas complexos na área da bioinformática.
A computación cuántica é un campo da informática que utiliza principios da física cuántica para a resolución de problemas de maneira máis eficiente que a computación clásica, especialmente en áreas como a optimización. Doutra banda, a bioinformática é un campo que combina elementos da bioloxía e a informática para analizar grandes conxuntos de datos biolóxicos. Un exemplo destacado desta disciplina é a xenómica, que inclúe a xeración de árbores filoxenéticos, ferramentas clave para entender a evolución biolóxica de especies. A reconstrución destas árbores representa un problema computacional moi complicado de resolver pola súa complexidade. Este traballo explora se a computación cuántica pode ofrecer solucións efectivas para abordar o devandito problema. Neste contexto, estudouse o funcionamento da computación cuántica e dos algoritmos cuánticos de optimización, facendo énfase en Quantum annealing e no algoritmo cuántico de optimización aproximada (QAOA). Baseándose nestes enfoques, desenvolveuse un algoritmo cuántico capaz de reconstruír filoxenias mediante o corte de grafos. O algoritmo proposto foi implementado e probado en hardware cuántico dispoñible actualmente, obtendo resultados satisfactorios que demostran o seu potencial para resolver problemas complexos na área da bioinformática.
Dirección
Fernández Pena, Anselmo Tomás (Titoría)
PICHEL CAMPOS, JUAN CARLOS Cotitoría
Fernández Pena, Anselmo Tomás (Titoría)
PICHEL CAMPOS, JUAN CARLOS Cotitoría
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vogal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vogal)