Aplicación de técnicas de minería de procesos para mellorar a predición do risco cardíaco.
Autoría
A.C.L.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
A.C.L.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 17:00
16.07.2025 17:00
Resumo
A rehabilitación cardíaca constitúe un proceso clínico estruturado que implica múltiples fases interdependentes, decisións médicas individualizadas e a participación de distintos profesionais da saúde. Esta natureza secuencial e adaptativa permite modelar o programa como un proceso de negocio, facilitando así a súa análise. Non obstante, os estudos neste contexto enfróntase a importantes limitacións inherentes ás bases de datos médicas reais: os datos adoitan ser escasos, tanto polo custo económico como polos requerimentos temporais para a súa recolección; moitos dos rexistros existentes non resultan útiles para análises específicas; e, finalmente, existe unha elevada presenza de valores ausentes, xa que non todos os pacientes son sometidos ás mesmas probas. Para abordar estas limitacións, neste traballo proponse unha arquitectura baseada nun conditional variational autoencoder (CVAE) para a síntese de rexistros clínicos realistas e coherentes coa realidade. O obxectivo principal é aumentar o tamaño e diversidade do conxunto de datos dispoñible, co fin de mellorar a capacidade dos modelos predictivos do risco cardíaco e non ter que recorrer a probas de certo perigo, como a ergometría. Os resultados amosan que a arquitectura proposta permite xerar datos sintéticos coherentes e realistas, cuxo uso incrementa a precisión dos distintos clasificadores empregados para detectar o risco, superando ao estado da arte en aproximacións de aprendizaxe profunda.
A rehabilitación cardíaca constitúe un proceso clínico estruturado que implica múltiples fases interdependentes, decisións médicas individualizadas e a participación de distintos profesionais da saúde. Esta natureza secuencial e adaptativa permite modelar o programa como un proceso de negocio, facilitando así a súa análise. Non obstante, os estudos neste contexto enfróntase a importantes limitacións inherentes ás bases de datos médicas reais: os datos adoitan ser escasos, tanto polo custo económico como polos requerimentos temporais para a súa recolección; moitos dos rexistros existentes non resultan útiles para análises específicas; e, finalmente, existe unha elevada presenza de valores ausentes, xa que non todos os pacientes son sometidos ás mesmas probas. Para abordar estas limitacións, neste traballo proponse unha arquitectura baseada nun conditional variational autoencoder (CVAE) para a síntese de rexistros clínicos realistas e coherentes coa realidade. O obxectivo principal é aumentar o tamaño e diversidade do conxunto de datos dispoñible, co fin de mellorar a capacidade dos modelos predictivos do risco cardíaco e non ter que recorrer a probas de certo perigo, como a ergometría. Os resultados amosan que a arquitectura proposta permite xerar datos sintéticos coherentes e realistas, cuxo uso incrementa a precisión dos distintos clasificadores empregados para detectar o risco, superando ao estado da arte en aproximacións de aprendizaxe profunda.
Dirección
LAMA PENIN, MANUEL (Titoría)
VIDAL AGUIAR, JUAN CARLOS Cotitoría
LAMA PENIN, MANUEL (Titoría)
VIDAL AGUIAR, JUAN CARLOS Cotitoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
Deseño e implementación dun acelerador para controis de calidade en procesos de inxesta e transformación do dato
Autoría
J.C.M.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
J.C.M.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 16:00
16.07.2025 16:00
Resumo
Este Traballo de Fin de Máster presenta o deseño e a implementación dun acelerador para a configuración automatizada de controis de calidade en procesos de inxesta e transformación de datos, dentro de arquitecturas analíticas modernas baseadas en Snowflake. A solución busca simplificar tarefas habitualmente manuais como a validación de datos en táboas intermedias ou finais, propoñendo un enfoque declarativo, no que o usuario define que controis desexa aplicar sen preocuparse pola súa implementación técnica, o que favorece a reutilización, a trazabilidade e a escalabilidade. A arquitectura baséase en compoñentes nativos de Snowflake, como streams, tasks e procedementos almacenados, para construír un sistema reactivo capaz de executar controis de forma autónoma ante calquera cambio na súa configuración. Entre os tipos de validacións soportadas atópanse controis de frescura, unicidade, nulos e consistencia. O sistema complétase cunha interface web para a definición visual de controis sen necesidade de escribir SQL, e cun panel de Power BI que facilita a súa monitorización por parte de perfís tanto técnicos como de negocio. Ambos compoñentes reforzan a súa aplicabilidade práctica e permiten a súa adopción en contextos reais sen requirir coñecementos avanzados. Como proba de concepto, simulouse un caso de uso con datos do campionato de Fórmula 1, demostrando a eficacia do sistema na detección de erros, na estruturación de resultados e na automatización de tarefas repetitivas. Aínda que o sistema está actualmente limitado a Snowflake e non foi validado en escenarios de alta concorrencia, o seu deseño modular e xeneralizable permite a súa extensión a novos tipos de control e a outros contornos organizativos.
Este Traballo de Fin de Máster presenta o deseño e a implementación dun acelerador para a configuración automatizada de controis de calidade en procesos de inxesta e transformación de datos, dentro de arquitecturas analíticas modernas baseadas en Snowflake. A solución busca simplificar tarefas habitualmente manuais como a validación de datos en táboas intermedias ou finais, propoñendo un enfoque declarativo, no que o usuario define que controis desexa aplicar sen preocuparse pola súa implementación técnica, o que favorece a reutilización, a trazabilidade e a escalabilidade. A arquitectura baséase en compoñentes nativos de Snowflake, como streams, tasks e procedementos almacenados, para construír un sistema reactivo capaz de executar controis de forma autónoma ante calquera cambio na súa configuración. Entre os tipos de validacións soportadas atópanse controis de frescura, unicidade, nulos e consistencia. O sistema complétase cunha interface web para a definición visual de controis sen necesidade de escribir SQL, e cun panel de Power BI que facilita a súa monitorización por parte de perfís tanto técnicos como de negocio. Ambos compoñentes reforzan a súa aplicabilidade práctica e permiten a súa adopción en contextos reais sen requirir coñecementos avanzados. Como proba de concepto, simulouse un caso de uso con datos do campionato de Fórmula 1, demostrando a eficacia do sistema na detección de erros, na estruturación de resultados e na automatización de tarefas repetitivas. Aínda que o sistema está actualmente limitado a Snowflake e non foi validado en escenarios de alta concorrencia, o seu deseño modular e xeneralizable permite a súa extensión a novos tipos de control e a outros contornos organizativos.
Dirección
RIOS VIQUEIRA, JOSE RAMON (Titoría)
Graña Omil, Ángel Cotitoría
RIOS VIQUEIRA, JOSE RAMON (Titoría)
Graña Omil, Ángel Cotitoría
Tribunal
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vogal)
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vogal)
FireWatcher: Detección de incendios en etapas tempranas con sistemas de baixa potencia
Autoría
M.J.C.F.
Máster Universitario en Internet das Cousas - IoT
M.J.C.F.
Máster Universitario en Internet das Cousas - IoT
Data da defensa
14.07.2025 11:00
14.07.2025 11:00
Resumo
Este proxecto ten como obxectivo principal o desenvolvemento dun sistema IoT de detección temperá de incendios en zonas rurais illadas. O dispositivo aliméntase con enerxía solar, o que permite o seu funcionamento autónomo e sostible. Emprega sensores de gas, temperatura e humidade para detectar posibles focos de incendios e transmite a información de maneira inalámbrica mediante LoRaWAN. Ademais, tiveronse en conta técnicas de aproveitamento enerxético para prolongar a vida útil do sistema. No futuro, prevese adestrar modelos de predición e despregar unha rede real de sensores.
Este proxecto ten como obxectivo principal o desenvolvemento dun sistema IoT de detección temperá de incendios en zonas rurais illadas. O dispositivo aliméntase con enerxía solar, o que permite o seu funcionamento autónomo e sostible. Emprega sensores de gas, temperatura e humidade para detectar posibles focos de incendios e transmite a información de maneira inalámbrica mediante LoRaWAN. Ademais, tiveronse en conta técnicas de aproveitamento enerxético para prolongar a vida útil do sistema. No futuro, prevese adestrar modelos de predición e despregar unha rede real de sensores.
Dirección
PARDO SECO, FERNANDO RAFAEL (Titoría)
VAZQUEZ ALVAREZ, ALVARO Cotitoría
PARDO SECO, FERNANDO RAFAEL (Titoría)
VAZQUEZ ALVAREZ, ALVARO Cotitoría
Tribunal
CARIÑENA AMIGO, MARIA PURIFICACION (Presidente/a)
Burguillo Rial, Juan Carlos (Secretario/a)
Pardo Martínez, Xoan Carlos (Vogal)
CARIÑENA AMIGO, MARIA PURIFICACION (Presidente/a)
Burguillo Rial, Juan Carlos (Secretario/a)
Pardo Martínez, Xoan Carlos (Vogal)
Aplicación de novos modelos de detección de anomalías en contextos Big Data
Autoría
M.F.L.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
M.F.L.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 16:30
16.07.2025 16:30
Resumo
Nesta memoria abórdase o problema da detección temperá de anomalías en contornos de ciberseguridade corporativa, onde o volume e a velocidade dos datos dificultan a aplicación de solucións tradicionais. O traballo enmárcase nun contexto realista de análise de tráfico de rede e rexistros (logs) que monitorizan o comportamento dos usuarios fronte ás aplicacións, o que permite identificar patróns sospeitosos en escenarios UEBA (User and Entity Behavior Analytics). Neste contexto, propónse e desenvólvese un modelo de Autoencoder Variacional beta (beta-VAE) cunha aproximación de inferencia tipo mean-field, orientado á detección de anomalías e capaz de modelar comportamentos complexos mediante un espazo latente probabilístico. A solución implementouse sobre unha arquitectura escalable baseada en tecnoloxías do ecosistema Big Data como Kafka, Spark e Airflow. A diferenza dos autoencoders clásicos, o VAE ofrece vantaxes na regularización do espazo latente e na cuantificación da incerteza asociada a cada reconstrución, o que mellora a interpretabilidade e explicación das anomalías detectadas. O modelo foi implementado de forma modular e flexible, facilitando o seu axuste e escalabilidade, e avaliouse usando conxuntos de datos públicos representativos do ámbito da ciberseguridade. Os resultados demostran un rendemento competitivo na detección de anomalías, superando nalgúns aspectos os enfoques clásicos e amosando un potencial claro para a súa aplicación en pipelines de procesamento streaming. Ademais, o modelo integrouse nunha infraestrutura profesional e reproducible, capaz de operar en tempo real sobre fluxos masivos de datos, o que representa unha achega significativa para a detección automática de ameazas en contornos Big Data. Finalmente, propoñense liñas de traballo futuras orientadas á aplicación en datos reais, optimización do rendemento e mellora da precisión mediante técnicas avanzadas de interpretación probabilística.
Nesta memoria abórdase o problema da detección temperá de anomalías en contornos de ciberseguridade corporativa, onde o volume e a velocidade dos datos dificultan a aplicación de solucións tradicionais. O traballo enmárcase nun contexto realista de análise de tráfico de rede e rexistros (logs) que monitorizan o comportamento dos usuarios fronte ás aplicacións, o que permite identificar patróns sospeitosos en escenarios UEBA (User and Entity Behavior Analytics). Neste contexto, propónse e desenvólvese un modelo de Autoencoder Variacional beta (beta-VAE) cunha aproximación de inferencia tipo mean-field, orientado á detección de anomalías e capaz de modelar comportamentos complexos mediante un espazo latente probabilístico. A solución implementouse sobre unha arquitectura escalable baseada en tecnoloxías do ecosistema Big Data como Kafka, Spark e Airflow. A diferenza dos autoencoders clásicos, o VAE ofrece vantaxes na regularización do espazo latente e na cuantificación da incerteza asociada a cada reconstrución, o que mellora a interpretabilidade e explicación das anomalías detectadas. O modelo foi implementado de forma modular e flexible, facilitando o seu axuste e escalabilidade, e avaliouse usando conxuntos de datos públicos representativos do ámbito da ciberseguridade. Os resultados demostran un rendemento competitivo na detección de anomalías, superando nalgúns aspectos os enfoques clásicos e amosando un potencial claro para a súa aplicación en pipelines de procesamento streaming. Ademais, o modelo integrouse nunha infraestrutura profesional e reproducible, capaz de operar en tempo real sobre fluxos masivos de datos, o que representa unha achega significativa para a detección automática de ameazas en contornos Big Data. Finalmente, propoñense liñas de traballo futuras orientadas á aplicación en datos reais, optimización do rendemento e mellora da precisión mediante técnicas avanzadas de interpretación probabilística.
Dirección
GALLEGO FONTENLA, VICTOR JOSE (Titoría)
Cereijo García, Pablo Cotitoría
GALLEGO FONTENLA, VICTOR JOSE (Titoría)
Cereijo García, Pablo Cotitoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
Caracterización das condicións oceanográficas mediante agrupamento dinámico do espectro de olas mariñas
Autoría
M.G.L.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
M.G.L.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 16:30
16.07.2025 16:30
Resumo
Este traballo presenta unha metodoloxía para a caracterización das condicións oceanográficas a través do agrupamento de espectros bidimensionais de oleaxe. Para iso, empregouse un modelo bayesiano non paramétrico baseado en Sistemas Lineais Dinámicos sobre procesos Gaussianos Conmutados (SLDS-GP), combinado cun Proceso de Dirichlet Xerárquico (HDP), que permite identificar automaticamente patróns na oleaxe mariña sen fixar previamente o número de grupos, adaptándose á complexidade dos datos observados. A metodoloxía foi aplicada a datos espectrais dunha boia do National Data Buoy Center (NDBC) situada na costa de Carolina do Norte (EE.UU.), correspondentes aos anos 2017 e 2018. A análise permitiu identificar doce clústeres representativos da dinámica mariña na zona, aos que se lles aplicou un procedemento de partición espectral para recoñecer os sistemas de mar presentes e clasificalos segundo o seu significado físico (mar de vento, mar de fondo ou mar de transición). Os resultados amosan que o modelo é capaz de detectar estruturas coherentes nun espazo bidimensional de frecuencia e dirección, así como captar certa dinámica de transicións entre estados, ofrecendo unha representación interpretable das condicións de oleaxe.
Este traballo presenta unha metodoloxía para a caracterización das condicións oceanográficas a través do agrupamento de espectros bidimensionais de oleaxe. Para iso, empregouse un modelo bayesiano non paramétrico baseado en Sistemas Lineais Dinámicos sobre procesos Gaussianos Conmutados (SLDS-GP), combinado cun Proceso de Dirichlet Xerárquico (HDP), que permite identificar automaticamente patróns na oleaxe mariña sen fixar previamente o número de grupos, adaptándose á complexidade dos datos observados. A metodoloxía foi aplicada a datos espectrais dunha boia do National Data Buoy Center (NDBC) situada na costa de Carolina do Norte (EE.UU.), correspondentes aos anos 2017 e 2018. A análise permitiu identificar doce clústeres representativos da dinámica mariña na zona, aos que se lles aplicou un procedemento de partición espectral para recoñecer os sistemas de mar presentes e clasificalos segundo o seu significado físico (mar de vento, mar de fondo ou mar de transición). Os resultados amosan que o modelo é capaz de detectar estruturas coherentes nun espazo bidimensional de frecuencia e dirección, así como captar certa dinámica de transicións entre estados, ofrecendo unha representación interpretable das condicións de oleaxe.
Dirección
FELIX LAMAS, PAULO MANUEL (Titoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotitoría
FELIX LAMAS, PAULO MANUEL (Titoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotitoría
Tribunal
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vogal)
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vogal)
Segmentación de Imaxes Biomédicas Baseada en Modelos Fundacionais Adaptados Sen Reentrenamento e con Estimación da Incerteza
Autoría
F.G.S.
Máster Universitario en Intelixencia Artificial
F.G.S.
Máster Universitario en Intelixencia Artificial
Data da defensa
18.07.2025 09:30
18.07.2025 09:30
Resumo
Dúas limitacións importantes reducen a efectividade das solucións actuais baseadas en aprendizaxe para a segmentación de imaxes biomédicas. Unha delas é que as novas tarefas de segmentación adoitan requirir o adestramento ou axuste fino de novos modelos, un proceso intensivo en recursos que require coñecementos especializados en aprendizaxe automática, frecuentemente fóra do alcance de investigadores e profesionais médicos. A segunda limitación crítica é que a maioría dos métodos existentes só xeran unha única máscara de segmentación determinista, malia a considerable incerteza que adoita existir sobre que é unha segmentación correcta. Esta incerteza xorde tanto da variabilidade inherente dos datos (incerteza aleatoria) como das lagoas no coñecemento do propio modelo (incerteza epistémica). Este traballo aborda especificamente a estimación destas incertezas no proceso de segmentación. Comprendendo e cuantificando estas incertezas, podemos aumentar significativamente a explicabilidade e interpretabilidade dos modelos de segmentación, facilitando unha toma de decisións máis segura e informada en aplicacións médicas críticas. Propoñemos desenvolver un método xeralizado para analizar estes diferentes tipos de incerteza sen necesidade de reentrenar os modelos.
Dúas limitacións importantes reducen a efectividade das solucións actuais baseadas en aprendizaxe para a segmentación de imaxes biomédicas. Unha delas é que as novas tarefas de segmentación adoitan requirir o adestramento ou axuste fino de novos modelos, un proceso intensivo en recursos que require coñecementos especializados en aprendizaxe automática, frecuentemente fóra do alcance de investigadores e profesionais médicos. A segunda limitación crítica é que a maioría dos métodos existentes só xeran unha única máscara de segmentación determinista, malia a considerable incerteza que adoita existir sobre que é unha segmentación correcta. Esta incerteza xorde tanto da variabilidade inherente dos datos (incerteza aleatoria) como das lagoas no coñecemento do propio modelo (incerteza epistémica). Este traballo aborda especificamente a estimación destas incertezas no proceso de segmentación. Comprendendo e cuantificando estas incertezas, podemos aumentar significativamente a explicabilidade e interpretabilidade dos modelos de segmentación, facilitando unha toma de decisións máis segura e informada en aplicacións médicas críticas. Propoñemos desenvolver un método xeralizado para analizar estes diferentes tipos de incerteza sen necesidade de reentrenar os modelos.
Dirección
Pardo López, Xosé Manuel (Titoría)
Pardo López, Xosé Manuel (Titoría)
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vogal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vogal)
Análise preditiva sobre series temporais para a diminución de custos no aprovisionamento de materias primas na industria alimentaria
Autoría
X.I.M.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
X.I.M.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 17:00
16.07.2025 17:00
Resumo
SOSFood é unha iniciativa europea que propón utilizar a explotación masiva de datos e as tecnoloxías de Machine Learning para proporcionar unha visión global do sistema alimentario europeo, construíndo ferramentas preditivas personalizadas que apoien aos actores da cadea alimentaria na toma de decisións ben informadas. Neste traballo desenvólvese un marco de análise preditiva baseado na proposta e aplicación de modelado de series temporais para a diminución de custos no aprovisionamento de materias primas, concretamente para unha empresa grega que participa no proxecto. Úsanse modelos de predicción baseados en métodos estadísticos da familia ARIMA, e métodos baseados en deep learning da arquitecura N-BEATS, que se implementan sobre o caso de uso e realízase unha análise e comparación de resultados valorando a súa fiabilidade de predición e a posterior incorporación no sistema de apoio á decisión.
SOSFood é unha iniciativa europea que propón utilizar a explotación masiva de datos e as tecnoloxías de Machine Learning para proporcionar unha visión global do sistema alimentario europeo, construíndo ferramentas preditivas personalizadas que apoien aos actores da cadea alimentaria na toma de decisións ben informadas. Neste traballo desenvólvese un marco de análise preditiva baseado na proposta e aplicación de modelado de series temporais para a diminución de custos no aprovisionamento de materias primas, concretamente para unha empresa grega que participa no proxecto. Úsanse modelos de predicción baseados en métodos estadísticos da familia ARIMA, e métodos baseados en deep learning da arquitecura N-BEATS, que se implementan sobre o caso de uso e realízase unha análise e comparación de resultados valorando a súa fiabilidade de predición e a posterior incorporación no sistema de apoio á decisión.
Dirección
FELIX LAMAS, PAULO MANUEL (Titoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotitoría
FELIX LAMAS, PAULO MANUEL (Titoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotitoría
Tribunal
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vogal)
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vogal)
Módulo de seguimento automático para obxectos aéreos de longa distancia
Autoría
I.A.M.S.
Máster Universitario en Intelixencia Artificial
I.A.M.S.
Máster Universitario en Intelixencia Artificial
Data da defensa
18.07.2025 10:00
18.07.2025 10:00
Resumo
Esta TFM céntrase na avaliación de diferentes métodos de seguimento integrados en MMTracking, unha biblioteca de código aberto que proporciona implementacións para rastreadores de obxectos individuais e múltiples, explorando as capacidades de cada rastreador en detalle, para identificar o mellor método para maximizar a captura de información relevante sobre o obxecto en movemento. A avaliación realizouse utilizando puntos de referencia coñecidos como MOTChallenge e OTB2015 que proporcionan diversas condicións e escenarios. Os resultados levaron a unha análise exhaustiva de cada método, mostrando cal é o método de seguimento que manexa mellor cada escenario. Ademais, este estudo contribúe á busca continua de algoritmos de seguimento ao proporcionar información e identificar áreas de mellora.
Esta TFM céntrase na avaliación de diferentes métodos de seguimento integrados en MMTracking, unha biblioteca de código aberto que proporciona implementacións para rastreadores de obxectos individuais e múltiples, explorando as capacidades de cada rastreador en detalle, para identificar o mellor método para maximizar a captura de información relevante sobre o obxecto en movemento. A avaliación realizouse utilizando puntos de referencia coñecidos como MOTChallenge e OTB2015 que proporcionan diversas condicións e escenarios. Os resultados levaron a unha análise exhaustiva de cada método, mostrando cal é o método de seguimento que manexa mellor cada escenario. Ademais, este estudo contribúe á busca continua de algoritmos de seguimento ao proporcionar información e identificar áreas de mellora.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
Blanco Freire, Lara Cotitoría
Dago Casas, Pablo Cotitoría
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
Blanco Freire, Lara Cotitoría
Dago Casas, Pablo Cotitoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vogal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vogal)
KIME: Kumite Intelligent Movement Evaluation
Autoría
H.M.C.
Máster Universitario en Intelixencia Artificial
H.M.C.
Máster Universitario en Intelixencia Artificial
Data da defensa
18.07.2025 10:30
18.07.2025 10:30
Resumo
Este traballo aborda o reto de analizar obxectivamente combates de kárate (kumite), nos que se deben xulgar técnicas rápidas e precisas en tempo real, mediante o uso da visión por computadora e a aprendizaxe profunda, todo elo unicamente a partir de gravacións de vídeo. A arbitraxe tradicional baséase en xuíces humanos, o que introduce subxectividade, posibles nesgos e unha capacidade limitada para procesar grandes volumes de imaxes para a valoración de atletas e do seu rendemento. Para superar estas limitacións, desenvolvéronse tres compoñentes interrelacionados: En primeiro lugar, deseñouse un proceso de extracción de datos para localizar e segmentar momentos de interese en vídeos de partidos completos. Combinando a detección de cambios no marcador mediante unha CNN lixeira e a validación manual, xerouse un conxunto de datos de accións puntuables e non puntuables. En segundo lugar, creouse un fluxo de traballo para distinguir aos dous loitadores, Aka e Ao, mediante a detección dos límites do tatami, a detección de persoas, a segmentación de instancias e o filtrado baseado na cor. A continuación, aplicouse o seguimento de obxectos para reducir a carga computacional e manter a coherencia da identidade entre os fotogramas, o que deu como resultado un conxunto de datos validado para clasificación. Por último, exploráronse estratexias de aprendizaxe por transferencia para clasificar fotogramas individuais como accións puntuables ou non puntuables e determinar o karateka que obtén unha cantidade concreta de puntos. Comparáronse dous enfoques: conxelar o extractor de características dun modelo preadestrado e axustar só a súa cabeceira de clasificación, fronte realizar axuste fino das capas superiores do extractor de características e da cabeceira do modelo. A estratexia que mantén intacto o extractor de características demostrou unha maior xeneralización e un baixo índice de falsos positivos, un atributo esencial para a integración no mundo real de sistemas semiautomatizados de avaliación ou análise. En conxunto, este traballo demostra a viabilidade dunha solución non intrusiva, baseada unicamente en vídeo, para a análise de Kumite e senta as bases para un desenvolvemento máis profundo con vistas ao seu despregamento en tempo real, unha mellor capacidade de explicación e unha maior comprensión táctica.
Este traballo aborda o reto de analizar obxectivamente combates de kárate (kumite), nos que se deben xulgar técnicas rápidas e precisas en tempo real, mediante o uso da visión por computadora e a aprendizaxe profunda, todo elo unicamente a partir de gravacións de vídeo. A arbitraxe tradicional baséase en xuíces humanos, o que introduce subxectividade, posibles nesgos e unha capacidade limitada para procesar grandes volumes de imaxes para a valoración de atletas e do seu rendemento. Para superar estas limitacións, desenvolvéronse tres compoñentes interrelacionados: En primeiro lugar, deseñouse un proceso de extracción de datos para localizar e segmentar momentos de interese en vídeos de partidos completos. Combinando a detección de cambios no marcador mediante unha CNN lixeira e a validación manual, xerouse un conxunto de datos de accións puntuables e non puntuables. En segundo lugar, creouse un fluxo de traballo para distinguir aos dous loitadores, Aka e Ao, mediante a detección dos límites do tatami, a detección de persoas, a segmentación de instancias e o filtrado baseado na cor. A continuación, aplicouse o seguimento de obxectos para reducir a carga computacional e manter a coherencia da identidade entre os fotogramas, o que deu como resultado un conxunto de datos validado para clasificación. Por último, exploráronse estratexias de aprendizaxe por transferencia para clasificar fotogramas individuais como accións puntuables ou non puntuables e determinar o karateka que obtén unha cantidade concreta de puntos. Comparáronse dous enfoques: conxelar o extractor de características dun modelo preadestrado e axustar só a súa cabeceira de clasificación, fronte realizar axuste fino das capas superiores do extractor de características e da cabeceira do modelo. A estratexia que mantén intacto o extractor de características demostrou unha maior xeneralización e un baixo índice de falsos positivos, un atributo esencial para a integración no mundo real de sistemas semiautomatizados de avaliación ou análise. En conxunto, este traballo demostra a viabilidade dunha solución non intrusiva, baseada unicamente en vídeo, para a análise de Kumite e senta as bases para un desenvolvemento máis profundo con vistas ao seu despregamento en tempo real, unha mellor capacidade de explicación e unha maior comprensión táctica.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
RODRIGUEZ FERNANDEZ, ISMAEL Cotitoría
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
RODRIGUEZ FERNANDEZ, ISMAEL Cotitoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vogal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vogal)
Análise de estratexias de aprendizaxe federada robustas a datos heteroxéneos
Autoría
R.M.E.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
R.M.E.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
15.07.2025 16:00
15.07.2025 16:00
Resumo
A aprendizaxe federada (AF) permite adestrar modelos de forma descentralizada sen compartir datos sensibles, mais sofre importantes limitacións en contextos con datos heteroxéneos. Os algoritmos tradicionais tenden a fallar na xeneralización global ou na personalización local. Este traballo presenta FLProtector, un marco dual no que cada cliente aprende un incremento local sobre un modelo global compartido, e decide dinamicamente que modelo utilizar en inferencia mediante un autoencoder adestrado localmente para detectar entradas fóra de distribución. Ademais, FLProtector incorpora un mecanismo de agregación robusto baseado na consistencia de gradientes, que atenúa a influencia de clientes con actualizacións que se desvían do rumbo global agardado. A proposta é avaliada baixo distintos niveis de heteroxeneidade no benchmark Digit-Five, mostrando melloras consistentes fronte métodos clásicos e de personalización do estado da arte, logrando un equilibrio efectivo entre personalización e xeneralización. O sistema mantén o seu rendemento incluso ante clientes estritamente maliciosos, e o estudo por capas confirma a relevancia de cada unha das súas compoñentes. Por último, a proposta salienta por non requerir unha sintonización sensible de hiperparámetros, o que facilita a súa aplicabilidade en escenarios reais.
A aprendizaxe federada (AF) permite adestrar modelos de forma descentralizada sen compartir datos sensibles, mais sofre importantes limitacións en contextos con datos heteroxéneos. Os algoritmos tradicionais tenden a fallar na xeneralización global ou na personalización local. Este traballo presenta FLProtector, un marco dual no que cada cliente aprende un incremento local sobre un modelo global compartido, e decide dinamicamente que modelo utilizar en inferencia mediante un autoencoder adestrado localmente para detectar entradas fóra de distribución. Ademais, FLProtector incorpora un mecanismo de agregación robusto baseado na consistencia de gradientes, que atenúa a influencia de clientes con actualizacións que se desvían do rumbo global agardado. A proposta é avaliada baixo distintos niveis de heteroxeneidade no benchmark Digit-Five, mostrando melloras consistentes fronte métodos clásicos e de personalización do estado da arte, logrando un equilibrio efectivo entre personalización e xeneralización. O sistema mantén o seu rendemento incluso ante clientes estritamente maliciosos, e o estudo por capas confirma a relevancia de cada unha das súas compoñentes. Por último, a proposta salienta por non requerir unha sintonización sensible de hiperparámetros, o que facilita a súa aplicabilidade en escenarios reais.
Dirección
IGLESIAS RODRIGUEZ, ROBERTO (Titoría)
GARCIA POLO, FRANCISCO JAVIER Cotitoría
IGLESIAS RODRIGUEZ, ROBERTO (Titoría)
GARCIA POLO, FRANCISCO JAVIER Cotitoría
Tribunal
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vogal)
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vogal)
Simulación de estratexias de baloncesto a través de Aprendizaxe Reforzado nun entorno de xogo de mesa
Autoría
L.M.L.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
L.M.L.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
15.07.2025 17:00
15.07.2025 17:00
Resumo
O Aprendizaxe Reforzado é unha técnica avanzada de intelixencia artificial que permite a un axente aprender a tomar decisións óptimas mediante a interacción co seu entorno e a retroalimentación recibida en forma de recompensas. Este Traballo Fin de Máster explora a súa aplicación no ámbito deportivo, concretamente no baloncesto, mediante o desenvolvemento dun entorno simulado implementado cunha arquitectura modular. Para iso, utilizouse a biblioteca Gymnasium para a definición do entorno, Pygame para a visualización e MLflow para a xestión e seguimento dos experimentos, o que facilitou o análise do axente. O entorno, estruturado sobre un taboleiro dividido en celas que representa o campo de baloncesto, permite aos xogadores desprazarse, pasar o balón ou lanzar á canastra segundo unhas regras definidas. A simulación desenvolveuse a través de catro versións progresivas, cada unha introducindo un maior nivel de complexidade: dende un axente illado sen oposición, pasando pola incorporación da acción de pase e probabilidades de acerto, até chegar a unha versión avanzada con defensa activa, roles funcionais diferenciados e datos reais extraídos da NBA. Ao longo do adestramento, o axente mostrou unha evolución clara: dende accións impulsivas como lanzamentos inmediatos, ata estratexias máis elaboradas nas versións avanzadas, priorizando a conservación da posesión, a busca de espazos e a selección do xogador máis adecuado para lanzar. Para avaliar esta progresión definíronse métricas específicas como a recompensa media por episodio, a duración das xogadas, o porcentaxe de tiros tempráns e mapas de calor que mostran a distribución espacial dos eventos relevantes. A integración de datos reais da NBA permitiu analizar a capacidade do axente para adaptar as súas decisións a perfís funcionais como bases, alears ou pívots, evidenciando unha comprensión parcial da lóxica táctica do baloncesto. Aínda que o sistema presenta certas limitacións, como o mapeamento de datos reais ao taboleiro ou unha penalización defensiva excesiva, os resultados obtidos indican a viabilidade do aprendizaxe reforzado para simular comportamentos tácticos deportivos. Ademais, este traballo establece unha base sólida para futuras ampliacións, entre as que destacan o adestramento multiaxente con coordinación descentralizada, o aprendizaxe defensivo autónomo ou a simulación de secuencias completas de xogo que inclúan reinicios, faltas e cambios de posesión. Todo iso achega o modelo a unha representación máis funcional e realista do baloncesto.
O Aprendizaxe Reforzado é unha técnica avanzada de intelixencia artificial que permite a un axente aprender a tomar decisións óptimas mediante a interacción co seu entorno e a retroalimentación recibida en forma de recompensas. Este Traballo Fin de Máster explora a súa aplicación no ámbito deportivo, concretamente no baloncesto, mediante o desenvolvemento dun entorno simulado implementado cunha arquitectura modular. Para iso, utilizouse a biblioteca Gymnasium para a definición do entorno, Pygame para a visualización e MLflow para a xestión e seguimento dos experimentos, o que facilitou o análise do axente. O entorno, estruturado sobre un taboleiro dividido en celas que representa o campo de baloncesto, permite aos xogadores desprazarse, pasar o balón ou lanzar á canastra segundo unhas regras definidas. A simulación desenvolveuse a través de catro versións progresivas, cada unha introducindo un maior nivel de complexidade: dende un axente illado sen oposición, pasando pola incorporación da acción de pase e probabilidades de acerto, até chegar a unha versión avanzada con defensa activa, roles funcionais diferenciados e datos reais extraídos da NBA. Ao longo do adestramento, o axente mostrou unha evolución clara: dende accións impulsivas como lanzamentos inmediatos, ata estratexias máis elaboradas nas versións avanzadas, priorizando a conservación da posesión, a busca de espazos e a selección do xogador máis adecuado para lanzar. Para avaliar esta progresión definíronse métricas específicas como a recompensa media por episodio, a duración das xogadas, o porcentaxe de tiros tempráns e mapas de calor que mostran a distribución espacial dos eventos relevantes. A integración de datos reais da NBA permitiu analizar a capacidade do axente para adaptar as súas decisións a perfís funcionais como bases, alears ou pívots, evidenciando unha comprensión parcial da lóxica táctica do baloncesto. Aínda que o sistema presenta certas limitacións, como o mapeamento de datos reais ao taboleiro ou unha penalización defensiva excesiva, os resultados obtidos indican a viabilidade do aprendizaxe reforzado para simular comportamentos tácticos deportivos. Ademais, este traballo establece unha base sólida para futuras ampliacións, entre as que destacan o adestramento multiaxente con coordinación descentralizada, o aprendizaxe defensivo autónomo ou a simulación de secuencias completas de xogo que inclúan reinicios, faltas e cambios de posesión. Todo iso achega o modelo a unha representación máis funcional e realista do baloncesto.
Dirección
Losada Carril, David Enrique (Titoría)
González López, Manuel Cotitoría
Losada Carril, David Enrique (Titoría)
González López, Manuel Cotitoría
Tribunal
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vogal)
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vogal)
Optimización da Xestión de Recursos Humanos: Asignación, Viabilidade e Análise de Rendemento en Proxecto
Autoría
B.M.V.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
B.M.V.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 17:30
16.07.2025 17:30
Resumo
Este Traballo de Fin de Máster ten como obxectivo principal deseñar e implementar un sistema para a asignación eficiente de recursos humanos a proxectos empresariais, baseándose en técnicas avanzadas de análise de datos e aprendizaxe automático. O sistema aborda un problema real de planificación en entornos dinámicos, integrando múltiples variables como habilidades do persoal, carga de traballo, tempos de ejecución, e experiencia previa, para realizar recomendacións personalizadas de asignación de tarefas. Pártese de datos extraídos desde Jira, plataforma de xestión de proxectos, aplicando técnicas de limpeza, anonimización e enriquecemento semántico. O modelo de predición estructúrase en varios módulos funcionais: estimación de tempos, clasificación de habilidades, xeración de perfís técnicos de empregados e predición de candidatos óptimos. A arquitectura do sistema apoiase nunha base de datos relacional PostgreSQL e orquéstase mediante scripts automatizados despregados con Docker, con posibilidade de execución manual ou periódica. Os resultados xerados preséntanse nun ficheiro Excel con follas estructuradas para facilitar o análise por parte de xestores, incluindo filtros por tarefas, empregados e proxectos. A avaliación do sistema realizouse en colaboración cun xestor de proxectos, validando a utilidade das recomendacións nun entorno real. Nas conclusións recoñécense as limitacións do sistema, como a ausencia de variables subxectivas (motivacións, preferencias) e a necesidade de mellorar a granularidade na asignación da experiencia por habilidade. Finalmente, propoñense liñas de mellora futura, como a integración dun calendario laboral, o uso de dashboards interactivos (Power BI), a expansión do conxunto de datos pre-etiquetados, e a adopción de ferramentas avanzadas de orquestación como Apache Airflow. Este proxecto representa unha solución modular, escalable e baseada en datos para optimizar a xestión do talento humano en organizacións, cun enfoque práctico e orientado a toma de decisións estratéxicas.
Este Traballo de Fin de Máster ten como obxectivo principal deseñar e implementar un sistema para a asignación eficiente de recursos humanos a proxectos empresariais, baseándose en técnicas avanzadas de análise de datos e aprendizaxe automático. O sistema aborda un problema real de planificación en entornos dinámicos, integrando múltiples variables como habilidades do persoal, carga de traballo, tempos de ejecución, e experiencia previa, para realizar recomendacións personalizadas de asignación de tarefas. Pártese de datos extraídos desde Jira, plataforma de xestión de proxectos, aplicando técnicas de limpeza, anonimización e enriquecemento semántico. O modelo de predición estructúrase en varios módulos funcionais: estimación de tempos, clasificación de habilidades, xeración de perfís técnicos de empregados e predición de candidatos óptimos. A arquitectura do sistema apoiase nunha base de datos relacional PostgreSQL e orquéstase mediante scripts automatizados despregados con Docker, con posibilidade de execución manual ou periódica. Os resultados xerados preséntanse nun ficheiro Excel con follas estructuradas para facilitar o análise por parte de xestores, incluindo filtros por tarefas, empregados e proxectos. A avaliación do sistema realizouse en colaboración cun xestor de proxectos, validando a utilidade das recomendacións nun entorno real. Nas conclusións recoñécense as limitacións do sistema, como a ausencia de variables subxectivas (motivacións, preferencias) e a necesidade de mellorar a granularidade na asignación da experiencia por habilidade. Finalmente, propoñense liñas de mellora futura, como a integración dun calendario laboral, o uso de dashboards interactivos (Power BI), a expansión do conxunto de datos pre-etiquetados, e a adopción de ferramentas avanzadas de orquestación como Apache Airflow. Este proxecto representa unha solución modular, escalable e baseada en datos para optimizar a xestión do talento humano en organizacións, cun enfoque práctico e orientado a toma de decisións estratéxicas.
Dirección
Sánchez Vila, Eduardo Manuel (Titoría)
Ramos Macías, Óscar Cotitoría
Sánchez Vila, Eduardo Manuel (Titoría)
Ramos Macías, Óscar Cotitoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
Desenvolvemento dunha ferramenta baseada en visión por computador para a detección automática de tiros en baloncesto e a análise da posición na pista.
Autoría
A.M.R.
Máster Universitario en Intelixencia Artificial
A.M.R.
Máster Universitario en Intelixencia Artificial
Data da defensa
17.07.2025 09:30
17.07.2025 09:30
Resumo
Este traballo presenta un sistema modular de visión por computador para a detección automática de tiros en baloncesto e a análise da posición en pista a partir de gravacións cunha soa cámara. Co obxectivo de democratizar o acceso á analítica deportiva e reducir a dependencia da anotación manual, a ferramenta integra técnicas de vangarda en detección de obxectos (YOLO e RT-DETR), seguimento (ByteTrack) e mapeo de pista baseado en homografía para posicionar aos xogadores. Detecta intentos de tiro, clasifica os resultados (encestado/fallado), asigna a posesión e xera tanto vídeos anotados como conxuntos de datos estruturados. Avaliado con vídeos reais de partidos amateurs, o sistema demostra un rendemento robusto en métricas espaciais, temporais e de clasificación. Estes resultados subliñan o seu potencial como unha solución práctica e accesible para a análise automatizada de partidos de baloncesto.
Este traballo presenta un sistema modular de visión por computador para a detección automática de tiros en baloncesto e a análise da posición en pista a partir de gravacións cunha soa cámara. Co obxectivo de democratizar o acceso á analítica deportiva e reducir a dependencia da anotación manual, a ferramenta integra técnicas de vangarda en detección de obxectos (YOLO e RT-DETR), seguimento (ByteTrack) e mapeo de pista baseado en homografía para posicionar aos xogadores. Detecta intentos de tiro, clasifica os resultados (encestado/fallado), asigna a posesión e xera tanto vídeos anotados como conxuntos de datos estruturados. Avaliado con vídeos reais de partidos amateurs, o sistema demostra un rendemento robusto en métricas espaciais, temporais e de clasificación. Estes resultados subliñan o seu potencial como unha solución práctica e accesible para a análise automatizada de partidos de baloncesto.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
MALLO ANTELO, JAIME Cotitoría
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
MALLO ANTELO, JAIME Cotitoría
Tribunal
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Modelos de voz do estado da arte para o galego empregando un corpus TTS de tamaño medio
Autoría
A.M.S.
Máster Universitario en Intelixencia Artificial
A.M.S.
Máster Universitario en Intelixencia Artificial
Data da defensa
17.07.2025 10:00
17.07.2025 10:00
Resumo
A síntese de texto a voz (TTS) desempeña un papel crucial na interacción persoa-ordenador e segue sendo un tema de investigación candente nas comunidades de tecnoloxía da fala e aprendizaxe automática. Cos avances nas técnicas de aprendizaxe profunda e o aumento da potencia informática, os sistemas TTS baseados en redes neuronais profundas xurdiron como unha potente alternativa aos métodos tradicionais. Recentemente, os modelos TTS de aprendizaxe profunda de extremo a extremo produciron impresionantes resultados de son natural e alta calidade. Con todo, estender estes modelos a múltiples idiomas e falantes é un reto, especialmente para idiomas de recursos baixos a medios como o galego. No noso estudo, utilizamos un conxunto de datos aberto de TTS galego de pequeno a mediano tamaño para adestrar diferentes modelos de voz en galego. Tamén aplicamos a xeración de datos sintéticos para abordar as deficiencias identificadas no conxunto de datos orixinal. Exploramos arquitecturas de última xeración, incluíndo o adestramento desde cero e técnicas de aprendizaxe por transferencia. Os modelos resultantes valídanse e compáranse mediante avaliacións subxectivas e automáticas.
A síntese de texto a voz (TTS) desempeña un papel crucial na interacción persoa-ordenador e segue sendo un tema de investigación candente nas comunidades de tecnoloxía da fala e aprendizaxe automática. Cos avances nas técnicas de aprendizaxe profunda e o aumento da potencia informática, os sistemas TTS baseados en redes neuronais profundas xurdiron como unha potente alternativa aos métodos tradicionais. Recentemente, os modelos TTS de aprendizaxe profunda de extremo a extremo produciron impresionantes resultados de son natural e alta calidade. Con todo, estender estes modelos a múltiples idiomas e falantes é un reto, especialmente para idiomas de recursos baixos a medios como o galego. No noso estudo, utilizamos un conxunto de datos aberto de TTS galego de pequeno a mediano tamaño para adestrar diferentes modelos de voz en galego. Tamén aplicamos a xeración de datos sintéticos para abordar as deficiencias identificadas no conxunto de datos orixinal. Exploramos arquitecturas de última xeración, incluíndo o adestramento desde cero e técnicas de aprendizaxe por transferencia. Os modelos resultantes valídanse e compáranse mediante avaliacións subxectivas e automáticas.
Dirección
BUGARIN DIZ, ALBERTO JOSE (Titoría)
MAGARIÑOS IGLESIAS, MARIA DEL CARMEN Cotitoría
BUGARIN DIZ, ALBERTO JOSE (Titoría)
MAGARIÑOS IGLESIAS, MARIA DEL CARMEN Cotitoría
Tribunal
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Detección de anomalías mediante modelos de autocodificadores en contornos industriais
Autoría
F.M.S.
Máster Universitario en Intelixencia Artificial
F.M.S.
Máster Universitario en Intelixencia Artificial
Data da defensa
17.07.2025 10:30
17.07.2025 10:30
Resumo
O aumento da conectividade e a automatización nos contornos da Industria 4.0 introduciu novos retos para garantir a fiabilidade e a seguridade operativas. A detección de anomalías desempeña un papel crucial na identificación de fallos e ciberataques que poderían comprometer os sistemas de produción. Este traballo investiga o uso de modelos baseados en autocodificadores para a detección non supervisada de anomalías tanto no tráfico de rede como nos datos de sensores, recollidos dun sistema de produción de cócteles simulado. Empregase un autocodificador totalmente conectado para detectar desviacións nos fluxos de rede Modbus, mentres que se utiliza un autocodificador LSTM secuencia a secuencia para modelar patróns temporais en fluxos de sensores multivariantes. Ambos modelos adéstranse con datos normais e avalíanse en escenarios de ataque realistas, como a manipulación de rexistros Modbus e a denegación de servizo SYN Flood. Os resultados experimentais demostran que os autocodificadores poden detectar eficazmente anomalías en contornos industriais, e que os modelos baseados en LSTM ofrecen un mellor rendemento en contornos con comportamento cíclico.
O aumento da conectividade e a automatización nos contornos da Industria 4.0 introduciu novos retos para garantir a fiabilidade e a seguridade operativas. A detección de anomalías desempeña un papel crucial na identificación de fallos e ciberataques que poderían comprometer os sistemas de produción. Este traballo investiga o uso de modelos baseados en autocodificadores para a detección non supervisada de anomalías tanto no tráfico de rede como nos datos de sensores, recollidos dun sistema de produción de cócteles simulado. Empregase un autocodificador totalmente conectado para detectar desviacións nos fluxos de rede Modbus, mentres que se utiliza un autocodificador LSTM secuencia a secuencia para modelar patróns temporais en fluxos de sensores multivariantes. Ambos modelos adéstranse con datos normais e avalíanse en escenarios de ataque realistas, como a manipulación de rexistros Modbus e a denegación de servizo SYN Flood. Os resultados experimentais demostran que os autocodificadores poden detectar eficazmente anomalías en contornos industriais, e que os modelos baseados en LSTM ofrecen un mellor rendemento en contornos con comportamento cíclico.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Titoría)
Pérez Vilarelle, Laura Cotitoría
CARIÑENA AMIGO, MARIA PURIFICACION (Titoría)
Pérez Vilarelle, Laura Cotitoría
Tribunal
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Evolución Avanzada dun Sistema de Datos de Fórmula 1: Análise Predictiva e Novas Métricas
Autoría
L.P.M.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
L.P.M.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
15.07.2025 17:30
15.07.2025 17:30
Resumo
Este proxecto presenta o desenvolvemento dun sistema integral de análise e predición centrado no ámbito da Fórmula 1, combinando técnicas de aprendizaxe automática, procesamento de datos e visualización interactiva. Xorde como resposta á falta de ferramentas abertas, accesibles e tecnicamente sólidas que permitan explorar o rendemento de pilotos e equipos desde unha perspectiva analítica. A solución proposta estrutúrase arredor dunha base de datos completa e actualizada, deseñada para integrar información técnica, meteorolóxica e contextual sobre cada sesión de carreira, e alimentada mediante procesos de automatización que permiten a recollida, limpeza e normalización continua dos datos. A partir desta base, construíronse modelos de regresión capaces de estimar tanto o tempo de clasificación como o tempo ideal de volta, utilizando algoritmos avanzados como XGBoost, Random Forest e redes neuronais multicapa. Estes modelos entrénanse e valídanse mediante técnicas robustas, considerando a natureza variable e dinámica dos datos na Fórmula 1. Ademais dos modelos predictivos, o sistema inclúe un conxunto de métricas personalizadas que permiten avaliar o rendemento relativo dos pilotos, identificar desviacións sistemáticas respecto ao esperado e analizar decisións estratéxicas como as eleccións de pneumáticos e a eficiencia en carreira. Estes indicadores ofrecen unha visión máis rica e contextualizada que as métricas tradicionais. Toda a análise intégrase nunha interface interactiva desenvolvida con Streamlit, que se conecta en tempo real cunha base de datos aloxada en Snowflake. Esta ferramenta permite explorar visualmente tanto as predicións como as métricas, adaptándose a distintos perfís de usuario, desde técnicos ata afeccionados.
Este proxecto presenta o desenvolvemento dun sistema integral de análise e predición centrado no ámbito da Fórmula 1, combinando técnicas de aprendizaxe automática, procesamento de datos e visualización interactiva. Xorde como resposta á falta de ferramentas abertas, accesibles e tecnicamente sólidas que permitan explorar o rendemento de pilotos e equipos desde unha perspectiva analítica. A solución proposta estrutúrase arredor dunha base de datos completa e actualizada, deseñada para integrar información técnica, meteorolóxica e contextual sobre cada sesión de carreira, e alimentada mediante procesos de automatización que permiten a recollida, limpeza e normalización continua dos datos. A partir desta base, construíronse modelos de regresión capaces de estimar tanto o tempo de clasificación como o tempo ideal de volta, utilizando algoritmos avanzados como XGBoost, Random Forest e redes neuronais multicapa. Estes modelos entrénanse e valídanse mediante técnicas robustas, considerando a natureza variable e dinámica dos datos na Fórmula 1. Ademais dos modelos predictivos, o sistema inclúe un conxunto de métricas personalizadas que permiten avaliar o rendemento relativo dos pilotos, identificar desviacións sistemáticas respecto ao esperado e analizar decisións estratéxicas como as eleccións de pneumáticos e a eficiencia en carreira. Estes indicadores ofrecen unha visión máis rica e contextualizada que as métricas tradicionais. Toda a análise intégrase nunha interface interactiva desenvolvida con Streamlit, que se conecta en tempo real cunha base de datos aloxada en Snowflake. Esta ferramenta permite explorar visualmente tanto as predicións como as métricas, adaptándose a distintos perfís de usuario, desde técnicos ata afeccionados.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
Curra Durán, Alberto Cotitoría
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
Curra Durán, Alberto Cotitoría
Tribunal
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vogal)
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vogal)
Scraping e análise de autoría: identificación de patróns de escritura en foros en liña mediante modelos de aprendizaxe automática
Autoría
R.R.J.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
R.R.J.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 16:00
16.07.2025 16:00
Resumo
Nun ambiente dixital caracterizado polo anonimato e o auxe das identidades falsas, a atribución de autoría emerxe como unha ferramenta esencial para inferir quen está detrás dun texto en función do seu estilo lingüístico. Este traballo aborda a atribución de autoría en foros en liña, cunha atención especial aos usuarios involucrados en discusións sobre transaccións de criptomoedas. Para este fin, recolléronse datos mediante técnicas de extracción web, seleccionando publicacións de autores previamente identificados. Os textos foron preprocesados e representados mediante n-gramas de caracteres, aplicando esquemas de vectorización como TF-IDF. Despois adestráronse e avaliáronse diferentes modelos de clasificación, que van desde enfoques tradicionais como SVM, Rocchio ou Random Forest ata modelos de linguaxe profunda como BERT. Os resultados permiten comparar o rendemento dos diferentes modelos e analizar a súa capacidade para identificar patróns estilísticos persistentes mesmo cando os usuarios operan con contas desbotables ou varios alias.
Nun ambiente dixital caracterizado polo anonimato e o auxe das identidades falsas, a atribución de autoría emerxe como unha ferramenta esencial para inferir quen está detrás dun texto en función do seu estilo lingüístico. Este traballo aborda a atribución de autoría en foros en liña, cunha atención especial aos usuarios involucrados en discusións sobre transaccións de criptomoedas. Para este fin, recolléronse datos mediante técnicas de extracción web, seleccionando publicacións de autores previamente identificados. Os textos foron preprocesados e representados mediante n-gramas de caracteres, aplicando esquemas de vectorización como TF-IDF. Despois adestráronse e avaliáronse diferentes modelos de clasificación, que van desde enfoques tradicionais como SVM, Rocchio ou Random Forest ata modelos de linguaxe profunda como BERT. Os resultados permiten comparar o rendemento dos diferentes modelos e analizar a súa capacidade para identificar patróns estilísticos persistentes mesmo cando os usuarios operan con contas desbotables ou varios alias.
Dirección
Losada Carril, David Enrique (Titoría)
Pérez Vilarelle, Laura Cotitoría
Losada Carril, David Enrique (Titoría)
Pérez Vilarelle, Laura Cotitoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
Desenvolvemento dun Data Operating System (Data OS) asistido por IA
Autoría
A.R.P.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
A.R.P.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 17:30
16.07.2025 17:30
Resumo
Este traballo presenta a implementación dun sistema de inxesta baseado en metadatos sobre a plataforma Microsoft Fabric. O obxectivo principal foi migrar e adaptar un framework desenvolvido orixinalmente en Azure Data Factory, mantendo a súa lóxica funcional pero aproveitando as capacidades nativas do novo contorno. O sistema está deseñado para executar cargas de datos desde orixes heteroxéneas cara a un contorno analítico na nube. Todo o proceso está dirixido por metadatos definidos externamente mediante ficheiros estruturados que describen o comportamento de cada obxecto sen necesidade de modificar código. O documento inclúe unha análise detallada do framework orixinal, o proceso de migración técnica, as melloras implementadas e os resultados obtidos, así como unha proposta de seguintes pasos para continuar coa súa evolución dentro do ecosistema corporativo.
Este traballo presenta a implementación dun sistema de inxesta baseado en metadatos sobre a plataforma Microsoft Fabric. O obxectivo principal foi migrar e adaptar un framework desenvolvido orixinalmente en Azure Data Factory, mantendo a súa lóxica funcional pero aproveitando as capacidades nativas do novo contorno. O sistema está deseñado para executar cargas de datos desde orixes heteroxéneas cara a un contorno analítico na nube. Todo o proceso está dirixido por metadatos definidos externamente mediante ficheiros estruturados que describen o comportamento de cada obxecto sen necesidade de modificar código. O documento inclúe unha análise detallada do framework orixinal, o proceso de migración técnica, as melloras implementadas e os resultados obtidos, así como unha proposta de seguintes pasos para continuar coa súa evolución dentro do ecosistema corporativo.
Dirección
RIOS VIQUEIRA, JOSE RAMON (Titoría)
Acedo Nieto, Carlos Cotitoría
Martínez Torres, María Cotitoría
RIOS VIQUEIRA, JOSE RAMON (Titoría)
Acedo Nieto, Carlos Cotitoría
Martínez Torres, María Cotitoría
Tribunal
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vogal)
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vogal)
Sistema IoT para comunicacións oportunistas en entornos marítimo-costeiros
Autoría
R.J.S.G.
Máster Universitario en Internet das Cousas - IoT
R.J.S.G.
Máster Universitario en Internet das Cousas - IoT
Data da defensa
14.07.2025 11:30
14.07.2025 11:30
Resumo
Aínda que a dixitalización e o IoT están chegando a moitos sectores da sociedade e a industria, o sector primario, e especialmente aquelas partes máis tradicionalistas do mesmo como as actividades de marisqueo, estanse quedando bastante atrás na incorporación das novas tecnoloxías. A resistencia ao cambio e a dificultade de implementación de solucións no mar provoca que as bateas non conten con ningún mecanismo de control ou monitorización dixital. Isto provoca a baixa eficiencia do sector. Neste traballo proponse a creación dun sistema IoT que poida ser exposto ás extremas condicións do mar para monitorizar certas variables de interese. En particular, púxose o foco no control da produción de mexillón nas bateas a partir da medida do seu afundimento, que se produce polo engorde do produto. Dita creación foi o resultado de varias fases sucesivas de deseño, implementación e probas do sistema. O resultado final é un dispositivo que demostrou ser capaz de enviar datos de forma segura dende o mar, aproveitándose da tecnoloxía de comunicación LoRaWAN, e empregando un sistema de colleita e almacenamento de enerxía baseado en paneis solares. Os datos enviados póñense a disposición do usuario almacenados nunha base de datos de series temporais, pudendo visualizalos a través dun panel de control. Todo isto construíuse seguindo o paradigma do Edge Computing Oportunista, realizando o procesamento da información o máis preto posible dos dispositivos finais, non sobrecargando as infraestruturas do Cloud e permitindo unha cobertura flexible gracias ao posible movemento dos Gateaways de acceso ao Cloud ás zonas desertas de cobertura.
Aínda que a dixitalización e o IoT están chegando a moitos sectores da sociedade e a industria, o sector primario, e especialmente aquelas partes máis tradicionalistas do mesmo como as actividades de marisqueo, estanse quedando bastante atrás na incorporación das novas tecnoloxías. A resistencia ao cambio e a dificultade de implementación de solucións no mar provoca que as bateas non conten con ningún mecanismo de control ou monitorización dixital. Isto provoca a baixa eficiencia do sector. Neste traballo proponse a creación dun sistema IoT que poida ser exposto ás extremas condicións do mar para monitorizar certas variables de interese. En particular, púxose o foco no control da produción de mexillón nas bateas a partir da medida do seu afundimento, que se produce polo engorde do produto. Dita creación foi o resultado de varias fases sucesivas de deseño, implementación e probas do sistema. O resultado final é un dispositivo que demostrou ser capaz de enviar datos de forma segura dende o mar, aproveitándose da tecnoloxía de comunicación LoRaWAN, e empregando un sistema de colleita e almacenamento de enerxía baseado en paneis solares. Os datos enviados póñense a disposición do usuario almacenados nunha base de datos de series temporais, pudendo visualizalos a través dun panel de control. Todo isto construíuse seguindo o paradigma do Edge Computing Oportunista, realizando o procesamento da información o máis preto posible dos dispositivos finais, non sobrecargando as infraestruturas do Cloud e permitindo unha cobertura flexible gracias ao posible movemento dos Gateaways de acceso ao Cloud ás zonas desertas de cobertura.
Dirección
Cotos Yáñez, José Manuel (Titoría)
Fernández Caramés, Tiago Cotitoría
Cotos Yáñez, José Manuel (Titoría)
Fernández Caramés, Tiago Cotitoría
Tribunal
CARIÑENA AMIGO, MARIA PURIFICACION (Presidente/a)
Burguillo Rial, Juan Carlos (Secretario/a)
Pardo Martínez, Xoan Carlos (Vogal)
CARIÑENA AMIGO, MARIA PURIFICACION (Presidente/a)
Burguillo Rial, Juan Carlos (Secretario/a)
Pardo Martínez, Xoan Carlos (Vogal)
Detección de discursos de odio en textos en castelán publicados en redes sociais
Autoría
O.T.P.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
O.T.P.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
15.07.2025 16:30
15.07.2025 16:30
Resumo
O aumento do discurso de odio nas plataformas de redes sociais supón serios desafíos tanto tecnolóxicos como sociais. Este estudo presenta un enfoque integral para a detección automática de discurso de odio en textos en español, cun foco específico na misoginia e no sentimento antiinmigrante. Lévase a cabo unha análise lingüística e semántica en profundidade. Ademais, avalíanse múltiples estratexias de clasificación, que abranguen dende modelos clásicos de aprendizaxe automática ata arquitecturas baseadas en Transformers e Modelos de Linguaxe de Gran Tamaño (LLMs). Así mesmo, explórase o impacto de diferentes estratexias de preprocesamento e aplícase unha técnica de adaptación ao dominio baseada no enmascaramento guiado utilizando léxicos relacionados co odio. Os experimentos realízanse sobre dous conxuntos de datos de referencia, AMI (IberEval 2018) e HatEval (SemEval 2019), obtendo resultados que superan aos gañadores de competicións anteriores e a traballos posteriores. Os nosos achados salientan a importancia do preprocesamento, a robustez na procura de hiperparámetros e os mecanismos de adaptación para mellorar o rendemento da clasificación. Ademais, os LLMs como GPT-4o acadan resultados competitivos sen necesidade de afinamento específico para a tarefa, e os modelos de propósito xeral adaptados amosan melloras medibles respecto ás súas versións non adaptadas.
O aumento do discurso de odio nas plataformas de redes sociais supón serios desafíos tanto tecnolóxicos como sociais. Este estudo presenta un enfoque integral para a detección automática de discurso de odio en textos en español, cun foco específico na misoginia e no sentimento antiinmigrante. Lévase a cabo unha análise lingüística e semántica en profundidade. Ademais, avalíanse múltiples estratexias de clasificación, que abranguen dende modelos clásicos de aprendizaxe automática ata arquitecturas baseadas en Transformers e Modelos de Linguaxe de Gran Tamaño (LLMs). Así mesmo, explórase o impacto de diferentes estratexias de preprocesamento e aplícase unha técnica de adaptación ao dominio baseada no enmascaramento guiado utilizando léxicos relacionados co odio. Os experimentos realízanse sobre dous conxuntos de datos de referencia, AMI (IberEval 2018) e HatEval (SemEval 2019), obtendo resultados que superan aos gañadores de competicións anteriores e a traballos posteriores. Os nosos achados salientan a importancia do preprocesamento, a robustez na procura de hiperparámetros e os mecanismos de adaptación para mellorar o rendemento da clasificación. Ademais, os LLMs como GPT-4o acadan resultados competitivos sen necesidade de afinamento específico para a tarefa, e os modelos de propósito xeral adaptados amosan melloras medibles respecto ás súas versións non adaptadas.
Dirección
FERNANDEZ PICHEL, MARCOS (Titoría)
ARAGON SAENZPARDO, MARIO EZRA Cotitoría
FERNANDEZ PICHEL, MARCOS (Titoría)
ARAGON SAENZPARDO, MARIO EZRA Cotitoría
Tribunal
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vogal)
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vogal)
Optimización da clasificación de recensións hoteleiras mediante técnicas de aprendizaxe automática e análise do seu impacto na toma de decisións do departamento de Calidade.
Autoría
A.V.R.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
A.V.R.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
15.07.2025 18:00
15.07.2025 18:00
Resumo
No sector turístico, a análise e a clasificación das recensións dos clientes son fundamentais para que os establecementos poidan mellorar os seus servizos, optimizar a experiencia dos usuarios e manter a súa competitividade nun mercado cada vez máis esixente. Debido ao elevado volume de recensións xeradas diariamente, á súa diversidade lingüística e á complexidade semántica do contido, resulta inviable realizar unha análise manual exhaustiva. Por iso, é imprescindíbel contar con sistemas automáticos de clasificación que permitan procesar e clasificar eficientemente esta información. Este traballo parte dun sistema inicial de clasificación automática xerárquica multietiqueta, centrado en maximizar a capacidade de detección de todos os aspectos relevantes das recensións. Proponse un conxunto de melloras progresivas, incluíndo a ampliación do conxunto de adestramento, a actualización dos modelos de embeddings e a integración de técnicas baseadas en modelos de linguaxe avanzados. Estas melloras conducen a un sistema máis equilibrado, que incrementa significativamente a capacidade de detección de categorías relevantes sen comprometer a calidade da clasificación, superando notablemente o rendemento da configuración inicial e aportando maior valor para a toma de decisións na mellora continua dos servizos.
No sector turístico, a análise e a clasificación das recensións dos clientes son fundamentais para que os establecementos poidan mellorar os seus servizos, optimizar a experiencia dos usuarios e manter a súa competitividade nun mercado cada vez máis esixente. Debido ao elevado volume de recensións xeradas diariamente, á súa diversidade lingüística e á complexidade semántica do contido, resulta inviable realizar unha análise manual exhaustiva. Por iso, é imprescindíbel contar con sistemas automáticos de clasificación que permitan procesar e clasificar eficientemente esta información. Este traballo parte dun sistema inicial de clasificación automática xerárquica multietiqueta, centrado en maximizar a capacidade de detección de todos os aspectos relevantes das recensións. Proponse un conxunto de melloras progresivas, incluíndo a ampliación do conxunto de adestramento, a actualización dos modelos de embeddings e a integración de técnicas baseadas en modelos de linguaxe avanzados. Estas melloras conducen a un sistema máis equilibrado, que incrementa significativamente a capacidade de detección de categorías relevantes sen comprometer a calidade da clasificación, superando notablemente o rendemento da configuración inicial e aportando maior valor para a toma de decisións na mellora continua dos servizos.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
Comesaña García, Alejandra Cotitoría
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
Comesaña García, Alejandra Cotitoría
Tribunal
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vogal)
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vogal)