Aplicación de técnicas de minería de procesos para mejorar la predicción del riesgo cardíaco.
Autoría
A.C.L.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
A.C.L.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
16.07.2025 17:00
16.07.2025 17:00
Resumen
La rehabilitación cardíaca constituye un proceso clínico estructurado que implica múltiples fases interdependientes, decisiones médicas individualizadas y la participación de distintos profesionales de la salud. Esta naturaleza secuencial y adaptativa permite modelar el programa como un proceso de negocio, facilitando así su análisis. No obstante, los estudios en este contexto enfrentan importantes limitaciones inherentes a las bases de datos médicas reales: los datos suelen ser escasos, tanto por el coste económico como por los requerimientos temporales para su recolección; muchos de los registros existentes no resultan útiles para análisis específicos; y, finalmente, existe una elevada presencia de valores ausentes, ya que no todos los pacientes son sometidos a las mismas pruebas. Para abordar estas limitaciones, en este trabajo se propone una arquitectura basada en un conditional variational autoencoder (CVAE) para la síntesis de registros clínicos realistas y coherentes con la realidad. El objetivo principal es aumentar el tamaño y diversidad del conjunto de datos disponible, con el fin de mejorar la capacidad de los modelos predictivos del riesgo cardíaco y evitar recurrir a pruebas de cierto riesgo, como la ergometría. Los resultados muestran que la arquitectura propuesta permite generar datos sintéticos coherentes y realistas, cuyo uso incrementa la precisión de los distintos clasificadores empleados para detectar el riesgo, superando el estado del arte en aproximaciones de aprendizaje profundo.
La rehabilitación cardíaca constituye un proceso clínico estructurado que implica múltiples fases interdependientes, decisiones médicas individualizadas y la participación de distintos profesionales de la salud. Esta naturaleza secuencial y adaptativa permite modelar el programa como un proceso de negocio, facilitando así su análisis. No obstante, los estudios en este contexto enfrentan importantes limitaciones inherentes a las bases de datos médicas reales: los datos suelen ser escasos, tanto por el coste económico como por los requerimientos temporales para su recolección; muchos de los registros existentes no resultan útiles para análisis específicos; y, finalmente, existe una elevada presencia de valores ausentes, ya que no todos los pacientes son sometidos a las mismas pruebas. Para abordar estas limitaciones, en este trabajo se propone una arquitectura basada en un conditional variational autoencoder (CVAE) para la síntesis de registros clínicos realistas y coherentes con la realidad. El objetivo principal es aumentar el tamaño y diversidad del conjunto de datos disponible, con el fin de mejorar la capacidad de los modelos predictivos del riesgo cardíaco y evitar recurrir a pruebas de cierto riesgo, como la ergometría. Los resultados muestran que la arquitectura propuesta permite generar datos sintéticos coherentes y realistas, cuyo uso incrementa la precisión de los distintos clasificadores empleados para detectar el riesgo, superando el estado del arte en aproximaciones de aprendizaje profundo.
Dirección
LAMA PENIN, MANUEL (Tutoría)
VIDAL AGUIAR, JUAN CARLOS Cotutoría
LAMA PENIN, MANUEL (Tutoría)
VIDAL AGUIAR, JUAN CARLOS Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
Diseño e implementación de un acelerador para controles de calidad en procesos de ingesta y transformación del dato
Autoría
J.C.M.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
J.C.M.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
16.07.2025 16:00
16.07.2025 16:00
Resumen
Este Trabajo de Fin de Máster presenta el diseño e implementación de un acelerador para la configuración automatizada de controles de calidad en procesos de ingesta y transformación de datos, dentro de arquitecturas analíticas modernas basadas en Snowflake. La solución propone un enfoque declarativo que permite a los usuarios definir qué controles desean aplicar sin necesidad de implementar la lógica técnica subyacente, lo que facilita la reutilización, trazabilidad y escalabilidad del sistema. La arquitectura se apoya en componentes nativos de Snowflake, como streams, tasks y procedimientos almacenados, para construir un sistema reactivo capaz de ejecutar controles automáticamente ante cualquier cambio en su configuración. Entre los tipos de validaciones soportadas se incluyen controles de frescura, unicidad, presencia de valores nulos y consistencia entre tablas. El sistema se complementa con una interfaz web que permite definir controles de forma visual, sin escribir código SQL, y con un panel de Power BI que facilita su monitorización tanto por perfiles técnicos como de negocio. Ambos componentes refuerzan la aplicabilidad práctica de la solución, favoreciendo su adopción en entornos reales sin requerir conocimientos avanzados. Como prueba de concepto, se ha simulado un caso de uso con datos del campeonato de Fórmula 1, demostrando la eficacia del sistema en la detección de errores, la organización de resultados y la automatización de tareas repetitivas. Aunque la solución está actualmente limitada a Snowflake y no ha sido validada bajo condiciones de alta concurrencia, su diseño modular y generalizable permite su extensión a nuevos tipos de control y a otros entornos tecnológicos.
Este Trabajo de Fin de Máster presenta el diseño e implementación de un acelerador para la configuración automatizada de controles de calidad en procesos de ingesta y transformación de datos, dentro de arquitecturas analíticas modernas basadas en Snowflake. La solución propone un enfoque declarativo que permite a los usuarios definir qué controles desean aplicar sin necesidad de implementar la lógica técnica subyacente, lo que facilita la reutilización, trazabilidad y escalabilidad del sistema. La arquitectura se apoya en componentes nativos de Snowflake, como streams, tasks y procedimientos almacenados, para construir un sistema reactivo capaz de ejecutar controles automáticamente ante cualquier cambio en su configuración. Entre los tipos de validaciones soportadas se incluyen controles de frescura, unicidad, presencia de valores nulos y consistencia entre tablas. El sistema se complementa con una interfaz web que permite definir controles de forma visual, sin escribir código SQL, y con un panel de Power BI que facilita su monitorización tanto por perfiles técnicos como de negocio. Ambos componentes refuerzan la aplicabilidad práctica de la solución, favoreciendo su adopción en entornos reales sin requerir conocimientos avanzados. Como prueba de concepto, se ha simulado un caso de uso con datos del campeonato de Fórmula 1, demostrando la eficacia del sistema en la detección de errores, la organización de resultados y la automatización de tareas repetitivas. Aunque la solución está actualmente limitada a Snowflake y no ha sido validada bajo condiciones de alta concurrencia, su diseño modular y generalizable permite su extensión a nuevos tipos de control y a otros entornos tecnológicos.
Dirección
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
Graña Omil, Ángel Cotutoría
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
Graña Omil, Ángel Cotutoría
Tribunal
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vocal)
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vocal)
FireWatcher: Detección de incendios en etapas tempranas con sistemas de baja potencia
Autoría
M.J.C.F.
Máster Universitario en Internet de las Cosas - IoT
M.J.C.F.
Máster Universitario en Internet de las Cosas - IoT
Fecha de la defensa
14.07.2025 11:00
14.07.2025 11:00
Resumen
Este proyecto tiene como objetivo principal el desarrollo de un sistema IoT de detección temprana de incendios en zonas rurales aisladas. El dispositivo está alimentado por energía solar, lo que permite su funcionamiento autónomo y sostenible. Utiliza sensores de gas, temperatura y humedad para detectar posibles focos de incendios y transmite la información de forma inalámbrica mediante LoRaWAN. Además, se han considerado técnicas de energy harvesting y gestión energética para prolongar la vida útil del sistema. En el futuro, se plantea el entrenamiento de modelos de predicción y el despliegue real de una red de sensores.
Este proyecto tiene como objetivo principal el desarrollo de un sistema IoT de detección temprana de incendios en zonas rurales aisladas. El dispositivo está alimentado por energía solar, lo que permite su funcionamiento autónomo y sostenible. Utiliza sensores de gas, temperatura y humedad para detectar posibles focos de incendios y transmite la información de forma inalámbrica mediante LoRaWAN. Además, se han considerado técnicas de energy harvesting y gestión energética para prolongar la vida útil del sistema. En el futuro, se plantea el entrenamiento de modelos de predicción y el despliegue real de una red de sensores.
Dirección
PARDO SECO, FERNANDO RAFAEL (Tutoría)
VAZQUEZ ALVAREZ, ALVARO Cotutoría
PARDO SECO, FERNANDO RAFAEL (Tutoría)
VAZQUEZ ALVAREZ, ALVARO Cotutoría
Tribunal
CARIÑENA AMIGO, MARIA PURIFICACION (Presidente/a)
Burguillo Rial, Juan Carlos (Secretario/a)
Pardo Martínez, Xoan Carlos (Vocal)
CARIÑENA AMIGO, MARIA PURIFICACION (Presidente/a)
Burguillo Rial, Juan Carlos (Secretario/a)
Pardo Martínez, Xoan Carlos (Vocal)
Aplicación de nuevos modelos de detección de anomalías en contextos Big Data
Autoría
M.F.L.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
M.F.L.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
16.07.2025 16:30
16.07.2025 16:30
Resumen
En la presente memoria se aborda el problema de la detección temprana de anomalías en entornos de ciberseguridad corporativa, donde el volumen y la velocidad de los datos dificultan la aplicación de soluciones tradicionales. El trabajo se enmarca en un contexto realista de análisis de tráfico de red y logs que monitorizan el comportamiento de los usuarios frente a aplicaciones, lo cual permite identificar patrones sospechosos en escenarios UEBA (User and Entity Behavior Analytics). En este contexto, se propone y desarrolla un modelo de Autoencoder Variacional beta (beta-VAE) con una aproximación de inferencia tipo mean-field, orientado a la detección de anomalías y capaz de modelar comportamientos complejos mediante un espacio latente probabilístico. La solución se implementa sobre una arquitectura escalable basada en tecnologías del ecosistema Big Data como Kafka, Spark y Airflow. A diferencia de los autoencoders clásicos, el VAE ofrece ventajas en la regularización del espacio latente y en la cuantificación de la incertidumbre asociada a cada reconstrucción, lo cual mejora la interpretabilidad y explicación de las anomalías detectadas. El modelo fue implementado de forma modular y flexible, facilitando su ajuste y escalabilidad, y se evaluó usando conjuntos de datos públicos representativos de ciberseguridad. Los resultados demuestran un desempeño competitivo en la detección de anomalías, superando en ciertos aspectos a enfoques clásicos y mostrando un potencial claro para su aplicación en pipelines de procesamiento en streaming. Además, se integró el modelo dentro de una infraestructura profesional y reproducible, capaz de operar en tiempo real sobre flujos masivos de datos, lo que representa un aporte significativo para la detección automática de amenazas en entornos Big Data. Finalmente, se plantean futuras líneas de trabajo orientadas a la aplicación en datos reales, optimización del rendimiento y mejora de la precisión mediante técnicas avanzadas de interpretación probabilística.
En la presente memoria se aborda el problema de la detección temprana de anomalías en entornos de ciberseguridad corporativa, donde el volumen y la velocidad de los datos dificultan la aplicación de soluciones tradicionales. El trabajo se enmarca en un contexto realista de análisis de tráfico de red y logs que monitorizan el comportamiento de los usuarios frente a aplicaciones, lo cual permite identificar patrones sospechosos en escenarios UEBA (User and Entity Behavior Analytics). En este contexto, se propone y desarrolla un modelo de Autoencoder Variacional beta (beta-VAE) con una aproximación de inferencia tipo mean-field, orientado a la detección de anomalías y capaz de modelar comportamientos complejos mediante un espacio latente probabilístico. La solución se implementa sobre una arquitectura escalable basada en tecnologías del ecosistema Big Data como Kafka, Spark y Airflow. A diferencia de los autoencoders clásicos, el VAE ofrece ventajas en la regularización del espacio latente y en la cuantificación de la incertidumbre asociada a cada reconstrucción, lo cual mejora la interpretabilidad y explicación de las anomalías detectadas. El modelo fue implementado de forma modular y flexible, facilitando su ajuste y escalabilidad, y se evaluó usando conjuntos de datos públicos representativos de ciberseguridad. Los resultados demuestran un desempeño competitivo en la detección de anomalías, superando en ciertos aspectos a enfoques clásicos y mostrando un potencial claro para su aplicación en pipelines de procesamiento en streaming. Además, se integró el modelo dentro de una infraestructura profesional y reproducible, capaz de operar en tiempo real sobre flujos masivos de datos, lo que representa un aporte significativo para la detección automática de amenazas en entornos Big Data. Finalmente, se plantean futuras líneas de trabajo orientadas a la aplicación en datos reales, optimización del rendimiento y mejora de la precisión mediante técnicas avanzadas de interpretación probabilística.
Dirección
GALLEGO FONTENLA, VICTOR JOSE (Tutoría)
Cereijo García, Pablo Cotutoría
GALLEGO FONTENLA, VICTOR JOSE (Tutoría)
Cereijo García, Pablo Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
Caracterización de las condiciones oceanográficas mediante agrupamiento dinámico del espectro de olas marinas
Autoría
M.G.L.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
M.G.L.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
16.07.2025 16:30
16.07.2025 16:30
Resumen
Este trabajo presenta una metodología para la caracterización de las condiciones oceanográficas a través del agrupamiento de espectros bidimensionales de oleaje. Para ello, se empleó un modelo bayesiano no paramétrico basado en Sistemas Lineales Dinámicos sobre procesos Gaussianos Conmutados (SLDS-GP), combinado con un Proceso de Dirichlet Jerárquico (HDP), que permite identificar automáticamente patrones en el oleaje marino sin fijar previamente el número de grupos, adaptándose a la complejidad de los datos observados. La metodología se aplicó a datos espectrales de una boya del National Data Buoy Center (NDBC), situada en la costa de Carolina del Norte (EE. UU.), correspondientes a los años 2017 y 2018. El análisis permitió identificar doce clústeres representativos de la dinámica marina en la zona, a los que se les aplicó un procedimiento de partición espectral para reconocer los sistemas de mar presentes y clasificarlos según su significado físico (mar de viento, mar de fondo o mar de transición). Los resultados muestran que el modelo es capaz de detectar estructuras coherentes en un espacio bidimensional de frecuencia y dirección, así como captar cierta dinámica de transiciones entre estados, ofreciendo una representación interpretable de las condiciones de oleaje.
Este trabajo presenta una metodología para la caracterización de las condiciones oceanográficas a través del agrupamiento de espectros bidimensionales de oleaje. Para ello, se empleó un modelo bayesiano no paramétrico basado en Sistemas Lineales Dinámicos sobre procesos Gaussianos Conmutados (SLDS-GP), combinado con un Proceso de Dirichlet Jerárquico (HDP), que permite identificar automáticamente patrones en el oleaje marino sin fijar previamente el número de grupos, adaptándose a la complejidad de los datos observados. La metodología se aplicó a datos espectrales de una boya del National Data Buoy Center (NDBC), situada en la costa de Carolina del Norte (EE. UU.), correspondientes a los años 2017 y 2018. El análisis permitió identificar doce clústeres representativos de la dinámica marina en la zona, a los que se les aplicó un procedimiento de partición espectral para reconocer los sistemas de mar presentes y clasificarlos según su significado físico (mar de viento, mar de fondo o mar de transición). Los resultados muestran que el modelo es capaz de detectar estructuras coherentes en un espacio bidimensional de frecuencia y dirección, así como captar cierta dinámica de transiciones entre estados, ofreciendo una representación interpretable de las condiciones de oleaje.
Dirección
FELIX LAMAS, PAULO MANUEL (Tutoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotutoría
FELIX LAMAS, PAULO MANUEL (Tutoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotutoría
Tribunal
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vocal)
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vocal)
Segmentación de Imágenes Biomédicas Basada en Modelos Fundacionales Adaptados Sin Reentrenamiento y con Estimación de Incertidumbre
Autoría
F.G.S.
Máster Universitario en Inteligencia Artificial
F.G.S.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
18.07.2025 09:30
18.07.2025 09:30
Resumen
Dos importantes limitaciones reducen la efectividad de las soluciones actuales basadas en aprendizaje para la segmentación de imágenes biomédicas. Una de ellas es que las nuevas tareas de segmentación suelen requerir el entrenamiento o ajuste fino de nuevos modelos, un proceso costoso en recursos y que exige conocimientos especializados en aprendizaje automático, a menudo fuera del alcance de investigadores y profesionales médicos. La segunda gran limitación es que la mayoría de los métodos existentes ofrecen únicamente una máscara de segmentación determinista, a pesar de la incertidumbre significativa que a menudo existe sobre qué constituye una segmentación correcta. Esta incertidumbre puede deberse tanto a la variabilidad inherente de los datos (incertidumbre aleatoria) como a las lagunas en el conocimiento del modelo (incertidumbre epistémica). Este trabajo aborda específicamente la estimación de dichas incertidumbres en el proceso de segmentación. Comprender y cuantificar estas incertidumbres permite aumentar significativamente la explicabilidad e interpretabilidad de los modelos de segmentación, lo que favorece una toma de decisiones más segura e informada en aplicaciones médicas críticas. Proponemos el desarrollo de un método generalizado para analizar estos diferentes tipos de incertidumbre sin necesidad de reentrenar los modelos.
Dos importantes limitaciones reducen la efectividad de las soluciones actuales basadas en aprendizaje para la segmentación de imágenes biomédicas. Una de ellas es que las nuevas tareas de segmentación suelen requerir el entrenamiento o ajuste fino de nuevos modelos, un proceso costoso en recursos y que exige conocimientos especializados en aprendizaje automático, a menudo fuera del alcance de investigadores y profesionales médicos. La segunda gran limitación es que la mayoría de los métodos existentes ofrecen únicamente una máscara de segmentación determinista, a pesar de la incertidumbre significativa que a menudo existe sobre qué constituye una segmentación correcta. Esta incertidumbre puede deberse tanto a la variabilidad inherente de los datos (incertidumbre aleatoria) como a las lagunas en el conocimiento del modelo (incertidumbre epistémica). Este trabajo aborda específicamente la estimación de dichas incertidumbres en el proceso de segmentación. Comprender y cuantificar estas incertidumbres permite aumentar significativamente la explicabilidad e interpretabilidad de los modelos de segmentación, lo que favorece una toma de decisiones más segura e informada en aplicaciones médicas críticas. Proponemos el desarrollo de un método generalizado para analizar estos diferentes tipos de incertidumbre sin necesidad de reentrenar los modelos.
Dirección
Pardo López, Xosé Manuel (Tutoría)
Pardo López, Xosé Manuel (Tutoría)
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vocal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vocal)
Análisis predictivo sobre series temporales para la disminución de costes en el aprovisionamiento de materias primas en la industria alimentaria
Autoría
X.I.M.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
X.I.M.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
16.07.2025 17:00
16.07.2025 17:00
Resumen
SOSFood es una iniciativa europea que propone utilizar la explotación masiva de datos y las tecnologías de Machine Learning para proporcionar una visión global del sistema alimentario europeo, construyendo herramientas predictivas personalizadas que apoyen a los actores de la cadena alimentaria en la toma de decisiones bien informadas. En este trabajo se desarrolla un marco de análisis predictivo basado en la propuesta y aplicación de modelado de series temporales para la disminución del coste en el aprovisionamiento de materias primas, concretamente para una empresa griega que participa en el proyecto. Se usan modelos de predicción basados en métodos estadísticos de la familia ARIMA, y métodos basados en deep learning de la arquitecura N-BEATS, que se implementan sobre el caso de uso y se realiza un análisis y comparación de resultados valorando la fiabilidad de predicción y la posterior incorporación en el sistema de apoyo a la decisión.
SOSFood es una iniciativa europea que propone utilizar la explotación masiva de datos y las tecnologías de Machine Learning para proporcionar una visión global del sistema alimentario europeo, construyendo herramientas predictivas personalizadas que apoyen a los actores de la cadena alimentaria en la toma de decisiones bien informadas. En este trabajo se desarrolla un marco de análisis predictivo basado en la propuesta y aplicación de modelado de series temporales para la disminución del coste en el aprovisionamiento de materias primas, concretamente para una empresa griega que participa en el proyecto. Se usan modelos de predicción basados en métodos estadísticos de la familia ARIMA, y métodos basados en deep learning de la arquitecura N-BEATS, que se implementan sobre el caso de uso y se realiza un análisis y comparación de resultados valorando la fiabilidad de predicción y la posterior incorporación en el sistema de apoyo a la decisión.
Dirección
FELIX LAMAS, PAULO MANUEL (Tutoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotutoría
FELIX LAMAS, PAULO MANUEL (Tutoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotutoría
Tribunal
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vocal)
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vocal)
Módulo de seguimiento automático de objetos aéreos de largo alcance
Autoría
I.A.M.S.
Máster Universitario en Inteligencia Artificial
I.A.M.S.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
18.07.2025 10:00
18.07.2025 10:00
Resumen
Esta TFM se centra en la evaluación de diferentes métodos de seguimiento integrados en MMTracking, una biblioteca de código abierto que ofrece implementaciones para rastreadores de un solo objeto y de múltiples objetos. Explora en detalle las capacidades de cada rastreador para identificar el mejor método para maximizar la captura de información relevante sobre el objeto en movimiento. La evaluación se realizó utilizando benchmarks conocidos como MOTChallenge y OTB2015, que ofrecen diversas condiciones y escenarios. Los resultados permitieron un análisis exhaustivo de cada método, mostrando cuál se adapta mejor a cada escenario. Además, este estudio contribuye a la búsqueda continua de algoritmos de seguimiento, aportando información valiosa e identificando áreas de mejora.
Esta TFM se centra en la evaluación de diferentes métodos de seguimiento integrados en MMTracking, una biblioteca de código abierto que ofrece implementaciones para rastreadores de un solo objeto y de múltiples objetos. Explora en detalle las capacidades de cada rastreador para identificar el mejor método para maximizar la captura de información relevante sobre el objeto en movimiento. La evaluación se realizó utilizando benchmarks conocidos como MOTChallenge y OTB2015, que ofrecen diversas condiciones y escenarios. Los resultados permitieron un análisis exhaustivo de cada método, mostrando cuál se adapta mejor a cada escenario. Además, este estudio contribuye a la búsqueda continua de algoritmos de seguimiento, aportando información valiosa e identificando áreas de mejora.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Blanco Freire, Lara Cotutoría
Dago Casas, Pablo Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Blanco Freire, Lara Cotutoría
Dago Casas, Pablo Cotutoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vocal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vocal)
KIME: Kumite Intelligent Movement Evaluation
Autoría
H.M.C.
Máster Universitario en Inteligencia Artificial
H.M.C.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
18.07.2025 10:30
18.07.2025 10:30
Resumen
Este trabajo de fin de máster aborda el reto de analizar objetivamente combates de kárate (kumite), en los que se deben juzgar técnicas rápidas y precisas en tiempo real, mediante el uso de la visión por ordenador y el aprendizaje profundo únicamente a partir de grabaciones de vídeo. El arbitraje tradicional se basa en jueces humanos, lo que introduce subjetividad, posibles sesgos y una capacidad limitada para procesar grandes volúmenes de imágenes para la valoración de atletas y de su rendimiento. Para superar estas limitaciones, se desarrollaron tres componentes interrelacionados: En primer lugar, se diseñó un proceso de extracción de datos para localizar y segmentar momentos de interés en vídeos de partidos completos. Combinando la detección de cambios en el marcador mediante una CNN ligera y la validación manual, se generó un conjunto de datos de acciones puntuables y no puntuables. En segundo lugar, se creó un flujo de trabajo para distinguir a los dos luchadores, Aka y Ao, mediante la detección de los límites del tatami, la detección de personas, la segmentación de instancias y el filtrado basado en el color. A continuación, se aplicó el seguimiento de objetos para reducir la carga computacional y mantener la coherencia de la identidad entre los fotogramas, lo que dio como resultado un conjunto de datos validado para clasificación. Por último, se exploraron estrategias de aprendizaje por transferencia para clasificar fotogramas individuales como acciones puntuables o no puntuables y determinar el karateka que obtiene una cantidad concreta de puntos. Se compararon dos enfoques: congelar el extractor de características de un modelo preentrenado y ajustar solo su cabecera de clasificación, frente realizar ajuste fino de las capas superiores del extractor de características y la cabecera del modelo. La estrategia que mantiene intacto el extractor de características demostró una mayor generalización y un bajo índice de falsos positivos, un atributo esencial para la integración en el mundo real de sistemas semiautomatizados de evaluación o análisis. En conjunto, este trabajo demuestra la viabilidad de una solución no intrusiva, basada únicamente en vídeo, para el análisis de Kumite y sienta las bases para un desarrollo más profundo con vistas a su despliegue en tiempo real, una mejor capacidad de explicación y una mayor comprensión táctica.
Este trabajo de fin de máster aborda el reto de analizar objetivamente combates de kárate (kumite), en los que se deben juzgar técnicas rápidas y precisas en tiempo real, mediante el uso de la visión por ordenador y el aprendizaje profundo únicamente a partir de grabaciones de vídeo. El arbitraje tradicional se basa en jueces humanos, lo que introduce subjetividad, posibles sesgos y una capacidad limitada para procesar grandes volúmenes de imágenes para la valoración de atletas y de su rendimiento. Para superar estas limitaciones, se desarrollaron tres componentes interrelacionados: En primer lugar, se diseñó un proceso de extracción de datos para localizar y segmentar momentos de interés en vídeos de partidos completos. Combinando la detección de cambios en el marcador mediante una CNN ligera y la validación manual, se generó un conjunto de datos de acciones puntuables y no puntuables. En segundo lugar, se creó un flujo de trabajo para distinguir a los dos luchadores, Aka y Ao, mediante la detección de los límites del tatami, la detección de personas, la segmentación de instancias y el filtrado basado en el color. A continuación, se aplicó el seguimiento de objetos para reducir la carga computacional y mantener la coherencia de la identidad entre los fotogramas, lo que dio como resultado un conjunto de datos validado para clasificación. Por último, se exploraron estrategias de aprendizaje por transferencia para clasificar fotogramas individuales como acciones puntuables o no puntuables y determinar el karateka que obtiene una cantidad concreta de puntos. Se compararon dos enfoques: congelar el extractor de características de un modelo preentrenado y ajustar solo su cabecera de clasificación, frente realizar ajuste fino de las capas superiores del extractor de características y la cabecera del modelo. La estrategia que mantiene intacto el extractor de características demostró una mayor generalización y un bajo índice de falsos positivos, un atributo esencial para la integración en el mundo real de sistemas semiautomatizados de evaluación o análisis. En conjunto, este trabajo demuestra la viabilidad de una solución no intrusiva, basada únicamente en vídeo, para el análisis de Kumite y sienta las bases para un desarrollo más profundo con vistas a su despliegue en tiempo real, una mejor capacidad de explicación y una mayor comprensión táctica.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
RODRIGUEZ FERNANDEZ, ISMAEL Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
RODRIGUEZ FERNANDEZ, ISMAEL Cotutoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vocal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vocal)
Análisis de estrategias de aprendizaje federado robustas frente a datos heterogéneos
Autoría
R.M.E.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
R.M.E.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2025 16:00
15.07.2025 16:00
Resumen
El aprendizaje federado (AF) permite entrenar modelos de forma descentralizada sin compartir datos sensibles, pero sufre importantes limitaciones en contextos con datos heterogéneos. Los algoritmos tradicionales tienden a fallar tanto en la generalización global como en la personalización local. En este trabajo se presenta FLProtector, un marco dual en el que cada cliente aprende un incremento local sobre un modelo global compartido, y decide dinámicamente qué modelo utilizar en inferencia. Esta decisión se basa en un autoencoder entrenado localmente para detectar entradas fuera de distribución. Además, FLProtector incorpora un mecanismo de agregación robusto basado en la consistencia de gradientes, que atenúa la influencia de clientes cuyas actualizaciones se desvían del rumbo global esperado. La propuesta se evalúa bajo distintos niveles de heterogeneidad en el benchmark Digit-Five, mostrando mejoras consistentes frente a métodos clásicos y de personalización del estado del arte, al lograr un equilibrio efectivo entre personalización y generalización. El sistema mantiene su rendimiento incluso ante clientes maliciosos, y los estudios de ablación confirman la relevancia de cada uno de sus componentes. Por último, destaca por no requerir una sintonización sensible de hiperparámetros, lo que facilita su aplicabilidad en entornos reales.
El aprendizaje federado (AF) permite entrenar modelos de forma descentralizada sin compartir datos sensibles, pero sufre importantes limitaciones en contextos con datos heterogéneos. Los algoritmos tradicionales tienden a fallar tanto en la generalización global como en la personalización local. En este trabajo se presenta FLProtector, un marco dual en el que cada cliente aprende un incremento local sobre un modelo global compartido, y decide dinámicamente qué modelo utilizar en inferencia. Esta decisión se basa en un autoencoder entrenado localmente para detectar entradas fuera de distribución. Además, FLProtector incorpora un mecanismo de agregación robusto basado en la consistencia de gradientes, que atenúa la influencia de clientes cuyas actualizaciones se desvían del rumbo global esperado. La propuesta se evalúa bajo distintos niveles de heterogeneidad en el benchmark Digit-Five, mostrando mejoras consistentes frente a métodos clásicos y de personalización del estado del arte, al lograr un equilibrio efectivo entre personalización y generalización. El sistema mantiene su rendimiento incluso ante clientes maliciosos, y los estudios de ablación confirman la relevancia de cada uno de sus componentes. Por último, destaca por no requerir una sintonización sensible de hiperparámetros, lo que facilita su aplicabilidad en entornos reales.
Dirección
IGLESIAS RODRIGUEZ, ROBERTO (Tutoría)
GARCIA POLO, FRANCISCO JAVIER Cotutoría
IGLESIAS RODRIGUEZ, ROBERTO (Tutoría)
GARCIA POLO, FRANCISCO JAVIER Cotutoría
Tribunal
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vocal)
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vocal)
Simulación de estrategias de baloncesto a través de Aprendizaje Reforzado en un entorno de juego de mesa
Autoría
L.M.L.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
L.M.L.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2025 17:00
15.07.2025 17:00
Resumen
El Aprendizaje Reforzado es una técnica avanzada de inteligencia artificial que permite a un agente aprender a tomar decisiones óptimas mediante la interacción con su entorno y la retroalimentación recibida en forma de recompensas. Este Trabajo Fin de Máster explora su aplicación en el ámbito deportivo, concretamente en el baloncesto, mediante el desarrollo de un entorno simulado implementado con una arquitectura modular. Para ello, se ha utilizado la librería Gymnasium para la definición del entorno, Pygame para la visualización y MLflow para la gestión y seguimiento de los experimentos, lo que ha facilitado el análisis del agente. El entorno, estructurado sobre un tablero dividido en celdas que representa el campo de baloncesto, permite a los jugadores desplazarse, pasar el balón o lanzar a canasta según unas reglas definidas. La simulación se ha desarrollado a través de cuatro versiones progresivas, cada una introduciendo un mayor nivel de complejidad: desde un agente aislado sin oposición, pasando por la incorporación de la acción de pase y probabilidades de acierto, hasta llegar a una versión avanzada con defensa activa, roles funcionales diferenciados y datos reales extraídos de la NBA. A lo largo del entrenamiento, el agente ha mostrado una evolución clara: desde acciones impulsivas como lanzamientos inmediatos, hasta estrategias más elaboradas en las versiones avanzadas, priorizando la conservación de la posesión, la búsqueda de espacios y la selección del jugador más adecuado para lanzar. Para evaluar esta progresión se han definido métricas específicas como la recompensa media por episodio, la duración de las jugadas, el porcentaje de tiros tempranos y mapas de calor que muestran la distribución espacial de los eventos clave. La integración de datos reales de la NBA ha permitido analizar la capacidad del agente para adaptar sus decisiones a perfiles funcionales como bases, aleros o pívots, evidenciando una comprensión parcial de la lógica táctica del baloncesto. Si bien el sistema presenta ciertas limitaciones, como el mapeo de datos reales al tablero o una penalización defensiva excesiva, los resultados obtenidos indican la viabilidad del aprendizaje reforzado para simular comportamientos tácticos deportivos. Además, este trabajo establece una base sólida para futuras ampliaciones, entre las que destacan el entrenamiento multiagente con coordinación descentralizada, el aprendizaje defensivo autónomo o la simulación de secuencias completas de juego que incluyan reinicios, faltas y cambios de posesión. Todo ello acerca el modelo a una representación más funcional y realista del baloncesto.
El Aprendizaje Reforzado es una técnica avanzada de inteligencia artificial que permite a un agente aprender a tomar decisiones óptimas mediante la interacción con su entorno y la retroalimentación recibida en forma de recompensas. Este Trabajo Fin de Máster explora su aplicación en el ámbito deportivo, concretamente en el baloncesto, mediante el desarrollo de un entorno simulado implementado con una arquitectura modular. Para ello, se ha utilizado la librería Gymnasium para la definición del entorno, Pygame para la visualización y MLflow para la gestión y seguimiento de los experimentos, lo que ha facilitado el análisis del agente. El entorno, estructurado sobre un tablero dividido en celdas que representa el campo de baloncesto, permite a los jugadores desplazarse, pasar el balón o lanzar a canasta según unas reglas definidas. La simulación se ha desarrollado a través de cuatro versiones progresivas, cada una introduciendo un mayor nivel de complejidad: desde un agente aislado sin oposición, pasando por la incorporación de la acción de pase y probabilidades de acierto, hasta llegar a una versión avanzada con defensa activa, roles funcionales diferenciados y datos reales extraídos de la NBA. A lo largo del entrenamiento, el agente ha mostrado una evolución clara: desde acciones impulsivas como lanzamientos inmediatos, hasta estrategias más elaboradas en las versiones avanzadas, priorizando la conservación de la posesión, la búsqueda de espacios y la selección del jugador más adecuado para lanzar. Para evaluar esta progresión se han definido métricas específicas como la recompensa media por episodio, la duración de las jugadas, el porcentaje de tiros tempranos y mapas de calor que muestran la distribución espacial de los eventos clave. La integración de datos reales de la NBA ha permitido analizar la capacidad del agente para adaptar sus decisiones a perfiles funcionales como bases, aleros o pívots, evidenciando una comprensión parcial de la lógica táctica del baloncesto. Si bien el sistema presenta ciertas limitaciones, como el mapeo de datos reales al tablero o una penalización defensiva excesiva, los resultados obtenidos indican la viabilidad del aprendizaje reforzado para simular comportamientos tácticos deportivos. Además, este trabajo establece una base sólida para futuras ampliaciones, entre las que destacan el entrenamiento multiagente con coordinación descentralizada, el aprendizaje defensivo autónomo o la simulación de secuencias completas de juego que incluyan reinicios, faltas y cambios de posesión. Todo ello acerca el modelo a una representación más funcional y realista del baloncesto.
Dirección
Losada Carril, David Enrique (Tutoría)
González López, Manuel Cotutoría
Losada Carril, David Enrique (Tutoría)
González López, Manuel Cotutoría
Tribunal
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vocal)
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vocal)
Optimización de la Gestión de Recursos Humanos: Asignación, Viabilidad y Análisis de Rendimiento en Proyecto
Autoría
B.M.V.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
B.M.V.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
16.07.2025 17:30
16.07.2025 17:30
Resumen
Este Trabajo de Fin de Máster tiene como objetivo principal diseñar e implementar un sistema para la asignación eficiente de recursos humanos a proyectos empresariales, basándose en técnicas avanzadas de análisis de datos y aprendizaje automático. El sistema aborda un problema real de planificación en entornos dinámicos, integrando múltiples variables como habilidades del personal, carga de trabajo, tiempos de ejecución, y experiencia previa, para realizar recomendaciones personalizadas de asignación de tareas. Se parte de datos extraídos desde Jira, plataforma de gestión de proyectos, aplicando técnicas de limpieza, anonimización y enriquecimiento semántico. El modelo de predicción se estructura en varios módulos funcionales: estimación de tiempos, clasificación de habilidades, generación de perfiles técnicos de empleados y predicción de candidatos óptimos. La arquitectura del sistema se apoya en una base de datos relacional PostgreSQL y se orquesta mediante scripts automatizados desplegados con Docker, con posibilidad de ejecución manual o periódica. Los resultados generados se presentan en un archivo Excel con hojas estructuradas para facilitar el análisis por parte de gestores, incluyendo filtros por tareas, empleados y proyectos. La evaluación del sistema ha sido realizada en colaboración con un gestor de proyectos, validando la utilidad de las recomendaciones en un entorno real. En las conclusiones se reconocen las limitaciones del sistema, como la ausencia de variables subjetivas (motivaciones, preferencias) y la necesidad de mejorar la granularidad en la asignación de experiencia por habilidad. Finalmente, se proponen líneas de mejora futura, como la integración de un calendario laboral, el uso de dashboards interactivos (Power BI), la expansión del conjunto de datos pre-etiquetados, y la adopción de herramientas avanzadas de orquestación como Apache Airflow. Este proyecto representa una solución modular, escalable y basada en datos para optimizar la gestión de talento humano en organizaciones, con un enfoque práctico y orientado a la toma de decisiones estratégicas.
Este Trabajo de Fin de Máster tiene como objetivo principal diseñar e implementar un sistema para la asignación eficiente de recursos humanos a proyectos empresariales, basándose en técnicas avanzadas de análisis de datos y aprendizaje automático. El sistema aborda un problema real de planificación en entornos dinámicos, integrando múltiples variables como habilidades del personal, carga de trabajo, tiempos de ejecución, y experiencia previa, para realizar recomendaciones personalizadas de asignación de tareas. Se parte de datos extraídos desde Jira, plataforma de gestión de proyectos, aplicando técnicas de limpieza, anonimización y enriquecimiento semántico. El modelo de predicción se estructura en varios módulos funcionales: estimación de tiempos, clasificación de habilidades, generación de perfiles técnicos de empleados y predicción de candidatos óptimos. La arquitectura del sistema se apoya en una base de datos relacional PostgreSQL y se orquesta mediante scripts automatizados desplegados con Docker, con posibilidad de ejecución manual o periódica. Los resultados generados se presentan en un archivo Excel con hojas estructuradas para facilitar el análisis por parte de gestores, incluyendo filtros por tareas, empleados y proyectos. La evaluación del sistema ha sido realizada en colaboración con un gestor de proyectos, validando la utilidad de las recomendaciones en un entorno real. En las conclusiones se reconocen las limitaciones del sistema, como la ausencia de variables subjetivas (motivaciones, preferencias) y la necesidad de mejorar la granularidad en la asignación de experiencia por habilidad. Finalmente, se proponen líneas de mejora futura, como la integración de un calendario laboral, el uso de dashboards interactivos (Power BI), la expansión del conjunto de datos pre-etiquetados, y la adopción de herramientas avanzadas de orquestación como Apache Airflow. Este proyecto representa una solución modular, escalable y basada en datos para optimizar la gestión de talento humano en organizaciones, con un enfoque práctico y orientado a la toma de decisiones estratégicas.
Dirección
Sánchez Vila, Eduardo Manuel (Tutoría)
Ramos Macías, Óscar Cotutoría
Sánchez Vila, Eduardo Manuel (Tutoría)
Ramos Macías, Óscar Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
Desarrollo de una herramienta basada en visión por computador para la detección automática de tiros en baloncesto y el análisis de la posición en la pista.
Autoría
A.M.R.
Máster Universitario en Inteligencia Artificial
A.M.R.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Este trabajo presenta un sistema modular de visión por computador para la detección automática de tiros en baloncesto y el análisis de la posición en pista a partir de grabaciones con una sola cámara. Con el objetivo de democratizar el acceso a la analítica deportiva y reducir la dependencia de la anotación manual, la herramienta integra técnicas de vanguardia en detección de objetos (YOLO y RT-DETR), seguimiento (ByteTrack) y mapeo de pista basado en homografía para posicionar a los jugadores. Detecta intentos de tiro, clasifica los resultados (encestado/fallado), asigna la posesión y genera tanto vídeos anotados como conjuntos de datos estructurados. Evaluado con vídeos reales de partidos amateurs, el sistema demuestra un rendimiento robusto en métricas espaciales, temporales y de clasificación. Estos resultados subrayan su potencial como una solución práctica y accesible para el análisis automatizado de partidos de baloncesto.
Este trabajo presenta un sistema modular de visión por computador para la detección automática de tiros en baloncesto y el análisis de la posición en pista a partir de grabaciones con una sola cámara. Con el objetivo de democratizar el acceso a la analítica deportiva y reducir la dependencia de la anotación manual, la herramienta integra técnicas de vanguardia en detección de objetos (YOLO y RT-DETR), seguimiento (ByteTrack) y mapeo de pista basado en homografía para posicionar a los jugadores. Detecta intentos de tiro, clasifica los resultados (encestado/fallado), asigna la posesión y genera tanto vídeos anotados como conjuntos de datos estructurados. Evaluado con vídeos reales de partidos amateurs, el sistema demuestra un rendimiento robusto en métricas espaciales, temporales y de clasificación. Estos resultados subrayan su potencial como una solución práctica y accesible para el análisis automatizado de partidos de baloncesto.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
MALLO ANTELO, JAIME Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
MALLO ANTELO, JAIME Cotutoría
Tribunal
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Modelos de voz del estado del arte para el gallego utilizando un corpus TTS de tamaño medio
Autoría
A.M.S.
Máster Universitario en Inteligencia Artificial
A.M.S.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
La síntesis de texto a voz (TTS) desempeña un papel crucial en la interacción persona-ordenador y sigue siendo un tema de investigación candente en las comunidades de tecnología del habla y aprendizaje automático. Con los avances en las técnicas de aprendizaje profundo y el aumento de la potencia informática, los sistemas TTS basados en redes neuronales profundas han surgido como una potente alternativa a los métodos tradicionales. Recientemente, los modelos TTS de aprendizaje profundo de extremo a extremo han producido impresionantes resultados de sonido natural y alta calidad. Sin embargo, extender estos modelos a múltiples idiomas y hablantes es un reto, especialmente para idiomas de recursos bajos a medios como el gallego. En nuestro estudio, utilizamos un conjunto de datos abierto de TTS gallego de pequeño a mediano tamaño para entrenar diferentes modelos de voz en gallego. También aplicamos la generación de datos sintéticos para abordar las deficiencias identificadas en el conjunto de datos original. Exploramos arquitecturas de última generación, incluyendo el entrenamiento desde cero y técnicas de aprendizaje por transferencia. Los modelos resultantes se validan y comparan mediante evaluaciones subjetivas y automáticas.
La síntesis de texto a voz (TTS) desempeña un papel crucial en la interacción persona-ordenador y sigue siendo un tema de investigación candente en las comunidades de tecnología del habla y aprendizaje automático. Con los avances en las técnicas de aprendizaje profundo y el aumento de la potencia informática, los sistemas TTS basados en redes neuronales profundas han surgido como una potente alternativa a los métodos tradicionales. Recientemente, los modelos TTS de aprendizaje profundo de extremo a extremo han producido impresionantes resultados de sonido natural y alta calidad. Sin embargo, extender estos modelos a múltiples idiomas y hablantes es un reto, especialmente para idiomas de recursos bajos a medios como el gallego. En nuestro estudio, utilizamos un conjunto de datos abierto de TTS gallego de pequeño a mediano tamaño para entrenar diferentes modelos de voz en gallego. También aplicamos la generación de datos sintéticos para abordar las deficiencias identificadas en el conjunto de datos original. Exploramos arquitecturas de última generación, incluyendo el entrenamiento desde cero y técnicas de aprendizaje por transferencia. Los modelos resultantes se validan y comparan mediante evaluaciones subjetivas y automáticas.
Dirección
BUGARIN DIZ, ALBERTO JOSE (Tutoría)
MAGARIÑOS IGLESIAS, MARIA DEL CARMEN Cotutoría
BUGARIN DIZ, ALBERTO JOSE (Tutoría)
MAGARIÑOS IGLESIAS, MARIA DEL CARMEN Cotutoría
Tribunal
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Detección de anomalías mediante modelos de autocodificadores en entornos industriales
Autoría
F.M.S.
Máster Universitario en Inteligencia Artificial
F.M.S.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
El aumento de la conectividad y la automatización en los entornos de la Industria 4.0 ha introducido nuevos retos para garantizar la fiabilidad y la seguridad operativas. La detección de anomalías desempeña un papel crucial en la identificación de fallos y ciberataques que podrían comprometer los sistemas de producción. Este trabajo investiga el uso de modelos basados en autocodificadores para la detección no supervisada de anomalías tanto en el tráfico de red como en los datos de sensores, recogidos de un sistema de producción de cócteles simulado. Se emplea un autocodificador totalmente conectado para detectar desviaciones en los flujos de red Modbus, mientras que se utiliza un autocodificador LSTM secuencia a secuencia para modelar patrones temporales en flujos de sensores multivariantes. Ambos modelos se entrenan con datos normales y se evalúan en escenarios de ataque realistas, como la manipulación de registros Modbus y la denegación de servicio SYN Flood. Los resultados experimentales demuestran que los autocodificadores pueden detectar eficazmente anomalías en entornos industriales, y que los modelos basados en LSTM ofrecen un mejor rendimiento en entornos con comportamiento cíclico.
El aumento de la conectividad y la automatización en los entornos de la Industria 4.0 ha introducido nuevos retos para garantizar la fiabilidad y la seguridad operativas. La detección de anomalías desempeña un papel crucial en la identificación de fallos y ciberataques que podrían comprometer los sistemas de producción. Este trabajo investiga el uso de modelos basados en autocodificadores para la detección no supervisada de anomalías tanto en el tráfico de red como en los datos de sensores, recogidos de un sistema de producción de cócteles simulado. Se emplea un autocodificador totalmente conectado para detectar desviaciones en los flujos de red Modbus, mientras que se utiliza un autocodificador LSTM secuencia a secuencia para modelar patrones temporales en flujos de sensores multivariantes. Ambos modelos se entrenan con datos normales y se evalúan en escenarios de ataque realistas, como la manipulación de registros Modbus y la denegación de servicio SYN Flood. Los resultados experimentales demuestran que los autocodificadores pueden detectar eficazmente anomalías en entornos industriales, y que los modelos basados en LSTM ofrecen un mejor rendimiento en entornos con comportamiento cíclico.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Pérez Vilarelle, Laura Cotutoría
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Pérez Vilarelle, Laura Cotutoría
Tribunal
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Evolución Avanzada de un Sistema de Datos de Fórmula 1: Análisis Predictivo y Nuevas Métricas
Autoría
L.P.M.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
L.P.M.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2025 17:30
15.07.2025 17:30
Resumen
Este proyecto presenta el desarrollo de un sistema integral de análisis y predicción centrado en el ámbito de la Fórmula 1, combinando técnicas de machine learning, procesamiento de datos y visualización interactiva. Surge como respuesta a la falta de herramientas abiertas, accesibles y técnicamente sólidas que permitan explorar el rendimiento de pilotos y equipos desde una perspectiva analítica. La solución propuesta se estructura en torno a una base de datos completa y actualizada, diseñada para integrar información técnica, meteorológica y contextual sobre cada sesión de carrera, y alimentada mediante procesos de automatización que permiten la recolección, limpieza y normalización continua de los datos. A partir de esta base, se han construido modelos de regresión capaces de estimar tanto el tiempo de clasificación como el tiempo ideal de vuelta, utilizando algoritmos avanzados como XGBoost, Random Forest y redes neuronales multicapa. Estos modelos se entrenan y validan mediante técnicas robustas, considerando la naturaleza variable y dinámica de los datos en la Fórmula 1. Además de los modelos predictivos, el sistema incluye un conjunto de métricas personalizadas que permiten evaluar el rendimiento relativo de los pilotos, identificar desviaciones sistemáticas respecto a lo esperado y analizar decisiones estratégicas como las elecciones de neumáticos y la eficiencia en carrera. Estos indicadores ofrecen una visión más rica y contextualizada que las métricas tradicionales. Todo el análisis se integra en una interfaz interactiva desarrollada con Streamlit, que se conecta en tiempo real a una base de datos alojada en Snowflake. Esta herramienta permite explorar visualmente tanto las predicciones como las métricas, adaptándose a distintos perfiles de usuario, desde técnicos hasta aficionados.
Este proyecto presenta el desarrollo de un sistema integral de análisis y predicción centrado en el ámbito de la Fórmula 1, combinando técnicas de machine learning, procesamiento de datos y visualización interactiva. Surge como respuesta a la falta de herramientas abiertas, accesibles y técnicamente sólidas que permitan explorar el rendimiento de pilotos y equipos desde una perspectiva analítica. La solución propuesta se estructura en torno a una base de datos completa y actualizada, diseñada para integrar información técnica, meteorológica y contextual sobre cada sesión de carrera, y alimentada mediante procesos de automatización que permiten la recolección, limpieza y normalización continua de los datos. A partir de esta base, se han construido modelos de regresión capaces de estimar tanto el tiempo de clasificación como el tiempo ideal de vuelta, utilizando algoritmos avanzados como XGBoost, Random Forest y redes neuronales multicapa. Estos modelos se entrenan y validan mediante técnicas robustas, considerando la naturaleza variable y dinámica de los datos en la Fórmula 1. Además de los modelos predictivos, el sistema incluye un conjunto de métricas personalizadas que permiten evaluar el rendimiento relativo de los pilotos, identificar desviaciones sistemáticas respecto a lo esperado y analizar decisiones estratégicas como las elecciones de neumáticos y la eficiencia en carrera. Estos indicadores ofrecen una visión más rica y contextualizada que las métricas tradicionales. Todo el análisis se integra en una interfaz interactiva desarrollada con Streamlit, que se conecta en tiempo real a una base de datos alojada en Snowflake. Esta herramienta permite explorar visualmente tanto las predicciones como las métricas, adaptándose a distintos perfiles de usuario, desde técnicos hasta aficionados.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Curra Durán, Alberto Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Curra Durán, Alberto Cotutoría
Tribunal
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vocal)
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vocal)
Scraping y análisis de autoría: Identificación de patrones de escritura en foros online mediante modelos de aprendizaje automático
Autoría
R.R.J.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
R.R.J.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
16.07.2025 16:00
16.07.2025 16:00
Resumen
En un entorno digital caracterizado por el anonimato y el crecimiento de identidades falsas, la atribución de autoría se presenta como una herramienta esencial para inferir quién está detrás de un texto, basándose en su estilo lingüístico. Este trabajo aborda la atribución de autoría en foros online, con especial atención a usuarios involucrados en discusiones sobre transacciones con criptomonedas. Para ello, se recopilaron datos mediante técnicas de web scraping, seleccionando publicaciones de autores previamente identificados. Los textos fueron preprocesados y representados mediante n-gramas de caracteres, aplicando esquemas de vectorización como TF-IDF. A continuación, se entrenaron y evaluaron diferentes modelos de clasificación, desde enfoques tradicionales como SVM, Rocchio o Random Forest hasta modelos de lenguaje profundo como BERT. Los resultados permiten comparar el rendimiento de los distintos modelos y analizar su capacidad para identificar patrones estilísticos persistentes incluso cuando los usuarios operan con cuentas desechables o alias múltiples.
En un entorno digital caracterizado por el anonimato y el crecimiento de identidades falsas, la atribución de autoría se presenta como una herramienta esencial para inferir quién está detrás de un texto, basándose en su estilo lingüístico. Este trabajo aborda la atribución de autoría en foros online, con especial atención a usuarios involucrados en discusiones sobre transacciones con criptomonedas. Para ello, se recopilaron datos mediante técnicas de web scraping, seleccionando publicaciones de autores previamente identificados. Los textos fueron preprocesados y representados mediante n-gramas de caracteres, aplicando esquemas de vectorización como TF-IDF. A continuación, se entrenaron y evaluaron diferentes modelos de clasificación, desde enfoques tradicionales como SVM, Rocchio o Random Forest hasta modelos de lenguaje profundo como BERT. Los resultados permiten comparar el rendimiento de los distintos modelos y analizar su capacidad para identificar patrones estilísticos persistentes incluso cuando los usuarios operan con cuentas desechables o alias múltiples.
Dirección
Losada Carril, David Enrique (Tutoría)
Pérez Vilarelle, Laura Cotutoría
Losada Carril, David Enrique (Tutoría)
Pérez Vilarelle, Laura Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
Desarrollo de un Data Operating System (Data OS) asistido por IA
Autoría
A.R.P.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
A.R.P.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
16.07.2025 17:30
16.07.2025 17:30
Resumen
Este trabajo presenta la implementación de un sistema de ingesta basado en metadatos sobre la plataforma Microsoft Fabric. El objetivo principal ha sido migrar y adaptar un framework desarrollado originalmente en Azure Data Factory, manteniendo su lógica funcional pero aprovechando las capacidades nativas del nuevo entorno. El sistema está diseñado para ejecutar cargas de datos desde orígenes heterogéneos hacia un entorno analítico en la nube. Todo el proceso está dirigido por metadatos, definidos externamente mediante archivos estructurados que describen el comportamiento de cada objeto sin necesidad de modificar código. El documento incluye un análisis detallado del framework original, el proceso de migración técnica, las mejoras implementadas y los resultados obtenidos, así como una propuesta de próximos pasos para continuar con su evolución dentro del ecosistema corporativo.
Este trabajo presenta la implementación de un sistema de ingesta basado en metadatos sobre la plataforma Microsoft Fabric. El objetivo principal ha sido migrar y adaptar un framework desarrollado originalmente en Azure Data Factory, manteniendo su lógica funcional pero aprovechando las capacidades nativas del nuevo entorno. El sistema está diseñado para ejecutar cargas de datos desde orígenes heterogéneos hacia un entorno analítico en la nube. Todo el proceso está dirigido por metadatos, definidos externamente mediante archivos estructurados que describen el comportamiento de cada objeto sin necesidad de modificar código. El documento incluye un análisis detallado del framework original, el proceso de migración técnica, las mejoras implementadas y los resultados obtenidos, así como una propuesta de próximos pasos para continuar con su evolución dentro del ecosistema corporativo.
Dirección
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
Acedo Nieto, Carlos Cotutoría
Martínez Torres, María Cotutoría
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
Acedo Nieto, Carlos Cotutoría
Martínez Torres, María Cotutoría
Tribunal
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vocal)
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
GARCIA POLO, FRANCISCO JAVIER (Secretario/a)
MERA PEREZ, DAVID (Vocal)
Sistema IoT para comunicaciones oportunistas en entornos marítimo-costeros
Autoría
R.J.S.G.
Máster Universitario en Internet de las Cosas - IoT
R.J.S.G.
Máster Universitario en Internet de las Cosas - IoT
Fecha de la defensa
14.07.2025 11:30
14.07.2025 11:30
Resumen
Aunque la digitalización y el IoT están llegando a muchos sectores de la sociedad y la industria, el sector primario, y especialmente aquellas partes más tradicionalistas del mismo como las actividades de marisqueo, se están quedando bastante rezagadas en la incorporación de las nuevas tecnologías. La resistencia al cambio y la dificultad de implementación de soluciones en el mar provoca que las bateas no cuenten con ningún mecanismo de control o monitorización digital. Esto provoca la extrema ineficiencia del sector. En este trabajo se propone la creación de un sistema IoT que pueda ser expuesto a las extremas condiciones del mar para monitorizar ciertas variables de interés. En particular, el foco se puso en el control de la producción de mejillón en las bateas a partir de la medida de su hundimiento, que se produce por el engorde del producto. Dicha creación fue el resultado de varias fases sucesivas de diseño, implementación y pruebas del sistema. El resultado final es un dispositivo que ha desmostrado ser capaz de enviar datos de forma segura desde el mar, aprovechándose de la tecnología de comunicación LoRaWAN, y utilizando un sistema de cosecha y almacenamiento de energía basado en paneles solares. Los datos enviados se ponen a disposición del usuario almacenados en una base de datos de series temporales, pudiendo visualizarlos a través de un panel de control. Todo esto se ha construido siguiendo el paradigma del Edge Computing Oportunista, realizando el procesamiento de la información lo más cerca posible de los dispositivos finales, no sobrecargando las infraestructuras del Cloud y permitiendo una cobertura flexible gracias al posible movimiento de los Gateaways de acceso al Cloud a las zonas desiertas de cobertura.
Aunque la digitalización y el IoT están llegando a muchos sectores de la sociedad y la industria, el sector primario, y especialmente aquellas partes más tradicionalistas del mismo como las actividades de marisqueo, se están quedando bastante rezagadas en la incorporación de las nuevas tecnologías. La resistencia al cambio y la dificultad de implementación de soluciones en el mar provoca que las bateas no cuenten con ningún mecanismo de control o monitorización digital. Esto provoca la extrema ineficiencia del sector. En este trabajo se propone la creación de un sistema IoT que pueda ser expuesto a las extremas condiciones del mar para monitorizar ciertas variables de interés. En particular, el foco se puso en el control de la producción de mejillón en las bateas a partir de la medida de su hundimiento, que se produce por el engorde del producto. Dicha creación fue el resultado de varias fases sucesivas de diseño, implementación y pruebas del sistema. El resultado final es un dispositivo que ha desmostrado ser capaz de enviar datos de forma segura desde el mar, aprovechándose de la tecnología de comunicación LoRaWAN, y utilizando un sistema de cosecha y almacenamiento de energía basado en paneles solares. Los datos enviados se ponen a disposición del usuario almacenados en una base de datos de series temporales, pudiendo visualizarlos a través de un panel de control. Todo esto se ha construido siguiendo el paradigma del Edge Computing Oportunista, realizando el procesamiento de la información lo más cerca posible de los dispositivos finales, no sobrecargando las infraestructuras del Cloud y permitiendo una cobertura flexible gracias al posible movimiento de los Gateaways de acceso al Cloud a las zonas desiertas de cobertura.
Dirección
Cotos Yáñez, José Manuel (Tutoría)
Fernández Caramés, Tiago Cotutoría
Cotos Yáñez, José Manuel (Tutoría)
Fernández Caramés, Tiago Cotutoría
Tribunal
CARIÑENA AMIGO, MARIA PURIFICACION (Presidente/a)
Burguillo Rial, Juan Carlos (Secretario/a)
Pardo Martínez, Xoan Carlos (Vocal)
CARIÑENA AMIGO, MARIA PURIFICACION (Presidente/a)
Burguillo Rial, Juan Carlos (Secretario/a)
Pardo Martínez, Xoan Carlos (Vocal)
Detección de discursos de odio en textos en español publicados en redes sociales
Autoría
O.T.P.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
O.T.P.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2025 16:30
15.07.2025 16:30
Resumen
El auge del discurso de odio en las plataformas de redes sociales plantea serios desafíos tanto tecnológicos como sociales. Este estudio presenta un enfoque integral para la detección automática de discurso de odio en textos en español, con especial atención a la misoginia y al sentimiento antiinmigrante. Se lleva a cabo un análisis lingüístico y semántico en profundidad. Además, se evalúan múltiples estrategias de clasificación, que abarcan desde modelos clásicos de aprendizaje automático hasta arquitecturas basadas en Transformers y Modelos de Lenguaje de Gran Tamaño (LLMs). Asimismo, se explora el impacto de distintas estrategias de preprocesamiento y se aplica una técnica de adaptación al dominio basada en enmascaramiento guiado utilizando lexicones relacionados con el odio. Los experimentos se realizan sobre dos conjuntos de datos de referencia, AMI (IberEval 2018) y HatEval (SemEval 2019), obteniendo resultados que superan a los ganadores de competiciones anteriores y a trabajos posteriores. Nuestros hallazgos destacan la importancia del preprocesamiento, la robustez en la búsqueda de hiperparámetros y los mecanismos de adaptación para mejorar el rendimiento de la clasificación. Además, los LLMs como GPT-4o logran resultados competitivos sin necesidad de ajuste fino específico para la tarea, y los modelos de propósito general adaptados muestran mejoras medibles respecto a sus versiones no adaptadas
El auge del discurso de odio en las plataformas de redes sociales plantea serios desafíos tanto tecnológicos como sociales. Este estudio presenta un enfoque integral para la detección automática de discurso de odio en textos en español, con especial atención a la misoginia y al sentimiento antiinmigrante. Se lleva a cabo un análisis lingüístico y semántico en profundidad. Además, se evalúan múltiples estrategias de clasificación, que abarcan desde modelos clásicos de aprendizaje automático hasta arquitecturas basadas en Transformers y Modelos de Lenguaje de Gran Tamaño (LLMs). Asimismo, se explora el impacto de distintas estrategias de preprocesamiento y se aplica una técnica de adaptación al dominio basada en enmascaramiento guiado utilizando lexicones relacionados con el odio. Los experimentos se realizan sobre dos conjuntos de datos de referencia, AMI (IberEval 2018) y HatEval (SemEval 2019), obteniendo resultados que superan a los ganadores de competiciones anteriores y a trabajos posteriores. Nuestros hallazgos destacan la importancia del preprocesamiento, la robustez en la búsqueda de hiperparámetros y los mecanismos de adaptación para mejorar el rendimiento de la clasificación. Además, los LLMs como GPT-4o logran resultados competitivos sin necesidad de ajuste fino específico para la tarea, y los modelos de propósito general adaptados muestran mejoras medibles respecto a sus versiones no adaptadas
Dirección
FERNANDEZ PICHEL, MARCOS (Tutoría)
ARAGON SAENZPARDO, MARIO EZRA Cotutoría
FERNANDEZ PICHEL, MARCOS (Tutoría)
ARAGON SAENZPARDO, MARIO EZRA Cotutoría
Tribunal
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vocal)
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vocal)
Optimización de la categorización de reseñas hoteleras mediante técnicas de machine learning y análisis de su impacto en la toma de decisiones del departamento de Calidad.
Autoría
A.V.R.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
A.V.R.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2025 18:00
15.07.2025 18:00
Resumen
En el sector turístico, el análisis y la clasificación de las reseñas de los clientes son fundamentales para que los establecimientos puedan mejorar sus servicios, optimizar la experiencia de los usuarios y mantener su competitividad en un mercado cada vez más exigente. Debido al elevado volumen de reseñas generadas diariamente, su diversidad lingüística y la complejidad semántica del contenido, resulta inviable realizar un análisis manual exhaustivo. Por ello, es imprescindible contar con sistemas automáticos de categorización que permitan procesar y clasificar eficientemente esta información. Este trabajo parte de un sistema inicial de categorización automática jerárquica multietiqueta, centrado en maximizar la capacidad de detección de todos los aspectos relevantes de las reseñas. Se propone un conjunto de mejoras progresivas, incluyendo la ampliación del conjunto de entrenamiento, la actualización de los modelos de embeddings y la integración de técnicas basadas en modelos de lenguaje avanzados. Estas mejoras conducen a un sistema más equilibrado, que incrementa significativamente la capacidad de detección de categorías relevantes sin comprometer la calidad de la clasificación, superando notablemente el rendimiento de la configuración inicial y aportando mayor valor para la toma de decisiones en la mejora continua de los servicios.
En el sector turístico, el análisis y la clasificación de las reseñas de los clientes son fundamentales para que los establecimientos puedan mejorar sus servicios, optimizar la experiencia de los usuarios y mantener su competitividad en un mercado cada vez más exigente. Debido al elevado volumen de reseñas generadas diariamente, su diversidad lingüística y la complejidad semántica del contenido, resulta inviable realizar un análisis manual exhaustivo. Por ello, es imprescindible contar con sistemas automáticos de categorización que permitan procesar y clasificar eficientemente esta información. Este trabajo parte de un sistema inicial de categorización automática jerárquica multietiqueta, centrado en maximizar la capacidad de detección de todos los aspectos relevantes de las reseñas. Se propone un conjunto de mejoras progresivas, incluyendo la ampliación del conjunto de entrenamiento, la actualización de los modelos de embeddings y la integración de técnicas basadas en modelos de lenguaje avanzados. Estas mejoras conducen a un sistema más equilibrado, que incrementa significativamente la capacidad de detección de categorías relevantes sin comprometer la calidad de la clasificación, superando notablemente el rendimiento de la configuración inicial y aportando mayor valor para la toma de decisiones en la mejora continua de los servicios.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Comesaña García, Alejandra Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Comesaña García, Alejandra Cotutoría
Tribunal
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vocal)
RODRIGUEZ PRESEDO, JESUS MARIA (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GALLEGO FONTENLA, VICTOR JOSE (Vocal)