JS2025: XXXV JORNADAS SARTECO 2025
PROGRAM FOR FRIDAY, JUNE 27TH
Days:
previous day
all days

View: session overviewtalk overview

09:30-10:30 Session 7A: Aplicaciones de Vídeo / LiDAR
09:30
Integración de chaleco háptico en la navegación con robots autónomos

ABSTRACT. Este artículo presenta un sistema para integrar un dispositivo háptico, en concreto, un chaleco, para relacionar sensaciones de vibración en posiciones determinadas con el movimiento que está realizando el robot. Para ello, se necesitan dos equipos, uno con Windows para poder ejecutar la aplicación bHaptics que se comunica con chaleco y otro con Linux 22.04 y ROS2 que se suscribe al topic del robot que permite conocer su movimiento; las comunicaciones se realizan mediante el protocolo OSC. Se realiza experimentación tanto en entornos simulados como en pruebas de campo, demostrando que es posible no solo monitorizar el comportamiento del robot sino también enriquecer esta experiencia con otros sentidos como es el caso del tacto.

09:48
Aplicación de curvas de llenado del espacio en nubes de puntos 3D almacenadas en Octrees

ABSTRACT. En este trabajo, se presenta un enfoque para la búsqueda eficiente de vecindades en nubes de puntos 3D mediante la combinación de reordenamiento espacial basado en curvas de Morton y Hilbert con diferentes implementaciones de Octrees. Se explora cómo estas curvas espaciales pueden optimizar la organización de los datos tridimensionales, mejorando el rendimiento de las consultas de vecindad en términos de tiempo computacional. Se evalúan diversas variantes del Octree, analizando su impacto en la eficiencia y escalabilidad del método propuesto. Los resultados experimentales demuestran que el reordenamiento basado en estas curvas mejora significativamente el acceso a datos espaciales, ofreciendo una solución robusta para aplicaciones que requieren procesamiento rápido de grandes conjuntos de puntos 3D.

10:06
Un algoritmo de codificación perceptual de vídeo para VVC basado en deep learning

ABSTRACT. Este trabajo presenta un algoritmo de codificación perceptual de vídeo para VVC basado en redes neuronales profundas, un enfoque de codificación subjetiva diseñado para reducir el bitrate en vídeos comprimidos con el estándar Versatile Video Coding (VVC), sin afectar a la calidad subjetiva del contenido. El algoritmo emplea un modelo de aprendizaje profundo entrenado al efecto con el objetivo de capturar las particularidades de las señales de vídeo. Este modelo supera a otros existentes en la literatura al identificar con mayor precisión las zonas de los fotogramas donde es más probable que los espectadores dirijan su atención. Posteriormente, la salida del modelo se procesa para unificar las regiones disjuntas y adaptarlas al tamaño de la unidad de árbol de codificación (CTU) utilizada en VVC, lo que permite aplicar una mayor compresión en las áreas menos relevantes. Los resultados obtenidos muestran una reducción promedio del 7% en la tasa de bits, sin comprometer la calidad subjetiva del vídeo, lo cual fue validado mediante entrevistas a los espectadores utilizando la métrica Mean Opinion Score (MOS).

09:30-10:30 Session 7B: Optimización y control
09:30
Control aplicado a la planificación de flujos en Redes Sensibles al Tiempo (TSN)

ABSTRACT. El estándar IEEE 802.1Qbv para Redes Sensibles al Tiempo (TSN) incorpora un regulador temporizado de tráfico (TAS, por sus siglas en inglés). El TAS abre y cierra puertas de paso de tramas dentro de un \bridge, siguiendo una tabla (GCL) que se sintetiza a partir de una planificación, calculada para cumplir con las restricciones temporales de los flujos. Planificación y GCL se generan fuera de línea. En este trabajo se propone implementar el TAS como un controlador automático de lazo cerrado. Como primer paso, la propuesta incluye el cálculo de funciones de referencias como la cantidad acumulada de tramas que deben pasar por cada puerta durante el ciclo de red (hiperiodo) de acuerdo con las ventanas de transmisión dadas por una planificación. El controlador se enfoca en abrir y cerrar las puertas para que la cantidad de tramas que pasan por éstas sea la especificada en las referencias. Presentamos un desarrollo preliminar, cuyo alcance y ventajas estamos aún evaluando. Entre otras, incrementa la flexibilidad del TAS, puede reducir el ciclo de despliegue y calibración de una planificación y puede conducir a un mejor aprovechamiento del ancho de banda, especialmente en concurrencia con tráfico no crítico.

09:48
Optimización de entornos de Big Data Analytics mediante sistemas de ficheros paralelos Ad-hoc

ABSTRACT. Durante los últimos años, el procesamiento de datos en diversas áreas de la Informática, como la Inteligencia Artificial o el Big Data, ha supuesto un reto para la computación de alto rendimiento (High Performance Computing o HPC). Esto ha causado una innovación en la forma de procesar y gestionar estos enormes volúmenes de datos.

Para ello, han surgido numerosos sistemas que pretenden proporcionar una solución para este problema. Entre ellos, destacan los sistemas de ficheros paralelos, que utilizan técnicas como la partición o replicación de ficheros para ofrecer un sistema de alta disponibilidad y alto rendimiento para entornos HPC. Además, también se han diseñado numerosas herramientas de trabajo para su uso junto con los sistemas de ficheros paralelos en entornos Big Data Analytics (BDA) con el objetivo de reducir los cuellos de botella causados por el gran número de operaciones de entrada/salida (E/S).

En el trabajo presentado en este artículo, se presenta una nueva solución para este tipo de entornos BDA utilizando Apache Spark y Expand. Expand es un sistema de ficheros paralelo y distribuido diseñado por el grupo de investigación ARCOS que puede ser usado como sistema de ficheros ad-hoc, y que ayuda a mitigar los cuellos de botella de E/S producidos por los sistemas de ficheros paralelos tradicionales. El uso de Apache Spark junto con el sistema de ficheros Expand, permite aprovechar las ventajas ofrecidas por ambas plataformas.

10:06
Sistema de geolocalización energéticamente eficiente para grupos: Validación en competiciones de remo

ABSTRACT. La geolocalización precisa de grupos en tiempo real representa un desafío en diversas aplicaciones. Este trabajo presenta un nuevo enfoque para optimizar la geolocalización de grupos en entornos delimitados espacial y temporalmente, como las competiciones deportivas. Nuestro sistema, diseñado para dispositivos móviles, utiliza algoritmos inteligentes que adaptan la frecuencia de actualización del GPS en función de la proximidad al área de interés y del momento de la actividad. A través de un sistema jerárquico de proximidad y la implementación de un protocolo de mensajería ligero (MQTT), logramos reducir significativamente el consumo de energía de los dispositivos sin comprometer la precisión de los resultados. Los experimentos llevados a cabo en el contexto de competiciones de remo han demostrado que nuestro sistema proporciona una precisión de geolocalización excepcional. Además, el consumo energético se reduce a un nivel irrelevante. Estos resultados prometedores posicionan a nuestro sistema como una solución eficaz y eficiente para aplicaciones que requieren una localización precisa de grupos en tiempo real.

09:30-10:30 Session 7C: JCER7: Trayectorias y movilidad urbana
09:30
GRID-Routing: Una propuesta para la gestión masiva de tráfico en movilidad aérea urbana

ABSTRACT. Este artículo presenta una novedosa propuesta para la gestión masiva de tráfico aéreo urbano. Para ello se propone en primer lugar un modelo del plan de vuelo que permite un control preciso del comportamiento de la aeronave, así como una conexión suave entre los diferentes waypoint de la misión a realizar. En segundo lugar se propone un novedoso paradigma de gestión del espacio aéreo urbano mediante la introducción de un grid regular, el cual se usa para establecer las diferentes rutas que deberán seguir las aeronaves, y permite realizar una reserva espacio-temporal de recursos. Las rutas resultantes se pueden así transformar en planes de vuelo precisos y libres de conflictos con otras aeronaves. Mediante diferentes experimentos de validación, incluyendo pruebas de carga en el sistema, se muestra que la solución propuesta es factible, y permite gestionar de manera correcta y eficiente incluso volúmenes muy elevados de aeronaves en un espacio aéreo acotado.

09:48
Simulación Realista de Escenarios de Movilidad Aérea Urbana

ABSTRACT. Este trabajo presenta las bases de una herramienta creada para la simulación y gestión de espacios aéreos según la normativa U-space, propuesta por la Unión Europea para el tráfico de UAV. La herramienta proporcionará una simulación realista del vuelo de multitud de UAV en un escenario urbano, con el objetivo de simplificar y abaratar el proceso de desarrollo y verificación de todos los sistemas implicados, así como anticipar posibles conflictos antes de desplegar una solución en el mundo real. La herramienta se ha construido sobre uno de los simuladores de físicas más avanzados actualmente, Isaac Sim, que ofrece multitud de herramientas para el análisis de los experimentos, permitiendo además ejecutar múltiples tareas en paralelo en un entorno hiperrealista.

10:06
Optimización de Trayectorias de UAV para la Recolección Continua de Datos: Reducción de Consumo de Energía y Tiempo de Misión

ABSTRACT. En muchas aplicaciones de adquisición de información asistida por Vehículos Aéreos No Tripulados (UAV), estos tienen la tarea de recolectar datos de sensores desplegados en tierra empleando waypoints predefinidos. Los enfoques tradicionales suelen asumir que el UAV debe detenerse en cada waypoint para recopilar datos, lo que da lugar a trayectorias de vuelo ineficientes, una mayor duración de la misión y un mayor consumo de energía debido a continuas aceleraciones y desaceleraciones. En este trabajo proponemos un nuevo enfoque en el que el dron recoge datos mientras sobrevuela dichos waypoints sin detenerse. Esto da como resultado una trayectoria suave y curvada en la que el dron se mantiene en movimiento en todo momento, reduciendo la energía extra requerida para detenerse y reiniciar el vuelo. Al optimizar la trayectoria de vuelo, mejoramos la eficiencia en la recolección de datos al mismo tiempo que ahorramos energía y reducimos el tiempo de misión. Las simulaciones muestran que nuestro método supera al enfoque tradicional de detenerse y recolectar datos.

12:00-13:30 Session 8A: Aplicaciones IA / Evaluación prestaciones
12:00
Infraestructura de computación en la nube para distribuir una aplicación de visión por computador basada en IA

ABSTRACT. La visión por computador basada en inteligencia artificial está experimentando un crecimiento exponencial. Esto se debe a los avances en aprendizaje profundo y al acceso a grandes conjuntos de datos etiquetados. Sin embargo, las empresas se enfrentan a retos financieros y tecnológicos para implementar estas soluciones a escala. La computación en la nube surge como solución, proporcionando una infraestructura escalable y flexible de pago por uso.

12:18
Planificación de cargas de trabajo consciente de QoS en despliegues dinámicos y heterogéneos

ABSTRACT. Con la aparición del paradigma edge-to-cloud continuum, la heterogeneidad de los elementos computacionales impone nuevos desafíos para lograr niveles adecuados de Calidad de Servicio (QoS), principalmente en términos de tiempos de respuesta, pero también en métricas específicas de las aplicaciones. Además, en despliegues donde los elementos computacionales son dinámicos (en términos de disponibilidad, capacidades de cómputo, latencia, etc.), ubicar las cargas de trabajo en el elemento más adecuado se convierte en un desafío importante. Los orquestadores genéricos actuales, como Kubernetes, han demostrado ser una opción válida en entornos homogéneos y estáticos, en los que las políticas suelen perseguir exclusivamente el equilibrado de carga, ignorando otros parámetros como la reducción de latencia o la limitación de métricas a nivel de aplicación. En este artículo, demostramos que las políticas en un orquestador genérico como Kubernetes no son suficientes para despliegues heterogéneos y dinámicos en el continuo edge-to-cloud. En este trabajo proponemos un nuevo componente que se integra de manera transparente en Kubernetes. Este componente incorpora un conjunto de políticas de planificación conscientes de la QoS para abordar la heterogeneidad y el carácter dinámico de muchos despliegues edge-to-cloud. Nuestros resultados experimentales, revelan mejoras significativas en los tiempos de respuesta bajo distintos escenarios dinámicos que incluyen dispositivos de cómputo con diferentes capacidades.

12:36
Evaluación del uso de instrucciones AVX-512 para la aceleración del cálculo de Slope Entropy en series temporales

ABSTRACT. Este trabajo presenta una evaluación del uso de instrucciones AVX-512 para acelerar el cálculo de Slope Entropy, una medida de complejidad en series temporales. Se parte de la implementación original y se propone una versión optimizada basada en paralelismo SIMD mediante AVX-512. El estudio analiza su rendimiento frente a la versión estándar utilizando diferentes series y tamaños. Los resultados muestran que, aunque no es eficiente en volúmenes pequeños, AVX-512 ofrece mejoras superiores al 40 % a partir de aproximadamente 20.800 elementos. El análisis establece el umbral de eficiencia y aporta una base para futuras optimizaciones.

12:54
Automatizando el scouting deportivo mediante inteligencia artificial

ABSTRACT. En el deporte profesional y semiprofesional, los scouts juegan un papel crucial analizando exhaustivamente los partidos. Tradicionalmente, utilizan software especializado para introducir datos manualmente y generar estadísticas que los clubes utilizan para reclutar jugadores y planificar estrategias.

Esta investigación implementa técnicas de inteligencia artificial y aprendizaje automático, predominantemente redes neuronales convolucionales, para automatizar la recopilación de datos deportivos, incluyendo el seguimiento del movimiento de la pelota, el posicionamiento de los jugadores y el brazo utilizado para golpear la pelota. Utilizando un vídeo de un partido de tenis seleccionado aleatoriamente de YouTube, el sistema logró resultados notables: 99,3% de precisión en la detección de jugadores, 100% en identificación de articulaciones corporales, 94,13% en seguimiento de la pelota, aproximadamente 100% en segmentación de la cancha, y 100% en clasificación de golpes (derecha o revés).

El sistema extrae con éxito estadísticas detalladas, como el número de puntos jugados, la efectividad y eficiencia de los golpes, todo categorizado por áreas específicas de la cancha, culminando en la creación de un mapa de calor, avanzando así hacia una metodología de scouting más eficiente, precisa y automatizada.

12:00-13:30 Session 8B: Redes Sensibles al Tiempo / Maleabilidad
12:00
Characterization of latency and jitter in TSN emulation

ABSTRACT. This research focuses on timestamping methods for profiling network traffic in software-based environments. Accurate timestamping is crucial for evaluating network performance, particularly in Time-Sensitive Networking (TSN). We explore and compare four timestamping techniques within a TSN emulation context, though its findings extend to other network scenarios. The study leverages the Mininet emulator to model TSN networks, defining hosts, bridges, links, and traffic streams. It characterizes bridge latencies and jitter, solves the TSN scheduling problem based on measured parameters, and evaluates the correctness of a deployed schedule for a use case. Key contributions include a methodology for software-based timestamping, solutions for TSN emulation challenges in Linux and Mininet, and experimental insights for optimizing TSN emulation platforms on various system configurations, with and without Intel®'s TCC®, either on a high-end workstation or on an industrial PC.

12:18
Impacto de la topología de red en la planificación de flujos en Redes Sensibles al Tiempo (TSN) con bucles

ABSTRACT. Las Redes Sensibles al Tiempo (TSN) cumplen un conjunto de estándares IEEE~802.1Q de capa de enlace de datos destinados a garantizar cotas deterministas de latencia sobre tecnologías Ethernet y WiFi. Estas redes permiten la confluencia de flujos con restricciones temporales y de flujos no críticos. Para admitir un nuevo flujo crítico, éste ha de ser planificado de forma que, a lo largo de su ruta, no interfiera con el resto de flujos críticos ya planificados.

En este trabajo proponemos un modelo de programación lineal entera (ILP) para resolver el problema de planficación incremental y búsqueda de caminos en TSN. A diferencia de los trabajos previos, nuestra propuesta permite abordar el problema de forma conjunta. Sobre el modelo propuesto, evaluamos distintas funciones objetivo y distintas topologías. Los resultados muestran qué funciones objetivo son más interesantes para TSN, y el tiempo de cómputo y la cantidad de flujos planificados en cada topología.

12:36
Explorando la maleabilidad combinada de aplicaciones y sistemas de ficheros

ABSTRACT. En el contexto de computación paralela, la maleabilidad se refiere a la capacidad de ajustar dinámicamente los recursos de cómputo en tiempo de ejecución para optimizar el rendimiento y mejorar la eficiencia de los programas. Este artículo presenta un sistema que aplica el uso de maleabilidad tanto a nivel de aplicación como de sistema de ficheros paralelos. El entorno desarrollado combina modelos de predicción tradicionales y de aprendizaje automático, modelos de escalabilidad y modelos de programación dinámica para conseguir alcanzar distintos criterios de rendimiento de cómputo y E/S. Hemos evaluado este sistema con EpiGraph y Hercules. El primero es un simulador epidemiológico basado en agentes, paralelo y que realiza un uso intensivo de datos. El segundo es un sistema paralelo de ficheros ad hoc en memoria. Los resultados demuestran que nuestro entorno es capaz de mejorar el rendimiento de cómputo en un factor de más del 80% y el de E/S en un factor de más del 14%, a la vez que el tiempo total de ejecución se reduce en un 42% y el tiempo de uso de recursos en un 36%.

12:54
Redimensionamiento Dinámico de Aplicaciones Maleables mediante RMA

ABSTRACT. La redimensión dinámica de aplicaciones maleables en computación de altas prestaciones necesita mecanismos eficientes de redistribución de datos que le permita adaptarse a los cambios en el número de procesos, minimizando al mismo tiempo la sobrecarga de ejecución y el tiempo de redimensión. Este trabajo explora nuevos métodos de comunicación unilateral basados en operaciones de Acceso Remoto a Memoria (RMA) en MPI, permitiendo a los procesos recuperar datos sin la participación explícita de los procesos origen. Además, se introduce la estrategia Wait Targets, que permite reconfiguraciones eficientes en segundo plano con RMA, buscando minimizar su impacto en la ejecución de la aplicación. Estos métodos se han integrado en MaM, una biblioteca para redimensionar aplicaciones en tiempo de ejecución, para compararlos con la redistribución tradicional basada en operaciones colectivas. La evaluación experimental muestra que, a pesar de su reducido impacto en las iteraciones en curso, los métodos unilaterales obtienen prestaciones similares a las operaciones colectivas pero nunca les superan, debido a sus elevados costes de inicialización. Si este sobrecoste fuese reducido, los enfoques unilaterales podrían convertirse en una alternativa competitiva, permitiendo reconfiguraciones eficientes en segundo plano sin impactar computacionalmente a la aplicación.

12:00-13:30 Session 8C: JCER8: Optimización trayectorias robóticas / Rendimiento FPGA
12:00
Optimización de Robots de Análisi Biomédico con Planificación Dinamica: Resultados Experimentales Obtenidos desde Equipamiento Real

ABSTRACT. La creciente complejidad de los procedimientos de análisis biomédico exige el desarrollo de mecanismos eficientes de programación de tareas en los sistemas automatizados de laboratorio. Este artículo presenta un planificador dinámico diseñado para robots de análisis biomédico que permite la ejecución simultánea de múltiples técnicas analíticas al tiempo que optimiza la utilización de los recursos. El marco de programación propuesto emplea una gestión de tareas basada en prioridades y políticas de planificación preferente para garantizar la sincronización de procesos, minimizar el tiempo de inactividad y evitar conflictos de recursos. Está diseñado para ser escalable y admite varios protocolos diferentes. También se ha implementado un simulador de ejecución para obtener el tiempo previsto para cada prueba. La arquitectura propuesta se validó utilizando equipos de laboratorio reales y, a continuación, cinco patólogos independientes calificaron los resultados. Estos resultados demostraron una mejora de la eficiencia de la ejecución, manteniendo al mismo tiempo unos resultados analíticos de alta calidad en comparación con una ejecución no programada. El tiempo de ejecución de la simulación se aproximó mucho al tiempo de ejecución real. Los resultados ponen de relieve el potencial de las técnicas de programación dinámica para mejorar la automatización, reducir el tiempo de procesamiento y aumentar la fiabilidad de los flujos de trabajo de análisis biomédico.

12:18
Simulación de un brazo robótico neuromórfico con control dinámico para la evaluación rápida de trayectorias

ABSTRACT. El desarrollo de simuladores software para aplicaciones robóticas conlleva muchas ventajas, como una planificación de trayectorias más rápida en mundos virtuales, ahorro en el consumo de energía, reducción en la compra de robots reales, viabilidad en la recopilación de conjuntos de datos para el entrenamiento de modelos de IA, etc. En Internet y en la literatura se pueden encontrar simuladores comerciales, de libre acceso y de código abierto para cualquier tipo de robot. Algunos de ellos permiten la implementación de modelos de control específicos o nuevos. Para un comportamiento más cercano al mundo real, hay que tener en cuenta la cinemática y la dinámica, gravedad, masas, etc. Este trabajo propone un nuevo simulador para un brazo robótico neuromórfico (ED-Scorbot) cuyos controladores hardware están basados en FPGA para permitir la implementación de controladores de motor neuro-inspirados, como Spiking Proportional-Integral-Derivative (SPID), para gestionar cada articulación del robot. Este simulador está desarrollado en Matlab y Simulink y está a disposición del público. El simulador permite evaluar diferentes trayectorias con dos controladores, un Control Independiente de Articulación (IJC) y un Control de Par Computarizado (CTC). Se ha probado para trayectorias cuadradas y lemniscatas con un pequeño número de puntos interpolados internamente para crear trayectorias de referencia con más puntos. Se han medido mejoras del error cuadrático medio (RMSE) de más de 30x para CTC sobre IJC.

12:36
Comparación de plataformas de desarrollo sin código de IA empotrada usando un set de datos de mantenimiento predictivo

ABSTRACT. La computación en el borde, en inglés \textit{Edge Computing} (EC), es una de las aproximaciones más utilizadas en industria actualmente para implementar sistemas de mantenimiento predictivo basadas en inteligencia artificial (IA). Esto ha hecho que surjan nuevas herramientas que simplifican el desarrollo de sistemas de IA empotrada sin necesidad de implementar código (filosofía \textit{No-code}). Hemos evaluado 6 plataformas de desarrollo sin código de IA empotrada utilizando una combinación del proceso analítico jerárquico (PAJ) y el método de decisión multicriterio TOPSIS. Cinco investigadores independientes del área han asignado los pesos necesarios en estos métodos, resultando ser más importantes el coste y el rendimiento. Además, se han efectuado dos tests de entrenamiento y clasificación en cada plataforma utilizando como entrada un set de datos público sobre mantenimiento predictivo en bombas peristálticas que contiene lecturas etiquetadas de magnetómetro y acelerómetro. De estos tests se han obtenido métricas de precisión F1, memoria RAM ocupada, memoria flash ocupada y latencia. Con todos estos resultados, más las puntuaciones de los investigadores, se ha obtenido un ranking final en el que se observa que las primeras 5 posiciones corresponden a las opciones gratuitas de las herramientas, siendo NanoEdgeAIStudio la primera de ellas. También se identificaron limitaciones del estudio que deberán ser corregidas en el futuro para mejorar la comparativa.

12:54
Evaluación del rendimiento de FPGAs para aceleración de kernels de cómputo: Un estudio comparativo

ABSTRACT. El creciente interés por hardware de alto rendimiento ha impulsado el uso de FPGAs como aceleradores eficientes en términos energéticos. Este trabajo compara el rendimiento de FPGAs y CPUs en la ejecución de kernels de Polybench/C, evaluando su capacidad de paralelización y consumo energético. Para ello, se han aplicado diversas estrategias de optimización mediante Vitis HLS, como pipeline, flujo de datos, tipo de datos con precisión arbitraria y optimización de bucles.

Como resultado, se han obtenido aceleraciones de hasta 2500\% en escenarios de paralelización completa, destacando mejoras en algoritmos como: Jacobi 2D (2516,29\%), Cholesky (338,62\%) o Doitgen (145,10\%). Además, se analiza cómo ligeras modificaciones en los kernels afectan la estrategia óptima de aceleración, logrando mejoras de hasta 925,58\% en el algoritmo GEMM.