INFONOR-CHILE 2018: 9TH INTERNATIONAL CONGRESS ON COMPUTING IN NORTHERN CHILE
PROGRAM FOR THURSDAY, SEPTEMBER 6TH
Days:
previous day
next day
all days

View: session overviewtalk overview

09:00-11:00 Session 6A: WKDE 2018
09:00
WKDE Introduction
09:10
The Relevance of Hyper-Parameters in Convolutional Networks: A Case Study With Fashion-MNIST
09:30
The LapRLS Algorithm as a Simple Approach to Sentiment Analysis Lexicon Construction
SPEAKER: Brian Keith
09:50
Establishing Criteria to Compare Unsupervised Learning Algorithms
10:10
Twitter Sentiment Analysis Applied to the 2017 Chilean Elections
SPEAKER: Tomás Alegre
10:30
DNA Computing: A Brief Review
SPEAKER: Susana Soto
09:00-11:00 Session 6B: Trabajos Empresariales y Experiencias en la Industria
09:00
Computación de Alto Rendimiento: ¿Qué es y qué se hace en Chile?

ABSTRACT. La computación de alto rendimiento (o HPC por sus siglas en inglés) es una valiosa herramienta que puede y debe de ser empleada para realizar muy diversas simulaciones. Durante esta charla se explicará en que consiste el HPC y el porqué de su importancia. Además, se presentará el Laboratorio Nacional de Computación de Alto Rendimiento (NLHPC), mencionando su misión, objetivos y lo que ofrece de manera gratuita a la comunidad científica chilena. En este punto se presentará nuestro supercomputador Leftraru, el más potente de Chile.

09:30
eduroam, un servicio para la comunidad nacional en un escenario internacional

ABSTRACT. Dado el contexto de colaboración internacional y movilidad en que las universidades y sus estamentos se encuentran insertos, se hace necesario pensar en servicios que vayan en pos de satisfacer estas necesidades. El servicio de itinerancia (o roaming) educacional eduroam (acrónimo de educational roaming) ha sido concebido bajo esta premisa y permite los usuarios conectarse de manera transparente a Internet, independiente de donde estén ubicados. En esta presentación se hablará a cerca de eduroam, su gestación, su adopción tanto a nivel internacional como nacional y su impacto en las instituciones que cuentan con este servicio en Chile.

10:00
Cómo usar el supercomputador de Chile: Leftraru

ABSTRACT. Usar un supercomputador es distinto a usar un computador normal, hay que tener en cuenta que su acceso es compartido por cientos de usuarios, por lo que hay que establecer unas políticas de uso y un mecanismo para compartir los recursos. En este taller se mostrará como usar el sistema gestor de recursos (SLURM) que tenemos instalado en el supercomputador del Laboratorio Nacional de Computación de Alto Rendimiento: Leftraru, mostrando algunos consejos muy útiles para su correcto uso.

10:40
COASIN: Habilitando la Transformación Digital
11:00-11:30Coffee Break
11:30-13:00 Session 7: WKDE 2018
11:30
Geographical Mapping of the Perception of Robbery Crimes Derived From Online Newspaper Articles
11:50
Software Development in the Big Data Era: A Literature Review
12:10
Recurrent Neural Networks for Wind Power and Wind-speed forecasting

ABSTRACT. Wind energy is a renewable energy source that is being an attractive alternative to fossil fuels given its given its low environmental impact, high availability and low costs. However, its integration into electrical systems presents numerous challenges due to the variable nature of the wind. Therefore, to maintain an economical and reliable electricity supply, it is necessary to accurately predict wind power generation. In Chile, wind speed and wind power forecasting are relevant, since the government has established a long-term energy agenda proposing that at least 70% of the electricity comes from renewable sources matrix. Recurrent Neural Networks (RNNs) can learn to model complex temporal non-linear relationships from the data, avoiding the need for their explicit mathematical formulation . Different RNNs models for wind time series forecasting will be presented and evaluated.

13:00-15:00Lunch Break
15:00-17:00 Session 8A: Track Ingeniería de Software
15:00
Importancia de la Definición y Uso de Procesos en las Empresas
15:50
Hacia la obtención de historias de usuarios desde modelos de procesos de negocio descritos con BPMN
SPEAKER: Ariel Andia

ABSTRACT. En los modelos de Procesos de Negocio se describen las actividades de una organización y sus interacciones. La información contenida en estos modelos es una fuente valiosa de requisitos software. En metodologías ágiles tales como Scrum y XP (eXtreme Programming) se utilizan Historias de Usuario para la documentación de los requisitos. Las Historias de Usuario son descripciones cortas de una necesidad que se obtienen a partir de entrevistas con el cliente o usuario. En este trabajo se propone obtener Historias de Usuario desde Procesos de Negocio descritos con BPMN usando un enfoque Model Driven Architecture (MDA). Se escoge el framework MDA para contextualizar la obtención de modelos mediante transformaciones. Al establecer reglas de transformación para obtener las Historias de Usuario, se disminuye la dependencia del factor humano evitando los riesgos que ello conlleva (mal interpretación de requisitos, ambigüedades del lenguaje natural, etc.). Utilizando las reglas de transformación, se obtiene un conjunto de Historias de Usuario conscientes de los Procesos de Negocio. Las Historias de Usuario obtenidas mediante las reglas de transformación deben ser refinadas por el analista de requisitos para que efectivamente se constituyan en un complemento a los requisitos que se obtienen por otros medios

16:15
Mejora del Proceso de Gestión de Proyecto Usando Metodologías Ágiles

ABSTRACT. La unidad de Mantenimiento y Desarrollo Institucional de una universidad tradicional ha tenido un crecimiento considerable en el último tiempo, lo que ha generado la necesidad de poder gestionar eficientemente los proyectos de software. Los costos y tiempos de implementación han ido postergando la generación de los procesos y procedimientos necesarios para alcanzar los estándares de calidad que garanticen una adecuada operabilidad. El proceso de desarrollo de software de la unidad no se ha modificado para enfrentar este sistema cambiante, y esto ha impactado considerablemente en la calidad de los proyectos implementados en el último tiempo, por lo que se ha determinado que una metodología tradicional no está siendo efectiva. La propuesta considera la definición del proceso de Gestión de Proyectos de Software con la incorporación de prácticas ágiles. La definición del proceso de gestión de proyectos, el uso de prácticas ágiles y su aplicación con la herramienta EPF Composer permitieron solucionar los problemas de la unidad de Mantenimiento y Desarrollo Institucional en el proyecto realizado.

16:40
Sobre la evaluación de proyectos en los Sistemas de Información: Un análisis bibliométrico

ABSTRACT. La globalización y cambios en tecnología abre nuevos mercados, clientes y empresas, es por ello, que la implementación de sistemas de información en las empresas es cada vez más requerida, pero al mismo tiempo, la previa evaluación para invertir en ellos exitosamente es más compleja. El presente documento busca y analiza las evaluaciones de inversión, que consideren beneficios tangibles e intangibles e indaga las soluciones propuestas. Por medio de un análisis bibliométrico, se estudian variados trabajos obtenidos de la base de datos Web of Science, y se comparan mediante una revisión de acoplamiento bibliográfico. Los resultados obtenidos detallan problemas organizativos, directivos y halla una clara desinformación en cuanto a las variadas tecnologías de información existentes.

15:00-17:00 Session 8B: Track Sistemas Inteligentes
15:00
Detección del Estado Fisiológico de los Ojos en Conductores Mediante Técnicas de Visión Artificial

ABSTRACT. En las últimas décadas, la cantidad de accidentes de tránsito debido a la fatiga o somnolencia del conductor ha provocado cuantiosas pérdidas humanas y materiales. A su vez, la venta en el parque automotor se ha masificado lo cual indica que posiblemente en los siguientes añoos si no se toma las medidas pertinentes para detectar la fatiga existirá un incremento en los accidentes automovilísticos. Por ende, en este estudio de investigación proponemos el desarrollo de un sistema de detección de fatiga en los conductores que permita alertar sobre sobre su estado mientras esté conduciendo mediante el uso de técnicas de visión artificial y machine learning. Las técnicas de estos dos campos de estudio se interceptan para generar modelos supervisados con un alto rendimiento al momento de clasificar el estado de fatiga en los conductores. En este estudio hemos trabajado con un dataset de imágenes frontales enfocándonos en la característica fisiológica de los ojos obteniendo resultados preliminares prometedores en la detección de fatiga en tiempo real.

15:30
Identificación y Control de sistema no lineal mediante RNA: Aplicado a sistema de control de nivel con estanque cónico
SPEAKER: Ruben Castro

ABSTRACT. El presente trabajo tiene por objetivo el diseño e implementación de un sistema de control de nivel para estanque cónico mediante el uso de redes neuronales, tanto para la identificación del modelo de la planta como para el controlador. En particular, este trabajo aborda las etapas de implementación de la planta a controlar, identificación del modelo de la planta mediante Redes Neuronales Artificiales y posteriormente se presentan estructuras de control a considerar para la etapa final del proyecto. Durante el desarrollo se presentan por ejemplo, aspectos relevantes para su reproductibilidad como las características de los equipos utilizados, los pasos para el diseño de una red neuronal, su aplicación para la identificación del modelo de la planta y estructuras de control analizadas para su implementación en la etapa de control, así como también los resultados empíricos obtenidos para la etapa de identificación.

16:00
Computer Vision and Machine Learning techniques to Detect Diseases in Blueberries Leaves

ABSTRACT. In this paper we present the procedure that was carried out for the construction of a recognition model that detects if a blueberry plant is affected by a disease or pest, or is healthy. The use of Artificial Vision techniques was used, since the images had to be processed, different filters were used, such as medianBlur for the elimination of noise, addWeighted to enhance the details of the images. The images were collected by the authors of this work, since there was no accessible database of this type of fruit, for which the Valle and Pampa farm was visited, where photographs were taken of the plants, both diseased, plague and healthy. The extraction of characteristics of the images was carried out, for which extraction algorithms were used, such as HOG (Histogram of oriented gradients) and LBP (Local binary patterns). The use of Machine Learning techniques was used for the use of learning algorithms such as Suport Vector Machine, Neural Networks and Random Forest. In addition, Deep Learning was used, in which convolutional networks were used. The results yielded an adequate recognition index that was able to classify whether the cranberry plant was being affected or not. The result of this work provides a solution to a constant problem in the agricultural sector that affects the production of blueberries.

16:30
Predicción de la deserción estudiantil mediante algoritmos de clasificación optimizados a través de algoritmos evolutivos

ABSTRACT. En el ámbito universitario, la deserción es un fenómeno que afecta tanto al estudiante como a la institución que lo cobija, es por ello que se han investigado las características de este fenómeno con el fin de identificar perfiles de mayor incidencia en deserción estudiantil que permitan tomar medidas preventivas ante este hecho. El trabajo se desarrolla en la Escuela Profesional de Ingeniería de Sistemas de la Universidad Nacional de San Agustín (Arequipa, Perú), con la información académica de las cohortes de los años 2011 al 2016, información que se pre-procesó y se transformó. Posteriormente se le aplico algoritmos de clasificación optimizados a través de algoritmos evolutivos para identificar, mediante comparación de resultados, el algoritmo que aporta mayor precisión en los resultados. Los resultados muestran que, al aplicar el algoritmo J48 se obtuvo una precisión del 83.40% mientras que con el algoritmo de Naive Bayes se obtuvo el 76.89%; luego de realizar la optimización del mejor resultado se alcanzo una precisión del 84.48%. Se concluye que el algoritmo de clasificación J48 optimizado es el que mejor se ajusta a la información, y que la deserción estudiantil se puede describir mediante diferentes patrones: haber desaprobado entre los 6 primeros cursos de la carrera con un promedio total no mayor a 9 y haber aprobado menos de 8 cursos con un promedio total no mayor a 9 de un total de cursos llevados comprendido entre 10 y 18

17:00-17:30Coffee Break
17:30-19:30 Session 9: Track Ingeniería de Datos y del Conocimiento
17:30
Proyección del Precio de Criptomonedas basado en Tweets Empleando LSTM

ABSTRACT. El modelamiento y predicción de series temporales constituye una tarea ardua y esencial para los procedimientos de optimización financiera. Numerosos estudios han sido realizados con la finalidad de reducir la incertidumbre del inversor, mediante el pronóstico de precio de monedas y acciones. Sin embargo, el surgimiento de un nuevo tipo de monedas con características propias, conocidas como cryptocurrencies, plantea retos adicionales. En este sentido, el paper plantea analizar en qué medida las publicaciones en las redes sociales pueden capturar las expectativas colectivas de los inversores, y afectar el valor futuro de la moneda. Nuestro objetivo es pronosticar el desempeño diario de un mercado en base a dos componentes: aquellos que definen el comportamiento de la criptomoneda en sí (volumen, valor de apertura, valor de cierre, valor máximo y valor mínimo) y las expectativas e interacciones del entorno, obtenidas de los tweets recolectados. Para ello, proponemos el uso de un tipo de red neuronal recurrente, conocida como “Long Short Term Memory” (LSTM). La metodología empleada para el preprocesamiento de los datos y la aplicación de esta técnica de pronóstico de series temporales, nos permite obtener una predicción con un Error Porcentual Absoluto Medio de 34.92%; lo que indica que la representación de la variable de percepción en redes social no ha sido la pertinente y, por lo tanto, motiva nuevos trabajos con la finalidad de modelar esta variable mediante el uso de otras técnicas de NLP.

18:00
Modelo de Estimación de Oferta y Demanda de Productos usando Series de Tiempo y Algoritmo de Clasificación de K-Vecino más Cercano

ABSTRACT. Este trabajo busca construir modelos predictivos para la estimación de volúmenes de oferta y demanda de productos, usando modelos de Series Temporales y Algoritmo de K-Vecinos más Cercanos (KNN). Los modelos preseleccionados por sus atributos estadísticos, son clasificados usando KNN para determinar su calidad en “Excelentes”, “Buenos” y “Malos”. Cuando la clasificación es dicotómica, obtenemos un 67,75% de acierto para modelos “Buenos” y un 57,67% de acierto para modelos “Malos”. Dentro del grupo de los tres modelos mejor clasificados, que se presentan al decisor, el porcentaje de acierto llega al 75%. Para una de las señales estudiadas, en los 22 períodos observados se encontró un modelo “Excelente”, de los cuales 19 períodos (86,36%) tuvieron ese mismo resultado y 3 tuvieron un resultado dentro del rango “Bueno”.

18:30
Generación Paralela de Reglas de Asociación – Caso de Uso: Evaluación Psicométrica

ABSTRACT. La minería de reglas de asociación consiste en determinar relaciones entre variables en forma de reglas en grandes bases de datos, uno de los algoritmos más utilizados para realizar esta tarea es el algoritmo Apriori. Este trabajo propone la paralelización del algoritmo Apriori aplicado al cuestionario de personalidad de los 16 factores que ideó Raymond Cattell, conocido como el cuestionario 16PF, para generar reglas de asociación entre las diferentes preguntas. El caso de uso utilizado cuenta con una base de datos que contiene 49150 cuestionarios respondidos, con 163 preguntas por cuestionario. Los resultados obtenidos muestran un tiempo de ejecución 4 veces menor del algoritmo paralelo propuesto al algoritmo serial, además, los resultados muestran asociaciones con valores de confianza mayores a 97% (con 2 variables) y mayores al 98% (con 3 variables), lo que se esperaría desde el punto de vista de la psicología tradicional.

19:00
Procesamiento, Análisis y Discriminación con Otsu para la Caracterización Estandarizadas de Bioseñales

ABSTRACT. En este trabajo se realiza la extracción, análisis y caracterización de las Bioseñales, capturados desde el dispositivo Emotiv®, a través de varios usuarios, para el posterior procesamiento con algoritmos y aplicaciones desarrolladas. Se analizan las señales a través varias muestras, obteniendo sus peaks para analizar el grado de significancia a través de la dispersión, puntos máximos y empleando el método Otsu, con esto, se obtienen los límites de aceptación para una señal. Por lo que, es posible caracterizar éstas y saber en qué punto se define como señal neutra no utilizable. Además, se identifican los patrones que posee cada tipo de acción sobre una bioseñal, para su posterior utilización, por ejemplo en una máquina de aprendizaje automático.