Pub Date : 2020-09-18DOI: 10.19053/01211129.V29.N54.2020.11751
Luis Eduardo Ordoñez-Palacios, D. León-Vargas, Víctor-Andrés Bucheli-Guerrero, H. Ordóñez-Eraso
La estimación de la radiación solar es fundamental para quienes participan en la planificación de granjas de energía solar, ya sean aisladas o conectadas a las redes de distribución eléctrica. Esto para el aprovechamiento de las fuentes de energía renovables, reducir el impacto producido por el cambio climático, e incrementar los índices de cobertura en el servicio eléctrico. De igual manera, el número de estaciones de medición existentes es insuficiente para cubrir toda la geografía de una región, y muchas de ellas no están capturando datos de radiación solar. Por consiguiente, es importante hacer uso de modelos matemáticos, estadísticos y de inteligencia artificial que permitan predecir la radiación solar a partir de datos meteorológicos disponibles. En este trabajo se utilizaron conjuntos de datos tomados de estaciones de medición ubicadas en las ciudades de Cali y Villavicencio, además de un conjunto de datos generado por la API World Weather Online para la ciudad de Mocoa. La razón fue realizar estimaciones de radiación solar utilizando distintas técnicas de aprendizaje automático para regresión y clasificación; el principal objetivo fue evaluar su desempeño. Aunque en la mayoría de los trabajos relacionados los investigadores utilizaron el aprendizaje profundo para la predicción de la radiación solar, este estudio demostró que, si bien las redes neuronales artificiales son la técnica más utilizada, otros algoritmos de aprendizaje automático como Random Forest, Máquinas de Soporte Vectorial y AdaBoost también proporcionan estimaciones con suficiente precisión para ser utilizados en este campo de estudio.
{"title":"Predicción de radiación solar en sistemas fotovoltaicos utilizando técnicas de aprendizaje automático","authors":"Luis Eduardo Ordoñez-Palacios, D. León-Vargas, Víctor-Andrés Bucheli-Guerrero, H. Ordóñez-Eraso","doi":"10.19053/01211129.V29.N54.2020.11751","DOIUrl":"https://doi.org/10.19053/01211129.V29.N54.2020.11751","url":null,"abstract":"La estimación de la radiación solar es fundamental para quienes participan en la planificación de granjas de energía solar, ya sean aisladas o conectadas a las redes de distribución eléctrica. Esto para el aprovechamiento de las fuentes de energía renovables, reducir el impacto producido por el cambio climático, e incrementar los índices de cobertura en el servicio eléctrico. De igual manera, el número de estaciones de medición existentes es insuficiente para cubrir toda la geografía de una región, y muchas de ellas no están capturando datos de radiación solar. Por consiguiente, es importante hacer uso de modelos matemáticos, estadísticos y de inteligencia artificial que permitan predecir la radiación solar a partir de datos meteorológicos disponibles. En este trabajo se utilizaron conjuntos de datos tomados de estaciones de medición ubicadas en las ciudades de Cali y Villavicencio, además de un conjunto de datos generado por la API World Weather Online para la ciudad de Mocoa. La razón fue realizar estimaciones de radiación solar utilizando distintas técnicas de aprendizaje automático para regresión y clasificación; el principal objetivo fue evaluar su desempeño. Aunque en la mayoría de los trabajos relacionados los investigadores utilizaron el aprendizaje profundo para la predicción de la radiación solar, este estudio demostró que, si bien las redes neuronales artificiales son la técnica más utilizada, otros algoritmos de aprendizaje automático como Random Forest, Máquinas de Soporte Vectorial y AdaBoost también proporcionan estimaciones con suficiente precisión para ser utilizados en este campo de estudio.","PeriodicalId":21428,"journal":{"name":"Revista Facultad De Ingenieria-universidad De Antioquia","volume":null,"pages":null},"PeriodicalIF":1.0,"publicationDate":"2020-09-18","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"86332863","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2020-09-18DOI: 10.19053/01211129.V29.N54.2020.11762
Miguel Alexis Solano-Jiménez, Jose Julio Tobar-Cifuentes, Luz Marina Sierra-Martínez, C. Cobos-Lozada
Part-of-Speech Tagging (POST) is a complex task in the preprocessing of Natural Language Processing applications. Tagging has been tackled from statistical information and rule-based approaches, making use of a range of methods. Most recently, metaheuristic algorithms have gained attention while being used in a wide variety of knowledge areas, with good results. As a result, they were deployed in this research in a POST problem to assign the best sequence of tags (roles) for the words of a sentence based on information statistics. This process was carried out in two cycles, each of them comprised four phases, allowing the adaptation to the tagging problem in metaheuristic algorithms such as Particle Swarm Optimization, Jaya, Random-Restart Hill Climbing, and a memetic algorithm based on Global-Best Harmony Search as a global optimizer, and on Hill Climbing as a local optimizer. In the consolidation of each algorithm, preliminary experiments were carried out (using cross-validation) to adjust the parameters of each algorithm and, thus, evaluate them 1 Universidad del Cauca (Popayán-Cauca, Colombia). miguelsolano@unicauca.edu.co. ORCID: 0000-00031936-3488 2 Universidad del Cauca (Popayán-Cauca, Colombia). josej@unicauca.edu.co. ORCID: 0000-0002-5436-0816 3 Ph. D. Universidad del Cauca (Popayán-Cauca, Colombia). lsierra@unicauca.edu.co. ORCID: 0000-00033847-3324 4 Ph. D. Universidad del Cauca (Popayán-Cauca, Colombia). ccobos@unicauca.edu.co. ORCID: 0000-00026263-1911 Adaptation, Comparison, and Improvement of Metaheuristic Algorithms to the Part-of-Speech Tagging Problem Revista Facultad de Ingeniería (Rev. Fac. Ing.) Vol. 29 (54), e11762. 2020. Tunja-Boyacá, Colombia. L-ISSN: 0121-1129, e-ISSN: 2357-5328, DOI: https://doi.org/10.19053/01211129.v29.n54.2020.11762 on the datasets of the complete tagged corpus: IULA (Spanish), Brown (English) and Nasa Yuwe (Nasa). The results obtained by the proposed taggers were compared, and the Friedman and Wilcoxon statistical tests were applied, confirming that the proposed memetic, GBHS Tagger, obtained better results in precision. The proposed taggers make an important contribution to POST for traditional languages (English and Spanish), non-traditional languages (Nasa Yuwe), and their application areas.
{"title":"Adaptation, Comparison, and Improvement of Metaheuristic Algorithms to the Part-of-Speech Tagging Problem","authors":"Miguel Alexis Solano-Jiménez, Jose Julio Tobar-Cifuentes, Luz Marina Sierra-Martínez, C. Cobos-Lozada","doi":"10.19053/01211129.V29.N54.2020.11762","DOIUrl":"https://doi.org/10.19053/01211129.V29.N54.2020.11762","url":null,"abstract":"Part-of-Speech Tagging (POST) is a complex task in the preprocessing of Natural Language Processing applications. Tagging has been tackled from statistical information and rule-based approaches, making use of a range of methods. Most recently, metaheuristic algorithms have gained attention while being used in a wide variety of knowledge areas, with good results. As a result, they were deployed in this research in a POST problem to assign the best sequence of tags (roles) for the words of a sentence based on information statistics. This process was carried out in two cycles, each of them comprised four phases, allowing the adaptation to the tagging problem in metaheuristic algorithms such as Particle Swarm Optimization, Jaya, Random-Restart Hill Climbing, and a memetic algorithm based on Global-Best Harmony Search as a global optimizer, and on Hill Climbing as a local optimizer. In the consolidation of each algorithm, preliminary experiments were carried out (using cross-validation) to adjust the parameters of each algorithm and, thus, evaluate them 1 Universidad del Cauca (Popayán-Cauca, Colombia). miguelsolano@unicauca.edu.co. ORCID: 0000-00031936-3488 2 Universidad del Cauca (Popayán-Cauca, Colombia). josej@unicauca.edu.co. ORCID: 0000-0002-5436-0816 3 Ph. D. Universidad del Cauca (Popayán-Cauca, Colombia). lsierra@unicauca.edu.co. ORCID: 0000-00033847-3324 4 Ph. D. Universidad del Cauca (Popayán-Cauca, Colombia). ccobos@unicauca.edu.co. ORCID: 0000-00026263-1911 Adaptation, Comparison, and Improvement of Metaheuristic Algorithms to the Part-of-Speech Tagging Problem Revista Facultad de Ingeniería (Rev. Fac. Ing.) Vol. 29 (54), e11762. 2020. Tunja-Boyacá, Colombia. L-ISSN: 0121-1129, e-ISSN: 2357-5328, DOI: https://doi.org/10.19053/01211129.v29.n54.2020.11762 on the datasets of the complete tagged corpus: IULA (Spanish), Brown (English) and Nasa Yuwe (Nasa). The results obtained by the proposed taggers were compared, and the Friedman and Wilcoxon statistical tests were applied, confirming that the proposed memetic, GBHS Tagger, obtained better results in precision. The proposed taggers make an important contribution to POST for traditional languages (English and Spanish), non-traditional languages (Nasa Yuwe), and their application areas.","PeriodicalId":21428,"journal":{"name":"Revista Facultad De Ingenieria-universidad De Antioquia","volume":null,"pages":null},"PeriodicalIF":1.0,"publicationDate":"2020-09-18","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"86380725","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2020-09-18DOI: 10.19053/01211129.V29.N54.2020.11760
Cristian Valencia-Payan, Julián Muñoz-Ordóñez, L. Pencue-Fierro
La seguridad ha sido uno de los puntos claves en el diseño vehicular, por lo que uno de los principales objetivos es implementar sistemas de alerta para notificar al conductor sobre algún proceso inadecuado o atípico en su conducción, con el fin de evitar accidentes que afecten a sus ocupantes, así como a terceros; un ejemplo, de esto se observa en el auge de los vehículos autónomos. De acuerdo con la Organización Mundial de la Salud, en el 2016 se presentaron 1.35 millones de muertes relacionadas con accidentes de tráfico, por ello, actualmente se crean más sistemas para monitorizar el ambiente alrededor del vehículo de modo que se garantice una conducción segura en todo momento. Esta investigación presenta el primer sistema de asistencia a la conducción desarrollado para Colombia, el sistema detecta y reconoce señales de tránsito preventivas y reglamentarias basado en clasificadores Haar, lo cual permite que su precisión no se afecte debido a las rotaciones y escala de las señales presentes en un viaje sobre un trayecto real. El sistema reconoce salidas de carril, estimación de la dirección de la curva y detección de obstáculos que sobresalen en la carretera utilizando algoritmos de visión por computadora convirtiéndolo en un sistema de bajo costo computacional. Además, esta investigación proporciona los primeros clasificadores en cascada resultantes para la detección de señales reglamentarias y preventivas colombianas. El sistema es probado en ambientes reales de carreteras colombianas obteniendo una precisión superior al 90%. La investigación demuestra que métodos basados en visión por computadora son competitivos frente a propuestas actuales como las redes neuronales profundas.
安全一直是关键在车辆的设计中,因此主要目标之一是实施预警系统通知司机关于某个过程不当或不规则的驾驶,以避免影响乘客死亡的事故,以及第三方;自动驾驶汽车的兴起就是一个例子。根据世界卫生组织的数据,2016年有135万人死于交通事故,因此,目前正在建立更多的系统来监测车辆周围的环境,以确保在任何时候都能安全驾驶。本研究介绍第一个驾驶辅助系统开发来哥伦比亚预防、检测和识别交通信号系统和基于clasificadores k Haar,从而使其精度不会影响由于轮和推广中的信号旅行真正的行程。该系统使用计算机视觉算法识别车道出口、估计曲线方向和检测突出的道路障碍物,使其成为一个低计算成本的系统。此外,这项研究还提供了第一个用于检测哥伦比亚监管和预防信号的级联分类器。该系统在哥伦比亚的真实道路环境中进行了测试,准确率超过90%。研究表明,与深度神经网络等现有方法相比,基于计算机视觉的方法具有竞争力。
{"title":"Sistema de asistencia a la conducción usando visión por computadora y aprendizaje máquina","authors":"Cristian Valencia-Payan, Julián Muñoz-Ordóñez, L. Pencue-Fierro","doi":"10.19053/01211129.V29.N54.2020.11760","DOIUrl":"https://doi.org/10.19053/01211129.V29.N54.2020.11760","url":null,"abstract":"La seguridad ha sido uno de los puntos claves en el diseño vehicular, por lo que uno de los principales objetivos es implementar sistemas de alerta para notificar al conductor sobre algún proceso inadecuado o atípico en su conducción, con el fin de evitar accidentes que afecten a sus ocupantes, así como a terceros; un ejemplo, de esto se observa en el auge de los vehículos autónomos. De acuerdo con la Organización Mundial de la Salud, en el 2016 se presentaron 1.35 millones de muertes relacionadas con accidentes de tráfico, por ello, actualmente se crean más sistemas para monitorizar el ambiente alrededor del vehículo de modo que se garantice una conducción segura en todo momento. Esta investigación presenta el primer sistema de asistencia a la conducción desarrollado para Colombia, el sistema detecta y reconoce señales de tránsito preventivas y reglamentarias basado en clasificadores Haar, lo cual permite que su precisión no se afecte debido a las rotaciones y escala de las señales presentes en un viaje sobre un trayecto real. El sistema reconoce salidas de carril, estimación de la dirección de la curva y detección de obstáculos que sobresalen en la carretera utilizando algoritmos de visión por computadora convirtiéndolo en un sistema de bajo costo computacional. Además, esta investigación proporciona los primeros clasificadores en cascada resultantes para la detección de señales reglamentarias y preventivas colombianas. El sistema es probado en ambientes reales de carreteras colombianas obteniendo una precisión superior al 90%. La investigación demuestra que métodos basados en visión por computadora son competitivos frente a propuestas actuales como las redes neuronales profundas.","PeriodicalId":21428,"journal":{"name":"Revista Facultad De Ingenieria-universidad De Antioquia","volume":null,"pages":null},"PeriodicalIF":1.0,"publicationDate":"2020-09-18","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"80954715","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2020-09-18DOI: 10.19053/01211129.V29.N54.2020.11763
C. Gómez-Campo, T. Cañizares-Hernández, C. Pardo-Calvache
Los enfoques ágiles escalados se han convertido en una alternativa que permite sincronizar las actividades e interacciones entre equipos grandes de desarrollo. Sin embargo, éstos no describen los aspectos fundamentales para transformar/evaluar el enfoque actual de una organización. Este artículo presenta la estrategia de armonización utilizada para obtener un modelo híbrido preliminar, denominado SAM, para apoyar la transformación ágil a gran escala en industrias de software. Este modelo ha sido obtenido a partir de la homogeneización, comparación e integración de las prácticas en común de modelos escalados como SAFe, LeSS, Nexus y DAD. El modelo híbrido obtenido describe los atributos fundamentales para tener en cuenta para empezar la transformación o evaluar un enfoque escalado, para esto, establece y describe 18 prácticas documentadas que indican que tener en cuenta para escalar/evaluar un enfoque a gran escala utilizado por una empresa de software. Con los resultados obtenidos, se puede observar que SAFe, LeSS, Nexus y DAD tiene aspectos en común, y que ha sido posible unificarlos en SAM; por lo tanto, la estrategia de armonización presentada y el modelo propuesto podrían ser de gran utilidad para profesionales, consultores y empresas que intentan transformar/evaluar sus enfoques.
{"title":"SAM: modelo híbrido preliminar para apoyar la transformación ágil a gran escala en industrias de software","authors":"C. Gómez-Campo, T. Cañizares-Hernández, C. Pardo-Calvache","doi":"10.19053/01211129.V29.N54.2020.11763","DOIUrl":"https://doi.org/10.19053/01211129.V29.N54.2020.11763","url":null,"abstract":"Los enfoques ágiles escalados se han convertido en una alternativa que permite sincronizar las actividades e interacciones entre equipos grandes de desarrollo. Sin embargo, éstos no describen los aspectos fundamentales para transformar/evaluar el enfoque actual de una organización. Este artículo presenta la estrategia de armonización utilizada para obtener un modelo híbrido preliminar, denominado SAM, para apoyar la transformación ágil a gran escala en industrias de software. Este modelo ha sido obtenido a partir de la homogeneización, comparación e integración de las prácticas en común de modelos escalados como SAFe, LeSS, Nexus y DAD. El modelo híbrido obtenido describe los atributos fundamentales para tener en cuenta para empezar la transformación o evaluar un enfoque escalado, para esto, establece y describe 18 prácticas documentadas que indican que tener en cuenta para escalar/evaluar un enfoque a gran escala utilizado por una empresa de software. Con los resultados obtenidos, se puede observar que SAFe, LeSS, Nexus y DAD tiene aspectos en común, y que ha sido posible unificarlos en SAM; por lo tanto, la estrategia de armonización presentada y el modelo propuesto podrían ser de gran utilidad para profesionales, consultores y empresas que intentan transformar/evaluar sus enfoques.","PeriodicalId":21428,"journal":{"name":"Revista Facultad De Ingenieria-universidad De Antioquia","volume":null,"pages":null},"PeriodicalIF":1.0,"publicationDate":"2020-09-18","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"73800277","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2020-09-18DOI: 10.19053/01211129.V29.N54.2020.11758
Líder Julián Rojas-Bolaños, M. Niño-Zambrano, Andrea Pabón-Guerrero
En esta investigación, mediante la exploración de la literatura, se realizó un mapeo sistemático sobre la aplicación de técnicas de programación neurolingüística (PNL) soportadas en la Web de las Cosas (WoT) para prevenir el síndrome de Burnout. Dicho síndrome es un tipo de estrés laboral que causa agotamiento físico, mental y emocional, generando una incapacidad para trabajar, dado que es un proceso paulatino en el cual el trabajador pierde interés por sus tareas, carece de sentido de responsabilidad y puede generar profundas depresiones. En los estudios encontrados se destaca el uso de la WoT para la detección de emociones y estrés laboral, para ello sobresale el uso de sensores capaces de medir Respuesta galvánica de la piel GSR, Frecuencia cardiaca HR, Fotopletismografía PPG, Electrocardiograma ECG, Cámaras, Micrófonos y Microprocesadores de bajo costo, así como la utilización de Inteligencia Artificial para procesar estos datos, entre las técnicas y los algoritmos más usados destacan Máquinas de Vectores de Soporte SVM, K-vecino más cercano y clasificador Naive Bayes. En los trabajos en los que se detectan emociones o estrés laboral son muy pocos los que intentan alterar el entorno mental o ambiental del usuario para llevarlo a una emoción positiva o disminuir el estrés. Se evidenció la posibilidad de la utilización de técnicas de PNL en la prevención del síndrome de Burnout. Sin embargo, no se encontró ningún trabajo que relacionara la WoT como soporte a las técnicas PNL para prevenir el síndrome de Burnout, lo cual se considera como una oportunidad de investigación en estos campos.
{"title":"Prevención del síndrome de Burnout mediante programación neurolingüística soportada por la Web de las Cosas: Mapeo sistemático","authors":"Líder Julián Rojas-Bolaños, M. Niño-Zambrano, Andrea Pabón-Guerrero","doi":"10.19053/01211129.V29.N54.2020.11758","DOIUrl":"https://doi.org/10.19053/01211129.V29.N54.2020.11758","url":null,"abstract":"En esta investigación, mediante la exploración de la literatura, se realizó un mapeo sistemático sobre la aplicación de técnicas de programación neurolingüística (PNL) soportadas en la Web de las Cosas (WoT) para prevenir el síndrome de Burnout. Dicho síndrome es un tipo de estrés laboral que causa agotamiento físico, mental y emocional, generando una incapacidad para trabajar, dado que es un proceso paulatino en el cual el trabajador pierde interés por sus tareas, carece de sentido de responsabilidad y puede generar profundas depresiones. En los estudios encontrados se destaca el uso de la WoT para la detección de emociones y estrés laboral, para ello sobresale el uso de sensores capaces de medir Respuesta galvánica de la piel GSR, Frecuencia cardiaca HR, Fotopletismografía PPG, Electrocardiograma ECG, Cámaras, Micrófonos y Microprocesadores de bajo costo, así como la utilización de Inteligencia Artificial para procesar estos datos, entre las técnicas y los algoritmos más usados destacan Máquinas de Vectores de Soporte SVM, K-vecino más cercano y clasificador Naive Bayes. En los trabajos en los que se detectan emociones o estrés laboral son muy pocos los que intentan alterar el entorno mental o ambiental del usuario para llevarlo a una emoción positiva o disminuir el estrés. Se evidenció la posibilidad de la utilización de técnicas de PNL en la prevención del síndrome de Burnout. Sin embargo, no se encontró ningún trabajo que relacionara la WoT como soporte a las técnicas PNL para prevenir el síndrome de Burnout, lo cual se considera como una oportunidad de investigación en estos campos.","PeriodicalId":21428,"journal":{"name":"Revista Facultad De Ingenieria-universidad De Antioquia","volume":null,"pages":null},"PeriodicalIF":1.0,"publicationDate":"2020-09-18","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"74103779","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2020-09-18DOI: 10.19053/01211129.V29.N54.2020.11759
C. Pardo-Calvache, Gustavo Adolfo Salazar-Escobar, Gabriel Fernando Vargas-Arias, Jhon Eder Masso-Daza
El éxito del desarrollo global de software (DGS) depende, en gran parte, de la forma como se comunican, cooperan y coordinan (3Cs) los esfuerzos en la gestión de los proyectos y los equipos de trabajo geográficamente dispersos. En la literatura, se identifican varios trabajos que proponen riesgos y métricas para proyectos de DGS, pero algunos de ellos no se describen con detalle, son ambiguos o complicados de entender, lo que dificulta ubicarlos en alguna categoría precisa. Además, es necesario clasificar los riesgos de una manera menos subjetiva, que mejore su comprensión; facilite la definición y aplicación de herramientas para medir su impacto, y genere algunos indicadores que apoyen la toma de decisiones en los equipos de DGS. En este artículo, se proponen 37 riesgos para la comunicación, cooperación y coordinación en el DGS, como resultado de la comparación e integración de riesgos identificados en la literatura. También se presenta un conjunto de métricas definidas con la aplicación del paradigma Goal Question Metric (GQM), organizadas con estas interrogantes: ¿qué mide?, donde se establece el atributo por calibrar, y ¿cómo lo mide?, donde se indica la métrica a través de los siguientes elementos: descripción, tipo, escala y función de cálculo. Mediante la técnica de grupo focal, se evaluó la completitud, pertinencia, claridad, precisión y facilidad de uso de las métricas, que podrían resultar útiles para las organizaciones, equipos, proyectos y consultores que operan en contextos de DGS.
{"title":"Métricas basadas en un enfoque guiado por riesgos para evaluar la comunicación, cooperación y coordinación en equipos de desarrollo global de software","authors":"C. Pardo-Calvache, Gustavo Adolfo Salazar-Escobar, Gabriel Fernando Vargas-Arias, Jhon Eder Masso-Daza","doi":"10.19053/01211129.V29.N54.2020.11759","DOIUrl":"https://doi.org/10.19053/01211129.V29.N54.2020.11759","url":null,"abstract":"El éxito del desarrollo global de software (DGS) depende, en gran parte, de la forma como se comunican, cooperan y coordinan (3Cs) los esfuerzos en la gestión de los proyectos y los equipos de trabajo geográficamente dispersos. En la literatura, se identifican varios trabajos que proponen riesgos y métricas para proyectos de DGS, pero algunos de ellos no se describen con detalle, son ambiguos o complicados de entender, lo que dificulta ubicarlos en alguna categoría precisa. Además, es necesario clasificar los riesgos de una manera menos subjetiva, que mejore su comprensión; facilite la definición y aplicación de herramientas para medir su impacto, y genere algunos indicadores que apoyen la toma de decisiones en los equipos de DGS. En este artículo, se proponen 37 riesgos para la comunicación, cooperación y coordinación en el DGS, como resultado de la comparación e integración de riesgos identificados en la literatura. También se presenta un conjunto de métricas definidas con la aplicación del paradigma Goal Question Metric (GQM), organizadas con estas interrogantes: ¿qué mide?, donde se establece el atributo por calibrar, y ¿cómo lo mide?, donde se indica la métrica a través de los siguientes elementos: descripción, tipo, escala y función de cálculo. Mediante la técnica de grupo focal, se evaluó la completitud, pertinencia, claridad, precisión y facilidad de uso de las métricas, que podrían resultar útiles para las organizaciones, equipos, proyectos y consultores que operan en contextos de DGS.","PeriodicalId":21428,"journal":{"name":"Revista Facultad De Ingenieria-universidad De Antioquia","volume":null,"pages":null},"PeriodicalIF":1.0,"publicationDate":"2020-09-18","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"80702422","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
El diseño de sistemas de información ajustado a las necesidades del sector salud requiere una atención especial, debido a la complejidad de la información, la compatibilidad y el soporte de los sistemas requerido para este sector. A pesar de existir iniciativas nacionales para la estandarización de la información que comparten las entidades del sector salud, existen factores como el déficit financiero del sector y los malos manejos de los recursos que impactan de forma negativa en esta estandarización y también en la prestación de los servicios de salud, especialmente, los relacionados con los derechos sexuales y reproductivos. En este artículo se propone un framework conceptual para el diseño colaborativo de sistemas de información en salud, inicialmente priorizado para el dominio de salud sexual y reproductiva, lo cual permitirá contar con un marco de trabajo que contribuya en la captura, el almacenamiento, el tratamiento y la consulta de la información de salud de los colombianos de una forma estandarizada, actualizada y segura. El framework se compone de una ontología de dominio, una guía de implementación y otros componentes que permiten la escalabilidad de este, lo cual evidencia la importancia de este tipo de soluciones para este sector, y promueve el diseño de sistemas de información en salud bajo el concepto de trabajo colaborativo entre las organizaciones interesadas. Los resultados obtenidos muestran que la estandarización de la información y el trabajo colaborativo permite diseñar sistemas más eficientes y al mismo tiempo compatibles e interoperables, lo cual reduce los trámites administrativos y la pérdida de datos importantes en la atención médica.
{"title":"Framework conceptual para el diseño colaborativo de Sistemas de Información en Salud","authors":"Helder Yesid Castrillón-Cobo, Leydi Rocío Erazo-Paruma, Erika Liliana Gallego-Gómez","doi":"10.19053/01211129.V29.N54.2020.11757","DOIUrl":"https://doi.org/10.19053/01211129.V29.N54.2020.11757","url":null,"abstract":"El diseño de sistemas de información ajustado a las necesidades del sector salud requiere una atención especial, debido a la complejidad de la información, la compatibilidad y el soporte de los sistemas requerido para este sector. A pesar de existir iniciativas nacionales para la estandarización de la información que comparten las entidades del sector salud, existen factores como el déficit financiero del sector y los malos manejos de los recursos que impactan de forma negativa en esta estandarización y también en la prestación de los servicios de salud, especialmente, los relacionados con los derechos sexuales y reproductivos. \u0000En este artículo se propone un framework conceptual para el diseño colaborativo de sistemas de información en salud, inicialmente priorizado para el dominio de salud sexual y reproductiva, lo cual permitirá contar con un marco de trabajo que contribuya en la captura, el almacenamiento, el tratamiento y la consulta de la información de salud de los colombianos de una forma estandarizada, actualizada y segura. El framework se compone de una ontología de dominio, una guía de implementación y otros componentes que permiten la escalabilidad de este, lo cual evidencia la importancia de este tipo de soluciones para este sector, y promueve el diseño de sistemas de información en salud bajo el concepto de trabajo colaborativo entre las organizaciones interesadas. Los resultados obtenidos muestran que la estandarización de la información y el trabajo colaborativo permite diseñar sistemas más eficientes y al mismo tiempo compatibles e interoperables, lo cual reduce los trámites administrativos y la pérdida de datos importantes en la atención médica.","PeriodicalId":21428,"journal":{"name":"Revista Facultad De Ingenieria-universidad De Antioquia","volume":null,"pages":null},"PeriodicalIF":1.0,"publicationDate":"2020-09-18","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"87676827","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2020-09-18DOI: 10.19053/01211129.V29.N54.2020.11752
Néstor David Rendón-Hurtado, C. V. Isaza-Narváez, Susana Rodríguez-Buriticá
Hoy, los métodos de aprendizaje automático se han convertido en una herramienta para ayudar a frenar los efectos del calentamiento global, al resolver cuestiones ecológicas. En particular, el bosque seco tropical (BST) de Colombia se encuentra actualmente amenazado por la deforestación generada, desde la época colonial, por la ganadería, la minería y el desarrollo urbano. Uno de los desafíos urgentes en esta área es comprender la transformacion y degradación de los bosques. Tradicionalmente, los cambios de los ecosistemas se miden por varios niveles de transformación (alto, medio, bajo). Estos se obtienen a través de observación directa, recuento de especies y medidas de variación espacial a lo largo del tiempo. Por ende, estos métodos son invasivos y requieren de largos lapsos de observación en los lugares de estudio. Una alternativa eficaz a los métodos clásicos es el monitoreo acústico pasivo, que es menos invasivo, ya que evita el aislamiento de las especies y reduce el tiempo de los investigadores en los sitios. Sin embargo, implica la generación de múltiples datos y la necesidad de herramientas computacionales destinadas al análisis de las grabaciones. Este trabajo propone un método para identificar automáticamente la transformación del BST mediante grabaciones acústicas, aplicando dos modelos de clasificación: Gaussian Mixture Models (GMM), por cada región estudiada, y Universal Background Model (UBM), para un modelo general. Además, contiene un análisis de índices acústicos, con el fin de detectar los más representativos para las transformaciones del BST. Nuestra propuesta de GMM alcanzó una precisión de 93% y 89% para las regiones de La Guajira y Bolívar. El modelo general UBM logró 84% de precisión.
{"title":"Identificación automática de transformación en el bosque seco tropical colombiano usando GMM y UBM-GMM","authors":"Néstor David Rendón-Hurtado, C. V. Isaza-Narváez, Susana Rodríguez-Buriticá","doi":"10.19053/01211129.V29.N54.2020.11752","DOIUrl":"https://doi.org/10.19053/01211129.V29.N54.2020.11752","url":null,"abstract":"Hoy, los métodos de aprendizaje automático se han convertido en una herramienta para ayudar a frenar los efectos del calentamiento global, al resolver cuestiones ecológicas. En particular, el bosque seco tropical (BST) de Colombia se encuentra actualmente amenazado por la deforestación generada, desde la época colonial, por la ganadería, la minería y el desarrollo urbano. Uno de los desafíos urgentes en esta área es comprender la transformacion y degradación de los bosques. Tradicionalmente, los cambios de los ecosistemas se miden por varios niveles de transformación (alto, medio, bajo). Estos se obtienen a través de observación directa, recuento de especies y medidas de variación espacial a lo largo del tiempo. Por ende, estos métodos son invasivos y requieren de largos lapsos de observación en los lugares de estudio. Una alternativa eficaz a los métodos clásicos es el monitoreo acústico pasivo, que es menos invasivo, ya que evita el aislamiento de las especies y reduce el tiempo de los investigadores en los sitios. Sin embargo, implica la generación de múltiples datos y la necesidad de herramientas computacionales destinadas al análisis de las grabaciones. Este trabajo propone un método para identificar automáticamente la transformación del BST mediante grabaciones acústicas, aplicando dos modelos de clasificación: Gaussian Mixture Models (GMM), por cada región estudiada, y Universal Background Model (UBM), para un modelo general. Además, contiene un análisis de índices acústicos, con el fin de detectar los más representativos para las transformaciones del BST. Nuestra propuesta de GMM alcanzó una precisión de 93% y 89% para las regiones de La Guajira y Bolívar. El modelo general UBM logró 84% de precisión.","PeriodicalId":21428,"journal":{"name":"Revista Facultad De Ingenieria-universidad De Antioquia","volume":null,"pages":null},"PeriodicalIF":1.0,"publicationDate":"2020-09-18","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"78118651","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2020-09-18DOI: 10.19053/01211129.v29.n54.2020.11764
M. Flores-González, Ignacio Trejos-Zelaya, César Garita
El rendimiento es un importante atributo de calidad de un sistema de software. La Ingeniería de rendimiento del software comprende las actividades de análisis, diseño, construcción, medición y validación, que atienden los requerimientos de rendimiento a lo largo del proceso de desarrollo de software. En los sistemas de software que utilizan comunicación basada en mensajes, el rendimiento depende en gran medida del middleware orientado a mensajes (Message-Oriented Middleware – MOM). Los arquitectos de software necesitan considerar su organización, configuración y uso para predecir el comportamiento de un sistema que use tal plataforma. La inclusión de un MOM en una arquitectura de software requiere conocer el impacto de la mensajería y de la infraestructura utilizada. Omitir la influencia del MOM llevaría a la generación de predicciones erróneas. En este artículo se explora tal influencia, mediante el modelado y la simulación basados en componentes, utilizando el enfoque Palladio Component Model – PCM. En particular, una aplicación modelada en PCM fue adaptada para incluir comunicación basada en mensajes. Las simulaciones sobre el modelo, mediciones sistemáticas y pruebas de carga sobre la aplicación permitieron determinar cómo cambios introducidos en el modelo influyen en las predicciones del comportamiento de la aplicación en cuanto a rendimiento y confiabilidad. Fue posible identificar un cuello de botella que impacta negativamente el rendimiento y la confiabilidad del sistema original. La introducción de MOM mejoró la confiabilidad del sistema, a expensas del rendimiento. La simulación del rendimiento basado en componentes reveló diferencias significativas respecto de los experimentos basados en pruebas de carga y mediciones.
{"title":"Modelado exploratorio del rendimiento y la confiabilidad de software sobre middleware orientado a mensajes","authors":"M. Flores-González, Ignacio Trejos-Zelaya, César Garita","doi":"10.19053/01211129.v29.n54.2020.11764","DOIUrl":"https://doi.org/10.19053/01211129.v29.n54.2020.11764","url":null,"abstract":"El rendimiento es un importante atributo de calidad de un sistema de software. La Ingeniería de rendimiento del software comprende las actividades de análisis, diseño, construcción, medición y validación, que atienden los requerimientos de rendimiento a lo largo del proceso de desarrollo de software. En los sistemas de software que utilizan comunicación basada en mensajes, el rendimiento depende en gran medida del middleware orientado a mensajes (Message-Oriented Middleware – MOM). Los arquitectos de software necesitan considerar su organización, configuración y uso para predecir el comportamiento de un sistema que use tal plataforma. La inclusión de un MOM en una arquitectura de software requiere conocer el impacto de la mensajería y de la infraestructura utilizada. Omitir la influencia del MOM llevaría a la generación de predicciones erróneas. En este artículo se explora tal influencia, mediante el modelado y la simulación basados en componentes, utilizando el enfoque Palladio Component Model – PCM. En particular, una aplicación modelada en PCM fue adaptada para incluir comunicación basada en mensajes. Las simulaciones sobre el modelo, mediciones sistemáticas y pruebas de carga sobre la aplicación permitieron determinar cómo cambios introducidos en el modelo influyen en las predicciones del comportamiento de la aplicación en cuanto a rendimiento y confiabilidad. Fue posible identificar un cuello de botella que impacta negativamente el rendimiento y la confiabilidad del sistema original. La introducción de MOM mejoró la confiabilidad del sistema, a expensas del rendimiento. La simulación del rendimiento basado en componentes reveló diferencias significativas respecto de los experimentos basados en pruebas de carga y mediciones.","PeriodicalId":21428,"journal":{"name":"Revista Facultad De Ingenieria-universidad De Antioquia","volume":null,"pages":null},"PeriodicalIF":1.0,"publicationDate":"2020-09-18","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"74636012","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2020-09-18DOI: 10.19053/01211129.V29.N54.2020.11756
Ingrid Sofía Echavarría-Flórez, Felipe Restrepo-Calle
La calidad del software es un aspecto ligado directamente a los costos futuros de mantenimiento y, generalmente, se cuantifica mediante métricas de calidad de los productos de software. Uno de los aspectos a tener en cuenta para evaluar la calidad del software es su mantenibilidad, ya que tiene un alto impacto sobre los costos totales de los proyectos de software. En particular, se estima que el 70% del tiempo de mantenimiento se destina a comprender el código, por lo que resulta importante poder medir la legibilidad de un fragmento de código fuente adecuadamente. La legibilidad se define como la facilidad con la que una persona puede leer y comprender un fragmento de código escrito por otra persona. Esta característica es crucial para facilitar la compresión del código durante las tareas de mantenimiento de software, por lo que resulta necesario poder medir la legibilidad del código fuente. Por lo tanto, a lo largo de los últimos años, los investigadores en el área han propuesto múltiples métricas para medir la legibilidad del código fuente. No obstante, sigue siendo un reto poder evaluar con precisión la legibilidad del código fuente de una forma ampliamente aceptada. Por ello, es indispensable dar continuidad a este tipo de investigaciones y, para esto, es necesario conocer los avances recientes. Este artículo presenta una síntesis y análisis de las métricas de legibilidad de código, mediante una revisión sistemática de literatura, mostrando una recopilación de las características y los métodos utilizados para su medición. Los resultados de este trabajo serán de utilidad para que los investigadores en el área puedan proponer nuevas métricas de legibilidad del código fuente.
{"title":"Métricas de legibilidad del código fuente: revisión sistemática de literatura","authors":"Ingrid Sofía Echavarría-Flórez, Felipe Restrepo-Calle","doi":"10.19053/01211129.V29.N54.2020.11756","DOIUrl":"https://doi.org/10.19053/01211129.V29.N54.2020.11756","url":null,"abstract":"La calidad del software es un aspecto ligado directamente a los costos futuros de mantenimiento y, generalmente, se cuantifica mediante métricas de calidad de los productos de software. Uno de los aspectos a tener en cuenta para evaluar la calidad del software es su mantenibilidad, ya que tiene un alto impacto sobre los costos totales de los proyectos de software. En particular, se estima que el 70% del tiempo de mantenimiento se destina a comprender el código, por lo que resulta importante poder medir la legibilidad de un fragmento de código fuente adecuadamente. La legibilidad se define como la facilidad con la que una persona puede leer y comprender un fragmento de código escrito por otra persona. Esta característica es crucial para facilitar la compresión del código durante las tareas de mantenimiento de software, por lo que resulta necesario poder medir la legibilidad del código fuente. Por lo tanto, a lo largo de los últimos años, los investigadores en el área han propuesto múltiples métricas para medir la legibilidad del código fuente. No obstante, sigue siendo un reto poder evaluar con precisión la legibilidad del código fuente de una forma ampliamente aceptada. Por ello, es indispensable dar continuidad a este tipo de investigaciones y, para esto, es necesario conocer los avances recientes. Este artículo presenta una síntesis y análisis de las métricas de legibilidad de código, mediante una revisión sistemática de literatura, mostrando una recopilación de las características y los métodos utilizados para su medición. Los resultados de este trabajo serán de utilidad para que los investigadores en el área puedan proponer nuevas métricas de legibilidad del código fuente.","PeriodicalId":21428,"journal":{"name":"Revista Facultad De Ingenieria-universidad De Antioquia","volume":null,"pages":null},"PeriodicalIF":1.0,"publicationDate":"2020-09-18","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"84774083","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}