首页 > 最新文献

Anais do Simpósio em Sistemas Computacionais de Alto Desempenho (WSCAD)最新文献

英文 中文
Heterogeneous Parallel Architecture for Inverted Index Generation 倒排索引生成的异构并行架构
Pub Date : 2019-11-08 DOI: 10.5753/wscad.2019.8664
T. Silveira, F. Soares, Wladmir Cardoso Brandão, H. Freitas
The amount of data generated on the Web has increased dramatically, as well as the need for computational power to prepare this information. In particular, indexers process these data to extract terms and their occurrences, storing them in an inverted file, a compact data structure that provides quick search. However, this task involves processing of a large amount of data, requiring high computational power. In this article, we present a heterogeneous parallel architecture that uses CPU and GPU in a cluster to accelerate inverted index generation. Experimental results show that the proposed architecture provides faster execution times, up to 60 times in classification and 23 times in the compression of 1 million elements.
Web上生成的数据量急剧增加,准备这些信息所需的计算能力也在急剧增加。特别是,索引器处理这些数据以提取术语及其出现情况,并将它们存储在反向文件中,这是一种紧凑的数据结构,可提供快速搜索。然而,这项任务涉及处理大量数据,需要很高的计算能力。在本文中,我们提出了一种异构并行架构,它在集群中使用CPU和GPU来加速反向索引的生成。实验结果表明,所提出的架构提供了更快的执行速度,分类可达60倍,压缩100万元素可达23倍。
{"title":"Heterogeneous Parallel Architecture for Inverted Index Generation","authors":"T. Silveira, F. Soares, Wladmir Cardoso Brandão, H. Freitas","doi":"10.5753/wscad.2019.8664","DOIUrl":"https://doi.org/10.5753/wscad.2019.8664","url":null,"abstract":"The amount of data generated on the Web has increased dramatically, as well as the need for computational power to prepare this information. In particular, indexers process these data to extract terms and their occurrences, storing them in an inverted file, a compact data structure that provides quick search. However, this task involves processing of a large amount of data, requiring high computational power. In this article, we present a heterogeneous parallel architecture that uses CPU and GPU in a cluster to accelerate inverted index generation. Experimental results show that the proposed architecture provides faster execution times, up to 60 times in classification and 23 times in the compression of 1 million elements.","PeriodicalId":117711,"journal":{"name":"Anais do Simpósio em Sistemas Computacionais de Alto Desempenho (WSCAD)","volume":"1 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-11-08","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"130816060","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 0
Investigating Parallel Programming Paradigms in HeMPS MPSoC Platform HeMPS MPSoC平台的并行编程范式研究
Pub Date : 2019-11-08 DOI: 10.5753/wscad.2019.8665
Geaninne Lopes, A. Mello, Ewerson Carvalho, César Marcon
This work investigates the use of parallel programming paradigms in the development of applications targeting a Multiprocessor System-on-Chip (MPSoC). We implemented Matrix Multiplication, Image Manipulation and Advanced Encryption Standard (AES) applications in the Master-Slave, Pipeline and Divide-and-Conquer paradigms, and applied execution time and power dissipation as criteria for evaluating the performance of the applications executing according to the paradigms on an MPSoC architecture. The obtained results allowed ​us to conclude that there are optimal application-paradigm relations. Pipeline presents lower execution time and lower power dissipation for the Image Manipulation application; whereas, Master-Slave performs better for the Matrix Multiplication and AES applications. However, when the input size of the applications increases, the Divide-and-Conquer paradigm tends to minimize the execution time for Matrix Multiplication application. ​The main contributions of this work are the development of applications, considering different paradigms, and the impact evaluation of these paradigms on MPSoC architecture.
这项工作调查了并行编程范例在针对多处理器片上系统(MPSoC)的应用程序开发中的使用。我们在主从模式、流水线模式和分治模式下实现了矩阵乘法、图像处理和高级加密标准(AES)应用程序,并将执行时间和功耗作为评估应用程序在MPSoC架构上执行的性能的标准。得到的结果使我们得出结论,存在最佳的应用-范式关系。流水线为图像处理应用提供了更短的执行时间和更低的功耗;而主从算法在矩阵乘法和AES应用中表现更好。但是,当应用程序的输入大小增加时,分而治之范式倾向于最小化Matrix Multiplication应用程序的执行时间。这项工作的主要贡献是开发应用程序,考虑不同的范式,以及这些范式对MPSoC架构的影响评估。
{"title":"Investigating Parallel Programming Paradigms in HeMPS MPSoC Platform","authors":"Geaninne Lopes, A. Mello, Ewerson Carvalho, César Marcon","doi":"10.5753/wscad.2019.8665","DOIUrl":"https://doi.org/10.5753/wscad.2019.8665","url":null,"abstract":"This work investigates the use of parallel programming paradigms in the development of applications targeting a Multiprocessor System-on-Chip (MPSoC). We implemented Matrix Multiplication, Image Manipulation and Advanced Encryption Standard (AES) applications in the Master-Slave, Pipeline and Divide-and-Conquer paradigms, and applied execution time and power dissipation as criteria for evaluating the performance of the applications executing according to the paradigms on an MPSoC architecture. The obtained results allowed ​us to conclude that there are optimal application-paradigm relations. Pipeline presents lower execution time and lower power dissipation for the Image Manipulation application; whereas, Master-Slave performs better for the Matrix Multiplication and AES applications. However, when the input size of the applications increases, the Divide-and-Conquer paradigm tends to minimize the execution time for Matrix Multiplication application. ​The main contributions of this work are the development of applications, considering different paradigms, and the impact evaluation of these paradigms on MPSoC architecture.","PeriodicalId":117711,"journal":{"name":"Anais do Simpósio em Sistemas Computacionais de Alto Desempenho (WSCAD)","volume":"37 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-11-08","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"125704392","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 0
Uma Implementação MPI Tolerante a Falhas do Algoritmo Paralelo de Ordenação Quickmerge 并行快速合并排序算法的容错MPI实现
Pub Date : 2019-11-08 DOI: 10.5753/wscad.2019.8675
F. Xavier, Edson Tavares de Camargo, E. P. Duarte
O algoritmo de ordenação paralelo Quickmerge combina a estratégia do algoritmo Quicksort com operações de fusão de subconjuntos criados a partir de elementos chaves, chamados pivôs. Duas versões do algoritmo Quickmerge que executam sobre o hipercubo foram encontradas na literatura, porém nenhuma considera falhas de processos. Este trabalho apresenta uma implementação MPI tolerante a falhas dos algoritmos Quickmerge e Quickmerge Modificado na topologia virtual denominada VCube. Os algoritmos propostos são capazes de executar a ordenação mesmo que todos menos um processo falhem. Os algoritmos são comparados a uma implementação tolerante a falhas do algoritmo paralelo Hyperquicksort. Resultados mostram a eficiência da implementação na ordenação de até 1 bilhão de números inteiros em cenários com e sem falhas.
快速合并并行排序算法结合了快速排序算法的策略和从关键元素(称为轴)创建的子集的合并操作。在文献中发现了在超立方体上运行的两个版本的快速合并算法,但没有一个考虑到过程故障。本文提出了一种在虚拟拓扑中改进的快速合并和快速合并算法的容错MPI实现,称为VCube。所提出的算法能够执行排序,即使除了一个进程以外的所有进程都失败了。将这些算法与并行超快排序算法的容错实现进行了比较。结果表明,在有缺陷和无缺陷的情况下,实现对多达10亿个整数进行排序的效率。
{"title":"Uma Implementação MPI Tolerante a Falhas do Algoritmo Paralelo de Ordenação Quickmerge","authors":"F. Xavier, Edson Tavares de Camargo, E. P. Duarte","doi":"10.5753/wscad.2019.8675","DOIUrl":"https://doi.org/10.5753/wscad.2019.8675","url":null,"abstract":"O algoritmo de ordenação paralelo Quickmerge combina a estratégia do algoritmo Quicksort com operações de fusão de subconjuntos criados a partir de elementos chaves, chamados pivôs. Duas versões do algoritmo Quickmerge que executam sobre o hipercubo foram encontradas na literatura, porém nenhuma considera falhas de processos. Este trabalho apresenta uma implementação MPI tolerante a falhas dos algoritmos Quickmerge e Quickmerge Modificado na topologia virtual denominada VCube. Os algoritmos propostos são capazes de executar a ordenação mesmo que todos menos um processo falhem. Os algoritmos são comparados a uma implementação tolerante a falhas do algoritmo paralelo Hyperquicksort. Resultados mostram a eficiência da implementação na ordenação de até 1 bilhão de números inteiros em cenários com e sem falhas.","PeriodicalId":117711,"journal":{"name":"Anais do Simpósio em Sistemas Computacionais de Alto Desempenho (WSCAD)","volume":"33 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-11-08","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"132020746","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 0
Avaliação das estruturas de arquivo para processamento de dados sísmicos com alto desempenho na nuvem computacional 在计算云中高性能地震数据处理的文件结构评估
Pub Date : 2019-11-08 DOI: 10.5753/wscad.2019.8677
Murilo Andrietta, C. Rodamilans, A. Guimarães, Edson Borin
As aplicações computacionais na área de sismologia processam dados até a ordem de centenas de terabytes e seus desempenhos podem ser fortemente afetados pelas operações de Leitura e Escrita. Este artigo generaliza as principais estruturas de arquivos para armazenamento de dados sı́smicos e avalia seus desempenhos. São apresentadas uma análise teórica do carregamento de dados na memória e uma análise de desempenho na nuvem computacional, utilizando diferentes tecnologias de armazenamento (HDD, SSD e EFS). A partir delas, obteve-se que a escolha adequada da estrutura de arquivo para um caso de uso tı́pico permite uma redução de até 193 vezes na quantidade de dados lidos. Observou-se também que a melhor estrutura avaliada desempenha até 139 vezes mais rapidamente do que a estrutura adotada pelo formato SEG-Y, usado como padrão pela Agência Nacional de Petróleo do Brasil. Por fim, nos experimentos com armazenamento em rede, concluiu-se que o uso de instâncias mais custosas, mas com maior capacidade de transmissão de dados, não traz benefı́cios significativos.
地震学领域的计算应用程序处理的数据高达数百tb,其性能可能受到读写操作的强烈影响。这篇文章概括了主要的结构文件数据存储的ı́smicos和评估他们的表现。采用不同的存储技术(HDD、SSD和EFS)对数据加载到内存中的理论分析和计算云中的性能分析进行了分析。从他们的是文件结构,选择合适的一个用例tı́峰允许在读取的数据量减少到193次。还观察到,评估的最佳结构比巴西国家石油机构作为标准的SEG-Y格式所采用的结构快139倍。最后,我们网络存储实验,结果表明,使用更昂贵,但身体和数据传输能力,不会带来好处ı́巨大的。
{"title":"Avaliação das estruturas de arquivo para processamento de dados sísmicos com alto desempenho na nuvem computacional","authors":"Murilo Andrietta, C. Rodamilans, A. Guimarães, Edson Borin","doi":"10.5753/wscad.2019.8677","DOIUrl":"https://doi.org/10.5753/wscad.2019.8677","url":null,"abstract":"As aplicações computacionais na área de sismologia processam dados até a ordem de centenas de terabytes e seus desempenhos podem ser fortemente afetados pelas operações de Leitura e Escrita. Este artigo generaliza as principais estruturas de arquivos para armazenamento de dados sı́smicos e avalia seus desempenhos. São apresentadas uma análise teórica do carregamento de dados na memória e uma análise de desempenho na nuvem computacional, utilizando diferentes tecnologias de armazenamento (HDD, SSD e EFS). A partir delas, obteve-se que a escolha adequada da estrutura de arquivo para um caso de uso tı́pico permite uma redução de até 193 vezes na quantidade de dados lidos. Observou-se também que a melhor estrutura avaliada desempenha até 139 vezes mais rapidamente do que a estrutura adotada pelo formato SEG-Y, usado como padrão pela Agência Nacional de Petróleo do Brasil. Por fim, nos experimentos com armazenamento em rede, concluiu-se que o uso de instâncias mais custosas, mas com maior capacidade de transmissão de dados, não traz benefı́cios significativos.","PeriodicalId":117711,"journal":{"name":"Anais do Simpósio em Sistemas Computacionais de Alto Desempenho (WSCAD)","volume":"212 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-11-08","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"134399491","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 1
On the Elasticity of Parallel Components in a Cloud of High Performance Computing Services 高性能计算服务云中并行组件的弹性研究
Pub Date : 2019-11-08 DOI: 10.5753/wscad.2019.8667
Francisco Heron de Carvalho Junior, J. M. Alencar
Cloud computing offers virtually unlimited set of resources and flexibility to allocate them through elasticity. But cloud limitations, such as the complexity of configuration and environment dynamicity, may jeopardizes the assurance of QoS requirements. HPC Shelf is a cloud of HPC services that employs a component-oriented architecture to describe hardware and software resources of parallel computing systems. We design a framework for HPC Shelf that employ cloud elasticity concepts for keeping the values of QoS metrics of parallel computing systems inside an acceptable range, enabling adaptations to fulfill the QoS contract restrictions. In our evaluation, using a linear algebra application, we show how HPC Shelf takes advantage of cloud elasticity to reinforce QoS requirements, rectifying assumptions from ill-defined QoS models.
云计算提供了几乎无限的资源集和通过弹性分配资源的灵活性。但是云的限制,例如配置的复杂性和环境的动态性,可能会危及QoS需求的保证。HPC Shelf是一种HPC服务云,它采用面向组件的架构来描述并行计算系统的硬件和软件资源。我们为HPC Shelf设计了一个框架,该框架采用云弹性概念,将并行计算系统的QoS度量值保持在可接受的范围内,使适应能够满足QoS契约限制。在我们的评估中,使用线性代数应用程序,我们展示了HPC Shelf如何利用云弹性来加强QoS要求,纠正来自定义不清的QoS模型的假设。
{"title":"On the Elasticity of Parallel Components in a Cloud of High Performance Computing Services","authors":"Francisco Heron de Carvalho Junior, J. M. Alencar","doi":"10.5753/wscad.2019.8667","DOIUrl":"https://doi.org/10.5753/wscad.2019.8667","url":null,"abstract":"Cloud computing offers virtually unlimited set of resources and flexibility to allocate them through elasticity. But cloud limitations, such as the complexity of configuration and environment dynamicity, may jeopardizes the assurance of QoS requirements. HPC Shelf is a cloud of HPC services that employs a component-oriented architecture to describe hardware and software resources of parallel computing systems. We design a framework for HPC Shelf that employ cloud elasticity concepts for keeping the values of QoS metrics of parallel computing systems inside an acceptable range, enabling adaptations to fulfill the QoS contract restrictions. In our evaluation, using a linear algebra application, we show how HPC Shelf takes advantage of cloud elasticity to reinforce QoS requirements, rectifying assumptions from ill-defined QoS models.","PeriodicalId":117711,"journal":{"name":"Anais do Simpósio em Sistemas Computacionais de Alto Desempenho (WSCAD)","volume":"57 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-11-08","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"127304491","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 0
Caminhamento Paralelo Barnes-Hut com Vetorização AVX2 Barnes-Hut平行行走与AVX2矢量化
Pub Date : 2019-11-08 DOI: 10.5753/wscad.2019.8691
W. Zola, A. Delgado, Rodrigo Morante Blanco
O algoritmo Barnes-Hut é um método aproximado amplamente usado na simulação gravitacional de N -Corpos. A natureza irregular desse código apresenta desafios para sua computação em sistemas paralelos. Obstáculos adicionais ocorrem nesse padrão de computação quando se deseja a utilização eficaz da capacidade computacional de arquiteturas multicore com instruçoes SIMD. O enfoque deste trabalho é implementar e analisar a eficiência do caminhamento paralelo Barnes-Hut com octrees implı́citas e uso de instruções vetoriais AVX2. Os experimentos demonstram a efetividade do método, que apresenta altas taxas de GFLOP/s e economia de energia nas simulações.
巴恩斯-小屋算法是一种广泛应用于N体重力模拟的近似方法。这种代码的不规则性质给并行系统的计算带来了挑战。当需要有效利用具有SIMD指令的多核体系结构的计算能力时,在这种计算模式中还会出现其他障碍。这个工作的重点是实现和分析效率的并行caminhamento巴恩斯和octrees -Hut implı́叙和使用向量指令AVX2。实验结果表明,该方法具有较高的GFLOP/s速率和节能性能。
{"title":"Caminhamento Paralelo Barnes-Hut com Vetorização AVX2","authors":"W. Zola, A. Delgado, Rodrigo Morante Blanco","doi":"10.5753/wscad.2019.8691","DOIUrl":"https://doi.org/10.5753/wscad.2019.8691","url":null,"abstract":"O algoritmo Barnes-Hut é um método aproximado amplamente usado na simulação gravitacional de N -Corpos. A natureza irregular desse código apresenta desafios para sua computação em sistemas paralelos. Obstáculos adicionais ocorrem nesse padrão de computação quando se deseja a utilização eficaz da capacidade computacional de arquiteturas multicore com instruçoes SIMD. O enfoque deste trabalho é implementar e analisar a eficiência do caminhamento paralelo Barnes-Hut com octrees implı́citas e uso de instruções vetoriais AVX2. Os experimentos demonstram a efetividade do método, que apresenta altas taxas de GFLOP/s e economia de energia nas simulações.","PeriodicalId":117711,"journal":{"name":"Anais do Simpósio em Sistemas Computacionais de Alto Desempenho (WSCAD)","volume":"76 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-11-08","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"131670264","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 1
Priorização no Balanceamento de Réplicas em Instâncias Heterogêneas do HDFS baseada na Capacidade dos Nodos 基于节点容量的异构HDFS实例复制平衡优先级
Pub Date : 2019-11-08 DOI: 10.5753/wscad.2019.8674
R. Fazul, P. Barcelos
O HDFS Balancer é o balanceador de réplicas nativo do Apache Hadoop, que opera em redistribuir os blocos de dados armazenados no sistema até que a utilização de todos os nodos do cluster fique dentro de um determinado threshold. Entretanto, a ferramenta não é otimizada para o balanceamento de instâncias do Hadoop executando em ambientes heterogêneos. Esse trabalho apresenta uma customização na polı́tica de operação padrão do HDFS Balancer que faz com que o reposicionamento das réplicas seja realizado considerando diferenças nas capacidades dos nodos. Dessa forma, nodos com alta capacidade são priorizados para o recebimento de um maior volume de dados.
HDFS Balancer是Apache Hadoop的本地复制平衡器,它负责重新分配存储在系统中的数据块,直到集群中所有节点的利用率保持在给定的阈值内。然而,该工具并没有针对异构环境中运行的Hadoop实例的平衡进行优化。这项工作提供了一个定制的polı́政策操作标准HDFS Balancer让儿童进行的重新定位考虑节点能力的差异。通过这种方式,高容量节点优先接收更大的数据量。
{"title":"Priorização no Balanceamento de Réplicas em Instâncias Heterogêneas do HDFS baseada na Capacidade dos Nodos","authors":"R. Fazul, P. Barcelos","doi":"10.5753/wscad.2019.8674","DOIUrl":"https://doi.org/10.5753/wscad.2019.8674","url":null,"abstract":"O HDFS Balancer é o balanceador de réplicas nativo do Apache Hadoop, que opera em redistribuir os blocos de dados armazenados no sistema até que a utilização de todos os nodos do cluster fique dentro de um determinado threshold. Entretanto, a ferramenta não é otimizada para o balanceamento de instâncias do Hadoop executando em ambientes heterogêneos. Esse trabalho apresenta uma customização na polı́tica de operação padrão do HDFS Balancer que faz com que o reposicionamento das réplicas seja realizado considerando diferenças nas capacidades dos nodos. Dessa forma, nodos com alta capacidade são priorizados para o recebimento de um maior volume de dados.","PeriodicalId":117711,"journal":{"name":"Anais do Simpósio em Sistemas Computacionais de Alto Desempenho (WSCAD)","volume":"23 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-11-08","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"132776142","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 1
Contextual Contracts for Component-Based Resource Abstraction in a Cloud of HPC Services HPC服务云中基于组件的资源抽象的上下文契约
Pub Date : 2019-11-08 DOI: 10.5753/wscad.2019.8670
Wagner Guimarães Al Alam, Francisco Heron de Carvalho Junior
The efforts to make cloud computing suitable for the requirements of HPC applications have motivated us to design HPC Shelf, a cloud computing platform of services for building and deploying parallel computing systems for large-scale parallel processing. We introduce Alite, the system of contextual contracts of HPC Shelf, aimed at selecting component implementations according to requirements of applications, features of targeting parallel computing platforms (e.g. clusters), QoS (Quality-of-Service) properties and cost restrictions. It is evaluated through a small-scale case study employing a componentbased framework for matrix-multiplication based on the BLAS library.
为了使云计算适应HPC应用的需求,我们设计了HPC Shelf,这是一个云计算服务平台,用于构建和部署并行计算系统,以进行大规模并行处理。我们介绍了Alite, HPC Shelf的上下文契约系统,旨在根据应用程序的需求,针对并行计算平台(例如集群)的特性,QoS(服务质量)属性和成本限制选择组件实现。通过使用基于BLAS库的基于组件的矩阵乘法框架的小规模案例研究对其进行了评估。
{"title":"Contextual Contracts for Component-Based Resource Abstraction in a Cloud of HPC Services","authors":"Wagner Guimarães Al Alam, Francisco Heron de Carvalho Junior","doi":"10.5753/wscad.2019.8670","DOIUrl":"https://doi.org/10.5753/wscad.2019.8670","url":null,"abstract":"The efforts to make cloud computing suitable for the requirements of HPC applications have motivated us to design HPC Shelf, a cloud computing platform of services for building and deploying parallel computing systems for large-scale parallel processing. We introduce Alite, the system of contextual contracts of HPC Shelf, aimed at selecting component implementations according to requirements of applications, features of targeting parallel computing platforms (e.g. clusters), QoS (Quality-of-Service) properties and cost restrictions. It is evaluated through a small-scale case study employing a componentbased framework for matrix-multiplication based on the BLAS library.","PeriodicalId":117711,"journal":{"name":"Anais do Simpósio em Sistemas Computacionais de Alto Desempenho (WSCAD)","volume":"33 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-11-08","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"128120872","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 1
Optimization of Halide Image Processing Schedules with Reinforcement Learning 基于强化学习的卤化物图像处理调度优化
Pub Date : 2019-11-08 DOI: 10.5753/wscad.2019.8655
Marcelo Pecenin, André Murbach Maidl, Daniel Weingaertner
Writing efficient image processing code is a very demanding task and much programming effort is put into porting existing code to new generations of hardware. Besides, the definition of what is an efficient code varies according to the desired optimization target, such as runtime, energy consumption or memory usage. We present a semi-automatic schedule generation system for the Halide DSL that uses a Reinforcement Learning agent to choose a set of scheduling options that optimizes the runtime of the resulting application. We compare our results to the state of the art implementations of three Halide pipelines and show that our agent is able to surpass hand-tuned code and Halide’s auto-scheduler on most scenarios for CPU and GPU architectures.
编写高效的图像处理代码是一项非常艰巨的任务,将现有代码移植到新一代硬件上需要投入大量编程工作。此外,什么是高效代码的定义根据期望的优化目标而变化,例如运行时、能耗或内存使用。我们提出了一个用于Halide DSL的半自动调度生成系统,该系统使用强化学习代理来选择一组调度选项,以优化生成的应用程序的运行时。我们将我们的结果与三个Halide管道的最先进实现状态进行比较,并表明我们的代理能够在CPU和GPU架构的大多数场景中超越手动调优代码和Halide的自动调度器。
{"title":"Optimization of Halide Image Processing Schedules with Reinforcement Learning","authors":"Marcelo Pecenin, André Murbach Maidl, Daniel Weingaertner","doi":"10.5753/wscad.2019.8655","DOIUrl":"https://doi.org/10.5753/wscad.2019.8655","url":null,"abstract":"Writing efficient image processing code is a very demanding task and much programming effort is put into porting existing code to new generations of hardware. Besides, the definition of what is an efficient code varies according to the desired optimization target, such as runtime, energy consumption or memory usage. We present a semi-automatic schedule generation system for the Halide DSL that uses a Reinforcement Learning agent to choose a set of scheduling options that optimizes the runtime of the resulting application. We compare our results to the state of the art implementations of three Halide pipelines and show that our agent is able to surpass hand-tuned code and Halide’s auto-scheduler on most scenarios for CPU and GPU architectures.","PeriodicalId":117711,"journal":{"name":"Anais do Simpósio em Sistemas Computacionais de Alto Desempenho (WSCAD)","volume":"20 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-11-08","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"128403878","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 3
Uma implementação do algoritmo LCS em FPGA usando High-Level Synthesis 在FPGA中使用高级合成实现LCS算法
Pub Date : 2019-11-08 DOI: 10.5753/wscad.2019.8679
Carlos Antônio Campos Jorge, Alex Nery, A. Melo
Este trabalho apresenta uma implementação do algoritmo Longest Common Subsequence (LCS) para comparação de duas sequências biológicas utilizando linguagem de alto nı́vel High Level Synthesis (HLS) para FPGAs. Foram comparados resultados entre a execução em uma CPU Intel Core i73770 e uma FPGA Xilinx® ADM-PCIE-KU3 que possui uma Xilinx Kintex® UltraScale XCKU060-2. Os resultados mostraram que a implementação em CPU consumiu 6,8x mais energia em relação à FPGA.
这项工作提供了一个实现的最长公共Subsequence (LCS)算法来比较两个生物序列使用语言的高nı́或者高级合成(访问)对fpga。比较了在Intel Core i73770 CPU和具有Xilinx Kintex®UltraScale XCKU060-2的Xilinx®ADM-PCIE-KU3 FPGA上运行的结果。结果表明,CPU实现比FPGA多消耗6.8倍的能量。
{"title":"Uma implementação do algoritmo LCS em FPGA usando High-Level Synthesis","authors":"Carlos Antônio Campos Jorge, Alex Nery, A. Melo","doi":"10.5753/wscad.2019.8679","DOIUrl":"https://doi.org/10.5753/wscad.2019.8679","url":null,"abstract":"Este trabalho apresenta uma implementação do algoritmo Longest Common Subsequence (LCS) para comparação de duas sequências biológicas utilizando linguagem de alto nı́vel High Level Synthesis (HLS) para FPGAs. Foram comparados resultados entre a execução em uma CPU Intel Core i73770 e uma FPGA Xilinx® ADM-PCIE-KU3 que possui uma Xilinx Kintex® UltraScale XCKU060-2. Os resultados mostraram que a implementação em CPU consumiu 6,8x mais energia em relação à FPGA.","PeriodicalId":117711,"journal":{"name":"Anais do Simpósio em Sistemas Computacionais de Alto Desempenho (WSCAD)","volume":"14 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-11-08","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"130807379","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 1
期刊
Anais do Simpósio em Sistemas Computacionais de Alto Desempenho (WSCAD)
全部 Acc. Chem. Res. ACS Applied Bio Materials ACS Appl. Electron. Mater. ACS Appl. Energy Mater. ACS Appl. Mater. Interfaces ACS Appl. Nano Mater. ACS Appl. Polym. Mater. ACS BIOMATER-SCI ENG ACS Catal. ACS Cent. Sci. ACS Chem. Biol. ACS Chemical Health & Safety ACS Chem. Neurosci. ACS Comb. Sci. ACS Earth Space Chem. ACS Energy Lett. ACS Infect. Dis. ACS Macro Lett. ACS Mater. Lett. ACS Med. Chem. Lett. ACS Nano ACS Omega ACS Photonics ACS Sens. ACS Sustainable Chem. Eng. ACS Synth. Biol. Anal. Chem. BIOCHEMISTRY-US Bioconjugate Chem. BIOMACROMOLECULES Chem. Res. Toxicol. Chem. Rev. Chem. Mater. CRYST GROWTH DES ENERG FUEL Environ. Sci. Technol. Environ. Sci. Technol. Lett. Eur. J. Inorg. Chem. IND ENG CHEM RES Inorg. Chem. J. Agric. Food. Chem. J. Chem. Eng. Data J. Chem. Educ. J. Chem. Inf. Model. J. Chem. Theory Comput. J. Med. Chem. J. Nat. Prod. J PROTEOME RES J. Am. Chem. Soc. LANGMUIR MACROMOLECULES Mol. Pharmaceutics Nano Lett. Org. Lett. ORG PROCESS RES DEV ORGANOMETALLICS J. Org. Chem. J. Phys. Chem. J. Phys. Chem. A J. Phys. Chem. B J. Phys. Chem. C J. Phys. Chem. Lett. Analyst Anal. Methods Biomater. Sci. Catal. Sci. Technol. Chem. Commun. Chem. Soc. Rev. CHEM EDUC RES PRACT CRYSTENGCOMM Dalton Trans. Energy Environ. Sci. ENVIRON SCI-NANO ENVIRON SCI-PROC IMP ENVIRON SCI-WAT RES Faraday Discuss. Food Funct. Green Chem. Inorg. Chem. Front. Integr. Biol. J. Anal. At. Spectrom. J. Mater. Chem. A J. Mater. Chem. B J. Mater. Chem. C Lab Chip Mater. Chem. Front. Mater. Horiz. MEDCHEMCOMM Metallomics Mol. Biosyst. Mol. Syst. Des. Eng. Nanoscale Nanoscale Horiz. Nat. Prod. Rep. New J. Chem. Org. Biomol. Chem. Org. Chem. Front. PHOTOCH PHOTOBIO SCI PCCP Polym. Chem.
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
0
微信
客服QQ
Book学术公众号 扫码关注我们
反馈
×
意见反馈
请填写您的意见或建议
请填写您的手机或邮箱
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
现在去查看 取消
×
提示
确定
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1