Leo Pasqualini de Andrade, Augusto Cláudio Santa Brígida Tirado, Valerio Brusamolin, Mateus Das Neves Gomes
Computational modeling has enabled researchers to simulate tasks which are very often impossible in practice, such as deciphering the working of the human mind, and chess is used by many cognitive scientists as an investigative tool in studies on intelligence, behavioral patterns and cognitive development and rehabilitation. Computer analysis of databases with millions of chess games allows players’ cognitive development to be predicted and their behavioral patterns to be investigated. However, computers are not yet able to solve chess problems in which human intelligence analyzes and evaluates abstractly without the need for many concrete calculations. The aim of this article is to describe and simulate a chess problem situation proposed by the British mathematician Sir Roger Penrose and thus provide an opportunity for a comparative discussion by society of human and artificial intelligence. To this end, a specialist chess computer program, Fritz 12, was used to simulate possible moves for the proposed problem. The program calculated the variations and reached a different result from that an amateur chess player would reach after analyzing the problem for only a short time. New simulation paradigms are needed to understand how abstract human thinking works.
{"title":"Solving a hypothetical chess problem: a comparative analysis of computational methods and human reasoning","authors":"Leo Pasqualini de Andrade, Augusto Cláudio Santa Brígida Tirado, Valerio Brusamolin, Mateus Das Neves Gomes","doi":"10.5335/RBCA.V11I1.9111","DOIUrl":"https://doi.org/10.5335/RBCA.V11I1.9111","url":null,"abstract":"Computational modeling has enabled researchers to simulate tasks which are very often impossible in practice, such as deciphering the working of the human mind, and chess is used by many cognitive scientists as an investigative tool in studies on intelligence, behavioral patterns and cognitive development and rehabilitation. Computer analysis of databases with millions of chess games allows players’ cognitive development to be predicted and their behavioral patterns to be investigated. However, computers are not yet able to solve chess problems in which human intelligence analyzes and evaluates abstractly without the need for many concrete calculations. The aim of this article is to describe and simulate a chess problem situation proposed by the British mathematician Sir Roger Penrose and thus provide an opportunity for a comparative discussion by society of human and artificial intelligence. To this end, a specialist chess computer program, Fritz 12, was used to simulate possible moves for the proposed problem. The program calculated the variations and reached a different result from that an amateur chess player would reach after analyzing the problem for only a short time. New simulation paradigms are needed to understand how abstract human thinking works.","PeriodicalId":41711,"journal":{"name":"Revista Brasileira de Computacao Aplicada","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2019-04-15","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"https://sci-hub-pdf.com/10.5335/RBCA.V11I1.9111","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"70730709","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Mateus Evangelista da Silva, D. Bagatini, R. Frozza
Em muitos casos o que compromete a vida de um software não é um problema de funcionalidade, mas as dificuldades de usabilidade. Todo projeto de software que tenha o compromisso de apoiar seus usuários, deveria preocupar-se com a experiência positiva dos mesmos para lidar de forma satisfatória e produtiva com os sistemas computacionais. Tendo como orientação a área de Interação Homem-Computador com ênfase em Usabilidade de Sistemas, o presente trabalho aborda métodos e processos para a avaliação de usabilidade e, com base neles, tem como objetivo apresentar requisitos identificados como sugestões de melhoria da usabilidade para melhorar a interação do Sistema de Gestão de Finanças Públicas do Estado do Rio Grande do Sul (FPE) com seus usuários. Tais requisitos foram apontados pelos próprios usuários que participaram de sessões de avaliação heurística e de testes de usabilidade. Os resultados obtidos indicaram contribuições e evidenciaram a importância da avaliação de usabilidade em projetos de sistemas.
{"title":"Usabilidade do sistema de gestão de finanças públicas do Estado do Rio Grande do Sul","authors":"Mateus Evangelista da Silva, D. Bagatini, R. Frozza","doi":"10.5335/RBCA.V11I1.8822","DOIUrl":"https://doi.org/10.5335/RBCA.V11I1.8822","url":null,"abstract":"Em muitos casos o que compromete a vida de um software não é um problema de funcionalidade, mas as dificuldades de usabilidade. Todo projeto de software que tenha o compromisso de apoiar seus usuários, deveria preocupar-se com a experiência positiva dos mesmos para lidar de forma satisfatória e produtiva com os sistemas computacionais. Tendo como orientação a área de Interação Homem-Computador com ênfase em Usabilidade de Sistemas, o presente trabalho aborda métodos e processos para a avaliação de usabilidade e, com base neles, tem como objetivo apresentar requisitos identificados como sugestões de melhoria da usabilidade para melhorar a interação do Sistema de Gestão de Finanças Públicas do Estado do Rio Grande do Sul (FPE) com seus usuários. Tais requisitos foram apontados pelos próprios usuários que participaram de sessões de avaliação heurística e de testes de usabilidade. Os resultados obtidos indicaram contribuições e evidenciaram a importância da avaliação de usabilidade em projetos de sistemas.","PeriodicalId":41711,"journal":{"name":"Revista Brasileira de Computacao Aplicada","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2019-04-15","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"48393472","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
J. L. B. Nascimento, Daniel de Oliveira Capanema, Adriano M. Pereira
Atualmente grandes volumes de dados são gerados e coletados por meio de sensores, dispositivos e redes sociais. A capacidade de lidar com grandes massas de dados tornou-se um importante fator para o sucesso de muitas organizações, exigindo, cada vez mais, a utilização de processamento paralelo e distribuído. Para auxiliar os desenvolvedores a projetar programas distribuídos, existem várias ferramentas (frameworks), como Apache Hadoop e Spark. Esses frameworks fornecem diversos parâmetros de configuração (por exemplo, o Hadoop tem mais de 200) e atribuir valores otimizados a todos eles não é uma tarefa simples. Este trabalho investiga a influência desses parâmetros no desempenho do Apache Hadoop, utilizando o algoritmo HEDA, um algoritmo iterativo que calcula métricas de centralidade em grandes grafos. A execução do HEDA em uma rede complexa é extremamente importante, pois existem várias medidas de centralidade que determinam a importância de um vértice dentro do grafo. Observou-se que, em alguns casos, a melhoria no tempo de execução atingiu aproximadamente 80% aplicando os valores propostos por este trabalho aos parâmetros de configuração do Hadoop. Além disso, foi possível aumentar em cinco vezes o uso dos processadores e melhorar consideravelmente a escalabilidade. O trabalho também apresenta os métodos aplicados para preparar, executar e analisar os experimentos, o que poderá auxiliar em novos estudos.
{"title":"Projeto e análise de desempenho de um algoritmo iterativo para grandes grafos em um ambiente distribuído","authors":"J. L. B. Nascimento, Daniel de Oliveira Capanema, Adriano M. Pereira","doi":"10.5335/RBCA.V11I1.8738","DOIUrl":"https://doi.org/10.5335/RBCA.V11I1.8738","url":null,"abstract":"Atualmente grandes volumes de dados são gerados e coletados por meio de sensores, dispositivos e redes sociais. A capacidade de lidar com grandes massas de dados tornou-se um importante fator para o sucesso de muitas organizações, exigindo, cada vez mais, a utilização de processamento paralelo e distribuído. Para auxiliar os desenvolvedores a projetar programas distribuídos, existem várias ferramentas (frameworks), como Apache Hadoop e Spark. Esses frameworks fornecem diversos parâmetros de configuração (por exemplo, o Hadoop tem mais de 200) e atribuir valores otimizados a todos eles não é uma tarefa simples. Este trabalho investiga a influência desses parâmetros no desempenho do Apache Hadoop, utilizando o algoritmo HEDA, um algoritmo iterativo que calcula métricas de centralidade em grandes grafos. A execução do HEDA em uma rede complexa é extremamente importante, pois existem várias medidas de centralidade que determinam a importância de um vértice dentro do grafo. Observou-se que, em alguns casos, a melhoria no tempo de execução atingiu aproximadamente 80% aplicando os valores propostos por este trabalho aos parâmetros de configuração do Hadoop. Além disso, foi possível aumentar em cinco vezes o uso dos processadores e melhorar consideravelmente a escalabilidade. O trabalho também apresenta os métodos aplicados para preparar, executar e analisar os experimentos, o que poderá auxiliar em novos estudos.","PeriodicalId":41711,"journal":{"name":"Revista Brasileira de Computacao Aplicada","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2019-04-15","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"https://sci-hub-pdf.com/10.5335/RBCA.V11I1.8738","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"70730636","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
J. C. S. Bueno, Camila Alves Dias, G. P. Dimuro, E. Borges, S. Botelho, V. Mattos, Humberto Bustince
O crescente aumento do volume de dados, juntamente com a alta complexidade destes, tem gerado a necessidade de se desenvolver técnicas de extração de conhecimento cada vez mais eficientes, tanto em custo computacional quanto em precisão. A maioria dos problemas que são tratados por esses técnicas tem informações complexas a serem identificadas. Para isso são utilizados métodos de aprendizado de máquina, onde esses métodos usam uma variedade de funções dentro das diferentes etapas que são empregadas em suas arquiteturas. Uma dessas consiste no uso de funções de agregação para redimensionar imagens. Neste contexto, apresenta-se um estudo de funções de agregação baseadas na integral de Choquet, onde a principal característica da integral do Choquet, em comparação com outras funções de agregação, reside no fato de que ela considera, por meio da medida fuzzy, a interação entre os elementos a serem agregados. Logo, apresenta-se um estudo avaliativo do desempenho das funções integral de Choquet clássica, integral de Choquet baseada em Cópula em relação as funções máximo e média, procurando resultados que podem ser melhores do que as funções de agregação usualmente aplicadas. Os resultados de tais comparações são promissores, quando avaliados através de medidas de qualidade de imagem.
{"title":"Funções de agregação baseadas em integral de Choquet aplicadas em redimensionalização de imagens","authors":"J. C. S. Bueno, Camila Alves Dias, G. P. Dimuro, E. Borges, S. Botelho, V. Mattos, Humberto Bustince","doi":"10.5335/RBCA.V11I1.9082","DOIUrl":"https://doi.org/10.5335/RBCA.V11I1.9082","url":null,"abstract":"O crescente aumento do volume de dados, juntamente com a alta complexidade destes, tem gerado a necessidade de se desenvolver técnicas de extração de conhecimento cada vez mais eficientes, tanto em custo computacional quanto em precisão. A maioria dos problemas que são tratados por esses técnicas tem informações complexas a serem identificadas. Para isso são utilizados métodos de aprendizado de máquina, onde esses métodos usam uma variedade de funções dentro das diferentes etapas que são empregadas em suas arquiteturas. Uma dessas consiste no uso de funções de agregação para redimensionar imagens. Neste contexto, apresenta-se um estudo de funções de agregação baseadas na integral de Choquet, onde a principal característica da integral do Choquet, em comparação com outras funções de agregação, reside no fato de que ela considera, por meio da medida fuzzy, a interação entre os elementos a serem agregados. Logo, apresenta-se um estudo avaliativo do desempenho das funções integral de Choquet clássica, integral de Choquet baseada em Cópula em relação as funções máximo e média, procurando resultados que podem ser melhores do que as funções de agregação usualmente aplicadas. Os resultados de tais comparações são promissores, quando avaliados através de medidas de qualidade de imagem.","PeriodicalId":41711,"journal":{"name":"Revista Brasileira de Computacao Aplicada","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2019-04-15","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"70731002","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Igor G. Haugg, R. Z. Frantz, Fabricia Roos-Frantz, S. Sawicki, B. Zucolotto
The use of applications is important to support the business processes of companies. However, most of these applications are not designed to function collaboratively. An integration solution orchestrates a group of applications, allowing data and functionality reuse. The performance of an integration solution depends on the optimum configuration of the number of threads in the runtime engine provided by the integration platforms. It is common that this configuration relies on the empirical knowledge of the software engineers, and it has a direct impact on the performance of integration solutions. The optimum number of threads may be found by means of simulation models. This article presents a methodology and a tool to assist with the generation of simulation models based on queuing theory, in order to find the optimum number of threads to execute an integration solution focusing on performance improvement. We introduce a case of study to demonstrate and experiments to evaluate our proposal.
{"title":"Towards optimisation of the number of threads in the integration platform engines using simulation models based on queueing theory","authors":"Igor G. Haugg, R. Z. Frantz, Fabricia Roos-Frantz, S. Sawicki, B. Zucolotto","doi":"10.5335/RBCA.V11I1.8784","DOIUrl":"https://doi.org/10.5335/RBCA.V11I1.8784","url":null,"abstract":"The use of applications is important to support the business processes of companies. However, most of these applications are not designed to function collaboratively. An integration solution orchestrates a group of applications, allowing data and functionality reuse. The performance of an integration solution depends on the optimum configuration of the number of threads in the runtime engine provided by the integration platforms. It is common that this configuration relies on the empirical knowledge of the software engineers, and it has a direct impact on the performance of integration solutions. The optimum number of threads may be found by means of simulation models. This article presents a methodology and a tool to assist with the generation of simulation models based on queuing theory, in order to find the optimum number of threads to execute an integration solution focusing on performance improvement. We introduce a case of study to demonstrate and experiments to evaluate our proposal.","PeriodicalId":41711,"journal":{"name":"Revista Brasileira de Computacao Aplicada","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2019-04-15","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"70730833","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
J. C. F. D. Rocha, A. M. Guimarães, Valter L. Estevam
This paper presents an approach that uses probabilistic logic reasoning to compute subjective interestingness scores for classification rules. In the proposed approach, domain knowledge is represented as a probabilistic logic program that encodes information from experts and statistical reports. The computation of interestingness scores is performed by a procedure that applies linear programming to reasoning regarding the probabilities of interest. It provides a mechanism to calculate probability-based subjective interestingness scores. Further, a sample application illustrates the use of the described approach.
{"title":"Probabilistic logic reasoning for subjective interestingness analysis","authors":"J. C. F. D. Rocha, A. M. Guimarães, Valter L. Estevam","doi":"10.5335/RBCA.V11I1.8820","DOIUrl":"https://doi.org/10.5335/RBCA.V11I1.8820","url":null,"abstract":"This paper presents an approach that uses probabilistic logic reasoning to compute subjective interestingness scores for classification rules. In the proposed approach, domain knowledge is represented as a probabilistic logic program that encodes information from experts and statistical reports. The computation of interestingness scores is performed by a procedure that applies linear programming to reasoning regarding the probabilities of interest. It provides a mechanism to calculate probability-based subjective interestingness scores. Further, a sample application illustrates the use of the described approach.","PeriodicalId":41711,"journal":{"name":"Revista Brasileira de Computacao Aplicada","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2019-04-15","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"70730949","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
O câncer de mama apresenta elevado índice de mortalidade em todo o mundo, sendo o mais incidente em mulheres. Seu diagnóstico tendo sido realizado por meio de rastreamento, ecografias mamárias e mamografias. Este trabalho tem como objetivo desenvolver um classificador para identificar o câncer de mama utilizando dados antropométricos e parâmetros de exame sanguíneo de rotina que são os biomarcadores. Redes-Neurais do tipo Perceptron Multi-Camadas(MLP) e as redes Neuro-Fuzzy (ANFIS) empregados a um comitê de decisão, trazendo como resultado uma classificação do câncer de mama, com acurácia de 97% , um valor superior apresentado comparado aos trabalhos dos últimos anos que utilizaram biomarcadores semelhantes no período de 2013 ao início do ano de 2018.
{"title":"Inteligência computacional aplicada à detecção de câncer de mama","authors":"Leomar Santos Marques, R. Magalhães, D. Ferreira","doi":"10.5335/RBCA.V11I1.8727","DOIUrl":"https://doi.org/10.5335/RBCA.V11I1.8727","url":null,"abstract":"O câncer de mama apresenta elevado índice de mortalidade em todo o mundo, sendo o mais incidente em mulheres. Seu diagnóstico tendo sido realizado por meio de rastreamento, ecografias mamárias e mamografias. Este trabalho tem como objetivo desenvolver um classificador para identificar o câncer de mama utilizando dados antropométricos e parâmetros de exame sanguíneo de rotina que são os biomarcadores. Redes-Neurais do tipo Perceptron Multi-Camadas(MLP) e as redes Neuro-Fuzzy (ANFIS) empregados a um comitê de decisão, trazendo como resultado uma classificação do câncer de mama, com acurácia de 97% , um valor superior apresentado comparado aos trabalhos dos últimos anos que utilizaram biomarcadores semelhantes no período de 2013 ao início do ano de 2018.","PeriodicalId":41711,"journal":{"name":"Revista Brasileira de Computacao Aplicada","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2019-04-15","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"https://sci-hub-pdf.com/10.5335/RBCA.V11I1.8727","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"70730339","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Neste trabalho é apresentada a análise do desempenho de dois modelos elétricos, o modelo combinado Chen e Rincón-Mora e o modelo genérico Battery, que são aplicados na modelagem matemática do tempo de vida de baterias de Lítio Íon Polímero. Os modelos são submetidos a um mesmo cenário de simulação, utilizando a mesma metodologia para a estimação dos seus parâmetros empíricos, que é baseada na análise visual de curvas de descarga obtidas experimentalmente. Para a validação dos modelos é considerado o mesmo conjunto de dados, composto de perfis de descarga constantes e variáveis, o que torna esse processo mais realista. Os experimentos são realizados em uma plataforma de testes, e os modelos são implementados na ferramenta computacional Matlab/Simulink (Student Suite). Os resultados, analisados a partir da comparação entre os tempos de vida simulados e os tempos de vida experimentais, mostram que ambos modelos são acurados, apresentando erros médios inferiores a 2%. No entanto, o modelo Battery apresenta melhor desempenho médio e possuí um processo de parametrização mais simples quando comparado ao modelo Chen e Rincón-Mora.
{"title":"Modelagem matemática do tempo de vida de baterias de Lítio Íon Polímero utilizando modelos elétricos combinados e genéricos","authors":"Marcia Binelo, A. Sausen, P. Sausen","doi":"10.5335/RBCA.V10I3.8063","DOIUrl":"https://doi.org/10.5335/RBCA.V10I3.8063","url":null,"abstract":"Neste trabalho é apresentada a análise do desempenho de dois modelos elétricos, o modelo combinado Chen e Rincón-Mora e o modelo genérico Battery, que são aplicados na modelagem matemática do tempo de vida de baterias de Lítio Íon Polímero. Os modelos são submetidos a um mesmo cenário de simulação, utilizando a mesma metodologia para a estimação dos seus parâmetros empíricos, que é baseada na análise visual de curvas de descarga obtidas experimentalmente. Para a validação dos modelos é considerado o mesmo conjunto de dados, composto de perfis de descarga constantes e variáveis, o que torna esse processo mais realista. Os experimentos são realizados em uma plataforma de testes, e os modelos são implementados na ferramenta computacional Matlab/Simulink (Student Suite). Os resultados, analisados a partir da comparação entre os tempos de vida simulados e os tempos de vida experimentais, mostram que ambos modelos são acurados, apresentando erros médios inferiores a 2%. No entanto, o modelo Battery apresenta melhor desempenho médio e possuí um processo de parametrização mais simples quando comparado ao modelo Chen e Rincón-Mora.","PeriodicalId":41711,"journal":{"name":"Revista Brasileira de Computacao Aplicada","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2018-11-14","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"70730401","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Arilson Silva da Silva, A. R. Castro, A. C. Vieira
O conhecimento acerca da amplitude do transbordamento dos leitos fluviais é extremamente necessário para determinação de áreas de risco. A cidade de Altamira-PA, localizada às margens do rio Xingu, vem sofrendo com casos extremos de cheias que tendem a provocar inundações, resultando em severos prejuízos para a sua população. Considerando o problema, este artigo apresenta a proposta de um sistema de previsão de nível mensal do Rio Xingu baseado em Redes Neurais Artificiais Perceptron de múltiplas camadas. Para o desenvolvimento do sistema foram utilizados dados de precipitação na bacia e sub-bacias do Rio Xingu, e informações de Temperatura da Superfíciedo Mar (TSM) do período de 1979 a 2016. Os resultados satisfatórios obtidos demonstram a grande aplicabilidade das Redes Neurais Artificiais para o problema de previsão de cheias.
{"title":"Modelo de previsão hidrológica utilizando redes neurais artificiais: um estudo de caso na bacia do Rio Xingu – Altamira-PA","authors":"Arilson Silva da Silva, A. R. Castro, A. C. Vieira","doi":"10.5335/RBCA.V10I3.8779","DOIUrl":"https://doi.org/10.5335/RBCA.V10I3.8779","url":null,"abstract":"O conhecimento acerca da amplitude do transbordamento dos leitos fluviais é extremamente necessário para determinação de áreas de risco. A cidade de Altamira-PA, localizada às margens do rio Xingu, vem sofrendo com casos extremos de cheias que tendem a provocar inundações, resultando em severos prejuízos para a sua população. Considerando o problema, este artigo apresenta a proposta de um sistema de previsão de nível mensal do Rio Xingu baseado em Redes Neurais Artificiais Perceptron de múltiplas camadas. Para o desenvolvimento do sistema foram utilizados dados de precipitação na bacia e sub-bacias do Rio Xingu, e informações de Temperatura da Superfíciedo Mar (TSM) do período de 1979 a 2016. Os resultados satisfatórios obtidos demonstram a grande aplicabilidade das Redes Neurais Artificiais para o problema de previsão de cheias.","PeriodicalId":41711,"journal":{"name":"Revista Brasileira de Computacao Aplicada","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2018-10-23","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"https://sci-hub-pdf.com/10.5335/RBCA.V10I3.8779","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"49638812","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
A. Alves, Damião Ribeiro de Almeida, H. Nascimento, C. Baptista, Hugo Feitosa de Figueirêdo, Érica Samara Araujo Barbosa de Almeida
A água tem se tornado uma preocupação em todo planeta por estar se tornando um recurso cada vez mais escasso nos últimos anos, devido a diversos fatores, sobretudo ao desrespeito dos seres humanos ao desenvolvimento sustentável. Hodiernamente, torna-se imperativo a proposição de políticas públicas, legislação e desenvolvimento de novas metodologias, processos e produtos que possam auxiliar no combate à poluição, desperdício e uso racional dos recursos hídricos. Em especial, o uso de tecnologia da informação propicia uma gestão moderna, ágil e eficiente dos recursos hídricos. Uma das ações importantes neste sentido é o processo de fiscalização do uso da água. Neste artigo, discutimos o processo de fiscalização, abordamos uma metodologia de fiscalização usada na Agência de gestão de águas, e abordamos uma arquitetura de sistema de informações baseado na Web, em plataforma móvel e em Sistema de Informação Geográfica para prover uma gestão da fiscalização de forma eficiente e eficaz. Tal sistema encontra-se em produção na Agência de Gestão de Águas e alguns resultados parciais, sobretudo no tocante às denúncias, notificações e autos de infração que são discutidos.
{"title":"O uso de tecnologia da informação na fiscalização e denúncias do uso de recursos hídricos","authors":"A. Alves, Damião Ribeiro de Almeida, H. Nascimento, C. Baptista, Hugo Feitosa de Figueirêdo, Érica Samara Araujo Barbosa de Almeida","doi":"10.5335/RBCA.V10I3.8763","DOIUrl":"https://doi.org/10.5335/RBCA.V10I3.8763","url":null,"abstract":"A água tem se tornado uma preocupação em todo planeta por estar se tornando um recurso cada vez mais escasso nos últimos anos, devido a diversos fatores, sobretudo ao desrespeito dos seres humanos ao desenvolvimento sustentável. Hodiernamente, torna-se imperativo a proposição de políticas públicas, legislação e desenvolvimento de novas metodologias, processos e produtos que possam auxiliar no combate à poluição, desperdício e uso racional dos recursos hídricos. Em especial, o uso de tecnologia da informação propicia uma gestão moderna, ágil e eficiente dos recursos hídricos. Uma das ações importantes neste sentido é o processo de fiscalização do uso da água. Neste artigo, discutimos o processo de fiscalização, abordamos uma metodologia de fiscalização usada na Agência de gestão de águas, e abordamos uma arquitetura de sistema de informações baseado na Web, em plataforma móvel e em Sistema de Informação Geográfica para prover uma gestão da fiscalização de forma eficiente e eficaz. Tal sistema encontra-se em produção na Agência de Gestão de Águas e alguns resultados parciais, sobretudo no tocante às denúncias, notificações e autos de infração que são discutidos.","PeriodicalId":41711,"journal":{"name":"Revista Brasileira de Computacao Aplicada","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2018-10-19","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"70730220","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}