首页 > 最新文献

JUTI Jurnal Ilmiah Teknologi Informasi最新文献

英文 中文
KLASTERISASI DOKUMEN MENGGUNAKAN WEIGHTED K-MEANS BERDASARKAN RELEVANSI TOPIK 基于主题相关性的体重标准文件
Pub Date : 2019-08-20 DOI: 10.12962/j24068535.v17i2.a892
Muhammad Riduwan, Chastine Fatichah, Anny Yuniarti
Jumlah penelitian di dunia mengalami perkembangan yang pesat, setiap tahun berbagai peneliti dari penjuru dunia menghasilkan karya ilmiah seperti makalah, jurnal, buku dsb. Metode klasterisasi dapat digunakan untuk mengelompokkan dokumen karya ilmiah ke dalam suatu kelompok tertentu berdasarkan relevansi antar topik. Klasterisasi pada dokumen memiliki karakteristik yang berbeda karena tingkat kemiripan antar dokumen dipengaruhi oleh kata-kata pembentuknya. Beberapa metode klasterisasi kurang memperhatikan nilai semantik dari kata. Sehingga klaster yang terbentuk kurang merepresentasikan isi topik dokumen. Klasterisasi dokumen teks masih memiliki kemungkinan adanya outlier karena pemilihan fitur teks yang tidak optimal. Oleh karena itu dibutuhkan pemrosesan data yang tepat serta metode yang mengoptimalkan hasil klaster. Penelitian ini mengusulkan metode klasterisasi dokumen menggunakan Weighted K-Means yang dipadukan dengan Maximum Common Subgraph. Weighted k-means digunakan untuk klasterisasi awal dokumen berdasarkan kata-kata yang diekstraksi. Pembentukan Weighted K-Means berdasarkan perhitungan Word2Vec dan TextRank dari kata-kata dalam dokumen. Maximum common subgraph merupakan tahap pembentukan graf yang digunakan dalam penggabungan klaster untuk menghasilkan klaster baru yang lebih optimal. pembentukan graf dilakukan dengan perhitungan nilai Word2vec dan Co-occurrence dari klaster. Representasi topik dokumen tiap klaster dapat dihasilkan dari pemodelan topik Latent Dirichlet Allocation (LDA). Pengujian dilakukan dengan menggunakan dataset artikel ilmiah dari Scopus. Hasil dari analisis Koherensi topik menunjukkan nilai koherensi usulan metode adalah 0.532 pada dataset 1 yang bersifat homogen dan 0.472 pada dataset 2 yang bersifat heterogen.
世界上有很多研究正在进行,每年世界各地都有很多研究人员制作科学作品,如杂志、期刊、书籍等。分类方法可以用于根据热带相关性将科学论文分组为特定的组。文献的分类具有不同的特点,因为文献的相互联系程度受到作者话语的影响。对不太引人注意的单词语义值进行分类的几种方法。因此,形成较少的聚类表示文档的内容。由于选择了非最优文本特征,文本文档的分类仍然存在异常值的可能性。因此,有必要处理准确的数据和优化聚类结果的方法。本文提出了一种将加权K-Means与最大公共子图相混合的文档分类方法。加权k均值,用于根据提取的单词对初始文档进行分类。基于文档中单词的Word2Verc和TextRank计算的加权K-Means形成。最大公共子图是聚类组合中用于生成更优化的新聚类的图形成阶段。通过从klaster计算Word2vec和共现值来创建图形。每个冲突器的文档主题表示可以从潜在狄利克雷分配(LDA)主题建模中生成。使用Scopus的科学文章数据集进行测试。主题一致性分析结果表明,该方法在同质数据集1上的一致性值为0.532,在异质数据集2上的一致度值为0.472。
{"title":"KLASTERISASI DOKUMEN MENGGUNAKAN WEIGHTED K-MEANS BERDASARKAN RELEVANSI TOPIK","authors":"Muhammad Riduwan, Chastine Fatichah, Anny Yuniarti","doi":"10.12962/j24068535.v17i2.a892","DOIUrl":"https://doi.org/10.12962/j24068535.v17i2.a892","url":null,"abstract":"Jumlah penelitian di dunia mengalami perkembangan yang pesat, setiap tahun berbagai peneliti dari penjuru dunia menghasilkan karya ilmiah seperti makalah, jurnal, buku dsb. Metode klasterisasi dapat digunakan untuk mengelompokkan dokumen karya ilmiah ke dalam suatu kelompok tertentu berdasarkan relevansi antar topik. Klasterisasi pada dokumen memiliki karakteristik yang berbeda karena tingkat kemiripan antar dokumen dipengaruhi oleh kata-kata pembentuknya. Beberapa metode klasterisasi kurang memperhatikan nilai semantik dari kata. Sehingga klaster yang terbentuk kurang merepresentasikan isi topik dokumen. Klasterisasi dokumen teks masih memiliki kemungkinan adanya outlier karena pemilihan fitur teks yang tidak optimal. Oleh karena itu dibutuhkan pemrosesan data yang tepat serta metode yang mengoptimalkan hasil klaster. Penelitian ini mengusulkan metode klasterisasi dokumen menggunakan Weighted K-Means yang dipadukan dengan Maximum Common Subgraph. Weighted k-means digunakan untuk klasterisasi awal dokumen berdasarkan kata-kata yang diekstraksi. Pembentukan Weighted K-Means berdasarkan perhitungan Word2Vec dan TextRank dari kata-kata dalam dokumen. Maximum common subgraph merupakan tahap pembentukan graf yang digunakan dalam penggabungan klaster untuk menghasilkan klaster baru yang lebih optimal. pembentukan graf dilakukan dengan perhitungan nilai Word2vec dan Co-occurrence dari klaster. Representasi topik dokumen tiap klaster dapat dihasilkan dari pemodelan topik Latent Dirichlet Allocation (LDA). Pengujian dilakukan dengan menggunakan dataset artikel ilmiah dari Scopus. Hasil dari analisis Koherensi topik menunjukkan nilai koherensi usulan metode adalah 0.532 pada dataset 1 yang bersifat homogen dan 0.472 pada dataset 2 yang bersifat heterogen.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-08-20","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"42004341","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 1
PENERAPAN LOGIKA FUZZY SUGENO UNTUK PENENTUAN REWARD PADA GAME EDUKASI AKU BISA 模糊的SUGENO逻辑的应用,以确定我能学到的教育游戏的奖励
Pub Date : 2019-08-20 DOI: 10.12962/j24068535.v17i2.a825
Chaulina Alfianti Oktavia, Rakhmad Maulidi
This study discusses an application of fuzzy logic in educational game. This game requires a fast player response. We made this game in order to raise children awareness to encounter strangers. In this game, strangers are enemies in the form of hand drawings. The main characters in this game are boy and girl. The player can choose a character as desired. Each selected character has a different level. At each level, there is a level of difficulty based on the ease of passing enemies to reach the goal. The player would win the game once he/she manages to escape from strangers and arrives at home. Each level of the game has an enemy who tries to approach the player. If the enemy caught by the player, it will get consequences according to the fuzzy rules that applied to the game. The application of fuzzy logic in this game is to regulate the form of reward that will receive by the player. The basis for determining reward is the living conditions, time, and scores obtained by the player. In this research, we use fuzzy Sugeno logic for giving rewards. We conclude that fuzzy logic applies to our educational game.
本研究探讨模糊逻辑在教育博弈中的应用。这个游戏要求玩家快速反应。我们做这个游戏是为了提高孩子们面对陌生人的意识。在这个游戏中,陌生人以手绘的形式成为敌人。这个游戏的主角是男孩和女孩。玩家可以选择自己想要的角色。每个选择的角色都有不同的等级。在每个关卡中,都有一个基于通过敌人到达目标的难易程度的难度等级。当玩家设法逃离陌生人并到达家中时,他/她将赢得游戏。游戏的每个关卡都有一个试图接近玩家的敌人。如果敌人被玩家抓住,它将根据应用于游戏的模糊规则得到相应的结果。在这个游戏中,模糊逻辑的应用是为了规范玩家将获得的奖励形式。决定奖励的基础是玩家的生存条件、时间和获得的分数。在本研究中,我们使用模糊Sugeno逻辑来给予奖励。我们得出结论,模糊逻辑适用于我们的教育游戏。
{"title":"PENERAPAN LOGIKA FUZZY SUGENO UNTUK PENENTUAN REWARD PADA GAME EDUKASI AKU BISA","authors":"Chaulina Alfianti Oktavia, Rakhmad Maulidi","doi":"10.12962/j24068535.v17i2.a825","DOIUrl":"https://doi.org/10.12962/j24068535.v17i2.a825","url":null,"abstract":"This study discusses an application of fuzzy logic in educational game. This game requires a fast player response. We made this game in order to raise children awareness to encounter strangers. In this game, strangers are enemies in the form of hand drawings. The main characters in this game are boy and girl. The player can choose a character as desired. Each selected character has a different level. At each level, there is a level of difficulty based on the ease of passing enemies to reach the goal. The player would win the game once he/she manages to escape from strangers and arrives at home. Each level of the game has an enemy who tries to approach the player. If the enemy caught by the player, it will get consequences according to the fuzzy rules that applied to the game. The application of fuzzy logic in this game is to regulate the form of reward that will receive by the player. The basis for determining reward is the living conditions, time, and scores obtained by the player. In this research, we use fuzzy Sugeno logic for giving rewards. We conclude that fuzzy logic applies to our educational game.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-08-20","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"45178120","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 5
Perbaikan Segmentasi Pembuluh Darah Tipis Pada Citra Retina Menggunakan Fuzzy Entropy 利用模糊熵校正视网膜图像中的薄血稀释剂分割
Pub Date : 2019-08-20 DOI: 10.12962/j24068535.v17i2.a857
Lafnidita Farosanti, Chastine Fatichah
Diabetic Retinopathi adalah kelainan pembuluh darah retina pada mata yang diakibatkan komplikasi penyakit diabetes. Deteksi lebih dini diperlukan agar kelainan ini dapat ditangani secara cepat dan tepat. Kelainan ini ditandai dengan melemahnya bagian pembuluh darah tipis akibat tersumbatnya aliran darah kemudian menyebabkan bengkak pada mata bahkan kebutaan. Oleh karena itu diperlukan metode analisa pembuluh darah retina melalui proses segmentasi pembuluh darah terutama pada bagian penting yaitu pembuluh darah tipis. Peneliti mengusulkan penggabungan metode perbaikan pembuluh darah tipis atau yang dikenal dengan Thin Vessel Enhancement dan Fuzzy Entropy. Thin Vessel Enhancement berfungsi untuk memperbaiki  citra agar dapat mengekstrak lebih banyak bagian pembuluh darah khususnya pembluh darah tipis,  sedangkan Fuzzy Entropy dapat menentukan nilai optimal threshold berdasarkan nilai entropy pada membership function. Segmentasi yang dihasilkan dibagi menjadi 3 kategori yaitu pembuluh darah utama, medium, dan tipis. Uji coba dilakukan terhadap metode Thin Vessel Enhancement menggunakan 1 kernel dan Fuzzy Entropy dari nilai threshold ke-1 maka diperoleh nilai accuracy, sensitivity, dan specivicity sebesar 94.81%, 66.83%, dan 97.51%.
糖尿病视网膜病变是由糖尿病并发症引起的视网膜血管病变。需要早期发现以快速准确地处理这种疾病。这种疾病的特点是由于血流的吸收而使薄血管变弱,然后导致眼睛肿胀甚至失明。这就需要通过视网膜血管的分割过程来分析视网膜血管,尤其是在重要部位,即薄血管。研究人员建议将薄血管修复方法或称为薄血管增强和模糊熵相结合。薄血管增强的作用是固定图像,以便提取更多的血管,特别是薄血管,而模糊熵可以根据隶属函数上的熵值来确定最佳阈值。产生的分割分为三类,分别是主要血管、中等血管和薄血管。使用1核和从阈值到阈值1的模糊熵对薄血管增强方法进行测试,然后获得94.81%、66.83%和97.51%的准确度、灵敏度和特异性值。
{"title":"Perbaikan Segmentasi Pembuluh Darah Tipis Pada Citra Retina Menggunakan Fuzzy Entropy","authors":"Lafnidita Farosanti, Chastine Fatichah","doi":"10.12962/j24068535.v17i2.a857","DOIUrl":"https://doi.org/10.12962/j24068535.v17i2.a857","url":null,"abstract":"Diabetic Retinopathi adalah kelainan pembuluh darah retina pada mata yang diakibatkan komplikasi penyakit diabetes. Deteksi lebih dini diperlukan agar kelainan ini dapat ditangani secara cepat dan tepat. Kelainan ini ditandai dengan melemahnya bagian pembuluh darah tipis akibat tersumbatnya aliran darah kemudian menyebabkan bengkak pada mata bahkan kebutaan. Oleh karena itu diperlukan metode analisa pembuluh darah retina melalui proses segmentasi pembuluh darah terutama pada bagian penting yaitu pembuluh darah tipis. Peneliti mengusulkan penggabungan metode perbaikan pembuluh darah tipis atau yang dikenal dengan Thin Vessel Enhancement dan Fuzzy Entropy. Thin Vessel Enhancement berfungsi untuk memperbaiki  citra agar dapat mengekstrak lebih banyak bagian pembuluh darah khususnya pembluh darah tipis,  sedangkan Fuzzy Entropy dapat menentukan nilai optimal threshold berdasarkan nilai entropy pada membership function. Segmentasi yang dihasilkan dibagi menjadi 3 kategori yaitu pembuluh darah utama, medium, dan tipis. Uji coba dilakukan terhadap metode Thin Vessel Enhancement menggunakan 1 kernel dan Fuzzy Entropy dari nilai threshold ke-1 maka diperoleh nilai accuracy, sensitivity, dan specivicity sebesar 94.81%, 66.83%, dan 97.51%.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-08-20","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"45155408","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 2
RANCANG BANGUN SISTEM REKOMENDASI RESEP MASAKAN BERDASARKAN BAHAN BAKU DENGAN MENGGUNAKAN ALGORITMA PENYARINGAN BERBASIS KONTEN 背景当包含算法时,RESP推荐系统将提供背景
Pub Date : 2019-08-20 DOI: 10.12962/j24068535.v17i2.a791
Yandhy Raka Mulyawan, Caecilia Citra Lestari
Banyak ibu rumah tangga yang kebingungan untuk menentukan masakan apa yang akan mereka masak sehingga bahan makanan yang mereka miliki menjadi rusak akibat tidak kunjung dimasak. Sebagian besar ibu rumah tangga mendapatkan ide resep dari website resep karena mudah untuk diakses dan memiliki resep yang cukup lengkap, namun kelemahannya kebanyakan dari website resep tidak memiliki fitur untuk pencarian resep berdasarkan bahan-bahan yang dimiliki. Aplikasi telepon genggam dipilih untuk memecahkan masalah tersebut. Pada penelitian ini penulis akan membuat rancang bangun sistem rekomendasi resep masakan berdasarkan bahan baku dengan menggunakan algoritma penyaringan berbasis konten (CBFA). Algoritma ini merekomendasikan resep yang memiliki kesamaan dengan bahan makanan yang dimasukkan oleh pengguna. Aplikasi dibuat menggunakan file PHP untuk memproses data resep, seperti query data, mengecek data yang sama, menentukan weight serta menghitung dan mengurutkan resep menurut CBFA. Hasil dari pengujian menunjukkan bahwa rekomendasi resep sudah sesuai dengan kekuatan 71%.
许多家庭主妇在决定自己要做什么烹饪时感到困惑,因为没有烹饪而破坏了现有的食物。大多数家庭主妇从食谱网站上获得食谱的想法,因为它们很容易获得,而且有足够的食谱,但是大多数食谱网站的弱点并没有基于现有材料的处方搜索功能。选择手机应用程序来解决这个问题。在本研究中,作者将使用基于内容过滤算法(CBFA),根据原料对烹饪食谱推荐系统进行设计。该算法推荐与用户输入的食品相似的食谱。应用程序使用PHP文件来处理处方数据,如数据查询,查看相同的数据,确定分量并根据CBFA进行计数和排序。测试结果表明,处方推荐率已经达到71%。
{"title":"RANCANG BANGUN SISTEM REKOMENDASI RESEP MASAKAN BERDASARKAN BAHAN BAKU DENGAN MENGGUNAKAN ALGORITMA PENYARINGAN BERBASIS KONTEN","authors":"Yandhy Raka Mulyawan, Caecilia Citra Lestari","doi":"10.12962/j24068535.v17i2.a791","DOIUrl":"https://doi.org/10.12962/j24068535.v17i2.a791","url":null,"abstract":"Banyak ibu rumah tangga yang kebingungan untuk menentukan masakan apa yang akan mereka masak sehingga bahan makanan yang mereka miliki menjadi rusak akibat tidak kunjung dimasak. Sebagian besar ibu rumah tangga mendapatkan ide resep dari website resep karena mudah untuk diakses dan memiliki resep yang cukup lengkap, namun kelemahannya kebanyakan dari website resep tidak memiliki fitur untuk pencarian resep berdasarkan bahan-bahan yang dimiliki. Aplikasi telepon genggam dipilih untuk memecahkan masalah tersebut. Pada penelitian ini penulis akan membuat rancang bangun sistem rekomendasi resep masakan berdasarkan bahan baku dengan menggunakan algoritma penyaringan berbasis konten (CBFA). Algoritma ini merekomendasikan resep yang memiliki kesamaan dengan bahan makanan yang dimasukkan oleh pengguna. Aplikasi dibuat menggunakan file PHP untuk memproses data resep, seperti query data, mengecek data yang sama, menentukan weight serta menghitung dan mengurutkan resep menurut CBFA. Hasil dari pengujian menunjukkan bahwa rekomendasi resep sudah sesuai dengan kekuatan 71%.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-08-20","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"48231896","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 0
KLASIFIKASI KEBUTUHAN NON-FUNGSIONAL MENGGUNAKAN FSKNN BERBASIS ISO/IEC 25010 非功能性需求分类使用ISO/IEC 25010基础的FSKNN
Pub Date : 2019-08-20 DOI: 10.12962/j24068535.v17i2.a823
L. Hakim, Siti Rochimah, Chastine Fatichah
Aspek kualitas kebutuhan non-fungsional merupakan salah satu faktor penting yang berperan dalam kesuksesan pengembangan perangkat lunak. Namun, mengidentifikasi aspek kualitas kebutuhan non-fungsional merupakan hal yang sulit untuk dilakukan. Karena aspek kualitas kebutuhan non-fungsional sering ditemukan tercampur dengan kebutuhan fungsional.  Oleh karena itu dibutuhkan suatu cara untuk dapat mengidentifikasi aspek kualitas kebutuhan non-fungsional. Penelitian yang ada mampu mengidentifikasi aspek kebutuhan non-fungsional dengan melakukan klasifikasi. Akan tetapi, standar kualitas yang digunakan sebagai rujukan untuk melabeli kalimat kebutuhan masih menggunakan standar ISO/IEC 9126. ISO/IEC 9126 merupakan standar lama yang dirilis pada tahun 2001. Peneliti sebelumnya mengungkapkan ambiguitas dalam enam sub-atribut pada struktur hirarkis ISO/IEC 9126. Oleh karena itu, standar kualitas yang digunakan untuk melabeli kalimat kebutuhan pada penelitian ini adalah ISO/IEC 25010. Sedangkan metode klasifikasi yang digunakan adalah FSKNN. Metode klasifikasi yang digunakan diuji dengan menggunakan nilai tetangga terdekat 10, 20 dan 30.  Pada penelitian ini metode FSKNN berhasil memeroleh nilai tertinggi berdasarkan ground truth pakar yaitu precision sebesar 22.55 dan recall 27.64.
非功能需求的质量方面是导致软件开发成功的重要因素之一。然而,确定非功能性需求的质量方面是一件棘手的事情。因为非功能性需求的质量方面往往与功能性需求相结合。因此,需要一种方法来识别非功能性需求的质量方面。现有的研究通过分类能够识别功能不健全的方面。然而,用于标记所需句子的质量标准仍然使用ISO/IEC标准9126。ISO/IEC 9126是2001年发布的旧标准。之前的研究人员揭示了ISO - IEC结构中六个子属性中的模糊。因此,用于标记这项研究所需句子的质量标准是ISO/IEC 25010。它使用的分类方法是FSKNN。使用的分类方法使用了最近邻居的价值10,20,30进行测试。在这项研究中,FSKNN的方法根据现场真相专家的precision计算出了最高的价值,参考了22.55和27.64。
{"title":"KLASIFIKASI KEBUTUHAN NON-FUNGSIONAL MENGGUNAKAN FSKNN BERBASIS ISO/IEC 25010","authors":"L. Hakim, Siti Rochimah, Chastine Fatichah","doi":"10.12962/j24068535.v17i2.a823","DOIUrl":"https://doi.org/10.12962/j24068535.v17i2.a823","url":null,"abstract":"Aspek kualitas kebutuhan non-fungsional merupakan salah satu faktor penting yang berperan dalam kesuksesan pengembangan perangkat lunak. Namun, mengidentifikasi aspek kualitas kebutuhan non-fungsional merupakan hal yang sulit untuk dilakukan. Karena aspek kualitas kebutuhan non-fungsional sering ditemukan tercampur dengan kebutuhan fungsional.  Oleh karena itu dibutuhkan suatu cara untuk dapat mengidentifikasi aspek kualitas kebutuhan non-fungsional. Penelitian yang ada mampu mengidentifikasi aspek kebutuhan non-fungsional dengan melakukan klasifikasi. Akan tetapi, standar kualitas yang digunakan sebagai rujukan untuk melabeli kalimat kebutuhan masih menggunakan standar ISO/IEC 9126. ISO/IEC 9126 merupakan standar lama yang dirilis pada tahun 2001. Peneliti sebelumnya mengungkapkan ambiguitas dalam enam sub-atribut pada struktur hirarkis ISO/IEC 9126. Oleh karena itu, standar kualitas yang digunakan untuk melabeli kalimat kebutuhan pada penelitian ini adalah ISO/IEC 25010. Sedangkan metode klasifikasi yang digunakan adalah FSKNN. Metode klasifikasi yang digunakan diuji dengan menggunakan nilai tetangga terdekat 10, 20 dan 30.  Pada penelitian ini metode FSKNN berhasil memeroleh nilai tertinggi berdasarkan ground truth pakar yaitu precision sebesar 22.55 dan recall 27.64.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-08-20","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"45729235","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 3
EVALUASI INFRASTRUKTUR TEKNOLOGI INFORMASI DENGAN COBIT 5 DAN ITIL V3 用COBIT 5和ITIL V3对信息技术基础设施的评估
Pub Date : 2019-03-12 DOI: 10.12962/J24068535.V17I1.A717
Harfebi Fryonanda, Heru Sokoco, Yani Nurhadryani
Teknologi informasi (IT) dapat memperkuat organisasi. Termasuk Institut Pertanian Bogor (IPB) yang merupakan organisasi pendidikan tinggi. IPB telah memiliki sistem informasi yang terdiri dari 36 aplikasi. Infrastruktur yang memadai merupakan salah satu kunci kesuksesan untuk mendapatkan kinerja dan pelayanan TI yang baik. kebutuhan infrastruktur dapat dipenuhi dengan melakukan evaluasi terhadap tatakelola TI. Penelitian ini melakukan evaluasi tatakelola TI dengan mengukur tingkat kematangan tatakelola TI, dengan menggunakan framework COBIT 5 dan tingkat kepuasan pengguna layanan TI, dengan menggunakan serqual model. Tingkat kematangan TI menggunakan 13 proses pada COBIT 5 yaitu: EDM04,APO01, APO07, APO12, APO13, BAI04, BAI06, BAI09, BAI10, DSS01, DSS03, DSS05, dan MEA01. Tingkat kepuasan pengguna dilihat dari 4 dimensi yaitu: tangibles, reliability, responsiveness, dan assurance. Responden yang pada pengukuran kepuasan layanan TI adalah mahasiswa dan dosen sebanyak 100 responden.  Hasil penelitian ini didapatkan tingkat kematangan tatakelola TI 2 proses berada pada level 0, 8 proses berada pada level 1, dan 3 proses berada pada level 2. Tingkat kepuasan pengguna terhadap layanan TI berada dibawah nilai harapan. Hasil tersebut dianalisis dengan matrik SWOT untuk melihat kekuatan, kelemahan, peluang dan ancaman. Kemudian disusun rekomendasi dengan mengacu kepada ITIL V3 2011
信息技术可以加强组织。包括高等教育组织茂物农业学院(IPB)。IPB拥有一个由36个应用程序组成的信息系统。良好的基础设施是获得良好绩效和提供良好it服务的关键之一。基础设施的需要可以通过对tatakelola TI的评估来满足。该研究通过测量tatakelola TI的成熟程度、使用5号框架和TI服务用户满意度、使用serqual模型进行tatakelola TI评估。TI的成熟水平使用了13种方法在COBIT 5中分别是:EDM04、APO01、APO07、APO07、APO13、BAI04、BAI09、BAI09、DSS01、DSS05和MEA01。用户满意度是通过四维来衡量的:tangibles,可靠性,response和保险。受访者对it服务的满意度是100名学生和讲师。这项研究的结果是tatakelola TI 2个过程在0级,8个过程在1级,3个过程在2级。用户对it服务的满意程度低于预期。测试结果以SWOT测试结果以发现优势、劣势、机会和威胁。然后起草推荐信,参考2011年的ITIL V3
{"title":"EVALUASI INFRASTRUKTUR TEKNOLOGI INFORMASI DENGAN COBIT 5 DAN ITIL V3","authors":"Harfebi Fryonanda, Heru Sokoco, Yani Nurhadryani","doi":"10.12962/J24068535.V17I1.A717","DOIUrl":"https://doi.org/10.12962/J24068535.V17I1.A717","url":null,"abstract":"Teknologi informasi (IT) dapat memperkuat organisasi. Termasuk Institut Pertanian Bogor (IPB) yang merupakan organisasi pendidikan tinggi. IPB telah memiliki sistem informasi yang terdiri dari 36 aplikasi. Infrastruktur yang memadai merupakan salah satu kunci kesuksesan untuk mendapatkan kinerja dan pelayanan TI yang baik. kebutuhan infrastruktur dapat dipenuhi dengan melakukan evaluasi terhadap tatakelola TI. Penelitian ini melakukan evaluasi tatakelola TI dengan mengukur tingkat kematangan tatakelola TI, dengan menggunakan framework COBIT 5 dan tingkat kepuasan pengguna layanan TI, dengan menggunakan serqual model. Tingkat kematangan TI menggunakan 13 proses pada COBIT 5 yaitu: EDM04,APO01, APO07, APO12, APO13, BAI04, BAI06, BAI09, BAI10, DSS01, DSS03, DSS05, dan MEA01. Tingkat kepuasan pengguna dilihat dari 4 dimensi yaitu: tangibles, reliability, responsiveness, dan assurance. Responden yang pada pengukuran kepuasan layanan TI adalah mahasiswa dan dosen sebanyak 100 responden.  Hasil penelitian ini didapatkan tingkat kematangan tatakelola TI 2 proses berada pada level 0, 8 proses berada pada level 1, dan 3 proses berada pada level 2. Tingkat kepuasan pengguna terhadap layanan TI berada dibawah nilai harapan. Hasil tersebut dianalisis dengan matrik SWOT untuk melihat kekuatan, kelemahan, peluang dan ancaman. Kemudian disusun rekomendasi dengan mengacu kepada ITIL V3 2011","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":"1 1","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-03-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"41608472","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 10
KLASIFIKASI KUALITAS PERANGKAT LUNAK BERDASARKAN ISO/IEC 25010 MENGGUNAKAN AHP DAN FUZZY MAMDANI UNTUK SITUS WEB E-COMMERCE ISO/IEC 25010为AHP和模糊MAMDANI提供的电子商务情况月度质量分类
Pub Date : 2019-03-12 DOI: 10.12962/J24068535.V17I1.A820
F. H. Wattiheluw, Siti Rochimah, Chastine Fatichah
Evaluasi kualitas fungsional dan antar muka situs web e-commerce dari perspektif pengguna sangat penting untuk membangun atau mengembangkan situs web e-commerce yang memenuhi standar kualitas. Namun, untuk menilai kualitas fungsional dan antar muka dari situs web e-commerce sulit untuk didefinisikan sehingga membutuhkan model evaluasi perangkat lunak. Pentingnya evaluasi kualitas situs web e-commerce berdasarkan karakteristik perangkat lunak utnuk dapat dikembangkan dan menyesuaikan standar kualitas perangkat lunak. Penelitian ini mengusulkan sebuah model evaluasi kualitas situs web e-commerce berdasarkan karakteristik pada functional suitability, performance efficiency, reliability dan usability pada ISO/IEC 25010. Pada penelitian ini menggunakan metode Fuzzy Mamdani untuk menilai kualitas dari situs web e-commerce berdasarkan karakteristik dan pembobotan kepentingan karakteristik menggunakan metode Analytical Hierarchy Process. Model yang diusulkan diterapkan ke beberapa situs web e-commerce di Indonesia sebagai studi kasus untuk mengevaluasi tingkat kualitas perangkat lunak. Hasil yang didapat dari model evaluasi dapat membantu pengembang untuk merancang dan menggembangkan situs web e-commerce yang kualitas dengan tingkat accurasy 0,684%.
从用户的角度评估电子商务网站的功能质量和界面对于建立或开发符合质量要求的电子商务网站非常重要。然而,要评估电子商务网站的功能质量和界面,很难定义,因此需要一个软设备评估模型。基于软设备特性来评估电子商务网站的质量很重要,软设备特性可以根据软设备质量标准进行开发和调整。这项研究提出了一个基于ISO/IEC 25010的功能适用性、性能效率、可靠性和可用性特征的电子商务网站质量评估模型。本研究采用模糊Mamdani方法对电子商务网站的质量特征进行评价,并采用层次分析法去除感兴趣的特征。将所提出的模型应用于印度尼西亚的几个电子商务网站,作为评估软件质量的案例研究。评价模型的结果可以帮助开发人员设计和开发高质量的电子商务网站,准确率为0.684%。
{"title":"KLASIFIKASI KUALITAS PERANGKAT LUNAK BERDASARKAN ISO/IEC 25010 MENGGUNAKAN AHP DAN FUZZY MAMDANI UNTUK SITUS WEB E-COMMERCE","authors":"F. H. Wattiheluw, Siti Rochimah, Chastine Fatichah","doi":"10.12962/J24068535.V17I1.A820","DOIUrl":"https://doi.org/10.12962/J24068535.V17I1.A820","url":null,"abstract":"Evaluasi kualitas fungsional dan antar muka situs web e-commerce dari perspektif pengguna sangat penting untuk membangun atau mengembangkan situs web e-commerce yang memenuhi standar kualitas. Namun, untuk menilai kualitas fungsional dan antar muka dari situs web e-commerce sulit untuk didefinisikan sehingga membutuhkan model evaluasi perangkat lunak. Pentingnya evaluasi kualitas situs web e-commerce berdasarkan karakteristik perangkat lunak utnuk dapat dikembangkan dan menyesuaikan standar kualitas perangkat lunak. Penelitian ini mengusulkan sebuah model evaluasi kualitas situs web e-commerce berdasarkan karakteristik pada functional suitability, performance efficiency, reliability dan usability pada ISO/IEC 25010. Pada penelitian ini menggunakan metode Fuzzy Mamdani untuk menilai kualitas dari situs web e-commerce berdasarkan karakteristik dan pembobotan kepentingan karakteristik menggunakan metode Analytical Hierarchy Process. Model yang diusulkan diterapkan ke beberapa situs web e-commerce di Indonesia sebagai studi kasus untuk mengevaluasi tingkat kualitas perangkat lunak. Hasil yang didapat dari model evaluasi dapat membantu pengembang untuk merancang dan menggembangkan situs web e-commerce yang kualitas dengan tingkat accurasy 0,684%.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-03-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"48501046","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 18
EKSTRAKSI FITUR PADA PENGENALAN KARAKTER AKSARA JAWA BERBASIS HISTOGRAM OF ORIENTED GRADIENT 基于梯度直方图的特征提取
Pub Date : 2019-03-12 DOI: 10.12962/J24068535.V17I1.A819
Yuna Sugianela, Nanik Suciati
Buku-buku kuno Bahasa Jawa memiliki konten kekayaan intelektual Indonesia seperti agama, linguistik, filosofi, mitos, pelajaran moral, hukum dan norma adat, kerajaan, cerita rakyat, sejarah, dan lain sebagainya. Tidak banyak yang mempelajari karya tersebut karena ditulis dengan Aksara Jawa dan tidak banyak yang memahami. Untuk membantu penerjemahan dokumen berbahasa Jawa dilakukan otomatisasi sistem penerjemahan. tahap penerjemahan terdiri dari segmentasi untuk mendapatkan karakter dari citra tulisan dalam naskah Aksara Jawa. Kemudian tiap karakater dikenali sebagai abjad. Dan yang terakhir adalah mengkombinasikan tulisan latin yang telah dikenali menjadi kata yang berarti. Penelitian yang membahas tentang pengenalan Aksara Jawa telah dilakukan, seperti fokus pada segmentasi karakter dan pengenalan Aksara Jawa. Pada penelitian sebelumnya dilakukan perbaikan pada metode segmentasi namun tetap mendapatkan hasil yang sama dalam hal akurasi kebenaran. Pada penelitian kali ini diusulkan metode baru pada tahap ekstraksi fitur, yaitu menggunakan metode Histogram of Oriented Gradient (HOG). Metode HOG banyak digunakan pada pengenalan wajah, hewan, dan deteksi citra kendaraan, dan lain-lain. Penelitian ini juga pernah diusulkan untuk mengenali tulisan tangan berbahasa Inggris dan Huruf Bengali dan mendapatkan hasil yang optimal. Pada penelitian ini didapatkan hasil akurasi pengenalan karakter Aksara Jawa sebesar 89,7%. Ekstraksi Fitur, Histogram of Oriented Gradient, Aksara Jawa
日本古籍中有宗教、语言学、哲学、神话、道德学习、法律规范、政府、人民故事、历史等印尼知识财富的内容。没有多少人学习这部作品,因为它是用负责任的人物写的,也没有多少人理解。为了帮助翻译文件,Jawa执行翻译系统的自动化。翻译级别包括从回答字符脚本中的书写图像中分割字符。然后每个字符都被识别为alpha。最后一个是结合拉丁语写作,它被认为是一个有意义的单词。对颌骨字符的识别进行了研究,如着重于字符分割和颌骨字符识别。在以前的研究中,对分割方法进行了改进,但在准确性方面仍然得到了相同的结果。在本研究中,在提取层面上提出了一种新的方法,即使用定向梯度直方图(HOG)方法。HOG方法广泛应用于人脸识别、动物、车辆图像检测等领域。本研究还提出了识别英语和孟加拉语笔迹并取得最佳效果的方法。在本研究中,我们对反应特征的准确识别率为89.7%。拟合提取、定向梯度直方图、Jab特征
{"title":"EKSTRAKSI FITUR PADA PENGENALAN KARAKTER AKSARA JAWA BERBASIS HISTOGRAM OF ORIENTED GRADIENT","authors":"Yuna Sugianela, Nanik Suciati","doi":"10.12962/J24068535.V17I1.A819","DOIUrl":"https://doi.org/10.12962/J24068535.V17I1.A819","url":null,"abstract":"Buku-buku kuno Bahasa Jawa memiliki konten kekayaan intelektual Indonesia seperti agama, linguistik, filosofi, mitos, pelajaran moral, hukum dan norma adat, kerajaan, cerita rakyat, sejarah, dan lain sebagainya. Tidak banyak yang mempelajari karya tersebut karena ditulis dengan Aksara Jawa dan tidak banyak yang memahami. Untuk membantu penerjemahan dokumen berbahasa Jawa dilakukan otomatisasi sistem penerjemahan. tahap penerjemahan terdiri dari segmentasi untuk mendapatkan karakter dari citra tulisan dalam naskah Aksara Jawa. Kemudian tiap karakater dikenali sebagai abjad. Dan yang terakhir adalah mengkombinasikan tulisan latin yang telah dikenali menjadi kata yang berarti. Penelitian yang membahas tentang pengenalan Aksara Jawa telah dilakukan, seperti fokus pada segmentasi karakter dan pengenalan Aksara Jawa. Pada penelitian sebelumnya dilakukan perbaikan pada metode segmentasi namun tetap mendapatkan hasil yang sama dalam hal akurasi kebenaran. Pada penelitian kali ini diusulkan metode baru pada tahap ekstraksi fitur, yaitu menggunakan metode Histogram of Oriented Gradient (HOG). Metode HOG banyak digunakan pada pengenalan wajah, hewan, dan deteksi citra kendaraan, dan lain-lain. Penelitian ini juga pernah diusulkan untuk mengenali tulisan tangan berbahasa Inggris dan Huruf Bengali dan mendapatkan hasil yang optimal. Pada penelitian ini didapatkan hasil akurasi pengenalan karakter Aksara Jawa sebesar 89,7%. Ekstraksi Fitur, Histogram of Oriented Gradient, Aksara Jawa","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-03-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"45051866","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 9
ANSWERING WHY-NOT QUESTIONS ON REVERSE SKYLINE QUERIES OVER INCOMPLETE DATA 回答关于不完整数据的反向天际线查询的why-not问题
Pub Date : 2019-03-12 DOI: 10.12962/J24068535.V17I1.A824
B. J. Santoso, Tosca Yoel Connery
Recently, the development of the query-based preferences has received considerable attention from researchers and data users. One of the most popular preference-based queries is the skyline query, which will give a subset of superior records that are not dominated by any other records. As the developed version of skyline queries, a reverse skyline query rise. This query aims to get information about the query points that make a data or record as the part of result of their skyline query.      Furthermore, data-oriented IT development requires scientists to be able to process data in all conditions. In the real world, there exist incomplete multidimensional data, both because of damage, loss, and privacy. In order to increase the usability over a data set, this study will discuss one of the problems in processing reverse skyline queries over incomplete data, namely the "why-not" problem. The considered solution to this "why-not" problem is advice and steps so that a query point that does not initially consider an incomplete data, as a result, can later make the record or incomplete data as part of the results. In this study, there will be further discussion about the dominance relationship between incomplete data along with the solution of the problem. Moreover, some performance evaluations are conducted to measure the level of efficiency and effectiveness.
近年来,基于查询的偏好的发展受到了研究人员和数据用户的广泛关注。最流行的基于偏好的查询之一是skyline查询,它将给出不受任何其他记录支配的高级记录子集。随着天际线查询的发展,一个反向的天际线查询出现了。此查询的目的是获取有关查询点的信息,这些查询点将数据或记录作为其skyline查询结果的一部分。此外,面向数据的IT开发要求科学家能够在所有条件下处理数据。在现实世界中,由于损坏、丢失和隐私,存在不完整的多维数据。为了提高数据集的可用性,本研究将讨论在不完整数据上处理反向天际线查询的问题之一,即“为什么不”问题。对于这个“为什么不”问题,考虑的解决方案是建议和步骤,以便最初不考虑不完整数据的查询点稍后可以将记录或不完整数据作为结果的一部分。在本研究中,随着问题的解决,将进一步讨论不完全数据之间的优势关系。此外,还进行了一些绩效评估,以衡量效率和有效性的水平。
{"title":"ANSWERING WHY-NOT QUESTIONS ON REVERSE SKYLINE QUERIES OVER INCOMPLETE DATA","authors":"B. J. Santoso, Tosca Yoel Connery","doi":"10.12962/J24068535.V17I1.A824","DOIUrl":"https://doi.org/10.12962/J24068535.V17I1.A824","url":null,"abstract":"Recently, the development of the query-based preferences has received considerable attention from researchers and data users. One of the most popular preference-based queries is the skyline query, which will give a subset of superior records that are not dominated by any other records. As the developed version of skyline queries, a reverse skyline query rise. This query aims to get information about the query points that make a data or record as the part of result of their skyline query.      Furthermore, data-oriented IT development requires scientists to be able to process data in all conditions. In the real world, there exist incomplete multidimensional data, both because of damage, loss, and privacy. In order to increase the usability over a data set, this study will discuss one of the problems in processing reverse skyline queries over incomplete data, namely the \"why-not\" problem. The considered solution to this \"why-not\" problem is advice and steps so that a query point that does not initially consider an incomplete data, as a result, can later make the record or incomplete data as part of the results. In this study, there will be further discussion about the dominance relationship between incomplete data along with the solution of the problem. Moreover, some performance evaluations are conducted to measure the level of efficiency and effectiveness.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-03-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"45256419","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 2
KOMPRESI MULTILEVEL PADA METAHEURISTIC FOCUSED WEB CRAWLER Kompresi多层文本元启发式聚焦网络爬虫
Pub Date : 2019-03-12 DOI: 10.12962/J24068535.V17I1.A785
Dian Septiani Santoso, R. V. H. Ginardi
Focused Web Crawler merupakan metode pencarian website yang sesuai dengan pencarian yang diinginkan oleh user. Untuk mendapatkan kecocokan yang baik, waktu yang dibutuhkan metode Focused Web Crawler lebih lama dibandingkan dengan metode pencarian web crawler pada umumnya yaitu algoritma Depth First Search (DFS) maupun Breadth First Search (BFS). Untuk mengatasi hal tersebut maka muncul sebuah ide yakni teknik pencarian Focused Web Crawler dengan menggunakan metode metaheuristic pencarian cuckoo yang dipadukan dengan pencarian pada data history pencarian yang disimpan. Namun dengan adanya penyimpanan data pada setiap kali pencarian link maka data akan semakin bertambah. Oleh karena itu diperlukan sebuah cara untuk mengurangi kebutuhan ruang penyimpanan. Cara yang dilakukan untuk mengurangi ruang penyimpanan dan tidak mengurangi nilai informasi dari data penyimpanan sebelumnya adalah dengan melakukan kompresi data. Dalam penelitian ini diusulkan metode kompresi data dengan melakukan kompresi multilevel menggunakan dua metode kompresi yaitu pengurangan prefix dan postfix kata dan kompresi string berbasis kamus dengan melakukan pembuatan indeks kamus kata. Hasil kompresi string kamus kata berupa data encode. Untuk menguji hasil dari kompresi data yaitu dengan melakukan perbandingan hasil pencarian link menggunakan metode Knutt Morris Pratt (KMP) dari data yang belum terkompresi dengan data yang telah terkompresi. Hasilnya didapatkan bahwa maksimum presisi dengan nilai 1 dan recall sebesar 0,73. Dari hasil percobaan metode, didapatkan bahwa rasio kompresi file rata-rata adalah sebesar 36,4%.
Focused Web Crawler是一种与用户想要的搜索相匹配的Web搜索方法。为了实现良好的匹配,Focused Web Crawler方法比网络爬虫搜索方法耗时更长。通常情况下,搜索方法是深度优先搜索(DFS)算法或广度优先搜索(BFS)。为了克服这一点,出现了一个想法,即使用杜鹃搜索的元启发式方法与存储的搜索历史数据的搜索相结合的Focused Web Crawler搜索技术。但随着每次搜索链接时都存储数据,数据就会增加。因此,它需要一种方法来减少对存储空间的需求。减少存储空间而不减少来自先前存储数据的信息值的方法是压缩数据。在这项研究中,它提出了一种通过使用两种压缩方法进行多级压缩来压缩数据的方法,即前缀和后缀词的减少和通过创建单词索引来压缩基于字符串的字典。字符串压缩结果是经过编码的数据。通过比较使用Knutt Morris Pratt(KMP)方法从未压缩的数据与压缩数据进行链接搜索的结果来测试数据压缩的结果。结果是,最大精度值为1,召回率为0.73。从测试方法中发现,平均文件压缩率为36.4%。
{"title":"KOMPRESI MULTILEVEL PADA METAHEURISTIC FOCUSED WEB CRAWLER","authors":"Dian Septiani Santoso, R. V. H. Ginardi","doi":"10.12962/J24068535.V17I1.A785","DOIUrl":"https://doi.org/10.12962/J24068535.V17I1.A785","url":null,"abstract":"Focused Web Crawler merupakan metode pencarian website yang sesuai dengan pencarian yang diinginkan oleh user. Untuk mendapatkan kecocokan yang baik, waktu yang dibutuhkan metode Focused Web Crawler lebih lama dibandingkan dengan metode pencarian web crawler pada umumnya yaitu algoritma Depth First Search (DFS) maupun Breadth First Search (BFS). Untuk mengatasi hal tersebut maka muncul sebuah ide yakni teknik pencarian Focused Web Crawler dengan menggunakan metode metaheuristic pencarian cuckoo yang dipadukan dengan pencarian pada data history pencarian yang disimpan. Namun dengan adanya penyimpanan data pada setiap kali pencarian link maka data akan semakin bertambah. Oleh karena itu diperlukan sebuah cara untuk mengurangi kebutuhan ruang penyimpanan. Cara yang dilakukan untuk mengurangi ruang penyimpanan dan tidak mengurangi nilai informasi dari data penyimpanan sebelumnya adalah dengan melakukan kompresi data. Dalam penelitian ini diusulkan metode kompresi data dengan melakukan kompresi multilevel menggunakan dua metode kompresi yaitu pengurangan prefix dan postfix kata dan kompresi string berbasis kamus dengan melakukan pembuatan indeks kamus kata. Hasil kompresi string kamus kata berupa data encode. Untuk menguji hasil dari kompresi data yaitu dengan melakukan perbandingan hasil pencarian link menggunakan metode Knutt Morris Pratt (KMP) dari data yang belum terkompresi dengan data yang telah terkompresi. Hasilnya didapatkan bahwa maksimum presisi dengan nilai 1 dan recall sebesar 0,73. Dari hasil percobaan metode, didapatkan bahwa rasio kompresi file rata-rata adalah sebesar 36,4%.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-03-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"42699481","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
引用次数: 0
期刊
JUTI Jurnal Ilmiah Teknologi Informasi
全部 Acc. Chem. Res. ACS Applied Bio Materials ACS Appl. Electron. Mater. ACS Appl. Energy Mater. ACS Appl. Mater. Interfaces ACS Appl. Nano Mater. ACS Appl. Polym. Mater. ACS BIOMATER-SCI ENG ACS Catal. ACS Cent. Sci. ACS Chem. Biol. ACS Chemical Health & Safety ACS Chem. Neurosci. ACS Comb. Sci. ACS Earth Space Chem. ACS Energy Lett. ACS Infect. Dis. ACS Macro Lett. ACS Mater. Lett. ACS Med. Chem. Lett. ACS Nano ACS Omega ACS Photonics ACS Sens. ACS Sustainable Chem. Eng. ACS Synth. Biol. Anal. Chem. BIOCHEMISTRY-US Bioconjugate Chem. BIOMACROMOLECULES Chem. Res. Toxicol. Chem. Rev. Chem. Mater. CRYST GROWTH DES ENERG FUEL Environ. Sci. Technol. Environ. Sci. Technol. Lett. Eur. J. Inorg. Chem. IND ENG CHEM RES Inorg. Chem. J. Agric. Food. Chem. J. Chem. Eng. Data J. Chem. Educ. J. Chem. Inf. Model. J. Chem. Theory Comput. J. Med. Chem. J. Nat. Prod. J PROTEOME RES J. Am. Chem. Soc. LANGMUIR MACROMOLECULES Mol. Pharmaceutics Nano Lett. Org. Lett. ORG PROCESS RES DEV ORGANOMETALLICS J. Org. Chem. J. Phys. Chem. J. Phys. Chem. A J. Phys. Chem. B J. Phys. Chem. C J. Phys. Chem. Lett. Analyst Anal. Methods Biomater. Sci. Catal. Sci. Technol. Chem. Commun. Chem. Soc. Rev. CHEM EDUC RES PRACT CRYSTENGCOMM Dalton Trans. Energy Environ. Sci. ENVIRON SCI-NANO ENVIRON SCI-PROC IMP ENVIRON SCI-WAT RES Faraday Discuss. Food Funct. Green Chem. Inorg. Chem. Front. Integr. Biol. J. Anal. At. Spectrom. J. Mater. Chem. A J. Mater. Chem. B J. Mater. Chem. C Lab Chip Mater. Chem. Front. Mater. Horiz. MEDCHEMCOMM Metallomics Mol. Biosyst. Mol. Syst. Des. Eng. Nanoscale Nanoscale Horiz. Nat. Prod. Rep. New J. Chem. Org. Biomol. Chem. Org. Chem. Front. PHOTOCH PHOTOBIO SCI PCCP Polym. Chem.
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
0
微信
客服QQ
Book学术公众号 扫码关注我们
反馈
×
意见反馈
请填写您的意见或建议
请填写您的手机或邮箱
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
现在去查看 取消
×
提示
确定
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1