Pub Date : 2019-08-20DOI: 10.12962/j24068535.v17i2.a892
Muhammad Riduwan, Chastine Fatichah, Anny Yuniarti
Jumlah penelitian di dunia mengalami perkembangan yang pesat, setiap tahun berbagai peneliti dari penjuru dunia menghasilkan karya ilmiah seperti makalah, jurnal, buku dsb. Metode klasterisasi dapat digunakan untuk mengelompokkan dokumen karya ilmiah ke dalam suatu kelompok tertentu berdasarkan relevansi antar topik. Klasterisasi pada dokumen memiliki karakteristik yang berbeda karena tingkat kemiripan antar dokumen dipengaruhi oleh kata-kata pembentuknya. Beberapa metode klasterisasi kurang memperhatikan nilai semantik dari kata. Sehingga klaster yang terbentuk kurang merepresentasikan isi topik dokumen. Klasterisasi dokumen teks masih memiliki kemungkinan adanya outlier karena pemilihan fitur teks yang tidak optimal. Oleh karena itu dibutuhkan pemrosesan data yang tepat serta metode yang mengoptimalkan hasil klaster. Penelitian ini mengusulkan metode klasterisasi dokumen menggunakan Weighted K-Means yang dipadukan dengan Maximum Common Subgraph. Weighted k-means digunakan untuk klasterisasi awal dokumen berdasarkan kata-kata yang diekstraksi. Pembentukan Weighted K-Means berdasarkan perhitungan Word2Vec dan TextRank dari kata-kata dalam dokumen. Maximum common subgraph merupakan tahap pembentukan graf yang digunakan dalam penggabungan klaster untuk menghasilkan klaster baru yang lebih optimal. pembentukan graf dilakukan dengan perhitungan nilai Word2vec dan Co-occurrence dari klaster. Representasi topik dokumen tiap klaster dapat dihasilkan dari pemodelan topik Latent Dirichlet Allocation (LDA). Pengujian dilakukan dengan menggunakan dataset artikel ilmiah dari Scopus. Hasil dari analisis Koherensi topik menunjukkan nilai koherensi usulan metode adalah 0.532 pada dataset 1 yang bersifat homogen dan 0.472 pada dataset 2 yang bersifat heterogen.
{"title":"KLASTERISASI DOKUMEN MENGGUNAKAN WEIGHTED K-MEANS BERDASARKAN RELEVANSI TOPIK","authors":"Muhammad Riduwan, Chastine Fatichah, Anny Yuniarti","doi":"10.12962/j24068535.v17i2.a892","DOIUrl":"https://doi.org/10.12962/j24068535.v17i2.a892","url":null,"abstract":"Jumlah penelitian di dunia mengalami perkembangan yang pesat, setiap tahun berbagai peneliti dari penjuru dunia menghasilkan karya ilmiah seperti makalah, jurnal, buku dsb. Metode klasterisasi dapat digunakan untuk mengelompokkan dokumen karya ilmiah ke dalam suatu kelompok tertentu berdasarkan relevansi antar topik. Klasterisasi pada dokumen memiliki karakteristik yang berbeda karena tingkat kemiripan antar dokumen dipengaruhi oleh kata-kata pembentuknya. Beberapa metode klasterisasi kurang memperhatikan nilai semantik dari kata. Sehingga klaster yang terbentuk kurang merepresentasikan isi topik dokumen. Klasterisasi dokumen teks masih memiliki kemungkinan adanya outlier karena pemilihan fitur teks yang tidak optimal. Oleh karena itu dibutuhkan pemrosesan data yang tepat serta metode yang mengoptimalkan hasil klaster. Penelitian ini mengusulkan metode klasterisasi dokumen menggunakan Weighted K-Means yang dipadukan dengan Maximum Common Subgraph. Weighted k-means digunakan untuk klasterisasi awal dokumen berdasarkan kata-kata yang diekstraksi. Pembentukan Weighted K-Means berdasarkan perhitungan Word2Vec dan TextRank dari kata-kata dalam dokumen. Maximum common subgraph merupakan tahap pembentukan graf yang digunakan dalam penggabungan klaster untuk menghasilkan klaster baru yang lebih optimal. pembentukan graf dilakukan dengan perhitungan nilai Word2vec dan Co-occurrence dari klaster. Representasi topik dokumen tiap klaster dapat dihasilkan dari pemodelan topik Latent Dirichlet Allocation (LDA). Pengujian dilakukan dengan menggunakan dataset artikel ilmiah dari Scopus. Hasil dari analisis Koherensi topik menunjukkan nilai koherensi usulan metode adalah 0.532 pada dataset 1 yang bersifat homogen dan 0.472 pada dataset 2 yang bersifat heterogen.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-08-20","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"42004341","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-08-20DOI: 10.12962/j24068535.v17i2.a825
Chaulina Alfianti Oktavia, Rakhmad Maulidi
This study discusses an application of fuzzy logic in educational game. This game requires a fast player response. We made this game in order to raise children awareness to encounter strangers. In this game, strangers are enemies in the form of hand drawings. The main characters in this game are boy and girl. The player can choose a character as desired. Each selected character has a different level. At each level, there is a level of difficulty based on the ease of passing enemies to reach the goal. The player would win the game once he/she manages to escape from strangers and arrives at home. Each level of the game has an enemy who tries to approach the player. If the enemy caught by the player, it will get consequences according to the fuzzy rules that applied to the game. The application of fuzzy logic in this game is to regulate the form of reward that will receive by the player. The basis for determining reward is the living conditions, time, and scores obtained by the player. In this research, we use fuzzy Sugeno logic for giving rewards. We conclude that fuzzy logic applies to our educational game.
{"title":"PENERAPAN LOGIKA FUZZY SUGENO UNTUK PENENTUAN REWARD PADA GAME EDUKASI AKU BISA","authors":"Chaulina Alfianti Oktavia, Rakhmad Maulidi","doi":"10.12962/j24068535.v17i2.a825","DOIUrl":"https://doi.org/10.12962/j24068535.v17i2.a825","url":null,"abstract":"This study discusses an application of fuzzy logic in educational game. This game requires a fast player response. We made this game in order to raise children awareness to encounter strangers. In this game, strangers are enemies in the form of hand drawings. The main characters in this game are boy and girl. The player can choose a character as desired. Each selected character has a different level. At each level, there is a level of difficulty based on the ease of passing enemies to reach the goal. The player would win the game once he/she manages to escape from strangers and arrives at home. Each level of the game has an enemy who tries to approach the player. If the enemy caught by the player, it will get consequences according to the fuzzy rules that applied to the game. The application of fuzzy logic in this game is to regulate the form of reward that will receive by the player. The basis for determining reward is the living conditions, time, and scores obtained by the player. In this research, we use fuzzy Sugeno logic for giving rewards. We conclude that fuzzy logic applies to our educational game.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-08-20","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"45178120","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-08-20DOI: 10.12962/j24068535.v17i2.a857
Lafnidita Farosanti, Chastine Fatichah
Diabetic Retinopathi adalah kelainan pembuluh darah retina pada mata yang diakibatkan komplikasi penyakit diabetes. Deteksi lebih dini diperlukan agar kelainan ini dapat ditangani secara cepat dan tepat. Kelainan ini ditandai dengan melemahnya bagian pembuluh darah tipis akibat tersumbatnya aliran darah kemudian menyebabkan bengkak pada mata bahkan kebutaan. Oleh karena itu diperlukan metode analisa pembuluh darah retina melalui proses segmentasi pembuluh darah terutama pada bagian penting yaitu pembuluh darah tipis. Peneliti mengusulkan penggabungan metode perbaikan pembuluh darah tipis atau yang dikenal dengan Thin Vessel Enhancement dan Fuzzy Entropy. Thin Vessel Enhancement berfungsi untuk memperbaiki citra agar dapat mengekstrak lebih banyak bagian pembuluh darah khususnya pembluh darah tipis, sedangkan Fuzzy Entropy dapat menentukan nilai optimal threshold berdasarkan nilai entropy pada membership function. Segmentasi yang dihasilkan dibagi menjadi 3 kategori yaitu pembuluh darah utama, medium, dan tipis. Uji coba dilakukan terhadap metode Thin Vessel Enhancement menggunakan 1 kernel dan Fuzzy Entropy dari nilai threshold ke-1 maka diperoleh nilai accuracy, sensitivity, dan specivicity sebesar 94.81%, 66.83%, dan 97.51%.
{"title":"Perbaikan Segmentasi Pembuluh Darah Tipis Pada Citra Retina Menggunakan Fuzzy Entropy","authors":"Lafnidita Farosanti, Chastine Fatichah","doi":"10.12962/j24068535.v17i2.a857","DOIUrl":"https://doi.org/10.12962/j24068535.v17i2.a857","url":null,"abstract":"Diabetic Retinopathi adalah kelainan pembuluh darah retina pada mata yang diakibatkan komplikasi penyakit diabetes. Deteksi lebih dini diperlukan agar kelainan ini dapat ditangani secara cepat dan tepat. Kelainan ini ditandai dengan melemahnya bagian pembuluh darah tipis akibat tersumbatnya aliran darah kemudian menyebabkan bengkak pada mata bahkan kebutaan. Oleh karena itu diperlukan metode analisa pembuluh darah retina melalui proses segmentasi pembuluh darah terutama pada bagian penting yaitu pembuluh darah tipis. Peneliti mengusulkan penggabungan metode perbaikan pembuluh darah tipis atau yang dikenal dengan Thin Vessel Enhancement dan Fuzzy Entropy. Thin Vessel Enhancement berfungsi untuk memperbaiki citra agar dapat mengekstrak lebih banyak bagian pembuluh darah khususnya pembluh darah tipis, sedangkan Fuzzy Entropy dapat menentukan nilai optimal threshold berdasarkan nilai entropy pada membership function. Segmentasi yang dihasilkan dibagi menjadi 3 kategori yaitu pembuluh darah utama, medium, dan tipis. Uji coba dilakukan terhadap metode Thin Vessel Enhancement menggunakan 1 kernel dan Fuzzy Entropy dari nilai threshold ke-1 maka diperoleh nilai accuracy, sensitivity, dan specivicity sebesar 94.81%, 66.83%, dan 97.51%.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-08-20","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"45155408","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-08-20DOI: 10.12962/j24068535.v17i2.a791
Yandhy Raka Mulyawan, Caecilia Citra Lestari
Banyak ibu rumah tangga yang kebingungan untuk menentukan masakan apa yang akan mereka masak sehingga bahan makanan yang mereka miliki menjadi rusak akibat tidak kunjung dimasak. Sebagian besar ibu rumah tangga mendapatkan ide resep dari website resep karena mudah untuk diakses dan memiliki resep yang cukup lengkap, namun kelemahannya kebanyakan dari website resep tidak memiliki fitur untuk pencarian resep berdasarkan bahan-bahan yang dimiliki. Aplikasi telepon genggam dipilih untuk memecahkan masalah tersebut. Pada penelitian ini penulis akan membuat rancang bangun sistem rekomendasi resep masakan berdasarkan bahan baku dengan menggunakan algoritma penyaringan berbasis konten (CBFA). Algoritma ini merekomendasikan resep yang memiliki kesamaan dengan bahan makanan yang dimasukkan oleh pengguna. Aplikasi dibuat menggunakan file PHP untuk memproses data resep, seperti query data, mengecek data yang sama, menentukan weight serta menghitung dan mengurutkan resep menurut CBFA. Hasil dari pengujian menunjukkan bahwa rekomendasi resep sudah sesuai dengan kekuatan 71%.
{"title":"RANCANG BANGUN SISTEM REKOMENDASI RESEP MASAKAN BERDASARKAN BAHAN BAKU DENGAN MENGGUNAKAN ALGORITMA PENYARINGAN BERBASIS KONTEN","authors":"Yandhy Raka Mulyawan, Caecilia Citra Lestari","doi":"10.12962/j24068535.v17i2.a791","DOIUrl":"https://doi.org/10.12962/j24068535.v17i2.a791","url":null,"abstract":"Banyak ibu rumah tangga yang kebingungan untuk menentukan masakan apa yang akan mereka masak sehingga bahan makanan yang mereka miliki menjadi rusak akibat tidak kunjung dimasak. Sebagian besar ibu rumah tangga mendapatkan ide resep dari website resep karena mudah untuk diakses dan memiliki resep yang cukup lengkap, namun kelemahannya kebanyakan dari website resep tidak memiliki fitur untuk pencarian resep berdasarkan bahan-bahan yang dimiliki. Aplikasi telepon genggam dipilih untuk memecahkan masalah tersebut. Pada penelitian ini penulis akan membuat rancang bangun sistem rekomendasi resep masakan berdasarkan bahan baku dengan menggunakan algoritma penyaringan berbasis konten (CBFA). Algoritma ini merekomendasikan resep yang memiliki kesamaan dengan bahan makanan yang dimasukkan oleh pengguna. Aplikasi dibuat menggunakan file PHP untuk memproses data resep, seperti query data, mengecek data yang sama, menentukan weight serta menghitung dan mengurutkan resep menurut CBFA. Hasil dari pengujian menunjukkan bahwa rekomendasi resep sudah sesuai dengan kekuatan 71%.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-08-20","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"48231896","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-08-20DOI: 10.12962/j24068535.v17i2.a823
L. Hakim, Siti Rochimah, Chastine Fatichah
Aspek kualitas kebutuhan non-fungsional merupakan salah satu faktor penting yang berperan dalam kesuksesan pengembangan perangkat lunak. Namun, mengidentifikasi aspek kualitas kebutuhan non-fungsional merupakan hal yang sulit untuk dilakukan. Karena aspek kualitas kebutuhan non-fungsional sering ditemukan tercampur dengan kebutuhan fungsional. Oleh karena itu dibutuhkan suatu cara untuk dapat mengidentifikasi aspek kualitas kebutuhan non-fungsional. Penelitian yang ada mampu mengidentifikasi aspek kebutuhan non-fungsional dengan melakukan klasifikasi. Akan tetapi, standar kualitas yang digunakan sebagai rujukan untuk melabeli kalimat kebutuhan masih menggunakan standar ISO/IEC 9126. ISO/IEC 9126 merupakan standar lama yang dirilis pada tahun 2001. Peneliti sebelumnya mengungkapkan ambiguitas dalam enam sub-atribut pada struktur hirarkis ISO/IEC 9126. Oleh karena itu, standar kualitas yang digunakan untuk melabeli kalimat kebutuhan pada penelitian ini adalah ISO/IEC 25010. Sedangkan metode klasifikasi yang digunakan adalah FSKNN. Metode klasifikasi yang digunakan diuji dengan menggunakan nilai tetangga terdekat 10, 20 dan 30. Pada penelitian ini metode FSKNN berhasil memeroleh nilai tertinggi berdasarkan ground truth pakar yaitu precision sebesar 22.55 dan recall 27.64.
{"title":"KLASIFIKASI KEBUTUHAN NON-FUNGSIONAL MENGGUNAKAN FSKNN BERBASIS ISO/IEC 25010","authors":"L. Hakim, Siti Rochimah, Chastine Fatichah","doi":"10.12962/j24068535.v17i2.a823","DOIUrl":"https://doi.org/10.12962/j24068535.v17i2.a823","url":null,"abstract":"Aspek kualitas kebutuhan non-fungsional merupakan salah satu faktor penting yang berperan dalam kesuksesan pengembangan perangkat lunak. Namun, mengidentifikasi aspek kualitas kebutuhan non-fungsional merupakan hal yang sulit untuk dilakukan. Karena aspek kualitas kebutuhan non-fungsional sering ditemukan tercampur dengan kebutuhan fungsional. Oleh karena itu dibutuhkan suatu cara untuk dapat mengidentifikasi aspek kualitas kebutuhan non-fungsional. Penelitian yang ada mampu mengidentifikasi aspek kebutuhan non-fungsional dengan melakukan klasifikasi. Akan tetapi, standar kualitas yang digunakan sebagai rujukan untuk melabeli kalimat kebutuhan masih menggunakan standar ISO/IEC 9126. ISO/IEC 9126 merupakan standar lama yang dirilis pada tahun 2001. Peneliti sebelumnya mengungkapkan ambiguitas dalam enam sub-atribut pada struktur hirarkis ISO/IEC 9126. Oleh karena itu, standar kualitas yang digunakan untuk melabeli kalimat kebutuhan pada penelitian ini adalah ISO/IEC 25010. Sedangkan metode klasifikasi yang digunakan adalah FSKNN. Metode klasifikasi yang digunakan diuji dengan menggunakan nilai tetangga terdekat 10, 20 dan 30. Pada penelitian ini metode FSKNN berhasil memeroleh nilai tertinggi berdasarkan ground truth pakar yaitu precision sebesar 22.55 dan recall 27.64.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-08-20","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"45729235","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-03-12DOI: 10.12962/J24068535.V17I1.A717
Harfebi Fryonanda, Heru Sokoco, Yani Nurhadryani
Teknologi informasi (IT) dapat memperkuat organisasi. Termasuk Institut Pertanian Bogor (IPB) yang merupakan organisasi pendidikan tinggi. IPB telah memiliki sistem informasi yang terdiri dari 36 aplikasi. Infrastruktur yang memadai merupakan salah satu kunci kesuksesan untuk mendapatkan kinerja dan pelayanan TI yang baik. kebutuhan infrastruktur dapat dipenuhi dengan melakukan evaluasi terhadap tatakelola TI. Penelitian ini melakukan evaluasi tatakelola TI dengan mengukur tingkat kematangan tatakelola TI, dengan menggunakan framework COBIT 5 dan tingkat kepuasan pengguna layanan TI, dengan menggunakan serqual model. Tingkat kematangan TI menggunakan 13 proses pada COBIT 5 yaitu: EDM04,APO01, APO07, APO12, APO13, BAI04, BAI06, BAI09, BAI10, DSS01, DSS03, DSS05, dan MEA01. Tingkat kepuasan pengguna dilihat dari 4 dimensi yaitu: tangibles, reliability, responsiveness, dan assurance. Responden yang pada pengukuran kepuasan layanan TI adalah mahasiswa dan dosen sebanyak 100 responden. Hasil penelitian ini didapatkan tingkat kematangan tatakelola TI 2 proses berada pada level 0, 8 proses berada pada level 1, dan 3 proses berada pada level 2. Tingkat kepuasan pengguna terhadap layanan TI berada dibawah nilai harapan. Hasil tersebut dianalisis dengan matrik SWOT untuk melihat kekuatan, kelemahan, peluang dan ancaman. Kemudian disusun rekomendasi dengan mengacu kepada ITIL V3 2011
信息技术可以加强组织。包括高等教育组织茂物农业学院(IPB)。IPB拥有一个由36个应用程序组成的信息系统。良好的基础设施是获得良好绩效和提供良好it服务的关键之一。基础设施的需要可以通过对tatakelola TI的评估来满足。该研究通过测量tatakelola TI的成熟程度、使用5号框架和TI服务用户满意度、使用serqual模型进行tatakelola TI评估。TI的成熟水平使用了13种方法在COBIT 5中分别是:EDM04、APO01、APO07、APO07、APO13、BAI04、BAI09、BAI09、DSS01、DSS05和MEA01。用户满意度是通过四维来衡量的:tangibles,可靠性,response和保险。受访者对it服务的满意度是100名学生和讲师。这项研究的结果是tatakelola TI 2个过程在0级,8个过程在1级,3个过程在2级。用户对it服务的满意程度低于预期。测试结果以SWOT测试结果以发现优势、劣势、机会和威胁。然后起草推荐信,参考2011年的ITIL V3
{"title":"EVALUASI INFRASTRUKTUR TEKNOLOGI INFORMASI DENGAN COBIT 5 DAN ITIL V3","authors":"Harfebi Fryonanda, Heru Sokoco, Yani Nurhadryani","doi":"10.12962/J24068535.V17I1.A717","DOIUrl":"https://doi.org/10.12962/J24068535.V17I1.A717","url":null,"abstract":"Teknologi informasi (IT) dapat memperkuat organisasi. Termasuk Institut Pertanian Bogor (IPB) yang merupakan organisasi pendidikan tinggi. IPB telah memiliki sistem informasi yang terdiri dari 36 aplikasi. Infrastruktur yang memadai merupakan salah satu kunci kesuksesan untuk mendapatkan kinerja dan pelayanan TI yang baik. kebutuhan infrastruktur dapat dipenuhi dengan melakukan evaluasi terhadap tatakelola TI. Penelitian ini melakukan evaluasi tatakelola TI dengan mengukur tingkat kematangan tatakelola TI, dengan menggunakan framework COBIT 5 dan tingkat kepuasan pengguna layanan TI, dengan menggunakan serqual model. Tingkat kematangan TI menggunakan 13 proses pada COBIT 5 yaitu: EDM04,APO01, APO07, APO12, APO13, BAI04, BAI06, BAI09, BAI10, DSS01, DSS03, DSS05, dan MEA01. Tingkat kepuasan pengguna dilihat dari 4 dimensi yaitu: tangibles, reliability, responsiveness, dan assurance. Responden yang pada pengukuran kepuasan layanan TI adalah mahasiswa dan dosen sebanyak 100 responden. Hasil penelitian ini didapatkan tingkat kematangan tatakelola TI 2 proses berada pada level 0, 8 proses berada pada level 1, dan 3 proses berada pada level 2. Tingkat kepuasan pengguna terhadap layanan TI berada dibawah nilai harapan. Hasil tersebut dianalisis dengan matrik SWOT untuk melihat kekuatan, kelemahan, peluang dan ancaman. Kemudian disusun rekomendasi dengan mengacu kepada ITIL V3 2011","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":"1 1","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-03-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"41608472","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-03-12DOI: 10.12962/J24068535.V17I1.A820
F. H. Wattiheluw, Siti Rochimah, Chastine Fatichah
Evaluasi kualitas fungsional dan antar muka situs web e-commerce dari perspektif pengguna sangat penting untuk membangun atau mengembangkan situs web e-commerce yang memenuhi standar kualitas. Namun, untuk menilai kualitas fungsional dan antar muka dari situs web e-commerce sulit untuk didefinisikan sehingga membutuhkan model evaluasi perangkat lunak. Pentingnya evaluasi kualitas situs web e-commerce berdasarkan karakteristik perangkat lunak utnuk dapat dikembangkan dan menyesuaikan standar kualitas perangkat lunak. Penelitian ini mengusulkan sebuah model evaluasi kualitas situs web e-commerce berdasarkan karakteristik pada functional suitability, performance efficiency, reliability dan usability pada ISO/IEC 25010. Pada penelitian ini menggunakan metode Fuzzy Mamdani untuk menilai kualitas dari situs web e-commerce berdasarkan karakteristik dan pembobotan kepentingan karakteristik menggunakan metode Analytical Hierarchy Process. Model yang diusulkan diterapkan ke beberapa situs web e-commerce di Indonesia sebagai studi kasus untuk mengevaluasi tingkat kualitas perangkat lunak. Hasil yang didapat dari model evaluasi dapat membantu pengembang untuk merancang dan menggembangkan situs web e-commerce yang kualitas dengan tingkat accurasy 0,684%.
{"title":"KLASIFIKASI KUALITAS PERANGKAT LUNAK BERDASARKAN ISO/IEC 25010 MENGGUNAKAN AHP DAN FUZZY MAMDANI UNTUK SITUS WEB E-COMMERCE","authors":"F. H. Wattiheluw, Siti Rochimah, Chastine Fatichah","doi":"10.12962/J24068535.V17I1.A820","DOIUrl":"https://doi.org/10.12962/J24068535.V17I1.A820","url":null,"abstract":"Evaluasi kualitas fungsional dan antar muka situs web e-commerce dari perspektif pengguna sangat penting untuk membangun atau mengembangkan situs web e-commerce yang memenuhi standar kualitas. Namun, untuk menilai kualitas fungsional dan antar muka dari situs web e-commerce sulit untuk didefinisikan sehingga membutuhkan model evaluasi perangkat lunak. Pentingnya evaluasi kualitas situs web e-commerce berdasarkan karakteristik perangkat lunak utnuk dapat dikembangkan dan menyesuaikan standar kualitas perangkat lunak. Penelitian ini mengusulkan sebuah model evaluasi kualitas situs web e-commerce berdasarkan karakteristik pada functional suitability, performance efficiency, reliability dan usability pada ISO/IEC 25010. Pada penelitian ini menggunakan metode Fuzzy Mamdani untuk menilai kualitas dari situs web e-commerce berdasarkan karakteristik dan pembobotan kepentingan karakteristik menggunakan metode Analytical Hierarchy Process. Model yang diusulkan diterapkan ke beberapa situs web e-commerce di Indonesia sebagai studi kasus untuk mengevaluasi tingkat kualitas perangkat lunak. Hasil yang didapat dari model evaluasi dapat membantu pengembang untuk merancang dan menggembangkan situs web e-commerce yang kualitas dengan tingkat accurasy 0,684%.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-03-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"48501046","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-03-12DOI: 10.12962/J24068535.V17I1.A819
Yuna Sugianela, Nanik Suciati
Buku-buku kuno Bahasa Jawa memiliki konten kekayaan intelektual Indonesia seperti agama, linguistik, filosofi, mitos, pelajaran moral, hukum dan norma adat, kerajaan, cerita rakyat, sejarah, dan lain sebagainya. Tidak banyak yang mempelajari karya tersebut karena ditulis dengan Aksara Jawa dan tidak banyak yang memahami. Untuk membantu penerjemahan dokumen berbahasa Jawa dilakukan otomatisasi sistem penerjemahan. tahap penerjemahan terdiri dari segmentasi untuk mendapatkan karakter dari citra tulisan dalam naskah Aksara Jawa. Kemudian tiap karakater dikenali sebagai abjad. Dan yang terakhir adalah mengkombinasikan tulisan latin yang telah dikenali menjadi kata yang berarti. Penelitian yang membahas tentang pengenalan Aksara Jawa telah dilakukan, seperti fokus pada segmentasi karakter dan pengenalan Aksara Jawa. Pada penelitian sebelumnya dilakukan perbaikan pada metode segmentasi namun tetap mendapatkan hasil yang sama dalam hal akurasi kebenaran. Pada penelitian kali ini diusulkan metode baru pada tahap ekstraksi fitur, yaitu menggunakan metode Histogram of Oriented Gradient (HOG). Metode HOG banyak digunakan pada pengenalan wajah, hewan, dan deteksi citra kendaraan, dan lain-lain. Penelitian ini juga pernah diusulkan untuk mengenali tulisan tangan berbahasa Inggris dan Huruf Bengali dan mendapatkan hasil yang optimal. Pada penelitian ini didapatkan hasil akurasi pengenalan karakter Aksara Jawa sebesar 89,7%. Ekstraksi Fitur, Histogram of Oriented Gradient, Aksara Jawa
{"title":"EKSTRAKSI FITUR PADA PENGENALAN KARAKTER AKSARA JAWA BERBASIS HISTOGRAM OF ORIENTED GRADIENT","authors":"Yuna Sugianela, Nanik Suciati","doi":"10.12962/J24068535.V17I1.A819","DOIUrl":"https://doi.org/10.12962/J24068535.V17I1.A819","url":null,"abstract":"Buku-buku kuno Bahasa Jawa memiliki konten kekayaan intelektual Indonesia seperti agama, linguistik, filosofi, mitos, pelajaran moral, hukum dan norma adat, kerajaan, cerita rakyat, sejarah, dan lain sebagainya. Tidak banyak yang mempelajari karya tersebut karena ditulis dengan Aksara Jawa dan tidak banyak yang memahami. Untuk membantu penerjemahan dokumen berbahasa Jawa dilakukan otomatisasi sistem penerjemahan. tahap penerjemahan terdiri dari segmentasi untuk mendapatkan karakter dari citra tulisan dalam naskah Aksara Jawa. Kemudian tiap karakater dikenali sebagai abjad. Dan yang terakhir adalah mengkombinasikan tulisan latin yang telah dikenali menjadi kata yang berarti. Penelitian yang membahas tentang pengenalan Aksara Jawa telah dilakukan, seperti fokus pada segmentasi karakter dan pengenalan Aksara Jawa. Pada penelitian sebelumnya dilakukan perbaikan pada metode segmentasi namun tetap mendapatkan hasil yang sama dalam hal akurasi kebenaran. Pada penelitian kali ini diusulkan metode baru pada tahap ekstraksi fitur, yaitu menggunakan metode Histogram of Oriented Gradient (HOG). Metode HOG banyak digunakan pada pengenalan wajah, hewan, dan deteksi citra kendaraan, dan lain-lain. Penelitian ini juga pernah diusulkan untuk mengenali tulisan tangan berbahasa Inggris dan Huruf Bengali dan mendapatkan hasil yang optimal. Pada penelitian ini didapatkan hasil akurasi pengenalan karakter Aksara Jawa sebesar 89,7%. Ekstraksi Fitur, Histogram of Oriented Gradient, Aksara Jawa","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-03-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"45051866","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-03-12DOI: 10.12962/J24068535.V17I1.A824
B. J. Santoso, Tosca Yoel Connery
Recently, the development of the query-based preferences has received considerable attention from researchers and data users. One of the most popular preference-based queries is the skyline query, which will give a subset of superior records that are not dominated by any other records. As the developed version of skyline queries, a reverse skyline query rise. This query aims to get information about the query points that make a data or record as the part of result of their skyline query. Furthermore, data-oriented IT development requires scientists to be able to process data in all conditions. In the real world, there exist incomplete multidimensional data, both because of damage, loss, and privacy. In order to increase the usability over a data set, this study will discuss one of the problems in processing reverse skyline queries over incomplete data, namely the "why-not" problem. The considered solution to this "why-not" problem is advice and steps so that a query point that does not initially consider an incomplete data, as a result, can later make the record or incomplete data as part of the results. In this study, there will be further discussion about the dominance relationship between incomplete data along with the solution of the problem. Moreover, some performance evaluations are conducted to measure the level of efficiency and effectiveness.
{"title":"ANSWERING WHY-NOT QUESTIONS ON REVERSE SKYLINE QUERIES OVER INCOMPLETE DATA","authors":"B. J. Santoso, Tosca Yoel Connery","doi":"10.12962/J24068535.V17I1.A824","DOIUrl":"https://doi.org/10.12962/J24068535.V17I1.A824","url":null,"abstract":"Recently, the development of the query-based preferences has received considerable attention from researchers and data users. One of the most popular preference-based queries is the skyline query, which will give a subset of superior records that are not dominated by any other records. As the developed version of skyline queries, a reverse skyline query rise. This query aims to get information about the query points that make a data or record as the part of result of their skyline query. Furthermore, data-oriented IT development requires scientists to be able to process data in all conditions. In the real world, there exist incomplete multidimensional data, both because of damage, loss, and privacy. In order to increase the usability over a data set, this study will discuss one of the problems in processing reverse skyline queries over incomplete data, namely the \"why-not\" problem. The considered solution to this \"why-not\" problem is advice and steps so that a query point that does not initially consider an incomplete data, as a result, can later make the record or incomplete data as part of the results. In this study, there will be further discussion about the dominance relationship between incomplete data along with the solution of the problem. Moreover, some performance evaluations are conducted to measure the level of efficiency and effectiveness.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-03-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"45256419","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-03-12DOI: 10.12962/J24068535.V17I1.A785
Dian Septiani Santoso, R. V. H. Ginardi
Focused Web Crawler merupakan metode pencarian website yang sesuai dengan pencarian yang diinginkan oleh user. Untuk mendapatkan kecocokan yang baik, waktu yang dibutuhkan metode Focused Web Crawler lebih lama dibandingkan dengan metode pencarian web crawler pada umumnya yaitu algoritma Depth First Search (DFS) maupun Breadth First Search (BFS). Untuk mengatasi hal tersebut maka muncul sebuah ide yakni teknik pencarian Focused Web Crawler dengan menggunakan metode metaheuristic pencarian cuckoo yang dipadukan dengan pencarian pada data history pencarian yang disimpan. Namun dengan adanya penyimpanan data pada setiap kali pencarian link maka data akan semakin bertambah. Oleh karena itu diperlukan sebuah cara untuk mengurangi kebutuhan ruang penyimpanan. Cara yang dilakukan untuk mengurangi ruang penyimpanan dan tidak mengurangi nilai informasi dari data penyimpanan sebelumnya adalah dengan melakukan kompresi data. Dalam penelitian ini diusulkan metode kompresi data dengan melakukan kompresi multilevel menggunakan dua metode kompresi yaitu pengurangan prefix dan postfix kata dan kompresi string berbasis kamus dengan melakukan pembuatan indeks kamus kata. Hasil kompresi string kamus kata berupa data encode. Untuk menguji hasil dari kompresi data yaitu dengan melakukan perbandingan hasil pencarian link menggunakan metode Knutt Morris Pratt (KMP) dari data yang belum terkompresi dengan data yang telah terkompresi. Hasilnya didapatkan bahwa maksimum presisi dengan nilai 1 dan recall sebesar 0,73. Dari hasil percobaan metode, didapatkan bahwa rasio kompresi file rata-rata adalah sebesar 36,4%.
Focused Web Crawler是一种与用户想要的搜索相匹配的Web搜索方法。为了实现良好的匹配,Focused Web Crawler方法比网络爬虫搜索方法耗时更长。通常情况下,搜索方法是深度优先搜索(DFS)算法或广度优先搜索(BFS)。为了克服这一点,出现了一个想法,即使用杜鹃搜索的元启发式方法与存储的搜索历史数据的搜索相结合的Focused Web Crawler搜索技术。但随着每次搜索链接时都存储数据,数据就会增加。因此,它需要一种方法来减少对存储空间的需求。减少存储空间而不减少来自先前存储数据的信息值的方法是压缩数据。在这项研究中,它提出了一种通过使用两种压缩方法进行多级压缩来压缩数据的方法,即前缀和后缀词的减少和通过创建单词索引来压缩基于字符串的字典。字符串压缩结果是经过编码的数据。通过比较使用Knutt Morris Pratt(KMP)方法从未压缩的数据与压缩数据进行链接搜索的结果来测试数据压缩的结果。结果是,最大精度值为1,召回率为0.73。从测试方法中发现,平均文件压缩率为36.4%。
{"title":"KOMPRESI MULTILEVEL PADA METAHEURISTIC FOCUSED WEB CRAWLER","authors":"Dian Septiani Santoso, R. V. H. Ginardi","doi":"10.12962/J24068535.V17I1.A785","DOIUrl":"https://doi.org/10.12962/J24068535.V17I1.A785","url":null,"abstract":"Focused Web Crawler merupakan metode pencarian website yang sesuai dengan pencarian yang diinginkan oleh user. Untuk mendapatkan kecocokan yang baik, waktu yang dibutuhkan metode Focused Web Crawler lebih lama dibandingkan dengan metode pencarian web crawler pada umumnya yaitu algoritma Depth First Search (DFS) maupun Breadth First Search (BFS). Untuk mengatasi hal tersebut maka muncul sebuah ide yakni teknik pencarian Focused Web Crawler dengan menggunakan metode metaheuristic pencarian cuckoo yang dipadukan dengan pencarian pada data history pencarian yang disimpan. Namun dengan adanya penyimpanan data pada setiap kali pencarian link maka data akan semakin bertambah. Oleh karena itu diperlukan sebuah cara untuk mengurangi kebutuhan ruang penyimpanan. Cara yang dilakukan untuk mengurangi ruang penyimpanan dan tidak mengurangi nilai informasi dari data penyimpanan sebelumnya adalah dengan melakukan kompresi data. Dalam penelitian ini diusulkan metode kompresi data dengan melakukan kompresi multilevel menggunakan dua metode kompresi yaitu pengurangan prefix dan postfix kata dan kompresi string berbasis kamus dengan melakukan pembuatan indeks kamus kata. Hasil kompresi string kamus kata berupa data encode. Untuk menguji hasil dari kompresi data yaitu dengan melakukan perbandingan hasil pencarian link menggunakan metode Knutt Morris Pratt (KMP) dari data yang belum terkompresi dengan data yang telah terkompresi. Hasilnya didapatkan bahwa maksimum presisi dengan nilai 1 dan recall sebesar 0,73. Dari hasil percobaan metode, didapatkan bahwa rasio kompresi file rata-rata adalah sebesar 36,4%.","PeriodicalId":31796,"journal":{"name":"JUTI Jurnal Ilmiah Teknologi Informasi","volume":" ","pages":""},"PeriodicalIF":0.0,"publicationDate":"2019-03-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"42699481","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}