Pub Date : 2019-10-02DOI: 10.32913/MIC-ICT-RESEARCH.V2019.N1.885
B. Lithgow, Z. Moussavi
Background: There are physiological changes in pathologies such as Alzheimer’s Disease (AD) within the lower vestibuloacoustic system, which may be potentially useful when used as neurodegeneration features. We hypothesize two Electrovestibulography feature types (Field Potential (FP) shape and the Firing pattern of detected FP’s) may have utility as Neurodegeneration features. Our long term objective is to use a population of Parkinson’s Disease (PD), AD, Post-Concussion Syndrome (PCS), Bipolar Disorder (BD) and Major Depressive Disorder (MDD) patients together with individual pathology-wise age and gender matched control cohorts to determine the degree to which each of these pathologies varies from controls and in proportion to the level of Neurodegeneration often associated (either temporarily or permanently) with each pathology. However, before such a comparison can be made it is necessary to ensure the various populations recorded across different countries are comparable. This paper determines which populations are comparable. Methods: An initial comparison of AD (with N = 16) and a best matched healthy control population (with specific age/gender/recording site/electrode matched controls) from a pool of 112 controls produced two EVestG features (FP shape and FP firing pattern). These features were examined for their variability with respect to electrode type, age, gender, powerline frequency and environmental factors. Results: Age and gender did not have a significant impact on the features. Powerline and environmental artefacts could be accounted for by filtering; thus, they did not significantly affect the features measured. However, electrode type had a significant effect on the extracted features. Conclusions: For the two EVestG features tested only electrode type had a significant effect on the recordings, and hence the extracted features. Thus, only populations with the same electrode type can be compared.
{"title":"Effect of Multi-site Variabilities on Electrovestibulography: Environmental and Physical Factors","authors":"B. Lithgow, Z. Moussavi","doi":"10.32913/MIC-ICT-RESEARCH.V2019.N1.885","DOIUrl":"https://doi.org/10.32913/MIC-ICT-RESEARCH.V2019.N1.885","url":null,"abstract":"Background: There are physiological changes in pathologies such as Alzheimer’s Disease (AD) within the lower vestibuloacoustic system, which may be potentially useful when used as neurodegeneration features. We hypothesize two Electrovestibulography feature types (Field Potential (FP) shape and the Firing pattern of detected FP’s) may have utility as Neurodegeneration features. Our long term objective is to use a population of Parkinson’s Disease (PD), AD, Post-Concussion Syndrome (PCS), Bipolar Disorder (BD) and Major Depressive Disorder (MDD) patients together with individual pathology-wise age and gender matched control cohorts to determine the degree to which each of these pathologies varies from controls and in proportion to the level of Neurodegeneration often associated (either temporarily or permanently) with each pathology. However, before such a comparison can be made it is necessary to ensure the various populations recorded across different countries are comparable. This paper determines which populations are comparable. \u0000Methods: An initial comparison of AD (with N = 16) and a best matched healthy control population (with specific age/gender/recording site/electrode matched controls) from a pool of 112 controls produced two EVestG features (FP shape and FP firing pattern). These features were examined for their variability with respect to electrode type, age, gender, powerline frequency and environmental factors. \u0000Results: Age and gender did not have a significant impact on the features. Powerline and environmental artefacts could be accounted for by filtering; thus, they did not significantly affect the features measured. However, electrode type had a significant effect on the extracted features. \u0000Conclusions: For the two EVestG features tested only electrode type had a significant effect on the recordings, and hence the extracted features. Thus, only populations with the same electrode type can be compared.","PeriodicalId":432355,"journal":{"name":"Research and Development on Information and Communication Technology","volume":"50 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-10-02","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"125484118","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-10-02DOI: 10.32913/MIC-ICT-RESEARCH.V2019.N1.852
Vũ Văn Trường, Bùi Thu Lâm, N. Trung
In this paper, the authors propose a dual-population co-evolutionary approach using ensemble learning approach (E-SOCA) to simultaneously solve both feature subset selection and optimal classifier design. Different from previous studies where each population retains only one best individual (Elite) after co-evolution, in this study, an elite community will be stored and calculated together through an ensemble learning algorithm to produce the final classification result. Experimental results on standard UCI problems with a variety of input features ranging from small to large sizes shows that the proposed algorithm results in more accuracy and stability than traditional algorithms.
{"title":"An Ensemble Co-Evolutionary based Algorithm for Classification Problems","authors":"Vũ Văn Trường, Bùi Thu Lâm, N. Trung","doi":"10.32913/MIC-ICT-RESEARCH.V2019.N1.852","DOIUrl":"https://doi.org/10.32913/MIC-ICT-RESEARCH.V2019.N1.852","url":null,"abstract":"In this paper, the authors propose a dual-population co-evolutionary approach using ensemble learning approach (E-SOCA) to simultaneously solve both feature subset selection and optimal classifier design. Different from previous studies where each population retains only one best individual (Elite) after co-evolution, in this study, an elite community will be stored and calculated together through an ensemble learning algorithm to produce the final classification result. Experimental results on standard UCI problems with a variety of input features ranging from small to large sizes shows that the proposed algorithm results in more accuracy and stability than traditional algorithms.","PeriodicalId":432355,"journal":{"name":"Research and Development on Information and Communication Technology","volume":"1 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-10-02","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"130855092","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-10-02DOI: 10.32913/MIC-ICT-RESEARCH.V2019.N1.854
Huỳnh Hoàng Long, Nguyễn Hữu Đức, Le Trong Vinh
Cloud computing has burst into the trend that a cloud application is developed and provided by a specific cloud provider in form of SaaS (Software as a Service). One limitation of this approach is the vendor lock-in problem, in which the consumers of a SaaS are tightly bound to the ecosystem from the cloud provider in both senses of software development environment and computation resource. Toward solving this problem, in this paper, we propose Composable Application Model (CAM) which formalizes a cloud software as a composition of software components, each of them can be independently developed and can be separately deployed on different cloud platform. We show that our prosed model could be useful for verifying correctness of software composition as well as for checking the correct deployment of a software composition on specified cloud platforms. As an illustration, we experimentally transform our proposed application model into TOSCA application template, a standardized specification for creating multi-cloud application.
{"title":"Matchmaking for Multi-Cloud Marketplace Application","authors":"Huỳnh Hoàng Long, Nguyễn Hữu Đức, Le Trong Vinh","doi":"10.32913/MIC-ICT-RESEARCH.V2019.N1.854","DOIUrl":"https://doi.org/10.32913/MIC-ICT-RESEARCH.V2019.N1.854","url":null,"abstract":"Cloud computing has burst into the trend that a cloud application is developed and provided by a specific cloud provider in form of SaaS (Software as a Service). One limitation of this approach is the vendor lock-in problem, in which the consumers of a SaaS are tightly bound to the ecosystem from the cloud provider in both senses of software development environment and computation resource. Toward solving this problem, in this paper, we propose Composable Application Model (CAM) which formalizes a cloud software as a composition of software components, each of them can be independently developed and can be separately deployed on different cloud platform. We show that our prosed model could be useful for verifying correctness of software composition as well as for checking the correct deployment of a software composition on specified cloud platforms. As an illustration, we experimentally transform our proposed application model into TOSCA application template, a standardized specification for creating multi-cloud application.","PeriodicalId":432355,"journal":{"name":"Research and Development on Information and Communication Technology","volume":"1 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-10-02","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"130341671","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-10-02DOI: 10.32913/mic-ict-research-vn.v2019.n1.889
Kiều Thành Chung, Nguyễn Tiến Thành, N. Vân
Bài báo này giới thiệu một cách tiếp cận riêng biệt để thiết kế công cụ phần mềm chuyên dụng cho đánh giá hiệu năng mạng liên kết kích thước lớn, nhờ đề xuất cơ chế mô phỏng giản lược nhưng vẫn đảm bảo đánh giá được những đặc tính chính của các tô-pô và thuật toán định tuyến mới. Chúng tôi đề xuất kiến trúc tổng thể, trong đó cho phép thực hiện thí nghiệm với các tô-pô được định nghĩa sẵn hoặc tự định nghĩa, với nhiều kịch bản hay cấu hình traffic khác nhau,và hỗ trợ xây dựng tô-pô hiệu năng cao với các tính năng đánh giá cách triển khai cài đặt trên mặt sàn thực tế cho trước. Với bản phần mềm công cụ đầu tiên xây dựng trên kiến trúc đề xuất này chúng tôi đã tiến hành một số thực nghiệm với một số tô-pô mạng loại mới có kích thước hàng chục nghìn node trong khoảng thời gian ngắn khả quan, nhanh hơn khá nhiều lần so với khi tiến hành trên các công cụ mô phỏng phổ quát quen thuộc như NS3, OMNET++.
{"title":"Một tiếp cận thiết kế công cụ phần mềm đánh giá hiệu năng mạng liên kết kích thước lớn","authors":"Kiều Thành Chung, Nguyễn Tiến Thành, N. Vân","doi":"10.32913/mic-ict-research-vn.v2019.n1.889","DOIUrl":"https://doi.org/10.32913/mic-ict-research-vn.v2019.n1.889","url":null,"abstract":"Bài báo này giới thiệu một cách tiếp cận riêng biệt để thiết kế công cụ phần mềm chuyên dụng cho đánh giá hiệu năng mạng liên kết kích thước lớn, nhờ đề xuất cơ chế mô phỏng giản lược nhưng vẫn đảm bảo đánh giá được những đặc tính chính của các tô-pô và thuật toán định tuyến mới. Chúng tôi đề xuất kiến trúc tổng thể, trong đó cho phép thực hiện thí nghiệm với các tô-pô được định nghĩa sẵn hoặc tự định nghĩa, với nhiều kịch bản hay cấu hình traffic khác nhau,và hỗ trợ xây dựng tô-pô hiệu năng cao với các tính năng đánh giá cách triển khai cài đặt trên mặt sàn thực tế cho trước. Với bản phần mềm công cụ đầu tiên xây dựng trên kiến trúc đề xuất này chúng tôi đã tiến hành một số thực nghiệm với một số tô-pô mạng loại mới có kích thước hàng chục nghìn node trong khoảng thời gian ngắn khả quan, nhanh hơn khá nhiều lần so với khi tiến hành trên các công cụ mô phỏng phổ quát quen thuộc như NS3, OMNET++.","PeriodicalId":432355,"journal":{"name":"Research and Development on Information and Communication Technology","volume":"22 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-10-02","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"116807964","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-10-01DOI: 10.32913/mic-ict-research-vn.v2019.n1.883
Nguyễn Lê Vân, Nguyễn Bá Cao, Trần Xuân Nam
Bài báo này phân tích phẩm chất và dung lượng hệ thống đa đầu vào – đa đầu ra sử dụng kỹ thuật điều chế không gian và truyền dẫn song công trên cùng băng tần. Chúng tôi đã xác định biểu thức chính xác của xác suất dừng , xác suất lỗi ký hiệu và dung lượng trung bình của hệ thống khảo sát. Trên cơ sở đó, phẩm chất hệ thống đã được phân tích, đánh giá toàn diện dưới sự ảnh hưởng của nhiễu dư do hoạt động của truyền dẫn song công gây nên. Đồng thời kết quả được so sánh với hệ thống đa đầu vào – đa đầu ra kết hợp điều chế không gian truyền thống (hệ thống bán song công). Cuối cùng, sự đúng đắn của kết quả phân tích được kiểm chứng bằng mô phỏng Monte-Carlo.
{"title":"Phân tích phẩm chất, dung lượng hệ thống điều chế không gian song công trên cùng băng tần","authors":"Nguyễn Lê Vân, Nguyễn Bá Cao, Trần Xuân Nam","doi":"10.32913/mic-ict-research-vn.v2019.n1.883","DOIUrl":"https://doi.org/10.32913/mic-ict-research-vn.v2019.n1.883","url":null,"abstract":"Bài báo này phân tích phẩm chất và dung lượng hệ thống đa đầu vào – đa đầu ra sử dụng kỹ thuật điều chế không gian và truyền dẫn song công trên cùng băng tần. Chúng tôi đã xác định biểu thức chính xác của xác suất dừng , xác suất lỗi ký hiệu và dung lượng trung bình của hệ thống khảo sát. Trên cơ sở đó, phẩm chất hệ thống đã được phân tích, đánh giá toàn diện dưới sự ảnh hưởng của nhiễu dư do hoạt động của truyền dẫn song công gây nên. Đồng thời kết quả được so sánh với hệ thống đa đầu vào – đa đầu ra kết hợp điều chế không gian truyền thống (hệ thống bán song công). Cuối cùng, sự đúng đắn của kết quả phân tích được kiểm chứng bằng mô phỏng Monte-Carlo.","PeriodicalId":432355,"journal":{"name":"Research and Development on Information and Communication Technology","volume":"33 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-10-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"134242880","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-09-30DOI: 10.32913/mic-ict-research-vn.v2019.n1.876
Lâm Sinh Công
Kỹ thuật tái sử dụng tần số theo tỉ lệ được coi là một trong những kỹ thuật then chốt để tăng dung lượng mạng của hệ thống mạng LTE (4G, 5G). Bên cạnh đó, kỹ thuật song công phân chia thời gian thích nghi (TDD thích nghi) cũng được coi là một kỹ thuật tiên tiến trong hệ thông tin di động thế hệ mới 5G. Tuy nhiên, việc đánh giá hiệu suất hệ thống mạng LTE sử dụng đồng thời hai kỹ thuật này chưa được nghiên cứu một cách đầy đủ. Trong bài báo này, chúng ta sử dụng mô hình xác suất thống kê để mô hình hóa hai kỹ thuật này trong mạng LTE. Tham số dùng để đánh giá trong bài báo là xác suất phủ sóng của người dùng biên (cách xa trạm phục vụ). Bài báo đưa ra biểu thức xác suất phủ sóng của người dùng đồng biên thời phân tích ảnh hưởng của các tham số liên quan đến xác suất này. Bài báo đưa ra một kết luận quan trọng cho việc thiết kế mạng: để tăng xác suất phủ sóng của người dùng biên, việc giảm số lượng trạm cơ sở sử dụng cùng một sóng mang tại cùng một thời điểm mang lại hiệu quả cao hơn việc tăng số lượng trạm phát trong mạng.
{"title":"Đánh giá hiệu suất mạng LTE sử dụng kỹ thuật TDD linh động","authors":"Lâm Sinh Công","doi":"10.32913/mic-ict-research-vn.v2019.n1.876","DOIUrl":"https://doi.org/10.32913/mic-ict-research-vn.v2019.n1.876","url":null,"abstract":"Kỹ thuật tái sử dụng tần số theo tỉ lệ được coi là một trong những kỹ thuật then chốt để tăng dung lượng mạng của hệ thống mạng LTE (4G, 5G). Bên cạnh đó, kỹ thuật song công phân chia thời gian thích nghi (TDD thích nghi) cũng được coi là một kỹ thuật tiên tiến trong hệ thông tin di động thế hệ mới 5G. Tuy nhiên, việc đánh giá hiệu suất hệ thống mạng LTE sử dụng đồng thời hai kỹ thuật này chưa được nghiên cứu một cách đầy đủ. Trong bài báo này, chúng ta sử dụng mô hình xác suất thống kê để mô hình hóa hai kỹ thuật này trong mạng LTE. Tham số dùng để đánh giá trong bài báo là xác suất phủ sóng của người dùng biên (cách xa trạm phục vụ). Bài báo đưa ra biểu thức xác suất phủ sóng của người dùng đồng biên thời phân tích ảnh hưởng của các tham số liên quan đến xác suất này. Bài báo đưa ra một kết luận quan trọng cho việc thiết kế mạng: để tăng xác suất phủ sóng của người dùng biên, việc giảm số lượng trạm cơ sở sử dụng cùng một sóng mang tại cùng một thời điểm mang lại hiệu quả cao hơn việc tăng số lượng trạm phát trong mạng.","PeriodicalId":432355,"journal":{"name":"Research and Development on Information and Communication Technology","volume":"203 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-09-30","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"134445574","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-06-25DOI: 10.32913/MIC-ICT-RESEARCH.V2019.N1.863
L. Huyen, TranXuan Nam
In this paper, a new Space-Time Block Coded Spatial Modulation (SM) scheme based on the Golden Code, called the In this paper, we evaluate the symbol error performance of an extended Index Modulation for Orthogonal Frequency Division Multiplexing (IM-OFDM), namely repeated index modulation-OFDM with coordinated interleaving (abbreviated as ReCI), over the Nakagami-m fading channel. The ReCI system attains higher error performance than the conventional IM-OFDM with coordinate interleaving (IMOFDM-CI). In order to investigate the system performance over the Nakagami-m fading channel, we derive the closed-form expressions for the symbol error probability (SEP) and the bit error probability (BEP). The analytical results give interesting insights into the dependence of SEP on system parameters. Their tightness is also validated by numerical results, which show that our proposed scheme can provide considerably better error performance than the conventional IM-OFDM and IM-OFDM-CI at the same spectral efficiency.
{"title":"Performance Analysis of Repeated Index Modulation with Coordinate Interleaving over Nakagami-m Fading Channel","authors":"L. Huyen, TranXuan Nam","doi":"10.32913/MIC-ICT-RESEARCH.V2019.N1.863","DOIUrl":"https://doi.org/10.32913/MIC-ICT-RESEARCH.V2019.N1.863","url":null,"abstract":"In this paper, a new Space-Time Block Coded Spatial Modulation (SM) scheme based on the Golden Code, called the In this paper, we evaluate the symbol error performance of an extended Index Modulation for Orthogonal Frequency Division Multiplexing (IM-OFDM), namely repeated index modulation-OFDM with coordinated interleaving (abbreviated as ReCI), over the Nakagami-m fading channel. The ReCI system attains higher error performance than the conventional IM-OFDM with coordinate interleaving (IMOFDM-CI). In order to investigate the system performance over the Nakagami-m fading channel, we derive the closed-form expressions for the symbol error probability (SEP) and the bit error probability (BEP). The analytical results give interesting insights into the dependence of SEP on system parameters. Their tightness is also validated by numerical results, which show that our proposed scheme can provide considerably better error performance than the conventional IM-OFDM and IM-OFDM-CI at the same spectral efficiency.","PeriodicalId":432355,"journal":{"name":"Research and Development on Information and Communication Technology","volume":"52 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-06-25","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"114154215","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-06-24DOI: 10.32913/mic-ict-research-vn.v2019.n1.855
Nguyễn Long Giang, Phạm Minh Ngọc Hà, Nguyễn Văn Thiện, Nguyễn Bá Quảng
Mô hình tập thô dung sai là công cụ hiệu quả giải quyết bài toán rút gọn thuộc tính trên bảng quyết định không đầy đủ. Trong mấy năm gần đây, các nhà nghiên cứu đã đề xuất một số thuật toán gia tăng tìm tập rút gọn theo tiếp cận tập thô dung sai nhằm giảm thiểu thời gian thực hiện. Tuy nhiên, các thuật toán đề xuất đều theo hướng tiếp cận lọc truyền thống, nghĩa là bước kiểm tra độ chính xác phân lớp độc lập với bước tìm tập rút gọn. Do đó, tập rút gọn tìm được chưa tối ưu cả về số lượng thuộc tính và độ chính xác phân lớp. Trong bài báo này, chúng tôi đề xuất thuật toán gia tăng IDS_IFW_AO tìm tập rút gọn theo tiếp cận lai ghép lọc – đóng gói sử dụng độ đo khoảng cách. Kết quả thử nghiệm trên các tập dữ liệu mẫu cho thấy, thuật toán lai IDS_IFW_AO hiệu quả hơn thuật toán lọc IARM-I về độ chính xác phân lớp và số thuộc tính tập rút gọn.
{"title":"Về một thuật toán gia tăng tìm tập rút gọn của bảng quyết định không đầy đủ","authors":"Nguyễn Long Giang, Phạm Minh Ngọc Hà, Nguyễn Văn Thiện, Nguyễn Bá Quảng","doi":"10.32913/mic-ict-research-vn.v2019.n1.855","DOIUrl":"https://doi.org/10.32913/mic-ict-research-vn.v2019.n1.855","url":null,"abstract":"Mô hình tập thô dung sai là công cụ hiệu quả giải quyết bài toán rút gọn thuộc tính trên bảng quyết định không đầy đủ. Trong mấy năm gần đây, các nhà nghiên cứu đã đề xuất một số thuật toán gia tăng tìm tập rút gọn theo tiếp cận tập thô dung sai nhằm giảm thiểu thời gian thực hiện. Tuy nhiên, các thuật toán đề xuất đều theo hướng tiếp cận lọc truyền thống, nghĩa là bước kiểm tra độ chính xác phân lớp độc lập với bước tìm tập rút gọn. Do đó, tập rút gọn tìm được chưa tối ưu cả về số lượng thuộc tính và độ chính xác phân lớp. Trong bài báo này, chúng tôi đề xuất thuật toán gia tăng IDS_IFW_AO tìm tập rút gọn theo tiếp cận lai ghép lọc – đóng gói sử dụng độ đo khoảng cách. Kết quả thử nghiệm trên các tập dữ liệu mẫu cho thấy, thuật toán lai IDS_IFW_AO hiệu quả hơn thuật toán lọc IARM-I về độ chính xác phân lớp và số thuộc tính tập rút gọn.","PeriodicalId":432355,"journal":{"name":"Research and Development on Information and Communication Technology","volume":"113 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-06-24","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"124158137","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-05-26DOI: 10.32913/mic-ict-research-vn.v2019.n1.804
Đỗ Thị Lan Anh, Trịnh Đình Thắng
Bài báo đưa ra mô hình tăng hoặc giảm tập đối tượng của khối quyết định. Từ đó trình bày các thuật toán gia tăng để tính ma trận độ chính xác và ma trận độ phủ của các luật quyết định trên khối dữ liệu có tập đối tượng thay đổi. Đồng thời phát biểu và chứng minh độ phức tạp của các thuật toán này.
{"title":"Một phương pháp gia tăng để tính độ chính xác và độ phủ của các luật quyết định trên khối dữ liệu có tập đối tượng thay đổi","authors":"Đỗ Thị Lan Anh, Trịnh Đình Thắng","doi":"10.32913/mic-ict-research-vn.v2019.n1.804","DOIUrl":"https://doi.org/10.32913/mic-ict-research-vn.v2019.n1.804","url":null,"abstract":"Bài báo đưa ra mô hình tăng hoặc giảm tập đối tượng của khối quyết định. Từ đó trình bày các thuật toán gia tăng để tính ma trận độ chính xác và ma trận độ phủ của các luật quyết định trên khối dữ liệu có tập đối tượng thay đổi. Đồng thời phát biểu và chứng minh độ phức tạp của các thuật toán này.","PeriodicalId":432355,"journal":{"name":"Research and Development on Information and Communication Technology","volume":"46 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-05-26","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"122822084","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2019-02-01DOI: 10.32913/mic-ict-research.v2019.n1.833
Đ. Tuyên, Truong Thu Huong
The SDN/Openflow architecture opens new opportunities for effective solutions to address network security problems; however, it also brings new security challenges compared to the traditional network. One of those is the mechanism of reactive installation for new flow entries that can make the data plane and control plane easily become a target for resource saturation attacks with spoofing technique such as SYN flood. There are a number of solutions to this problem such as Connection Migration (CM) mechanism in Avant-Guard solution. However, most of them increase load to the commodity switches and/or split benign TCP connections, which can cause increase of packet latency and disable some features of the TCP protocol. This paper presents a solution called SDN-based SYN Flood Guard (SSG), which takes advantages of Openflow’s ability to match TCP Flags fields and the RST Cookie technique to authenticate three-way handshake processes of TCP connections in a separated device from SDN/Openflow switches. The experiment results reveal that SSG solves the aforementioned problems and improves the SYN Flood.
{"title":"SSG - A Solution to Prevent Saturation Attack on the Data Plane and Control Plane in SDN/Openflow Network","authors":"Đ. Tuyên, Truong Thu Huong","doi":"10.32913/mic-ict-research.v2019.n1.833","DOIUrl":"https://doi.org/10.32913/mic-ict-research.v2019.n1.833","url":null,"abstract":"The SDN/Openflow architecture opens new opportunities for effective solutions to address network security problems; however, it also brings new security challenges compared to the traditional network. One of those is the mechanism of reactive installation for new flow entries that can make the data plane and control plane easily become a target for resource saturation attacks with spoofing technique such as SYN flood. There are a number of solutions to this problem such as Connection Migration (CM) mechanism in Avant-Guard solution. However, most of them increase load to the commodity switches and/or split benign TCP connections, which can cause increase of packet latency and disable some features of the TCP protocol. This paper presents a solution called SDN-based SYN Flood Guard (SSG), which takes advantages of Openflow’s ability to match TCP Flags fields and the RST Cookie technique to authenticate three-way handshake processes of TCP connections in a separated device from SDN/Openflow switches. The experiment results reveal that SSG solves the aforementioned problems and improves the SYN Flood.","PeriodicalId":432355,"journal":{"name":"Research and Development on Information and Communication Technology","volume":"80 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2019-02-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"114924710","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}