Phương pháp mới dựa trên vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng

Nghiên cứu bài toán phân lớp trong thực tế như chuẩn đoán y học, phát hiện sự cố tràn dầu, phát hiện gian lận kinh tế tài chính ngày càng được nhiều nhà khoa học quan tâm vì tầm ảnh hưởng lớn của những lĩnh vực này tới con người. Tuy nhiên, nhiều nghiên cứu đã chỉ ra hiệu quả phân lớp của các bài toán này chưa cao do có sự chênh lệch về số lượng phần tử giữa các lớp dữ liệu. Một yêu cầu đặt ra là cần có những hướng tiếp cận mới đối với trường hợp dữ liệu mất cân bằng để tăng tính hiệu quả phân lớp chính xác của thuật toán phân lớp. Bài báo của chúng tôi đề xuất ba thuật toán mới dựa trên mức an toàn nhằm nâng cao hiệu quả phân lớp dữ liệu. Hai thuật toán, Random Safe Oversampling (RSO) và Random Safe Undersampling (RSU) cải tiến trực tiếp từ Random Oversamling và Random Undersampling. Thuật toán thứ ba, Random Safe Over-Undersampling (RSOU) là sự kết hợp của RSO và RSU nhằm đồng thời vừa tăng thêm các phần tử ở lớp thiểu số vừa loại bỏ các phần tử ở lớp đa số ở các vùng an toàn.

 

Phương pháp mới dựa trên vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng trang 1

Trang 1

Phương pháp mới dựa trên vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng trang 2

Trang 2

Phương pháp mới dựa trên vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng trang 3

Trang 3

Phương pháp mới dựa trên vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng trang 4

Trang 4

Phương pháp mới dựa trên vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng trang 5

Trang 5

Phương pháp mới dựa trên vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng trang 6

Trang 6

Phương pháp mới dựa trên vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng trang 7

Trang 7

Phương pháp mới dựa trên vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng trang 8

Trang 8

Phương pháp mới dựa trên vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng trang 9

Trang 9

Phương pháp mới dựa trên vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng trang 10

Trang 10

pdf 10 trang Trúc Khang 09/01/2024 4080
Bạn đang xem tài liệu "Phương pháp mới dựa trên vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng", để tải tài liệu gốc về máy hãy click vào nút Download ở trên

Tóm tắt nội dung tài liệu: Phương pháp mới dựa trên vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng

Phương pháp mới dựa trên vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng
 Tạp chí Khoa học và Giáo dục, Trường Đại học Sư phạm Huế 
ISSN 1859-1612, Số 01(45)/2018: tr. 149-158 
Ngày nhận bài: 27/3/2017; Hoàn thành phản biện: 23/5/2017; Ngày nhận đăng: 14/6/2017 
PHƯƠNG PHÁP MỚI DỰA TRÊN VÙNG AN TOÀN 
NÂNG CAO HIỆU QUẢ PHÂN LỚP DỮ LIỆU MẤT CÂN BẰNG 
BÙI DƯƠNG HƯNG 1 
NGUYỄN THỊ HỒNG 2 , ĐẶNG XUÂN THỌ 2 
1Khoa Tin học, Trường Đại học Công đoàn 
2Khoa Công nghệ Thông tin, Trường Đại học Sư phạm Hà Nội 
Email: thodx@hnue.edu.vn 
Tóm tắt: Nghiên cứu bài toán phân lớp trong thực tế như chuẩn đoán y học, 
phát hiện sự cố tràn dầu, phát hiện gian lận kinh tế tài chính ngày càng được 
nhiều nhà khoa học quan tâm vì tầm ảnh hưởng lớn của những lĩnh vực này tới 
con người. Tuy nhiên, nhiều nghiên cứu đã chỉ ra hiệu quả phân lớp của các 
bài toán này chưa cao do có sự chênh lệch về số lượng phần tử giữa các lớp dữ 
liệu. Một yêu cầu đặt ra là cần có những hướng tiếp cận mới đối với trường 
hợp dữ liệu mất cân bằng để tăng tính hiệu quả phân lớp chính xác của thuật 
toán phân lớp. Bài báo của chúng tôi đề xuất ba thuật toán mới dựa trên mức 
an toàn nhằm nâng cao hiệu quả phân lớp dữ liệu. Hai thuật toán, Random 
Safe Oversampling (RSO) và Random Safe Undersampling (RSU) cải tiến 
trực tiếp từ Random Oversamling và Random Undersampling. Thuật toán thứ 
ba, Random Safe Over-Undersampling (RSOU) là sự kết hợp của RSO và 
RSU nhằm đồng thời vừa tăng thêm các phần tử ở lớp thiểu số vừa loại bỏ các 
phần tử ở lớp đa số ở các vùng an toàn. 
Từ khóa: Dữ liệu mất cân bằng; Phân lớp dữ liệu; Safe level; Random 
Oversampling; Random Undersampling; Random Safe Oversampling; 
Random Safe Undersampling 
1. MỞ ĐẦU 
Ngày nay, một số lượng lớn của dữ liệu được thu thập và lưu trữ trong các cơ sở dữ liệu 
ở khắp mọi nơi trên thế giới. Không khó để tìm được các cơ sở dữ liệu lên tới Terabytes 
trong các doanh nghiệp và các trung tâm nghiên cứu [1], [2]. Rất nhiều thông tin và kiến 
thức vô giá tiềm ẩn trong các cơ sở dữ liệu như vậy, mà chưa có phương pháp tự động 
hiệu quả để phân tách thông tin [3]. Trong suốt nhiều năm, nhiều thuật toán được tạo ra 
để phân tách những gì được gọi là “quặng vàng” của tri thức từ các tập dữ liệu lớn. Đặc 
biệt, trong đó vấn đề phân lớp mất cân bằng ngày càng phổ biến trong một số lượng lớn 
các lĩnh vực có tầm quan trọng đối với cộng đồng khai phá dữ liệu. Đây là một trong 10 
vấn đề khó đang được cộng đồng học máy và khai phá dữ liệu quan tâm. Một số phương 
pháp khác nhau để tiếp cận vấn đề này như phân lớp dữ liệu; kết hợp quy tắc; phân cụm 
dữ liệu [4], [5] Trong đó giải thuật Random Oversampling là một trong những 
phương pháp nổi tiếng và tổng quát để giải quyết vấn đề mất cân bằng. Bài báo này sẽ 
phân tích chi tiết về phương pháp nghiên cứu mới – thuật toán sinh thêm phần tử dựa 
vào cấp độ an toàn trong dữ liệu mất cân bằng. Thuật toán mới sinh ra dựa trên sự phát 
150 ĐẶNG XUÂN THỌ và cs. 
triển từ thuật toán Random Oversampling. Giải thuật mới được đưa ra nhằm làm tăng 
hiệu quả phân lớp so với thuật toán Random Oversampling. 
Phân lớp là một nhiệm vụ quan trọng của mô hình kiểu mẫu. Một loạt các thuật toán 
học máy chẳng hạn như Cây quyết định (Decision tree); Mạng lưới thần kinh lan truyền 
ngược; Mạng Bayes; k-láng giềng gần nhất; Máy vector hỗ trợ (Support Vector 
Machine) đã được phát triển tốt và áp dụng thành công trên nhiều lĩnh vực [6]. Tuy 
nhiên, sự mất cân bằng của một tập dữ liệu đã gặp phải khó khăn tương đối nghiêm 
trọng cho hầu hết các thuật toán học phân lớp. Khó khăn quan trọng của vấn đề phân 
lớp mất cân bằng và sự xuất hiện thường xuyên của nó trong các ứng dụng thực tế của 
học máy và khai thác dữ liệu đã thu hút được sự quan tâm nghiên cứu. Một số ví dụ 
minh hoạ cho vấn đề khai phá dữ liệu mất cân bằng như phát hiện gian lận thẻ tín dụng; 
chuẩn đoán y học, phát hiện sự xâm nhập mạng, phát hiện sự cố tràn dầu từ các hình 
ảnh radar trên bề mặt trái đất, công nghiệp viễn thông [6]. Nhiều nghiên cứu đã chỉ ra 
rằng, với các tập dữ liệu mất cân bằng như vậy sẽ làm cho mô hình học phân lớp gặp 
nhiều khó khăn trong dự báo dữ liệu của lớp thiểu số. Chính vì vậy, cần phải có những 
hướng tiếp cận mới đối với việc khai phá dữ liệu dạng này. 
Một tập dữ liệu được coi là mất cân bằng nếu một trong các lớp có số lượng các phần tử 
quá nhỏ để so sánh với các lớp khác. Trong bài báo này, chúng tôi chỉ đề cập tới trường 
hợp phân lớp nhị phân, nghĩa là dữ liệu chỉ có hai nhãn lớp, một lớp có số lượng phần tử 
nhỏ hơn được gọi là lớp thiểu số, và lớp có số phần tử lớn hơn được gọi là lớp đa số. Ví 
dụ, tập dữ liệu Mammography chứa 10.923 mẫu được gán nhãn “negative” (Không ung 
thư) và 260 mẫu được gán nhãn “positive” (Ung thư). Nhiều nghiên cứu đã chỉ ra rằng, 
với dữ liệu Mammography, các phần tử lớp đa số được phân lớp với độ chính xác gần 
100% nhưng lớp thiểu số có độ chính xác chỉ 0-10%. Giả sử, một phân lớp đạt độ chính 
xác là 10% đối với lớp thiểu số, nghĩa là sẽ có 234 mẫu lớp  ...  các phần tử 
mới. Bằng cách sinh thêm nhiều hơn các phần tử nhân tạo lớp thiểu số xung quanh cấp 
độ an toàn lớn hơn, các kết quả thực nghiệm đã chỉ ra phương pháp mới RSO đạt hiệu 
suất chính xác hơn so với trước và so với thuật toán RO gốc. 
Trong giải thuật RSO, cấp độ an toàn safe level positive (slp) được định nghĩa như trong 
công thức số (1) [8]. Nếu cấp độ an toàn safe level positive của một đối tượng gần tới 0, 
đối tượng đó gần với phần tử nhiễu, ngược lại nếu nó gần tới k, đối tượng đó nằm trong 
vùng an toàn. Mức độ an toàn của một phần tử positive được định nghĩa trong công thức 
số (2). Nó thường được chọn vị trí an toàn tới các phần tử sinh nhân tạo. 
 safe level positive (slp) = số láng giềng là lớp thiểu số trong 
k láng giềng gần nhất (1) 
 safe level area (slp_area) = slp của đối tượng thuộc lớp thiểu 
số / k láng giềng gần nhất của phần tử đang xét (2) 
Giả sử p là một phần tử dữ liệu lớp thiểu số đang xét, thì slp_area là mức độ an toàn của 
phần tử đó. Đối tượng lớp thiểu số có được nhân bản hay không sẽ phụ thuộc vào tỉ lệ 
slp_area. Nếu slp_area>0.5, nghĩa là xung quanh phần tử thiểu số đang xét có nhiều 
phần tử cùng nhãn với nó, thì phần tử thiểu số đang xét được coi là an toàn. Ngược lại, 
nếu slp_area<0.5, nghĩa là xung quanh phần tử thiếu số đang xét không có nhiều phần 
152 ĐẶNG XUÂN THỌ và cs. 
tử cũng nhãn với nó, hoặc có nhiều phần tử nhiễu, lúc này ta sẽ loại phần tử đang xét đó 
mà không nhân bản chúng lên. 
2.1.2. Thuật toán RSO 
Input: Bộ dữ liệu huấn luyện T trong đó có tập các phần tử lớp thiểu số D. 
 N%: Số % positive được nhân bản bởi thuật toán RSO. 
 k: Số láng giềng gần nhất của phần tử positive. 
Output: Bộ dữ liệu huấn luyện mới T’ gồm tập các phần tử nhân bản mới sinh thêm D’. 
Các bước thực hiện của thuật toán như sau: 
 𝐷′ = ∅ 
∀𝑝 ∈ 𝐷: Tính k láng giềng gần nhất của p trong T 
slp = số lượng các positive trong k láng giềng gần nhất của p 
trong D 
slp_area = slp/k 
if (0.5 < slp_area ≤ 1) 
 Nhân bản N% phần tử p an toàn đang xét; 
return 𝐷′ 
2.2. Random Safe Undersampling (RSU) 
2.2.1. Ý tưởng 
Kết hợp ý tưởng từ thuật toán RU và khái niệm vùng an toàn, thuật toán RSU sẽ ngẫu 
nhiên loại bỏ các phần tử an toàn ở lớp đa số. Tương tự thuật toán RSO, với thuật toán 
RSU chúng tôi cũng định nghĩa cấp độ an toàn safe level negative (sln) ở công thức (3) và 
mức độ an toàn của một phần tử negative được định nghĩa trong công thức (4) như sau: 
 safe level negative (sln) = số láng giềng là lớp đa số trong k 
láng giềng gần nhất (3) 
 safe level area (sln_area) = sln của đối tượng thuộc lớp đa số / 
k láng giềng gần nhất của phần tử đang xét (4) 
 Nếu tỷ lệ sln_area của một đối tượng n đang xét nằm trong khoảng từ 0.5 ÷ 1, 
tức là nằm trong vùng an toàn, thì ta sẽ loại bỏ phần tử negative này ra khỏi bộ dữ liệu. 
2.2.2. Thuật toán RSU 
Input: Bộ dữ liệu huấn luyện T trong đó có tập các phần tử lớp đa số C. 
 M%: Số % negative bị loại bỏ bởi thuật toán RSU. 
 k: Số láng giềng gần nhất của phần tử negative. 
PHƯƠNG PHÁP MỚI DỰA TRÊN VÙNG AN TOÀN NÂNG CAO HIỆU QUẢ PHÂN LỚP... 153 
Output: Bộ dữ liệu huấn luyện T’ đã loại bỏ tập các phần tử negative an toàn C’. 
Các bước thực hiện thuật toán: 
 𝐶′ = ∅ 
∀𝑛 ∈ 𝐶: Tính k láng giềng gần nhất của n 
sln = số lượng negative trong k láng giềng gần nhất của n trong 
C 
slp_area = sln/k 
if (0.5 < sln_area ≤ 1) 
 Loại bỏ M% phần tử n an toàn đang xét; 
return C’ 
2.3. Random Safe Over and Undersampling (RSOU) 
 Kết hợp hai thuật toán RSO và RSU ở trên, chúng tôi đề xuất thuật toán mới 
RSOU sẽ dựa trên cấp độ an toàn và mức độ an toàn của các đối tượng để vừa sinh thêm 
các phần tử an toàn của lớp thiểu số, vừa loại bỏ các phần tử an toàn của lớp đa số. 
 Thuật toán cụ thể như sau: 
Input: Bộ dữ liệu huấn luyện T trong đó 
 Tập các phần tử lớp thiểu số D, và tập các phần tử lớp đa số C. 
 N%: Số % positive được nhân bản bởi thuật toán RSO. 
 M%: Số % negative bị loại bỏ bởi thuật toán RSU 
 k: Số láng giềng gần nhất của phần tử positive. 
Output: Bộ dữ liệu huấn luyện mới T’ gồm tập các phần tử nhân bản mới sinh thêm D’. 
𝐷′ = ∅; 𝐶′ = ∅ 
If (class = “Positive”) 
 Thực hiện thuật toán RSO 
If (class = “Negative”) 
 Thực hiện thuật toán RSU 
Return 𝐷′⋃𝐶′ 
2.4. Thực nghiệm 
2.4.1. Các tiêu chí đánh giá 
Phân lớp được đánh giá bởi ma trận nhầm lẫn như minh họa trong Bảng 1. Các dòng 
của bảng là nhãn lớp thực tế của một đối tượng, và các cột của bàng là nhãn lớp dự đoán 
của một đối tượng. Như vậy, nhãn lớp của phân lớp thiểu số gọi là postive và nhãn lớp 
của phân lớp đa số gọi là negative. TP là số phần tử có nhãn lớp thực tế là positive và 
cũng được mô hình phân lớp dự đoán là positive. FP là số phần tử có nhãn lớp thực tế là 
154 ĐẶNG XUÂN THỌ và cs. 
negative nhưng được mô hình phân lớp dự đoán là positive. FN là số phần tử có nhãn 
lớp thực tế là positive nhưng được mô hình phân lớp dự đoán là negative. TN là số phần 
tử có nhãn lớp thực tế là negative và cũng được mô hình phân lớp dự đoán là negative. 
Bảng 1. Ma trận nhầm lẫn 
 Positive dự đoán Negative dự đoán 
Positive thực tế TP FN 
Negative thực tế FP TN 
Một số độ đo được định nghĩa dựa trên ma trận nhầm lẫn Error! Reference source not 
found.: 
𝐴𝑐𝑐𝑢𝑟𝑎𝑐𝑦 =
𝑇𝑃+𝑇𝑁
𝑇𝑃+𝐹𝑃+𝑇𝑁+𝐹𝑁
 (5) 
𝑇𝑃𝑟𝑎𝑡𝑒 =
𝑇𝑃
𝑇𝑃+𝐹𝑁
 (6) 
𝑇𝑁𝑟𝑎𝑡𝑒 =
𝑇𝑁
𝑇𝑁+𝐹𝑃
 (7) 
𝐺 − 𝑚𝑒𝑎𝑛 = √𝑇𝑃𝑟𝑎𝑡𝑒 ∙ 𝑇𝑁𝑟𝑎𝑡𝑒 (8) 
Trong đó, G-mean là độ đo biểu diễn hiệu quả phân lớp của cả hai lớp thiểu số và lớp đa 
số [9]. G-mean được xác định dựa vào hai giá trị TPrate và TNrate. Trong phần thực 
nghiệm, chúng tôi sẽ sử dụng độ đo G-mean để đánh giá hiệu quả phân lớp giữa các 
thuật toán. 
2.4.2. Dữ liệu 
Chúng tôi tiến hành thực nghiệm trên các bộ dữ liệu mất cân bằng của từ kho dữ liệu 
chuẩn quốc tế UCI [10]. Bảng 2 là thông tin về một số bộ dữ liệu mà bài báo sử dụng 
trong quá trình thực nghiệm. 
Bảng 2. Dữ liệu chuẩn quốc tế nguồn UCI 
Dữ liệu Số phần tử Số thuộc tính 
Tỉ lệ 
mất cân bằng 
Pima 768 8 1 : 2 
Glass 193 9 1 : 6 
Haberman 306 3 1 : 3 
Blood 748 4 1 : 4 
Breast-w 198 32 1 : 3 
Các bộ dữ liệu trong bảng trên đều là các bộ dữ liệu có sự mất cân bằng lớp. Dữ liệu 
được gán nhãn hai lớp, lớp đa số được gán nhãn là negative và thiểu số được gán nhãn 
là positive. Trong đó, bộ dữ liệu Haberman và Breast-w có tỉ lệ mất cân bằng là 1:3; bộ 
dữ liệu Pima và bộ dữ liệu Blood có tỉ lệ mất cân bằng lần lượt là 1:2 và 1:4; bộ dữ liệu 
Glass có tỉ lệ mất cân bằng là 1:6. 
PHƯƠNG PHÁP MỚI DỰA TRÊN VÙNG AN TOÀN NÂNG CAO HIỆU QUẢ PHÂN LỚP... 155 
2.4.3. Kết quả thực nghiệm và đánh giá 
Chúng tôi tiến hành thực nghiệm xây dựng trên ngôn ngữ R và Perl. Trong R sử dụng 
gói kernlab – package có chức năng phân lớp theo thuật toán SVM. Để đánh giá được 
hiệu quả phân lớp của hai thuật toán, chúng tôi kết hợp chúng với thuật toán phân lớp 
chuẩn SVM. 
Đầu tiên chúng tôi chia ngẫu nhiên bộ dữ liệu ban đầu bằng phương pháp cross-
validation ra làm 10-fold con có kích thước xấp xỉ nhau. Việc đánh giá thực hiện 10 lần, 
mỗi lần lấy một fold làm tập kiểm thử, 9 folds còn lại sử dụng làm tập huấn luyện. Với 
mỗi lần lặp, từ tập dữ liệu huấn luyện, chúng tôi thực hiện áp dụng một trong các thuật 
toán RO, RU, RSO, RSU, và RSOU để thu được tập dữ liệu huấn luyện mới. Tỷ lệ sinh 
phần tử nhân tạo và giảm phần tử được tính lần lượt dựa theo tham số N% và M%. 
Trong thực nghiệm, chúng tôi thực hiện với tham số N% lần lượt là 100%, 200%, 
300%; tham số M% lần lượt là 5%, 10%, 15%, 20% và cuối cùng lựa chọn tham số tốt 
nhất cho từng dữ liệu. 
Sau đó, áp dụng thuật toán phân lớp SVM vào bộ dữ liệu huấn luyện mới này thu được 
mô hình phân lớp để đưa vào đánh giá tập dữ liệu kiểm thử. Sau 10 lần lặp, hiệu quả 
phân lớp được xác định là trung bình cộng của 10 giá trị độ đo tính được ở mỗi lần. 
Sau khi cài đặt, thống kê kết quả, chúng tôi thực hiện đánh giá hiệu quả của các thuật 
toán trên từng bộ dữ liệu như Hình 1. 
Hình 1. Biểu đồ so sánh G-mean của các bộ dữ liệu UCI 
20.00 30.00 40.00 50.00 60.00 70.00 80.00 90.00
Breast-p
Blood
Haberman
Glass
Pima
Breast-p Blood Haberman Glass Pima
Original 35.50 30.59 41.33 85.03 69.22
RO 64.98 65.97 60.65 85.04 74.09
RU 58.26 65.64 58.74 86.18 74.62
RSO 36.27 61.70 51.94 86.80 73.66
RSU 57.21 63.92 53.05 86.00 73.47
RSOU 66.08 67.87 62.63 87.10 75.45
G-mean
156 ĐẶNG XUÂN THỌ và cs. 
Bộ dữ liệu Pima với số phần tử là 768, khi áp dụng thuật toán mới RSOU (với tham số 
N% = 100%; M% = 5%) thì giá trị G-mean thu được là 75.45% cao hơn so với phương 
pháp sử dụng thuật toán RU có giá trị G-mean là 74.62%; phương pháp sử dụng thuật 
toán RSO có giá trị G-mean là 73.66%; phương pháp sử dụng thuật toán RSU có giá trị 
G-mean là 73.47% và phương pháp chỉ thực hiện phân lớp bộ dữ liệu gốc có giá trị G-
mean là 69.22%. 
Bộ dữ liệu Haberman với số phần tử là 306, khi áp dụng thuật toán mới RSOU (với 
tham số N% = 300%; M% = 10%) thì giá trị G-mean thu được là 62.63% cao hơn hẳn 
so với phương pháp sử dụng thuật toán RU có giá trị G-mean là 58.74%; phương pháp 
sử dụng thuật toán RSO có giá trị G-mean là 51.94%; phương pháp sử dụng thuật toán 
RSU có giá trị G-mean là 53.05% và phương pháp chỉ thực hiện phân lớp bộ dữ liệu gốc 
có giá trị G-mean là 41.33%. 
Bộ dữ liệu Breast-p với số phần tử là 198, khi áp dụng thuật toán mới RSOU (với tham 
số N% = 100%; M% = 5%) thì giá trị G-mean thu được là 66.08% cao hơn hẳn so với 
phương pháp sử dụng thuật toán RU có giá trị G-mean là 58.26%; phương pháp sử dụng 
thuật toán RSO có giá trị G-mean là 36.27%; phương pháp sử dụng thuật toán RSU có 
giá trị G-mean là 57.21% và phương pháp chỉ thực hiện phân lớp bộ dữ liệu gốc có giá 
trị G-mean là 35.50%. 
Biểu đồ trên so sánh hiệu quả phân lớp của các bộ dữ liệu bằng thuật toán Support 
Vector Machine (SVM) trước và sau khi điều chỉnh dữ liệu bởi RO, RU, RSO, RSU, và 
RSOU. Kết quả cho thấy, sau khi điều chỉnh bằng thuật toán RSOU, hiệu quả phân lớp 
có tăng lên, điển hình là bộ dữ liệu Breast-p, Blood, và Haberman tăng lên một cách 
đáng kể. Thuật toán RSOU sinh thêm phần tử mới dựa trên k láng giềng gần nhất của 
phần tử postive an toàn đồng thời xóa phần tử negative an toàn trong lớp đa số. Làm 
như vậy, RSOU không những làm giảm số phần tử lớp negative, mà còn làm tăng số 
phần tử positive một cách khoa học, tạo nên sự cân bằng dữ liệu, và nâng cao hiệu quả 
phân lớp dữ liệu. 
3. KẾT LUẬN 
Vấn đề mất cân bằng dữ liệu hiện nay đang rất được quan tâm vì ngày càng xuất hiện 
trong nhiều ứng dụng quan trọng trong thực tế như: y học, truyền thông, tài chính Có 
nhiều hướng tiếp cận giải quyết vấn đề, trong bài báo này, chúng tôi đã trình bày tổng 
quan về thuật toán mới đề xuất dựa trên vùng an toàn nhằm nâng cao hiệu quả phân lớp 
dữ liệu. Thông qua việc nhân bản phần tử trong lớp thiểu số và giảm bớt phần tử trong 
lớp đa số dựa vào cấp độ an toàn của dữ liệu đã tạo ra khả năng khai phá những cơ sở 
dữ liệu có kích thước lớn bằng việc giảm mức độ mất cân bằng dữ liệu, đồng thời làm 
tăng độ chính xác, nâng cao hiệu quả tính toán của các kết quả phân lớp dữ liệu. 
Trên cơ sở nghiên cứu và các kết quả thực nghiệm đạt được, chúng tôi nhận thấy có 
nhiều vấn đề cần được tiếp tục nghiên cứu. Đồng thời, chúng tôi sẽ nghiên cứu kết hợp 
PHƯƠNG PHÁP MỚI DỰA TRÊN VÙNG AN TOÀN NÂNG CAO HIỆU QUẢ PHÂN LỚP... 157 
việc sinh thêm phần tử với các phương pháp khác như Boderline-SMOTE; Add-Boder-
SMOTE đồng thời phát triển tiếp thuật toán RSOU để đạt được hiệu quả cao hơn trong 
việc giải quyết vấn đề mất cân bằng lớp. 
TÀI LIỆU THAM KHẢO 
[1] K. Han (2011). Effective sample selection for classification of pre-miRNAs., Genet. 
Mol. Res., vol. 10, no. 1, pp. 506–18. 
[2] Y.-N. Zhang, D.-J. Yu, S.-S. Li, Y.-X. Fan, Y. Huang, and H.-B. Shen (2012). 
Predicting protein-ATP binding sites from primary sequence through fusing bi-profile 
sampling of multi-view features, BMC Bioinformatics, vol. 13, no. 1, p. 118 
[3] P. Xuan, M. Z. Guo, J. Wang, C. Y. Wang, X. Y. Liu, and Y. Liu (2011). Genetic 
algorithm-based efficient feature selection for classification of pre-miRNAs., Genet. 
Mol. Res., vol. 10, no. 2, pp. 588–603. 
[4] X. T. Dang, O. Hirose, T. Saethang, V. A. Tran, L. A. T. Nguyen, T. K. T. Le, M. 
Kubo, Y. Yamada, and K. Satou (2013). A novel over-sampling method and its 
application to miRNA prediction, J. Biomed. Sci. Eng., vol. 6, no. 2, pp. 236–248. 
[5] Z. Sun, Q. Song, X. Zhu, H. Sun, B. Xu, and Y. Zhou (2015). A novel ensemble 
method for classifying imbalanced data, Pattern Recognit., vol. 48, no. 5, pp. 1623–
1637. 
[6] X. Wu, V. Kumar, J. Ross Quinlan, J. Ghosh, Q. Yang, H. Motoda, G. J. McLachlan, 
A. Ng, B. Liu, P. S. Yu, Z.-H. Zhou, M. Steinbach, D. J. Hand, and D. Steinberg, 
(2007). Top 10 algorithms in data mining, vol. 14, no. 1. 
[7] H. Guo and H. L. Viktor (2004). “Learning from Imbalanced Data Sets with Boosting 
and Data Generation: The DataBoost-IM Approach,” SIGKDD Explor. Newsl, vol. 6, 
no. 1, pp. 30–39. 
[8] C. Bunkhumpornpat, K. Sinapiromsaran, and C. Lursinsap (2009). Safe-Level-
SMOTE: Safe-Level-Synthetic Minority Over-Sampling TEchnique, Lect. Notes 
Comput. Sci., vol. 5476, pp. 475–482. 
[9] S. Oh, M. S. Lee, and B. Zhang (2011). Ensemble Learning with Active Example 
Selection for Imbalanced Biomedical Data Classification,” vol. 8, no. 2, pp. 316–325. 
[10] A. Frank and A. Asuncion (2010). UCI Machine Learning Repository, 
[http//archive.ics.uci.edu/ml]. Irvine, CA Univ. California, Sch. Inf. Comput. Sci. 
Title: RANDOM-SAFE-OVER-UNDERSAMPLING - THE NOVEL METHOD BASED ON 
SAFE REGION TO IMPROVE PERFORMANCE OF IMBALANCED DATA 
CLASSIFICATION 
Abstract: Researching on classification problem such as medical diagnosis, oil-overflowing 
incident discovery, economical and financial trick detection etc, is increasingly concerned by many 
scientists nowadays. However, many researchers have shown that the classification performance of 
these problems is not very high due to the difference among the number of elements between the 
data classes. One requirement is to have new approaches to deal with imbalanced data in order to 
increase the accuracy of the classification problems. Our paper proposes three novel methods based 
158 ĐẶNG XUÂN THỌ và cs. 
on the safe level to enhance the effect of classification. Two methods, Random Safe Oversampling 
(RSO) and Random Safe Undersampling (RSU) are improved directly from Random Oversamling 
and Random Undersampling. The third method, Random Safe Over-Undersampling (RSOU), is a 
combination of RSO and RSU that simultaneously adds to the minority elements and removes the 
majority of elements in the safe regions. 
Keywords: Imbalanced data; Classification; Safe level; Random Oversampling; Random 
Undersampling; Random Safe Oversampling; Random Safe Undersampling. 

File đính kèm:

  • pdfphuong_phap_moi_dua_tren_vung_an_toan_nang_cao_hieu_qua_phan.pdf