Ứng dụng mô hình Bert cho bài toán phân loại hồ sơ theo thời hạn bảo quản

Công tác lưu trữ hồ sơ tại các cơ quan, tổ chức có thẩm quyền là một

vấn đề cần thiết trong việc quản lý và tổ chức bảo quản tài liệu. Tuy

nhiên, hiện nay với số lượng hồ sơ lưu trữ ngày càng nhiều và có

nhiều loại văn bản quy định lưu trữ khác nhau dẫn đến việc tình trạng

quá tải tài liệu trong quá trình lưu trữ. Do đó, việc phân loại hồ sơ

theo thời hạn bảo quản là một công đoạn rất quan trọng trong việc

bảo quản, góp phần tối ưu hóa thành phần trong các phòng lưu trữ,

tiết kiệm chi phí bảo quản tài liệu. Để góp phần giải quyết được vấn

đề trên, trong bài báo này, chúng tôi trình bày nghiên cứu đánh giá sự

hiệu quả của mô hình BERT so sánh với các thuật toán máy học truyền

thống và mô hình học sâu trên các bộ dữ liệu thực tế hồ sơ lưu trữ theo

thời hạn bảo quản ở các cơ quan. Kết quả nghiên cứu cho thấy rằng,

mô hình BERT đạt kết quả tốt nhất với độ chính xác là 93,10%, độ phủ

là 90,68% và độ đo F1 là 91,49%. Kết quả này cho thấy rằng, mô hình

BERT có thể được áp dụng để xây dựng các hệ thống hỗ trợ phân loại

hồ sơ theo thời hạn bảo quản là hoàn toàn khả thi.

Ứng dụng mô hình Bert cho bài toán phân loại hồ sơ theo thời hạn bảo quản trang 1

Trang 1

Ứng dụng mô hình Bert cho bài toán phân loại hồ sơ theo thời hạn bảo quản trang 2

Trang 2

Ứng dụng mô hình Bert cho bài toán phân loại hồ sơ theo thời hạn bảo quản trang 3

Trang 3

Ứng dụng mô hình Bert cho bài toán phân loại hồ sơ theo thời hạn bảo quản trang 4

Trang 4

Ứng dụng mô hình Bert cho bài toán phân loại hồ sơ theo thời hạn bảo quản trang 5

Trang 5

Ứng dụng mô hình Bert cho bài toán phân loại hồ sơ theo thời hạn bảo quản trang 6

Trang 6

Ứng dụng mô hình Bert cho bài toán phân loại hồ sơ theo thời hạn bảo quản trang 7

Trang 7

Ứng dụng mô hình Bert cho bài toán phân loại hồ sơ theo thời hạn bảo quản trang 8

Trang 8

Ứng dụng mô hình Bert cho bài toán phân loại hồ sơ theo thời hạn bảo quản trang 9

Trang 9

pdf 9 trang baonam 8140
Bạn đang xem tài liệu "Ứng dụng mô hình Bert cho bài toán phân loại hồ sơ theo thời hạn bảo quản", để tải tài liệu gốc về máy hãy click vào nút Download ở trên

Tóm tắt nội dung tài liệu: Ứng dụng mô hình Bert cho bài toán phân loại hồ sơ theo thời hạn bảo quản

Ứng dụng mô hình Bert cho bài toán phân loại hồ sơ theo thời hạn bảo quản
TNU Journal of Science and Technology 226(07): 41 - 49 
 41 Email: jst@tnu.edu.vn 
APPLICATION OF BERT ARCHITECTURE FOR STORAGE TIME OF 
RECORD CLASSIFICATION PROBLEM 
Ton Nu Thi Sau*, Tran Quoc Toanh 
Hanoi University of Home Affairs Campus in HCM City 
ARTICLE INFO ABSTRACT 
Received: 06/02/2021 Record storage at the competent agencies and organizations is an 
essential problem in the management and organization of document 
preservation. However, with the increasing number of archives and 
many different types of documents, leading to overloading documents 
during the archiving process. Therefore, the classification of records 
according to the preservation period is a very important step in 
preservation, contributing to optimize the composition of the archive 
fonts, and save the cost of document Therefore, in this paper, we 
present a study evaluating the effectiveness of the BERT model 
compared with traditional machine learning and deep learning 
algorithms on a real-world dataset to solve this task automatically. 
Experimental results show that the BERT model achieved the best 
results with 93.10% of precision, 90.68% of recall and 91.49% of F1-
score. This result shows that the BERT model can be applied to build 
systems to support record classification in the real-world application 
is completely feasible. 
Revised: 19/4/2021 
Published: 04/5/2021 
KEYWORDS 
BERT architecture 
Machine learning 
Deep learning 
Record classification 
Text classification 
ỨNG DỤNG MÔ HÌNH BERT CHO BÀI TOÁN PHÂN LOẠI HỒ SƠ 
THEO THỜI HẠN BẢO QUẢN 
Tôn Nữ Thị Sáu*, Trần Quốc Toanh 
Phân hiệu Trường Đại học Nội vụ Hà Nội tại TP. Hồ Chí Minh 
THÔNG TIN BÀI BÁO TÓM TẮT 
Ngày nhận bài: 06/02/2021 Công tác lưu trữ hồ sơ tại các cơ quan, tổ chức có thẩm quyền là một 
vấn đề cần thiết trong việc quản lý và tổ chức bảo quản tài liệu. Tuy 
nhiên, hiện nay với số lượng hồ sơ lưu trữ ngày càng nhiều và có 
nhiều loại văn bản quy định lưu trữ khác nhau dẫn đến việc tình trạng 
quá tải tài liệu trong quá trình lưu trữ. Do đó, việc phân loại hồ sơ 
theo thời hạn bảo quản là một công đoạn rất quan trọng trong việc 
bảo quản, góp phần tối ưu hóa thành phần trong các phòng lưu trữ, 
tiết kiệm chi phí bảo quản tài liệu. Để góp phần giải quyết được vấn 
đề trên, trong bài báo này, chúng tôi trình bày nghiên cứu đánh giá sự 
hiệu quả của mô hình BERT so sánh với các thuật toán máy học truyền 
thống và mô hình học sâu trên các bộ dữ liệu thực tế hồ sơ lưu trữ theo 
thời hạn bảo quản ở các cơ quan. Kết quả nghiên cứu cho thấy rằng, 
mô hình BERT đạt kết quả tốt nhất với độ chính xác là 93,10%, độ phủ 
là 90,68% và độ đo F1 là 91,49%. Kết quả này cho thấy rằng, mô hình 
BERT có thể được áp dụng để xây dựng các hệ thống hỗ trợ phân loại 
hồ sơ theo thời hạn bảo quản là hoàn toàn khả thi. 
Ngày hoàn thiện: 19/4/2021 
Ngày đăng: 04/5/2021 
TỪ KHÓA 
Kiến trúc BERT 
Máy học 
Học sâu 
Phân loại hồ sơ 
Phân loại văn bản 
DOI: https://doi.org/10.34238/tnu-jst.3990 
* Corresponding author. Email: sauvtc@gmail.com 
TNU Journal of Science and Technology 226(07): 41 - 49 
 42 Email: jst@tnu.edu.vn 
1. Giới thiệu 
Trong những năm trở lại đây, các doanh nghiệp, cơ quan quản lý nhà nước đều ứng dụng công 
nghệ thông tin vào hoạt động hàng ngày và các ứng dụng đó đã trở thành công cụ quen thuộc của 
người dân. Hiện nay, cán bộ, công chức đang xác định thời hạn bảo quản tài liệu theo cách thủ 
công. Cách này làm mất nhiều thời gian, công sức, dễ nhầm lẫn do số lượng hồ sơ nhiều, đa dạng 
về lĩnh vực [1]. Mặt khác, có một số hồ sơ hình thành trong quá trình giải quyết công việc không 
có trong quy định của nhà nước, với cách làm thủ công thì phải tham vấn các chuyên gia chỉnh lý 
tài liệu có kinh nghiệm, nhưng các ý kiến của chuyên gia thường không đồng nhất. Cho nên, việc 
xác định thời hạn bảo quản cho hồ sơ tại các Ủy ban nhân dân (UBND) cấp xã chưa được thực 
hiện một cách triệt để [2]. Trong đó việc phân loại theo thời hạn bảo quản có vai trò rất quan 
trọng, buộc thực hiện và phải được thực hiện bởi một đội ngũ có chuyên môn về nghiệp vụ văn 
thư lưu trữ. Bởi vì, mục đích của việc phân loại theo thời hạn bảo quản góp phần tối ưu hóa thành 
phần trong các phông lưu trữ: Tiết kiệm chi phí bảo quản tài liệu (kho tàng, trang thiết bị, điện. 
v,v ); khắc phục tình trạng hồ sơ, tài liệu tích đống và đặc biệt là việc tiêu hủy hồ sơ, tài liệu tùy 
tiện. Hiện nay, việc áp dụng các kỹ thuật công nghệ ứng dụng vào giải quyết các bài toán thực tế 
trong xã hội ngày càng được quan tâm. Điển hình như tác giả N. T. T. Huong và D. M. Trung [3] 
đã áp dụng thuật toán Random Forest để phân loại bản đồ sử dụng đất, hay tác giả T. C. De and 
P. N. Khang [4] đã áp dụng phương pháp Support Vector Machine và Cây quyết định để phân 
loại các văn bản. Gần đây, tác giả D. T. Thanh và các cộng sự [5] đã trình bày một công trình 
nghiên cứu bài toán phân loại văn bản ứng dụng trong việc phân loại c ... g theo ngữ cảnh tốt hơn so với các phương 
pháp nhúng từ truyền thống trước đây như là word2vec hay Glove. Chính vì lý do đó, chúng tôi 
tiến hành thử nghiệm đề xuất kiến trúc BERT kết hợp với hàm tuyến tính để áp dụng trong bài 
toán phân loại hồ sơ theo thời hạn bảo quản. Mô hình được trình bày như ở hình 1. Mô hình bao 
gồm ba thành phần chính như sau: 
Đầu vào: Mỗi tên hồ sơ đầu vào đã được tiền xử lý X với n từ vựng có dạng như sau: 𝑋1:𝑛 = 
𝑥1, 𝑥2, , 𝑥𝑛 với 𝑥𝑖 là vị trí thứ i trong chuỗi đầu vào sẽ được tách thành các từ vựng và được 
biểu diễn thành các giá trị số dựa trên tập từ điển đã huấn luyện của mô hình phoBERT [15]. Bên 
cạnh đó, vị trí của từng mẫu từ cũng được lấy để làm đầu vào cho mô hình BERT. Chúng tôi lựa 
chọn tên hồ sơ dài nhất trong tập huấn luyện là giá trị độ dài đầu vào, đối với các câu có độ dài 
ngắn hơn sẽ tự động được thêm giá trị . 
BERT mã hóa: Trong bài báo này, chúng tôi sử dụng kiến trúc 𝐵𝐸𝑅𝑇𝑏𝑎𝑠𝑒 với 12 khối 
Transformer và 12 self-attention để lấy đặc trưng biểu diễn cho chuỗi đầu vào với kích thước 
không quá 512 từ vựng. Đầu ra của mô hình này là một lớp ẩn H = {ℎ1, ℎ2, , ℎ𝑛} tương ứng 
TNU Journal of Science and Technology 226(07): 41 - 49 
 45 Email: jst@tnu.edu.vn 
với chuỗi đầu vào. Để phân loại tên hồ sơ theo thời hạn bảo quản, chúng tôi rút trích lớp đặc 
trưng biểu diễn của từ vựng [CLS] làm vectơ đặc trưng biểu diễn cho chuỗi tên hồ sơ đầu vào. 
Đầu ra: Với vectơ đại diện cho chuỗi đầu vào, chúng tôi sử dụng một bộ phân lớp với hàm 
kích hoạt softmax để tính toán giá trị phân bố xác suất của từng nhãn phân loại theo thời hạn bảo 
hành của hồ sơ. 
 𝑝(𝑐|ℎ) = 𝑠𝑜𝑓𝑡𝑚𝑎𝑥(𝑊ℎ) (1) 
trong đó, W là trọng số của lớp tuyến tính. 
Bởi vì chúng tôi thu thập tên hồ sơ từ các UBND cấp xã, đây là một nguồn dữ liệu tương đối 
sạch. Tuy nhiên, để tăng độ chính xác cho mô hình phân lớp, chúng tôi tiến hành tiền xử lý dữ 
liệu trước khi đưa vào mô hình để huấn luyện. Các bước tiền xử lý được trình bày như sau: 
+ Bước 1: Loại bỏ các thành phần gây nhiễu trong đầu vào như ký tự đặc biệt, khoảng trắng 
thừa, dấu chấm, dấu phẩy hay dấu gạch ngang. 
+ Bước 2: Chúng tôi sử dụng biểu thức chính quy để thay thế các dữ liệu số thành ký từ 
“num”, ngày tháng thành “date”, năm thành “year”. 
+ Bước 3: Đưa các từ viết tắt thành các cụm từ có nghĩa tương ứng ví dụ như “QSDĐ”= 
“Quyền sử dụng đất” hay “GCNQSDĐ” = “Giấy chứng nhận quyền sở dụng đất”. 
+ Bước 4: Đưa các từ đồng nghĩa về một định dạng từ duy nhất để thống nhất ý nghĩa của dữ 
liệu. Ví dụ như là “thiếu số”, “khuyết số”. 
+ Bước 5: Tiếp theo sau đó, chúng tôi sử dụng thư viện VNCoreNLP [17] để tách đầu vào 
thành các từ vựng bởi vì cấu tạo của một từ vựng trong tiếng Việt bao gồm một hoặc nhiều âm 
tiết kết hợp với nhau. 
+ Bước 6: Bước cuối cùng là chuyển tất cả các từ vựng trong chuỗi đầu vào thành chữ thường. 
5. Kết quả thí nghiệm 
5.1. Mô hình so sánh 
Để đánh giá hiệu quả của mô hình đề xuất sử dụng kiến trúc BERT, trong bài báo này, chúng 
tôi cũng nghiên cứu và cài đặt lại các phương pháp máy học khác như Support Vector Machine, 
Naive Bayes, Random Forrest, Decision Tree, K Nearest Neighbor hay Neural Network kết hợp 
với các đặc trưng thủ công được rút trích. Ngoài ra, chúng tôi cũng cài đặt so sánh các phương 
pháp học sâu như mạng hồi quy Long short-term Memory, mạng tích chập Convolution Neural 
Network trên bộ dữ liệu đã thu thập nhằm đánh giá tổng quan hiệu quả so sánh thực nghiệm. Chi 
tiết thông số các mô hình so sánh được chúng tôi trình bày như sau: 
- Mô hình Support Vector Machine (SVM): Chúng tôi sử dụng mô hình Linear SVM với 
thông số C=0,1. 
- Mô hình Naive Bayes (NB): Bởi vì các đặc trưng rút trích của chúng tôi sau khi biểu diễn sẽ 
trở thành các vec-tơ rời rạc, do đó chúng tôi sử dụng mô hình Naive Bayes đa thức. 
- Mô hình Decision Tree (DT): Chúng tôi sử dụng thuật toán Decision Tree với các tham số 
mặc định đề xuất. 
- Mô hình K Nearest Neighbor (KNN): Chúng tôi sử dụng 3 neighbor, độ đo Euclidean và 
trọng lượng đồng nhất. 
- Mô hình Neural Network (NN): Một lớp ẩn duy nhất với 100 node, sử dụng hàm kích hoạt 
ReLu, hàm tối ưu hóa Adam, α = 0,001 và tối đa 200 lần lặp. 
- Mô hình mạng tích chập CNN: Kiến trúc CNN được trình bày bởi Kim [8] đã thể hiện tính 
hiệu quả trên các bộ dữ liệu khác nhau trong các bài toán phân loại văn bản. Chúng tôi cài đặt lại 
các thông số như đề xuất của tác giả. 
- Mô hình mạng hồi quy LSTM: Tương tự như mô hình CNN, chúng tôi cài đặt mô hình mạng 
hồi quy LSTM [18]. 
TNU Journal of Science and Technology 226(07): 41 - 49 
 46 Email: jst@tnu.edu.vn 
Hình 2. Kết quả các độ đo của từng nhãn lưu trữ của mô hình BERT trên tập kiểm tra 
Đối với các mô hình máy học truyền thống, chúng tôi sẽ tiến hành rút trích các đặc trưng n-gram 
(2,3,4 grams) kết hợp với nhãn từ loại và các từ vựng (danh từ, động từ và tính từ) trong tên các hồ sơ 
lưu trữ. Sau khi rút trích đặc trưng xong, chúng tôi sẽ sử dụng kỹ thuật TF-IDF để biểu diễn các đặc 
trưng thành các vec-tơ số đại diện cho từng tên hồ sơ và đưa vào các mô hình huấn luyện. 
5.2. Chi tiết cài đặt 
Đối với mô hình BERT, chúng tôi sử dụng PhoBERT [16] với kích thước lớp ẩn là 768 chiều 
và tổng số lớp biến đổi (tranformer layer) là 12. Giá trị tốc độ học của mô hình được thực nghiệm 
theo tập giá trị 2e-5, 3e-5, 4e-5 và lựa chọn giá trị tốt nhất là 2e-5. Giá trị batch size được gán là 
16. Đối với mô hình học sâu CNN thì chúng tôi sử dụng 3 bộ lọc tích chập khác nhau với kích 
thước của kernel là 2, 3, 4 và mỗi bộ lọc có 128 chiều với hàm kích hoạt ReLU. Còn đối các mô 
hình LSTM thì số units có giá trị là 256. Cả hai mô hình CNN và LSTM đều sử dụng một bộ 
nhúng từ word2vec1 đã huấn luyện trên tập dữ liệu các bài báo tin tức với số chiều của mỗi véc-tơ 
là 300 chiều. Đối với các mô hình máy học truyền thống, chúng tôi sử dụng kỹ thuật Grid Search 
để lựa chọn ra các tham số tốt nhất trên tập phát triển của chúng tôi. Để có kết quả tổng quan, 
mỗi thí nghiệm trong bài báo của chúng tôi được thực nghiệm lặp lại 5 lần với các giá trị số ngẫu 
nhiên khác nhau. 
Bảng 2. Kết quả thí nghiệm các phương pháp máy học, học sâu so với mô hình BERT 
Phương pháp Độ chính xác Độ phủ Chỉ số F1 
SVM 89,18 90,46 89,82 
NB 84,60 85,19 83,48 
KNN 88,24 87,97 88,01 
DT 86,65 86,25 86,36 
RF 90,04 89,63 89,77 
NN 88,57 89,96 89,26 
CNN 91,05 90,02 90,30 
LSTM 91,09 89,96 89,15 
BERT 93,10 90,68 91,49 
5.3. Kết quả thực nghiệm 
Bảng 2 trình bày kết quả thực nghiệm các mô hình trên tập kiểm tra theo các độ đo như: độ chính 
xác, độ phủ và chỉ số F1. Nhìn vào bảng 2, chúng ta dễ dàng thấy rằng, đối với các phương pháp 
máy học truyền thống thì mô hình SVM đạt kết quả tốt nhất so với các phương pháp còn lại với 
độ đo F1. Kết quả của phương pháp SVM cao hơn các phương pháp còn lại khoảng từ +0,56% 
đến +6,34%. Điều đó chứng tỏ rằng phương pháp SVM vẫn là phương pháp được sử dụng hiệu 
1 https://github.com/sonvx/word2vecVN 
TNU Journal of Science and Technology 226(07): 41 - 49 
 47 Email: jst@tnu.edu.vn 
quả cho các bài toán phân loại. Tiếp theo sau đó là phương pháp mạng nhân tạo kết hợp dựa trên 
các đặc trưng thủ công đạt kết quả với độ đo F1 là 89,26%. Tiếp theo chúng ta sẽ so sánh giữa hai 
phương pháp học sâu là mạng tích chập CNN và mạng hồi quy LSTM thì chúng ta dễ dàng nhận 
thấy rằng phương pháp CNN đạt hiệu quả tốt hơn phương pháp LSTM là +1,15% về độ đo F1. 
Còn so sánh với mô hình máy học SVM, thì mô hình CNN cao hơn phương pháp SVM +0,48%. 
Điều này chứng tỏ rằng các phương pháp học sâu cho hiệu suất tốt hơn các phương pháp máy 
học truyền thống trong bài toán phân loại tên hồ sơ theo thời gian lưu trữ. Tuy nhiên, kết quả cao 
nhất trong thực nghiệm của chúng tôi là phương pháp dựa trên mô hình BERT, kết quả mô hình 
này đạt độ chính xác là 93,10%, độ phủ là 90,68% và chỉ số F1-score là 91,49%. Mô hình này 
cao hơn phương pháp máy học truyền thống tốt nhất SVM về độ đo F1 là +1,67% và phương 
pháp học sâu CNN là +1,19%. Điều này chứng minh rằng BERT hiện tại đang là một mô hình 
hiệu quả đối với các bài toán trong lĩnh vực Xử lý ngôn ngữ tự nhiên. 
Hình 3. Ma trận nhầm lẫn giữa các nhãn lưu trữ của mô hình BERT 
Hình 2 mô tả kết quả chi tiết các độ đo của từng nhãn lưu trữ trên tập kiểm tra. Chúng ta có 
thể thấy rằng, các nhãn lưu trữ có kết quả F1 thấp lần lượt là nhãn “2 năm”, “50 năm” và “70 
năm”. Nếu xét về số lượng dữ liệu cho mỗi nhãn trong tập huấn luyện thì các nhãn “50 năm” và 
“70 năm” có số lượng mẫu huấn luyện thấp nhất trong toàn bộ dữ liệu, tuy nhiên đối với nhãn “2 
năm” có số lượng dữ liệu tương đối nhưng kết quả lại thấp nhất trong tất cả các nhãn. Để trả lời 
câu hỏi này, chúng tôi kiểm tra sự phân loại của mô hình thông qua ma trận nhầm lẫn. Nhìn vào 
Hình 3, chúng ta có thể thấy rằng, nhãn “2 năm” bị dự đoán hầu hết thành nhãn “20 năm” với 66 
mẫu dữ liệu, để trả lời câu hỏi này, chúng tôi tiến hành phân tích lại dữ liệu huấn luyện đã được 
gán nhãn bởi các chuyên gia lưu trữ. Chúng tôi nhận ra được vấn đề như sau: (1) Dữ liệu chưa có 
sự đồng nhất cao do chúng tôi thu thập dữ liệu thực tế từ nhiều UBND khác nhau cho nên các 
chuyên gia gán nhãn cho hồ sơ chưa có đồng thuận cao, ví dụ như nhãn hồ sơ “chứng thực chữ 
ký” các chuyên gia có lúc gán nhãn “2 năm”, có lúc gán nhãn “20 năm”, hồ sơ “hợp đồng chuyển 
nhượng quyền sử dụng đất” các chuyên gia khi thì gán nhãn “70 năm”, khi thì gán “Vĩnh viễn”, 
v.v. Cho nên, khi huấn luyện mô hình cho kết quả phân lớp giữa cặp nhãn “2 năm” và nhãn “20 
năm” cũng như nhãn “70 năm” và nhãn “Vĩnh viễn” thường tỷ lệ cao dự đoán sai lệch với nhau. 
Do đó, khi đưa vào thực tế, chúng ta nên kiểm tra lại các dữ liệu gán nhãn bởi các chuyên gia và 
đánh giá độ đồng thuận, sau đó xây dựng mô hình và áp dụng cho các cơ quan. Từ đó, kết quả 
lưu trữ sẽ đồng nhất giữa các cơ quan quản lý văn thư - lưu trữ. 
TNU Journal of Science and Technology 226(07): 41 - 49 
 48 Email: jst@tnu.edu.vn 
6. Kết luận và hướng phát triển 
Trong bài báo này, chúng tôi đã nghiên cứu các giải pháp tự động phân loại tên hồ sơ bảo 
quản sử dụng các phương pháp máy học nhằm hỗ trợ cán bộ, công chức làm việc tại các UBND 
cấp xã góp phần vào ứng dụng công nghệ thông tin trong công tác văn thư, lưu trữ. Hiện nay, nhu 
cầu về việc tra cứu và gán nhãn thời hạn bảo quản cho số lượng lớn hồ sơ tại các UBND cấp xã 
rất cần thiết. Do đó, việc sử dụng các mô hình máy học để phân loại tự động tên hồ sơ theo thời 
hạn bảo quản giúp nâng cao ý thức bảo vệ hồ sơ của cán bộ, công chức. Mặt khác, còn hỗ trợ cán 
bộ, công chức trong việc đưa ra quyết định tiêu hủy hồ sơ hết thời hạn bảo quản một cách chính 
xác. Kết quả thực nghiệm minh chứng mô hình BERT cho kết quả phân loại hiệu quả hơn so với 
các mô hình khác với độ chính xác là 93,10%, độ phủ là 90,68% và chỉ số F1 là 91,49%. Điều 
này cho thấy sự hiệu quả vượt trội của kiến trúc BERT đối với các bài toán phân loại hồ sơ theo 
thời hạn bảo quản. Các kết quả nghiên cứu trong đề tài này cho thấy các mô hình máy học có thể 
dễ dàng áp dụng vào các bài toán thực tế trong mô hình quản lý. 
TÀI LIỆU THAM KHẢO/ REFERENCES 
[1] N. V. Ket, “Clerical - archive 4.0”: premise, scientific - legal basis and basic features,” Proceedings of 
scientific seminars: Management and confidentiality of electronic documents in the context of the 
industrial revolution 4.0: Current situation - Solutions, HCM City National University Publisher, 
2018, pp. 41-52. 
[2] H. Q. Cuong, “Identify documents archived during the operation of the commune-level government in 
Ho Chi Minh City,” Master thesis, Ho Chi Minh City University of Science and Humanities, 2017. 
[3] N. T. T. Huong and D. M. Trung, “Applying the random forest classification algorithm to develop land 
cover map of Dak Lak based on 8-olive landsat satellite image,” Journal of Agriculture and Rural 
Development, vol. 13, pp. 122-129, 2018. 
[4] T. C. De and P. N. Khang, “Text classification with Support Vector Machine and Decision Tree,” Can 
Tho University Journal of Science, vol. 21a, pp. 52–63, 2012. 
[5] D. T. Thanh, N. Thai-Nghe, and T. Thanh, “Solutions to classify scientific articles by machine 
learning,” Can Tho University Journal of Science, vol. 55, pp. 29-37, 2019. 
[6] T. N. T. Sau, D. V. Thin, and N. L. T Nguyen, “Classification of file names in Vietnamese according to 
the preservation period,” The conference on Information Technology and Its Applications, 2019, pp. 
198-206. 
[7] S. Xu, “Bayesian naıve bayes classifiers to text classification,” Journal of Information Science, vol. 44, 
no. 1, pp. 48-59, 2018. 
[8] Y. Kim, “Convolutional neural networks for sentence classification,” Proceedings of the 2014 
Conference on Empirical Methods in Natural Language Processing (EMNLP), 2014, pp. 1746-1751. 
[9] K. Kowsari, D. E. Brown, M. Heidarysafa, K. J. Meimandi, M. S. Gerber, and L. E. Barnes, “Hdltex: 
Hierarchical deep learning for text classification,” Conference on machine learning and applications 
(ICMLA), 2017, pp. 364-371. 
[10] K. Kowsari, M. Heidarysafa, D. E. Brown, K. J. Meimandi, and L. E. Barnes, “Rmdl: Random 
multimodel deep learning for classification,” International Conference on Information System and 
Data Mining, 2018, pp. 19-28. 
[11] J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova, “Bert: Pre-training of deep bidirectional 
transformers for language understanding”, arXiv preprint arXiv:1810.04805, 2018. 
[12] P. T. Ha and N. Q. Chi, “Automatic classification for vietnamese news,” Advances in Computer 
Science: an International Journal, vol. 4, no. 4, pp. 126-132, 2015. 
[13] N. T. Hai, N. H. Nghia, T. D. Le, and V. T. Nguyen, “A hybrid feature selection method for 
vietnamese text classification,” Conference on Knowledge and Systems Engineering (KSE), IEEE, 
2015, pp. 91-96. 
[14] P. Le-Hong and A.-C. Le, “A comparative study of neural network models for sentence 
classification,” 5th NAFOSTED Conference on Information and Computer Science (NICS), IEEE, 
2018, pp. 360-365. 
[15] K. D. T. Nguyen, A. P. Viet, and T. H. Hoang, “Vietnamese document classification using 
TNU Journal of Science and Technology 226(07): 41 - 49 
 49 Email: jst@tnu.edu.vn 
hierarchical attention networks,” Frontiers in Intelligent Computing: Theory and Applications, 
Springer, 2020, pp. 120-130. 
[16] D. Q. Nguyen and A. T. Nguyen, “PhoBERT: Pre-trained language models for Vietnamese”, arXiv 
preprint, vol. arXiv:2003.00744, 2020. 
[17] T. Vu, D. Q. Nguyen, D. Q. Nguyen, M. Dras, and M. Johnson, “VnCoreNLP: A Vietnamese natural 
language processing toolkit,” Proceedings of the 2018 Conference of the North American Chapter of 
the Association for Computational Linguistics, Jun. 2018, pp. 56-60. 
[18] S. Hochreiter and J. Schmidhuber, “Long short-term memory,” Neural computation, vol. 9, no. 8, pp. 
1735-1780, 1997. 

File đính kèm:

  • pdfung_dung_mo_hinh_bert_cho_bai_toan_phan_loai_ho_so_theo_thoi.pdf