Tổng quan nghiên cứu ứng dụng trí tuệ nhân tạo trong chẩn đoán ung thư vú bằng ảnh giải phẫu bệnh kỹ thuật số
Ung thư vú là một trong những bệnh ung thư
phổ biến nhất được chẩn đoán ở phụ nữ trên
toàn thế giới và nó là nguyên nhân chính gây tử
vong ở phụ nữ. Ở các nước thu nhập thấp và thu
nhập trung bình, tỷ lệ tử vong tương đối cao so
với các quốc gia phát triển. Theo báo cáo năm
2018 của Tổ chức Nghiên cứu Quốc tế về Ung
thư (IARC), hơn 2 triệu phụ nữ trong năm 2018
được chẩn đoán mắc bệnh ung thư vú trên toàn
thế giới. Đây được coi là khoảng 11,6% của tất
cả các bệnh ung thư được chẩn đoán trong cùng
một năm với 626 679 trường hợp tử vong được
báo cáo. Nhiều nghiên cứu đã ước tính rằng vào
năm 2025 sẽ có 19,3 triệu ca ung thư mới. Hơn
nữa, ở các nước đang phát triển bao gồm cả Việt
Nam, dân số đông đúc và người bệnh còn hiểu
biết hạn chế về các triệu chứng bệnh và tìm
kiếm sự tư vấn y khoa khi đã ở giai đoạn muộn
dẫn đến tỷ lệ tử vong cao hơn. Ngoài ra, sự
thiếu hụt các chuyên gia y tế, đặc biệt là các
chuyên gia ở khu vực nông thôn, vùng sâu, vùng
xa làm tăng thêm vấn đề chẩn đoán sớm và
chính xác ung thư vú và góp phần gây ra tỷ lệ tử
vong cao hơn.
Trang 1
Trang 2
Trang 3
Trang 4
Trang 5
Tóm tắt nội dung tài liệu: Tổng quan nghiên cứu ứng dụng trí tuệ nhân tạo trong chẩn đoán ung thư vú bằng ảnh giải phẫu bệnh kỹ thuật số
vietnam medical journal n01 - MARCH - 2021 68 2. Nguyễn Thế Lộc, Nguyễn Đức Lam. Nghiên cứu hiệu quả của phương pháp gây tê tủy sống và ngoài màng cứng phối hợp để mổ và giảm đau sau mổ cắt tử cung hoàn toàn tại bệnh viện phụ sản trung ương. Tạp chí y học thực hành. 2016;1015:218-220. 3. Fusco P, Cofini V, Petrucci E, et al. Transversus Abdominis Plane Block in the Management of Acute Postoperative Pain Syndrome after Caesarean Section: A Randomized Controlled Clinical Trial. Pain Physician. 2016;19(8):583-591. 4. Kahsay DT, Elsholz W, Bahta HZ. Transversus abdominis plane block after Caesarean section in an area with limited resources. Southern African Journal of Anaesthesia and Analgesia. 2017;23(4):90-95. doi:10.1080/22201181.2017.1349361 5. McDonnell JG, O’Donnell BD, Curley G, Heffernan A, Power C, Laffey JG. The Analgesic Efficacy of Transversus Abdominis Plane Block After Abdominal Surgery: A Prospective Randomized Controlled Trial: Anesthesia & Analgesia. 2007;104(1):193-197. doi:10.1213/ 01.ane.0000250223.49963.0f 6. Carney J, McDonnell JG, Ochana A, Bhinder R, Laffey JG. The Transversus Abdominis Plane Block Provides Effective Postoperative Analgesia in Patients Undergoing Total Abdominal Hysterectomy. Anesthesia & Analgesia. 2008;107(6):2056-2060. doi:10.1213/ane.0b013e3181871313 7. Srivastava U, Verma S, Singh TK, et al. Efficacy of trans abdominis plane block for post cesarean delivery analgesia: A double-blind, randomized trial. Saudi Journal of Anaesthesia. 2015;9(3):298. doi:10.4103/1658-354X.154732 8. Belavy D, Cowlishaw PJ, Howes M, Phillips F. Ultrasound-guided transversus abdominis plane block for analgesia after Caesarean delivery. British Journal of Anaesthesia. 2009;103(5):726-730. doi:10.1093/bja/aep235 9. Mishriky BM, George RB, Habib AS. Transversus abdominis plane block for analgesia after Cesarean delivery: a systematic review and meta-analysis. Can J Anaesth. 2012;59(8):766- 778. doi:10.1007/s12630-012-9729-1 TỔNG QUAN NGHIÊN CỨU ỨNG DỤNG TRÍ TUỆ NHÂN TẠO TRONG CHẨN ĐOÁN UNG THƯ VÚ BẰNG ẢNH GIẢI PHẪU BỆNH KỸ THUẬT SỐ Đào Văn Tú, Nguyễn Khắc Dũng, Bùi Thị Oanh, Nguyễn Lê Hiệp, Vũ Đức Hoàn, Đặng Hữu Dũng, Nguyễn Văn Chủ, Bùi Văn Giang, Tạ Văn Tờ(*) TÓM TẮT18 Ung thư vú là bệnh ung thư phổ biến nhất trên nữ giới và là nguyên nhân gây tử vong hàng đầu do ung thư trên toàn thế giới. Cơ sở chính để điều trị ung thư vú là chẩn đoán mô bệnh học, việc chẩn đoán này quyết định hướng điều trị và tiên lượng bệnh. Những tiến bộ trong trí tuệ nhân tạo (AI) cùng với việc vận dụng giải phẫu bệnh kỹ thuật số đã đưa ra một cách tiếp cận đầy hứa hẹn trong việc chẩn đoán, phân loạiung thư vú, đáp ứng được nhu cầu trong thực tế lâm sàng. Trong bài viết này, chúng tôi tổng quan về ứng dụng AI trong chẩn đoán ung thư vú dựa trên ảnh kỹ thuật số hóa giải phẫu bệnh, đồng thời phác thảo những tiềm năng ứng dụngtại Việt Nam. Từ khóa: Ung thư vú, trí tuệ nhân tạo, ảnh giải phẫu bệnh SUMMARY OVERVIEW OF APPLICATION RESEARCH OF ARTIFICIAL INTELLIGENCE ON BREAST CANCER DIAGNOSIS BASED ON DIGITAL (*)Bệnh viện K Chịu trách nhiệm chính: Đào Văn Tú Email: vantu.dao@bvk.org.vn Ngày nhận bài: 29.12.2020 Ngày phản biện khoa học: 22.2.2021 Ngày duyệt bài: 1.3.2021 PATHOLOGY IMAGES Breast cancer is the most common cancer in women and the leading cause of cancer deaths worldwide. The essential basisfor breast cancer treatment is histopathology, which determines the direction of treatment and prognosis of the disease. Advances in artificial intelligence (AI) together with the use of digital pathology have presented a promising approach in breast cancer diagnosis and classification, meeting the real needs clinical practice. In this article, we provide an overview of AI applications in breast cancer diagnostics based on digital pathology images of the disease, and proposethe potentials in application in Vietnam. Keywords: Breast cancer, artificial interligence, pathology image I. ĐẶT VẤN ĐỀ Ung thư vú là một trong những bệnh ung thư phổ biến nhất được chẩn đoán ở phụ nữ trên toàn thế giới và nó là nguyên nhân chính gây tử vong ở phụ nữ. Ở các nước thu nhập thấp và thu nhập trung bình, tỷ lệ tử vong tương đối cao so với các quốc gia phát triển. Theo báo cáo năm 2018 của Tổ chức Nghiên cứu Quốc tế về Ung thư (IARC), hơn 2 triệu phụ nữ trong năm 2018 được chẩn đoán mắc bệnh ung thư vú trên toàn thế giới. Đây được coi là khoảng 11,6% của tất TẠP CHÍ Y HỌC VIỆT NAM TẬP 500 - THÁNG 3 - SỐ 1 - 2021 69 cả các bệnh ung thư được chẩn đoán trong cùng một năm với 626 679 trường hợp tử vong được báo cáo. Nhiều nghiên cứu đã ước tính rằng vào năm 2025 sẽ có 19,3 triệu ca ung thư mới. Hơn nữa, ở các nước đang phát triển bao gồm cả Việt Nam, dân số đông đúc và người bệnh còn hiểu biết hạn chế về các triệu chứng bện ... cứu chật hẹp để tiến đến trở thành một khía cạnh quan trọng được chấp nhận áp dụng trong thực hành lâm sàng. Từ khá sớm đã có một so sánh quy mô lớn về vietnam medical journal n01 - MARCH - 2021 70 hiệu suất chẩn đoán giữa sử dụng giải phẫu bệnh kỹ thuật số hóa và sử dụng kính hiển vi thông thường được tiến hành bởi Mukhopadhyay và cộng sự và bao gồm các mẫu bệnh phẩm từ năm 1992 bệnh nhân với các loại khối u khác nhau được đọc bởi 16 bác sĩ bệnh học [2]. Nghiên cứu cho thấy hiệu suất chẩn đoán với các WSI được số hóa gần bằng với các phương pháp dựa trên kính hiển vi truyền thống (với tỷ lệ chênh lệch chính từ tiêu chuẩn tham chiếu là 4,9% đối với WSI và 4,6% đối với phương pháp vi mô). Nghiên cứu này được sử dụng làm nghiên cứu cốt lõi cho sự chấp thuận của FDA đối với hệ thống giải phẫu bệnh kỹ thuật số hóa của hãng Philips. Tương tự, để theo đuổi sự chấp thuận của FDA cho hệ thống Wper Aperio AT2 DX, Leica Biosystems đã tiến hành một thử nghiệm lâm sàng trên năm địa điểm nghiên cứu liên quan đến hơn 16.000 slide và tìm thấy 97,9% sự phù hợp trong hệ thống (tức là chấp thuận giữa đọc kết quả từ lam kính và đọc hình ảnh kỹ thuật số tại bất kỳ một trung tâm nào). Tác giả Williams và cộng sự đã thực hiện xác nhận lâm sàng việc chẩn đoán ung thư vú từ các ảnh slide kỹ thuật số và tìm thấy sự phù hợp hoàn toàn giữa kết quả đọc trên lam kính và đọc kỹ thuật số trong 98,8% của 694 trường hợp bởi các bác sĩ giải phẫu bệnh chuyên khoa vú đã được học một khóa đào tạo ngắn về giải phẫu bệnh kỹ thuật số hóa. Và chính nhóm tác giả đó đã thực hiện một phân tích hệ thống với cỡ mẫu là 8069 so sánh giữa việc đọc trên lam kính và đọc bằng kỹ thuật số và đã chỉ ra các chẩn đoán trái ngược trong 335 trường hợp (4%) [3]. Một chủ đề nhất quán trong các đánh giá về bệnh lý kỹ thuật số, cả về độ chính xác và hiệu quả chẩn đoán, là việc triển khai thành công phụ thuộc vào thiết kế huấn luyện phù hợp và tích hợp với quy trình công việc hiện có. Ngoài các tác động trực tiếp đến hiệu quả về mặt thời gian trên mỗi lần đọc slide, các lợi ích tiềm năng khác của việc áp dụng giải phẫu bệnh kỹ thuật số hóa bao gồm giảm nguy cơ xác định sai bệnh nhân và slide, giảm nguy cơ mất mô hoặc hỏng-mất chất lượng, theo dõi bệnh nhân và phân bổ khối lượng công việc tốt hơn, dễ dàng lấy lại các trường hợp đã được lưu trữ, và cải thiện đánh giá giải phẫu bệnh từ xa bên cạnh việc tạo điều kiện cho việc hỗ trợ chéo giữa các bệnh viện khác nhau trong việc chẩn đoán ban đầu, báo cáo được thực hiện từ xa tới các phòng labo giải phẫu bệnh được tập trung hóa. Tuy nhiên, một trong những lợi thế quan trọng nhất của WSI đối với chẩn đoán chính là khả năng áp dụng các thuật toán dựa trên AI khác nhau trong quy trình chẩn đoán thông thường. III. ỨNG DỤNG AI TRONG CHẨN ĐOÁN UNG THƯ VÚ BẰNG ẢNH GIẢI PHẪU BỆNH Trong chẩn đoán ung thư, việc bác sĩ giải phẫu bệnh đánh giá bệnh lý dựa trên mô bệnh học phẫu thuật thông qua các ảnh giải phẫu bệnh để được coi là một tiêu chuẩn vàng. Việc chẩn đoán này rất tốn thời gian. Hơn nữa, nó phụ thuộc nhiều vào đánh giá chủ quan, và do đó có sự khác biệt đáng kể giữa các bác sĩ giải phẫu bệnh trong việc đánh giá chẩn đoán. Nghiên cứu của Ozkan và cộng sự báo cáo rằng hai bác sĩ giải phẫu bệnh không thống nhất về sự hiện diện của ung thư ở 31 trong số 407 sinh thiết kim lõi và sự phù hợp tổng thể của điểm Gleason được đánh giá chỉ là 51,7%, mô tả những thách thức trong chẩn đoán ung thư tuyến tiền liệt một cách nhất quán [4]. Do đó, việc phát triển các công cụ có sự hỗ trợ của máy tính là rất quan trọng để tiết kiệm thời gian, tăng độ chính xác và nâng cao tiêu chuẩn hóa trong chẩn đoán cho các nhà giải phẫu bệnh. Đã có sự nỗ lực và thành tựu đáng kể trong việc phát triển xử lý hình ảnh kỹ thuật số và các phương pháp dựa trên máy học để phân tích tự động các hình ảnh bệnh lý để thực hiện phân loại mô và phân loại bệnh, cũng như dự đoán kết quả bệnh và nâng cao độ chính xác của y học. Những tiến bộ gần đây trong nghiên cứu máy học liên quan đến mạng nơ-ron sâu, tức là học sâu (deep learning), đã làm tăng thành công hiệu suất của các phân tích như vậy. Tuy nhiên, các mô hình học sâu được đề xuất thường yêu cầu lượng dữ liệu chú thích đáng kể để được đào tạo thành công. Vì kích thước nhóm thuần tập (cohort) có thể nhỏ và việc chú thích hình ảnh mô bệnh học rất mất thời gian, một khái niệm được gọi là học chuyển giao (transfer learning), tức là đào tạo mạng nơ-ron với tập dữ liệu bên ngoài và sau đó tinh chỉnh mô hình với tập dữ liệu có sẵn, có thể chứng tỏ mang lại lợi ích. Cách tiếp cận như vậy để tinh chỉnh một mô hình được đào tạo trước đã được chứng minh là có hiệu quả tốt hơn việc đào tạo cùng một kiến trúc mạng nơ-ron từ đầu trong các nghiên cứu liên quan đến phân tích hình ảnh bệnh lý kỹ thuật số. Học chuyển giao có nhiều thuận lợi đối với việc tương thích khi mà các hình ảnh thu được bằng loại kính hiển vi hoặc quy trình nhuộm khác nhau. Một trong những thách thức chính trong giải phẫu bệnhkỹ thuật số là kích thước tuyệt đối của TẠP CHÍ Y HỌC VIỆT NAM TẬP 500 - THÁNG 3 - SỐ 1 - 2021 71 WSI. Một hình ảnh thu được ở mức phóng đại 20X có thể chứa vài tỷ pixel, trong khi vùng quan tâm (Region of Interest - ROI) có thể nhỏ chỉ vài nghìn pixel. Để áp dụng bộ phân loại học sâu, WSI phải được chia thành nhiều nghìn ô, với bộ phân loại (classifier) sau đó được áp dụng độc lập trên mỗi ô. Bước đầu tiên quan trọng trong quá trình chẩn đoán nghi ngờ ung thư vú là phát hiện các tế bào khối u xâm lấn, đặc tính của khối u và định lượng mức độ khối u (tumor). Cruz-Roa và cộng sự đã xây dựng mô hình mạng nơ-ron tích chập (CNN - convolutional neural networks) để phân loại các mảng hình ảnh từ trích ra từ WSI của ung thư vú có chứa ung thư loại ống xâm nhập hay không [5]. Nhóm tác giả đã sử dụng việc gán nhãn vùng chú thích thủ công đối với 400 mẫu slide từ nhiều cơ sở khác nhau để huấn luyện mô hình của mình và xác thực hiệu suất của nó trên 200 slide với chú thích tương tự từ The Cancer Genome Atlas. Tác giả báo cáo chỉ số F1 score (một loại chỉ số đo lường độ chính xác của mô hình tương tự ROC và AUC) ở mức pixel là 75,86%. Han và cộng sự [6] đã sử dụng bộ dữ liệu BreaKHis để huấn luyện một bộ phân loại có thể phân biệt giữa tám loại khối u vú lành tính và ác tính với độ chính xác 93,2%. Mô hình của họ được tiền xử lý trên imagenet và họ sử dụng dữ liệu mở rộng để ngăn chặn việc mô hình quá khớp (overfitting) của dữ liệu. Một trong những ứng dụng chẩn đoán sử dụng học máy (machine learning) nổi bật cho bệnh ung thư vú là chẩn đoán di căn hạch. Bejnori và cộng sự báo cáo về hiệu suất của bảy thuật toán học sâu được phát triển như một phần của cuộc cạnh tranh đầy thách thức; các thuật toán đã được tìm thấy vượt trội hơn một nhóm gồm 11 chuyên gia GPB trong một bối cảnh chẩn đoán hạn chế về thời gian được mô phỏng [7]. Trên cơ sở dữ liệu huấn luyện bao gồm 270 hình ảnh từ hai trung tâm có (n = 110) và không có (n = 160) di căn hạch, và đánh giá trên một bộ ảnh độc lập gồm 129 hình ảnh (49 có và 80 không có di căn), AUC của thuật toán tốt nhất là 0,99, trong khi hiệu suất tốt nhất của một chuyên gia GPB đạt được AUC là 0,88. Trong một nghiên cứu tương tự có 6 chuyên giaGPB đã xem xét 70 slide được số hóa có và không có sự trợ giúp học máy với thời gian xem xét được sử dụng làm một kết điểm chính, thời gian xem xét trung bình ngắn hơn đáng kể với có hỗ trợ hơn là không có hỗ trợ của học máy cho ra kết luận hình ảnh vi di căn (nhanh hơn 1,9 lần) và hình ảnh mà không có bất kỳ di căn nào (nhanh hơn 1,2 lần). Ngoài việc xác định khối u, các phương pháp AI và học máy đã được sử dụng để mô tả sự xâm lấn của khối u vú và phân loại mô học của ung thư vú (do mức độ phù hợp tương đối thấp đối với các đánh giá mang tính chủ quan mặc dù nó có giá trị tiên lượng quan trọng). Các đặc điểm khác nhau ở cấp độ tế bào và cấp độ mô có thể được xác định để mô tả cấu trúc hình thái của các đối tượng để phân biệt giữa các thành phần mô học, ví dụ, tế bào khối u/biểu mô (đối với sự hình thành ống) và tế bào phân bào (cho đếm số lượng phân bào). Tuy nhiên, hầu hết các công việc trong lĩnh vực này tập trung vào phát hiện sự phân bào, đây là cái có giá trị tiên lượng nhất nhưng cũng tiêu tốn nhiều công sức nhất. Năm 2013, Veta và cộng sự đề xuất một thách thức phát hiện sự phân bào tại cộng đồng với một bộ dữ liệu chứa bộ 12 slide huấn luyện (training), 11 slide để kiểm tra (testing) và khoảng 1000 số liệu phân bào đã được chú thích. Người chiến thắng trong thử thách này đã sử dụng mạng CNN với 10 lớp để đạt được 0,61 điểm F1 tổng (F1 score - một chỉ số đánh giá độ tin cậy hay được sử dụng trong học máy) so với sự đồng thuận của các chuyên giaGPB, trong khi đó, chuyên giaGPBđạt được> 0,75 điểm F1 tổng. Năm 2019, Veta và cộng sự đã công bốkết quả một thử thách tiếp theo (TUPAC16 challenge) tập trung vào đánh giá sự phân bàotrên slide GPB (liên quan tới đánh giá độ mô học của khối u) [8]. Hệ thống chiến thắng trong thử thách này đã đạt được mức kappa Cohen (chỉ số đánh giá mức độ tương đồng) là 0,56 so với kết quả các chuyên gia GPB và đạt được điểm F1 =0,65 về chẩn đoán độ biệt hóa của khối u.Do bản chất của việc mất nhiều công sức trong việc đếm số lượng phân bào có thể dẫn đến mức độ tương đồng thấp giữa các chuyên gia. Nhuộm Phospho-Histone H3 (PHH3), công đoạn giúp phát hiện phân bào ở độ nhạy cao, là phương pháp hóa mô miễn dịch đã được áp dụng để giải quyết bài toán này. Tellez và cộng sự sử dụng máy scankết nối tới các mẫu nhuộm PHH3 và nhuộm H&E để tạo chú thích (annotation) cho hệ CNN. Vì là làm với mẫu PHH3, các nhà nghiên cứu đã phải thu thập lên tới hơn 22.000 chú thích từ khoảng 100 slide. Hệ CNN này đã không đạt chiến thắng trên TUPAC16 challenge, nguyên nhân là có thể gây ra bởi sự biến thiên của chú thích. Tuy nhiên, công việc tiếp theo của các tác giả này cho thấy rằng việc sử dụng hệCNN để phát hiện phân bào giống như như một trợ lý hỗ trợ có thể giúp cải thiện mức độ tương đồng kết vietnam medical journal n01 - MARCH - 2021 72 quả chẩn đoán giữa các chuyên gia GPB [9]. Sự hình thành vi ống và cấp độ hạt nhân là hai thành phần quan trọng khác trong phân loại mô bệnh học của ung thư vú. Tuy nhiên, các phương pháp hoàn toàn tự động cho hai nhiệm vụ này vẫn đang được phát triển. Công việc được công bố hiện tại tập trung vào phân tích cấu trúc mô có thể được sử dụng cho các nhiệm vụ này. Romo-Bucheli và cộng sự đã huấn luyện một mô hình CNN để phát hiện các hạt nhân vi ống và tính toán số liệu thống kê về các hạt nhân để dự đoán các phân loại rủi ro Oncotype DX. Veta và cộng sự đề xuất một loạt các thuật toán phi CNN để phân đoạn và phát hiện hạt nhân. Những phân đoạn này sau đó được sử dụng để phát hiện hạt nhân để phân tích hình thái sâu hơn nữa [9]. IV. KẾT LUẬN Những tổng quan về những tiến bộ giải phẫu bệnh học kỹ thuật số và áp dụng trong ung thư vú trên thế giới đã cho thấy tiềm năng của việcxây dựng và triển khai ứng dụng AI trong chẩn đoán bệnh lý các bệnh ung thư nói chung và ung thư vú nói riêngtrên người Việt Nam. Ứng dụng AI trong chẩn đoán Ung thư vú dựa trên ảnh giải phẫu bệnh kỹ thuật số hóa sẽ giúp giải quyết những thách thức còn đang tồn tại trong lĩnh vực này và hứa hẹn sẽ mang lại những kết quả đột phá trong tương lai ở Việt Nam. TÀI LIỆU THAM KHẢO 1. Prewitt J.M. và Mendelsohn M.L. (1966). The analysis of cell images. Ann N Y Acad Sci, 128(3), 1035–1053. 2. Mukhopadhyay S., Feldman M.D., Abels E. và cộng sự (2018). Whole Slide Imaging Versus Microscopy for Primary Diagnosis in Surgical Pathology: A Multicenter Blinded Randomized Noninferiority Study of 1992 Cases (Pivotal Study). Am J Surg Pathol, 42(1), 39–52. 3. Williams B.J., DaCosta P., Goacher E. và cộng sự (2017). A Systematic Analysis of Discordant Diagnoses in Digital Pathology Compared With Light Microscopy. Arch Pathol Lab Med, 141(12), 1712–1718. 4. Ozkan T.A., Eruyar A.T., Cebeci O.O. và cộng sự (2016). Interobserver variability in Gleason histological grading of prostate cancer. Scand J Urol, 50(6), 420–424. 5. Cruz-Roa A., Gilmore H., Basavanhally A. và cộng sự (2017). Accurate and reproducible invasive breast cancer detection in whole-slide images: A Deep Learning approach for quantifying tumor extent. Sci Rep, 7, 46450. 6. Han Z., Wei B., Zheng Y. và cộng sự (2017). Breast Cancer Multi-classification from Histopathological Images with Structured Deep Learning Model. Sci Rep, 7(1), 1–10. 7. Ehteshami Bejnordi B., Veta M., Johannes van Diest P. và cộng sự. (2017). Diagnostic Assessment of Deep Learning Algorithms for Detection of Lymph Node Metastases in Women With Breast Cancer. JAMA, 318(22), 2199–2210. 8. Veta M., Heng Y.J., Stathonikos N. và cộng sự. (2019). Predicting breast tumor proliferation from whole-slide images: The TUPAC16 challenge. Med Image Anal, 54, 111–121. 9. Veta M., Kornegoor R., Huisman A. và cộng sự. (2012). Prognostic value of automatically extracted nuclear morphometric features in whole slide images of male breast cancer. Mod Pathol Off J U S Can Acad Pathol Inc, 25(12), 1559–1565. ĐÁNH GIÁ HIỆU QUẢ DỰ PHÒNG NÔN, BUỒN NÔN BẰNG DEXAMETHASON 8MG VÀ ONDASETRON 4MG TRONG GÂY TÊ TỦY SỐNG BẰNG BUPIVACAIN VÀ MORPHIN TRONG MỔ LẤY THAI Phạm Thị Anh Tú*, Công Quyết Thắng**, Lưu Quang Thùy*** TÓM TẮT19 Mục tiêu: Đánh giá hiệu quả dự phòng nôn và buồn nôn bằng dexamethasone 8mg và ondansetron 4mg trong gây tê tủy sống bằng bupivacain và morphin sulphat để mổ lấy thai thực hiện tại bệnh *Bệnh viện phụ sản Hải Phòng **Đại học Y Hà Nội ***Bệnh viện Việt Đức Chịu trách nhiệm chính: Phạm Thị Anh Tú Email: phamthianhtu@gmail.com Ngày nhận bài: 4.01.2021 Ngày phản biện khoa học: 26.2.2021 Ngày duyệt bài: 8.3.2021 viện phụ sản Hải phòng trong thời gian từ tháng 10/2018 đến tháng 2/2019. Phương pháp nghiên cứu: Thử nghiệm lâm sàng ngẫu nhiên tiến cứu có so sánh. Nhóm đối chứng (nhóm 1): sử dụng thuốc chống nôn bằng dexamethasone 8mg và nhóm nghiên cứu (nhóm 2): có sử dụng phối hợp thuốc chống nôn dexamethasone 8mg và ondansetron 4mg. Kết quả nghiên cứu: Tỷ lệ nôn - buồn nôn ở nhóm sử dụng đơn thuần dexamethasone (với 15,6%) cao hơn so với nhóm sử dụng phối hợp phối hợp dexamethasone và ondansetron (với 6,9%) với sự khác biệt có ý nghĩa thống kê. Mức độ nôn - buồn nôn ở nhóm sử dụng đơn thuần dexamethason nặng hơn so với nhóm sử dụng phối hợp dexamethasone và ondansetron ở tất cả các các mức độ. Kết luận: Nên sử dụng phối hợp
File đính kèm:
- tong_quan_nghien_cuu_ung_dung_tri_tue_nhan_tao_trong_chan_do.pdf