Phương pháp ước lượng xác suất thứ cấp dựa trên lý thuyết Entropy cực đại trong ứng dụng nén dữ liệu

Mô hình hóa dữ liệu và mã hóa là hai quá trình quan trọng nhất của nén dữ liệu. Mã hóa được thực hiện tối ưu và hiệu quả với mã hóa số học. Tuy nhiên không thể tính toán mô hình tối ưu cho một nguồn dữ liệu cho trước. Bài báo sẽ giới thiệu phương pháp ước lượng xác suất thứ cấp. Trong đó mỗi mô hình sơ cấp ước lượng xác suất bit tiếp theo là bit 1 hoặc bit 0 một cách độc lập. Các xác suất ước lượng được kết hợp lại với nhau bằng phương pháp tương tự như mạng nơtron. Sau khi bit được mã hóa, bộ ước lượng được cập nhật theo hướng tối thiểu chi phí mã hóa thay vì theo hướng giảm sai số dự đoán.

pdf6 trang | Chia sẻ: tuandn | Lượt xem: 2645 | Lượt tải: 4download
Bạn đang xem nội dung tài liệu Phương pháp ước lượng xác suất thứ cấp dựa trên lý thuyết Entropy cực đại trong ứng dụng nén dữ liệu, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
Tuyển tập Báo cáo Hội nghị Sinh viên Nghiên cứu Khoa học lần thứ 7 Đại học Đà Nẵng năm 2010 222 PHƢƠNG PHÁP ƢỚC LƢỢNG XÁC SUẤT THỨ CẤP DỰA TRÊN LÝ THUYẾT ENTROPY CỰC ĐẠI TRONG ỨNG DỤNG NÉN DỮ LIỆU SECONDARY PROBABILITY ESTIMATION METHODS BASED ON MAXIMUM ENTROPY PRINCIPLE IN DATA COMPRESSION APPLICATIONS SVTH: Nguyễn Hải Triều Anh Lớp 05DT1, Khoa Điện tử Viễn thông, Trường Đại học Bách khoa GVHD: ThS. Hoàng Lê Uyên Thục Khoa Điện tử Viễn thông, Trường Đại học Bách khoa TÓM TẮT Mô hình hóa dữ liệu và mã hóa là hai quá trình quan trọng nhất của nén dữ liệu. Mã hóa được thực hiện tối ưu và hiệu quả với mã hóa số học. Tuy nhiên không thể tính toán mô hình tối ưu cho một nguồn dữ liệu cho trước. Bài báo sẽ giới thiệu phương pháp ước lượng xác suất thứ cấp. Trong đó mỗi mô hình sơ cấp ước lượng xác suất bit tiếp theo là bit 1 hoặc bit 0 một cách độc lập. Các xác suất ước lượng được kết hợp lại với nhau bằng phương pháp tương tự như mạng nơtron. Sau khi bit được mã hóa, bộ ước lượng được cập nhật theo hướng tối thiểu chi phí mã hóa thay vì theo hướng giảm sai số dự đoán. ABSTRACT Data modeling and coding is two most important processes of data compression. An optimal and effective coding process can be implemented using arithmetic coding. However, optimal model is not computable. This paper introduces a secondary probability estimation method. In this method, each primary model independently estimates the probability that the next bit of data is 0 or 1. Results of estimation are combined by using a method similar to a neural network. After a bit is coded, the estimator will be updated in the direction that minimizes coding cost instead of the direction that minimizes mean square error. 1. Đặt vấn đề Nén dữ liệu là biện pháp nhằm giảm số bit cần dùng để lưu trữ hoặc truyền dữ liệu. Các thuật toán nén có hai quá trình thiết yếu nhất là quá trình ước lượng phân bố xác suất và quá trình mã hóa. Người ta đã chứng minh được rằng không thể tìm ra ước lượng phân bố xác suất tối ưu cho một nguồn cho trước [1][2]. Tuy nhiên quá trình mã hóa có thể được thực hiện hiệu quả và tối ưu với mã hóa số học [3]. Độ dài từ mã trung bình mà bộ mã hóa tạo ra bị giới hạn bởi entropy của nguồn. Giả sử biến ngẫu nhiên x nhận giá trị thuộc tập X={x1, x2, …}; mỗi giá trị xi có xác suất là pi, lí thuyết thông tin [4] định nghĩa entropy của x là: ) 1 (log)( 2 ii i p pxH (1) Entropy của nguồn tin được xác định nếu ta biết trước được phân bố xác suất của nguồn đó. Tổng quát thì phân bố xác suất của nguồn là không thể biết trước đồng thời phân bố tối ưu của nguồn là không tính toán được, vì vậy chỉ có thể thực hiện ước lượng các giá trị ip . Do đó tính hiệu quả của một thuật toán nén dữ liệu phụ thuộc chủ yếu vào quá trình ước Tuyển tập Báo cáo Hội nghị Sinh viên Nghiên cứu Khoa học lần thứ 7 Đại học Đà Nẵng năm 2010 223 lượng xác suất. Mặt khác để ước lượng xác suất ip của sự kiện xi người ta có thể sử dụng nhiều phương pháp, nhiều cách tiếp cận khác nhau. Bài toán đặt ra là thực hiện kết hợp ước lượng xác suất từ các bộ ước lượng sơ cấp để tạo ra phân bố xác suất thích hợp nhất nhằm mã hóa nguồn tin hiệu quả nhất. 2. Phƣơng pháp kết hợp dựa trên lí thuyết entropy cực đại 2.1. Cơ sở lí thuyết Ta xét biến ngẫu nhiên x nhận giá trị thuộc tập X={x1, x2, …, xn}. Xác suất ước lượng của xi với ni ,1 từ m bộ ước lượng sơ cấp khác nhau là )( iS xP k , với mk ,1 . Xác suất ước lượng tại đầu ra của bộ kết hợp là )( iM xP . Các điều kiện ràng buộc của )( iM xP [5]: - Entropy: ) )( 1 (log)()( 1 2 iM n i iM xP xPxH (2) - Kì vọng của các xác suất sơ cấp: n i iSiMk xPxPF k 1 )().( (3) - Mặt khác )( iM xP phải thỏa mãn: n i iM xP 1 1)( (4) Áp dụng phương pháp số nhân Lagrange với các điều ràng buộc như trên. Định nghĩa các hằng số , k ( mk ,1 ) và hàm Lagrange L: m k kiS n i iMk n i iM FxPxPxPxHL k 1 11 )])(.)(([)1)(()( (5) Lý thuyết entropy cực đại dựa trên tiền đề là khi ước lượng phân bố xác suất với các ràng buộc cho trước ta nên chọn phân bố có entropy cực đại [5][6]. Có nghĩa là tìm , k ( mk ,1 ), và )( iM xP ( ni ,1 ) sao cho L lớn nhất [5]. Tức là xác suất tại đầu ra )( iM xP phải thỏa mãn điều kiện 0 )( iM xP L và các điều kiện (2)(3)(4). Suy ra: n i xP xP iM m k ikSk m k ikSk xP 1 )(. )(. 1 1 2 2 )( (6) Các giá trị k có thể được xác định bằng phương pháp lặp tổng quát và đảm bảo sẽ hội tụ đến nghiệm duy nhất [6]. Dựa vào công thức (6) ta thấy: để có thể kết hợp các bộ dự đoán một cách đơn giản nhất thì các bộ dự đoán phải là các bộ dự đoán nhị phân (dự đoán từng bit). Gọi P là xác suất bit tiếp theo là bit 1, xác suất bit tiếp theo là bit 0 là (1-P). Tương tự gọi kS P là xác Tuyển tập Báo cáo Hội nghị Sinh viên Nghiên cứu Khoa học lần thứ 7 Đại học Đà Nẵng năm 2010 224 suất sơ cấp bit tiếp theo là bit 1 thì (1- kS P ) là xác suất sơ cấp bit tiếp theo là bit 0. Công thức (6) có thể viết lại: m k kSk P P 1 )12( 21 1 (7) Gọi y là bit vừa mã hóa, u là số bit để mã hóa y. Theo lí thuyết thông tin [4]: Pu 2log khi y = 1 và )1(log 2 Pu khi y = 0 Tương đương với: ])12(1[log 2 Pyyu (8) Vi phân từng phần của (8) theo k ta được: )12)(( kS k PPy u (9) Sau khi mã hóa bit y, các trọng số k được cập nhật sao cho số bit cần dùng để mã hóa thay đổi ngược chiều với chiều biến thiên của u theo k : )12)((: kSkk PPy (10) Với là hệ số học. có thể là một hằng số cho trước (ví dụ 0.01) hoặc thay đổi thích nghi như [6]. Kí hiệu:= biểu thị cho phép gán. Hiệu (y-P) chính là sai số dự đoán. Dựa vào công thức (8) và (10) ta thấy bộ kết hợp tương tự như một mạng nơtron perceptron gồm 2 lớp trong đó lớp đầu vào có m nút, lớp ra có 1 nút với hàm ngưỡng là x g 21 1 . Đầu ra của nơtron i của lớp vào là 12Pr iSi P , đầu ra của nơtron lớp ra là )Pr( 1 m k kkgP , hàm truyền ngược là kkk Py Pr)(: . 2.2. Phương pháp thực hiện (hình 1) Dữ liệu nguồn được tiền xử lí bằng thuật toán LZ tiên đoán nhằm giảm bớt kích thước. Đầu ra của bộ tiền xử lí được đưa vào 4 bộ ước lượng xác suất sơ cấp kS P . Các giá trị xác suất thuộc đoạn [0, 1) được biểu diễn bằng các số nguyên trong đoạn [0,8192). Hàm sigmoid x g 21 1 được tính toán trước và thực hiện dưới dạng bảng tra với x mang giá trị trong đoạn [-8192, 8192) biểu diễn cho dải từ -16 đến 16 với độ phân giải 92 . Giá trị 4 1 Pr k kkx lưu trong một thanh ghi 32 bit. Sau đó x được chuẩn hóa đến dải giá trị đầu vào của hàm sigmoid. Hình 1. Thủ tục mã hóa một bit Tuyển tập Báo cáo Hội nghị Sinh viên Nghiên cứu Khoa học lần thứ 7 Đại học Đà Nẵng năm 2010 225 Xác suất kết hợp từ 4 bộ ước lượng xác suất sơ cấp sẽ được dùng để mã hóa bit y bằng phương pháp mã hóa số học. Sau khi mã hóa, các giá trị k được điều chỉnh nhằm làm giảm số bit dùng để mã hóa, đồng thời cập nhật các bộ ước lượng sơ cấp. Hệ số học được chọn trước có dạng l2 , với 0,26l nhằm mục đích thay thế phép nhân với trong công thức (10) bằng phép dịch bit. 2.3. Kết quả và đánh giá 2.3.1. So sánh với phương pháp kết hợp được sử dụng trong chuẩn ZPAQ Bài báo thực hiện so sánh 3 phương pháp kết hợp khác nhau. Phương pháp thứ nhất thực hiện tính trung bình cộng các xác suất sơ cấp. Phương pháp thứ hai là phương pháp đã nêu ở mục 2.1. Phương pháp thứ ba là phương pháp của chuẩn ZPAQ, phương pháp này tương tự như phương pháp thứ hai, tuy nhiên đầu ra của nơtron i của lớp vào là )(Pr 1 iSi Pg với )(1 xg là hàm ngược của g(x) thay vì 12Pr iSi P . Ở cả ba phương pháp, các bộ dự đoán sơ cấp nhằm dự đoán xác suất của bit tiếp theo là hoàn toàn giống nhau. Hệ số học được chọn bằng 172 . Dữ liệu để kiểm chứng là Calary.tar [1] và enwik8 [1]. Calgary là tập hợp các file văn bản và file nhị phân thường dùng để so sánh các thuật toán nén dữ liệu. Tập hợp này có 14 file gồm các bài báo khoa học, mã nguồn, ảnh bitmap và chương trình thực thi. Tất cả được đóng gói thành một file TAR* (tape archive: định dạng lưu trữ không nén khá phổ biến) nhằm đánh giá khả năng thích nghi của thuật toán với nguồn dữ liệu có phân bố thay đổi. Enwik8 là 810 byte dữ liệu đầu tiên của bách khoa toàn thư mở wikipedia ngày 3/3/2006. Hiện nay enwik8 cũng được dùng với mục đích tương tự như bộ dữ liệu calgary. Bảng 1. Kết quả so sánh các phương pháp ước lượng thứ cấp Phương pháp 1 Phương pháp 2 Phương pháp 3 File Kích thước (byte) Kích thước sau khi nén (byte) Thời gian nén (s) Kích thước sau khi nén (byte) Thời gian nén (s) Kích thước sau khi nén (byte) Thời gian nén (s) Calgary.tar 3152896 1031116 1.015 976056 1.516 939918 1.738 Enwik8 100000000 33154937 31.778 31825330 44.964 30390024 50.056 2.3.2. Ảnh hưởng của hệ số học Sử dụng phương pháp kết hợp thứ hai, ta thay đổi hệ số học để xem xét ảnh hưởng của nó tới kích thước file sau khi nén. Bằng phương pháp thử - sai - sửa ta thấy giá trị 172 là phù hợp. Bảng 2. Kích thước file nén (byte) khi thay đổi hệ số học Kích thước gốc (byte) 122 152 162 172 182 192 Calgary.tar 3152896 7203636 980534 977378 976056 975690 975850 Enwik8 100000000 244105971 31968473 31866841 31825330 31813578 31816184 2.3.3. Đánh giá Theo lí thuyết chiều dài mô tả ngắn nhất [2] ta suy ra phương pháp kết hợp ước Tuyển tập Báo cáo Hội nghị Sinh viên Nghiên cứu Khoa học lần thứ 7 Đại học Đà Nẵng năm 2010 226 lượng cho file nén nhỏ nhất là mô hình chính xác nhất. Đo đó phương pháp kết hợp sử dụng trong chuẩn ZPAQ là phương pháp tốt nhất trong ba phương pháp trên Trung bình cộng của các xác suất ước lượng sơ cấp không phải là phân bố xác suất mô tả nguồn thích hợp. Phương pháp kết hợp được sử dụng trong ZPAQ thay thế 12Pr iSi P trong công thức (8) và (10) bằng: ) 1 (log)(Pr 2 1 i i i S S Si P P Pg (11) Đặc điểm của hàm )(1 xg là độ dốc của nó thay đổi chậm khi x nằm gần giá trị 0.5 và thay đổi rất nhanh khi x nằm gần giá trị 0 hoặc 1. Phương pháp của ZPAQ đạt tỉ lệ nén cao chứng tỏ xác suất từ bộ ước lượng càng gần với giá trị 0 hoặc 1 thì độ tin cậy của chúng càng cao, và xác suất càng gần với giá trị 0.5 thì độ tin cậy chúng càng thấp. Phương pháp suy ra từ lí thuyết entropy cực trị không đạt hiệu quả cao nhất là do phương pháp này không xem xét đến độ tin cậy của xác suất được ước lượng. Phương pháp kết hợp cho tỉ lệ nén càng cao thì càng chậm. Tùy theo mục đích thiết kế mà ta lựa chọn phương pháp thích hợp. Hệ số học có tác động rất lớn đến hiệu quả nén dữ liệu, và cần lựa chọn cẩn thận nếu không sẽ không đạt hiệu quả như mong muốn. 3. Kết luận Bài báo đã giới thiệu một phương pháp kết hợp hiệu quả các bộ dự đoán dựa trên lí thuyết entropy cực đại. Đồng thời cho thấy khi kết hợp các xác suất ta cần quan tâm đến độ tin cậy của nó. Do ứng dụng trong nén dữ liệu cho nên bộ kết hợp được huấn luyện trực tuyến (online-training) theo hướng giảm số bit dùng để mã hóa một bit dữ liệu thay vì huấn luyện theo hướng giảm sai số ước lượng. Để ước lượng chính xác hơn ta phải tăng số lượng và độ chính xác của các bộ ước lượng sơ cấp. Ưu điểm lớn nhất của phương pháp này là có thể xây dựng nhiều bộ ước lượng sơ cấp khác nhau cho các kiểu dữ liệu khác nhau, rồi kết hợp các ước lượng đó để tạo ra xác suất ước lượng tốt nhất. Vì vậy ta dễ dàng tạo ra thuật toán nén dữ liệu làm việc tốt đối với nhiều nguồn dữ liệu khác nhau như hình ảnh, văn bản, âm thanh, video … TÀI LIỆU THAM KHẢO [1] Matt Mahoney (2010), Data compression explain, Ocarina Networks, Section 1 and section 4. [2] Volker Nannen (2003), A Short Introduction to Model Selection, Kolmogorov Complexity and Minimum Description Length [3] Khalid Sayood (2003), Lossless compression handbook, Academic Press, Chapter 5 [4] C.E.Shannon (1948), “A Mathematical Theory of Communication”, The Bell System Technical Journal Tuyển tập Báo cáo Hội nghị Sinh viên Nghiên cứu Khoa học lần thứ 7 Đại học Đà Nẵng năm 2010 227 [5] Department of Electrical Engineering and Computer Science (2004), Information and Entropy, Massachusetts Institute of Technology, Chapter 9-10 [6] Matt Mahoney (2000), “Fast Text Compression with Neural Networks”, Florida Institute of Technology [7] Matt Mahoney (2009), “The ZPAQ Open Standard Format for Highly Compressed Data - Level 1”