Luận án Nghiên cứu xây dựng mô hình mạng nơ-ron xung trọng số nhị phân hướng tới thực thi trên kiến trúc tính toán trong bộ nhớ

Tấn công và phòng thủ đối nghịch trên các mạng nơ-ron nhân tạo là một hướng nghiên cứu thú vị nhằm kiểm tra khả năng phòng thủ của các mô hình mạng trước các tấn công đối nghịch. Do đó đã có một số công trình tập trung khảo sát khả năng phòng thủ của các mô hình BNN và SNN nhằm đánh giá khả năng phòng thủ của chúng khi đưa vào ứng dụng thực tế. Trong phạm vi hiểu biết của NCS thì tới thời điểm hiện tại chưa tìm thấy công bố nào về tấn công và phòng thủ đối nghịch cho mô hình BSNN. Trong khi khả năng tự phục hồi trước các tấn công đối nghịch là thách thức với bất kỳ mô hình nơ-ron nhân tạo nào khi sử dụng nguyên lý gradient để huấn luyện. BNN có các đặc tính tuyến tính và sử dụng huấn luyện dựa trên gradient để học. Vì vậy, các mô hình BNN cũng dễ bị ảnh hưởng bởi các tấn công đối nghịch. Cho đến nay, chỉ có một số nghiên cứu về khả năng phục hồi của BNN trước các tấn công đối nghịch và chúng chỉ giới hạn ở các mô hình mạng hoặc phương pháp tấn công. Cụ thể, Galloway và cộng sự [2] lần đầu tiên tiến hành một nghiên cứu kỹ lưỡng về các tấn công đối địch chống lại BNN, trong đó các tác giả đã đánh giá khả năng phục hồi của mạng trước cả các tấn công “Hộp trắng” (White-box) và “Hộp đen” (Black-box) với tập dữ liệu MNIST và CIFAR- 10, tương ứng. Tuy nhiên, chỉ có một phương pháp tấn công đối nghịch một bước (FGSM) được xem xét trong công bố này. Khalil và cộng sự [20] đã đề xuất thuật toán Iprog (Integer Propagation) để tấn công BNN. Tuy nhiên, nghiên cứu của họ chỉ giới hạn trong việc sử dụng tập dữ liệu MNIST và Fashion-MNIST, là hai tập dữ liệu hình ảnh đen trắng. Các tác giả [52] đã phân tích một số tấn công đối nghịch chống lại BNN bằng cách sử dụng tập dữ liệu CIFAR-10 và ImageNet nhưng chưa đánh giá và thảo luận về kết quả với các phương pháp cải thiện khả năng phòng thủ cho BNN.

pdf143 trang | Chia sẻ: Tuệ An 21 | Ngày: 08/11/2024 | Lượt xem: 73 | Lượt tải: 0download
Bạn đang xem trước 20 trang tài liệu Luận án Nghiên cứu xây dựng mô hình mạng nơ-ron xung trọng số nhị phân hướng tới thực thi trên kiến trúc tính toán trong bộ nhớ, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
BỘ GIÁO DỤC VÀ ĐÀO TẠO BỘ QUỐC PHÒNG VIỆN KHOA HỌC VÀ CÔNG NGHỆ QUÂN SỰ/ BTTM ĐINH VĂN NGỌC NGHIÊN CỨU XÂY DỰNG MÔ HÌNH MẠNG NƠ-RON XUNG TRỌNG SỐ NHỊ PHÂN HƯỚNG TỚI THỰC THI TRÊN KIẾN TRÚC TÍNH TOÁN TRONG BỘ NHỚ LUẬN ÁN TIẾN SĨ KỸ THUẬT HÀ NỘI - 2024 BỘ GIÁO DỤC VÀ ĐÀO TẠO BỘ QUỐC PHÒNG VIỆN KHOA HỌC VÀ CÔNG NGHỆ QUÂN SỰ/ BTTM ĐINH VĂN NGỌC NGHIÊN CỨU XÂY DỰNG MÔ HÌNH MẠNG NƠ-RON XUNG TRỌNG SỐ NHỊ PHÂN HƯỚNG TỚI THỰC THI TRÊN KIẾN TRÚC TÍNH TOÁN TRONG BỘ NHỚ Ngành: Kỹ thuật điện tử Mã số: 9 52 02 03 LUẬN ÁN TIẾN SĨ KỸ THUẬT NGƯỜI HƯỚNG DẪN KHOA HỌC: 1. PGS.TS Bùi Ngọc Mỹ 2. PGS.TS Trịnh Quang Kiên HÀ NỘI - 2024 i LỜI CAM ĐOAN Tôi xin cam đoan đây là công trình nghiên cứu của tôi. Các số liệu, kết quả trình bày trong luận án là hoàn toàn trung thực và chưa được công bố trong bất kỳ công trình nào khác. Các dữ liệu tham khảo được trích dẫn đầy đủ. Hà Nội, ngày 22 tháng 04 năng 2024 Tác giả luận án Đinh Văn Ngọc ii LỜI CẢM ƠN Luận án này được thực hiện và hoàn thành tại Viện Khoa học và Công nghệ quân sự. Lời đầu tiên, Nghiên cứu sinh xin chân thành bày tỏ lòng biết ơn tới các thầy PGS. TS Bùi Ngọc Mỹ và PGS. TS Trịnh Quang Kiên đã tận tình hướng dẫn và giúp đỡ trong toàn bộ quá trình học tập, nghiên cứu và hoàn thành luận án. Nghiên cứu sinh trân trọng cảm ơn Ban giám đốc Viện Khoa học và Công nghệ quân sự; Thủ trưởng và cán bộ, nhân viên Phòng Đào tạo; Thủ trưởng và các ban chức năng Viện Điện tử; Thủ trưởng Viện Công nghệ thông tin đã tạo mọi điều kiện thuận lợi để nghiên cứu sinh học tập, nghiên cứu và hoàn thành luận án. Nghiên cứu sinh chân thành cảm ơn các thầy cô giáo, các nhà khoa học, các đồng nghiệp tại Viện Điện tử/ Viện Khoa học và Công nghệ quân sự, Viện Công nghệ thông tin/ Viện Khoa học và Công nghệ quân sự, Học Viện kỹ thuật quân sự đã tạo điều kiện giúp đỡ và có những ý kiến góp ý quý báu cho Nghiên cứu sinh trong quá trình thực hiện luận án này. Cuối cùng Nghiên cứu sinh xin bày tỏ lời cảm ơn tới gia đình đã luôn động viên, chia sẻ, ủng hộ, giúp đỡ Nghiên cứu sinh vượt qua khó khăn trong suốt quá trình nghiên cứu và hoàn thành luận án. Xin chân thành cảm ơn! Tác giả luận án Đinh Văn Ngọc iii MỤC LỤC Trang DANH MỤC CÁC KÝ HIỆU, CÁC CHỮ VIẾT TẮT ......................... vi DANH MỤC CÁC THUẬT NGỮ ......................................................... x DANH MỤC CÁC BẢNG ....................................................................... xiii DANH MỤC CÁC HÌNH VẼ .................................................................. xiv MỞ ĐẦU ................................................................................................... 1 Chương 1 TỔNG QUAN VỀ MẠNG HỌC SÂU TRÊN PHẦN CỨNG NHÚNG TÀI NGUYÊN HẠN CHẾ VÀ TIẾT KIỆM NĂNG LƯỢNG 8 1.1. Học sâu và các bài toán xử lý ảnh ............................................... 8 1.1.1. Lịch sử phát triển trí tuệ nhân tạo ............................................ 8 1.1.2. Học sâu và ứng dụng ................................................................ 11 1.1.3. Các bài toán xử lý ảnh ứng dụng học sâu ................................ 13 1.1.4. Các tác vụ trong bài toán phát hiện đối tượng ......................... 14 1.2. Một số mạng học sâu phù hợp với phần cứng nhúng tiết kiệm năng lượng và tài nguyên hạn chế ............................................... 18 1.2.1. Giới thiệu hệ thống nhúng ........................................................ 18 1.2.2. Mạng nơ-ron nhị phân .............................................................. 23 1.2.3. Mạng nơ-ron xung .................................................................... 27 1.2.4. Mạng nơ-ron xung nhị phân ..................................................... 31 1.2.5. Tấn công và phòng thủ đối nghịch ........................................... 32 1.3. Tình hình nghiên cứu và các vấn đề còn tồn tại .......................... 36 1.3.1. Cải thiện mạng nơ-ron xung nhị phân ..................................... 36 1.3.2. Tấn công và phòng thủ đối nghịch trên BNN và BSNN ......... 40 1.3.3. Các vấn đề còn tồn tại .............................................................. 41 1.4. Định hướng nghiên cứu của luận án ........................................... 43 1.5. Kết luận chương 1 ....................................................................... 44 Chương 2 MẠNG NƠ-RON XUNG NHỊ PHÂN HƯỚNG TỚI CÁC THIẾT BỊ EDGE-AI ............................................................................... 45 2.1. Ước lượng các trọng số nhị phân ................................................ 45 2.2. Đề xuất mạng nơ-ron xung với toàn bộ trọng số nhị phân ......... 47 iv 2.2.1. Mạng nơ-ron xung với trọng số nhị phân ................................ 48 2.2.2. Đề xuất một mạng nơ-ron xung với tất cả trọng số nhị phân .. 49 2.2.3. Đề xuất một mạng nơ-ron xung nhị phân với bước thời gian không đồng nhất ....................................................................... 55 2.2.4. Huấn luyện mạng nơ-ron xung với trọng số nhị phân ............. 57 2.3. Đề xuất kiến trúc tính toán trong bộ nhớ thực thi BSNN ........... 63 2.3.1. Tính toán trong bộ nhớ ............................................................. 63 2.3.2. Tính MAC dựa trên phép tính XNOR ..................................... 65 2.3.3. Tính toán BSNN dựa trên mảng XNOR .................................. 67 2.4. Kết quả thực nghiệm trên các tập dữ liệu phân loại ảnh ............. 71 2.4.1. Cài đặt các tham số huấn luyện ................................................ 71 2.4.2. Ảnh hưởng bước thời gian ....................................................... 72 2.4.3. Ảnh hưởng hệ số tỉ lệ của SNG ............................................... 74 2.4.4. Ảnh hưởng số lần tích lũy tại lớp đầu tiên ............................... 75 2.4.5. Ảnh hưởng độ sâu của cấu trúc mạng ...................................... 77 2.4.6. Ảnh hưởng tính ngẫu nhiên của khối SNG .............................. 77 2.4.7. Các kết quả đánh giá và so sánh BSNN ................................... 78 2.4.8. Hiệu quả của các mô hình BSNN ............................................ 80 2.5. Kết luận Chương 2 ...................................................................... 83 Chương 3 PHƯƠNG PHÁP CẢI THIỆN KHẢ NĂNG PHÒNG THỦ MẠNG NƠ-RON HỌC SÂU TRƯỚC CÁC TẤN CÔNG ĐỐI NGHỊCH ........... 85 3.1. Tấn công và phòng thủ đối nghịch trên các mạng nơ-ron sâu .... 85 3.1.1. Tấn công đối nghịch ................................................................. 85 3.1.2. Phòng thủ đối nghịch ............................................................... 87 3.2. Đề xuất phương pháp huấn luyện EFAT nhằm cải thiện khả năng phòng thủ cho BNN trước các tấn công đối nghịch .................... 89 3.3. Tấn công đối nghịch trên mạng nơ-ron nhị phân ........................ 91 3.3.1. Tấn công đối nghịch trên mạng nơ-ron nhị phân ..................... 92 3.3.2. Tấn công đối nghịch trên tập dữ liệu MNIST .......................... 95 3.3.3. Tấn công đối nghịch trên tập dữ liệu CIFAR-10 ..................... 98 3.4. Tấn công đối nghịch trên mạng nơ-ron xung nhị phân ............... 103 3.4.1. Tính toán gradient cho BSNN .................................................. 104 v 3.4.2. Cài đặt thử nghiệm tấn công đối nghịch ................................. 108 3.4.3. Kết quả tấn công và phòng thủ đối nghịch trên BSNN .......... 110 3.5. Kết luận chương 3 ...................................................................... 113 KẾT LUẬN ............................................................................................. 115 DANH MỤC CÁC CÔNG TRÌNH KHOA HỌC ĐÃ CÔNG BỐ ..... 118 TÀI LIỆU THAM KHẢO ..................................................................... 119 vi DANH MỤC CÁC KÝ HIỆU, CÁC CHỮ VIẾT TẮT 𝜔 Hệ số tỉ lệ của bộ tạo số stochastic (SNG) 𝜑 Hệ số damping của thuật toán gradient thay thế 𝜎 Độ lệch chuẩn, lớp chuẩn hóa theo batch (BN) 𝜇 Giá trị trung bình, lớp chuẩn hóa theo batch (BN) 𝜃 Ngưỡng của nơ-ron IF 𝜂 Tốc độ học (learning rate) 𝜏 Hệ số được thêm vào mẫu số để tránh chia 0 𝜀 Hệ số nhiễu/ Kích thước bước nhiễu 𝛿 Hệ số khởi tạo tấn công đối nghịch 𝛾 Tham số chia tỷ lệ, lớp chuẩn hóa theo batch (BN) 𝛽 Tham số dịch chuyển, lớp chuẩn hóa theo batch (BN) 𝑦 hoặc Y Nhãn đúng (truth label) 𝑥 hoặc X Ảnh đầu vào chưa thêm nhiễu 𝑤 hoặc 𝑊 Bộ trọng số của mô hình 𝑟 Là số ngẫu nhiên trong khoảng [−𝜔; +𝜔] 𝑝 Là số ngẫu nhiên trong khoảng min(X) và max(X) 𝑛 Số lượng trọng số tại một lớp 𝑀 Tổng số trọng số trong một phép tính MAC 𝐿 Tổng số lớp của mô hình 𝐾 Hệ số tích lũy tại lớp đầu tiên 𝐽 Hàm mất mát của mô hình (Loss) 𝐶 Số lớp phân loại của tập dữ liệu MP2 Lớp Max Pooling, kích thước nhân là 2 × 2 FC Lớp kết nối đầy đủ Conv Lớp tích chập 32C3 Lớp tích chập có 32 đầu ra, kích thước nhân là 3 × 3 10FC Lớp kết nối đầy đủ có 10 đầu ra ⊙ Toán tử XNOR �̅� Ngưỡng thay thế của nơ-ron IF 𝛼𝑙 Hệ số tỉ lệ (trung bình của các giá trị trọng số tuyệt đối vii của lớp 𝑙) 𝛻𝑥 Đạo hàm theo 𝑥 𝑥𝑖 𝑎𝑑𝑣 Ảnh đầu vào đã thêm nhiễu ở lần lặp thứ 𝑖 𝑥𝑖−1 𝑎𝑑𝑣 Ảnh đầu vào đã thêm nhiễu ở lần lặp thứ 𝑖 − 1 𝑥𝑎𝑑𝑣 Ảnh đầu vào đã thêm nhiễu 𝑤𝑙 Bộ trọng số giá trị thực của lớp 𝑙 𝑤𝑖𝑗 Bộ trọng số kết nối giữa nơ-ron 𝑖 và nơ-ron 𝑗 𝑤𝑖,𝑗 𝑡,𝑢 Bộ trọng số nhị phân [0, 1] 𝑢𝑖 𝑡−1 Điện thế màng của nơ-ron 𝑖 tại bước thời gian 𝑡 − 1 𝑢𝑖 𝑡 Điện thế màng của nơ-ron 𝑖 tại bước thời gian 𝑡 𝑜𝑗 𝑡 Xung (spikes) đầu vào của nơ-ron 𝑗 tại bước thời gian 𝑡. 𝑖𝑛𝑝𝑡 Xung đầu vào tại bước thời gian 𝑡 𝑋𝑐𝑜𝑛𝑣1 Đầu vào của lớp đầu tiên 𝑊𝑐𝑜𝑛𝑣1 180𝑟𝑜𝑡𝑎𝑡𝑒𝑑 Bộ trọng số tại lớp đầu tiên được xoay 180 độ 𝑈𝑙 𝑡−1 Điện thế màng của lớp 𝑙 tại bước thời gian 𝑡 − 1 𝑈𝑙 𝑡 Điện thế màng của lớp 𝑙 tại bước thời gian 𝑡 𝑁𝑓𝑐_𝑤𝑒𝑖𝑔ℎ𝑡𝑠 Tổng số trọng số của lớp kết nối đầy đủ 𝑁𝑐𝑜𝑛𝑣_𝑤𝑒𝑖𝑔ℎ𝑡𝑠 Tổng số trọng số của lớp tích chập 𝑀1 Tổng số trọng số có giá trị −1 trong một MAC Π𝑥±𝜀 Hàm projector 𝑤�̃� Bộ trọng số nhị phân của lớp 𝑙 �̃�𝑙 𝑡 Bộ trọng số nhị phân của lớp 𝑙 tại bước thời gian 𝑡 �̃�𝑖𝑗 𝑡 Bộ trọng số nhị phân [−1,+1] �̅�𝑖 𝑡 Điện thế màng thay thế AI Trí tuệ nhân tạo (Artificial Intelligence) ALU Đơn vị lô-gic số học (Arithmetic Logic Unit) ANN Mạng nơ-ron nhân tạo (Artificial Neural Network) BN Lớp chuẩn hóa theo batch (Batch Normalization) BNN Mạng nơ-ron nhị phân (Binarized Neural Network) BPTT Backpropagation Through Time viii BSNN Mạng nơ-ron xung nhị phân (Binarized Spiking Neural Network) CIFAR Canadian Institute For Advanced Research CNN Mạng nơ-ron tích chập (Convolutional Neural Network) Conv Lớp tích chập (Convolutional) Deep SNN Mạng nơ-ron xung sâu (Deep Spiking Neural Network) DL Học sâu (Deep Learning) DNN Mạng nơ-ron sâu (Deep Neural Network) DRAM Bộ nhớ truy cập ngẫu nhiên động (Dynamic Random Access Memory) Edge-AI Thiết bị biên có sử dụng trí tuệ nhân tạo (Edge Artificial Intelligence) EFAT Enhanced Fast Adversarial Training FAT Fast Adversarial Training FC Lớp kết nối đầy đủ (Fully Connected) FGSM Fast Gradient Sign Method GAN Mạng đối nghịch tạo sinh (Generative Adversarial Networks) GIS Hệ thống thông tin địa lý (Geographic Information System) IF Tích lũy và phát xung (Integrate-and-Fire) IMC Tính toán trong bộ nhớ (In-Memory Computing) IMC Tính toán trong bộ nhớ (In-Memory Computing) IoT Internet vạn vật (Internet of Things) LIF Tích lũy và kích hoạt có rò rỉ (Leaky Integrate-and- Fire) MAC Phép nhân cộng (Multiply-Accumulate) ML Học máy (Machine Learning) MLP Lớp Perceptron nhiều tầng (Multi-layer Perceptron) MNIST Modified National Institute of Standards and Technology ix PCM Bộ nhớ thay đổi pha (Phase-changing Memory) PGD Projected Gradient Descent QR code Mã đáp ứng nhanh (Quick-Response code) RAM Bộ nhớ truy cập ngẫu nhiên (Random Access Memory) ReLU Đơn vị tuyến tính chỉnh lưu (Rectified Linear Unit) ReRAM Bộ nhớ truy cập ngẫu nhiên điện trở (Resistive RAM) RNN Mạng nơ-ron hồi quy (Recurrent Neural Network) SD Giảm gradient (Gradient Descent) SG Gradient thay thế (Surrogate Gradient) SGD Stochastic Gradient Descent SNG Bộ tạo số stochastic (Stochastic Number Generator) SNN Mạng nơ-ron xung (Spiking Neural Network) SOT-MRAM Spin Orbit Torque-Magnetoresistive RAM SRAM Bộ nhớ truy cập ngẫu nhiên tĩnh (Static Random Access Memory) STDP Spike Timing–Dependent Plasticity STT-BSNN A Binarized Spiking Neural Network based on STT-MRAM STT-MRAM Spin-transfer torque Magnetoresistive Random Access Memory UAV Phương tiện bay không người lái (Unmanned Aerial Vehicle) UGV Phương tiện mặt đất không người lái (Unmanned Ground Vehicle) USV Phương tiện mặt nước không người lái (Unmanned Surface Vehicle) UUV Phương tiện không người lái dưới biển (Unmanned Undersea Vehicle) x DANH MỤC CÁC THUẬT NGỮ Bản đồ đặc trưng (Feature map) Thông tin đặc trưng của dữ liệu sau mỗi lớp của mạng nơ-ron nhân tạo Bộ nhớ bền vững tiềm năng (Emerging Non-Volatile Memory) Là loại bộ nhớ không mất dữ liệu ngay cả khi không được cấp nguồn điện thuộc nhóm các công nghệ tiềm năng Bộ nhớ không bền vững (Volatile Memory) Các loại bộ nhớ sẽ mất dữ liệu khi không được cấp nguồn điện Bức tường bộ nhớ (Memory wall) Rào cản của bộ nhớ trong hệ thống do phải đọc và ghi dữ liệu thấp hơn khả năng tính toán Bước thời gian (Time-step) Số lần tích lũy trong mạng nơ-ron xung Đầu ra đúng (Ground truth) Là giá trị đúng của đầu ra tập dữ liệu Điện thế màng (Membrane potential) Giá trị tích lũy của nơ-ron trong mạng nơ- ron xung Hệ số giảm lần (Damping factor) Một hệ số của thuật toán gradient thay thế dùng để tính xấp xỉ gradient trong huấn luyện mạng nơ-ron xung Huấn luyện (Training) Quá trình tìm ra bộ trọng số tối ưu của các mạng nơ-ron nhân tạo Khả năng phòng thủ (Robustness) Là khả năng của mạng nơ-ron có thể duy trì độ chính xác trước các tấn công đối nghịch Lớp ẩn (Hidden layer) Các lớp ẩn ở giữa của mạng nơ-ron nhân tạo Lớp chuẩn hóa theo batch (Batch normalization) Một lớp của mạng nơ-ron nhân tạo dùng để chuẩn hóa dữ liệu theo nhóm (batch) Lớp cuối cùng (Last layer) Là lớp cuối cùng (lớp đầu ra) của mạng nơ-ron nhân tạo Lớp đầu ra (Output layer) Là lớp cuối cùng (lớp đầu ra) của mạng nơ-ron nhân tạo xi Lớp đầu tiên (First layer) Là lớp đầu tiên (lớp đầu vào) của mạng nơ-ron nhân tạo Lớp đầu vào (Input layer) Là lớp đầu tiên (lớp đầu vào) của mạng nơ-ron nhân tạo Lớp gộp cực đại (Max pooling) Một lớp của mạng nơ-ron nhân tạo dùng để giảm kích thước của đầu vào bằng cách lựa chọn giá trị lớn nhất Lớp gộp trung bình (Average pooling) Một lớp của mạng nơ-ron nhân tạo dùng để giảm kích thước của đầu vào bằng cách lựa chọn giá trị trung bình Lớp kết nối đầy đủ (Fully connected layer) Một lớp của mạng nơ-ron nhân tạo với tất cả nơ-ron được kết nối với nhau Lớp tích chập (Convolutional layer) Một lớp trích xuất đặc trưng của mạng nơ-ron nhân tạo, sử dụng các phép tính tích chập Mã hóa tỉ lệ (Rate coding) Một phương pháp mã hóa ảnh tĩnh thành các xung theo thời gian, dùng cho các mạng nơ-ron xung Mạch đọc dữ liệu đã hiệu chỉnh (Modified Sense-Amps) Là một thành phần của kiến trúc tính toán trong bộ nhớ Ngưỡng phát (Firing threshold) Giá trị ngưỡng mà nơ-ron xung sẽ quyết định có tạo ra xung hay không Nhân bộ lọc (Filter kernel) Là một ma trận sử dụng để lọc (trích xuất) đặc trưng đầu vào Quá trình lan truyền ngược (Backpropagation process) Quá trình tính toán gradient phục vụ huấn luyện mạng nơ-ron nhân tạo Quá trình lan truyền xuôi (Feedforward process) Quá trình tính toán giá trị mất mát của mạng nơ-ron nhân tạo trong huấn luyện hoặc suy luận Suy luận (Inference) Quá trình thực thi nhận dạng của các mạng nơ-ron nhân tạo Mất mát (Loss) Giá trị sai lệch do mạng nơ-ron tạo ra xii giữa đầu ra của mạng và đầu ra đúng Tấn công đối nghịch (Adversarial attack) Phương pháp gây nhiễu vào đầu vào làm cho mạng nơ-ron đưa ra kết quả sai Tích hợp và phát xung (Integrate-and-Fire) Một loại hàm kích hoạt của mạng nơ-ron xung Trọng số (Weight) Các hệ số của mạng nơ-ron nhân tạo Xung (spike) Là đầu vào và đầu ra tại các nơ-ron của mạng nơ-ron xung xiii DANH MỤC CÁC BẢNG Trang Bảng 2.1 Cấu trúc mạng nơ-ron và tham số huấn luyện ............................ 72 Bảng 2.2 Độ chính xác của FBW-SNN với các hệ số tỉ lệ khác nhau ....... 75 Bảng 2.3 Độ chính xác phân loại của BSNN với các cấu trúc mạng khác nhau .................................................................................... 77 Bảng 2.4 Độ chính xác của NUTS-BSNN ảnh hưởng bởi tính ngẫu nhiên 78 Bảng 2.5 So sánh độ chính xác của các BSNN .......................................... 79 Bảng 2.6 Số lượng trọng số và số phép tính MAC của mô hình FBW-SNN với một bước thời gian ............................................. 81 Bảng 3.1 Tấn công đối nghịch trên mô hình BNN .................................... 98 Bảng 3.2 Cấu trúc mạng và các tham số huấn luyện BSNN ..................... 108 xiv DANH MỤC CÁC HÌNH VẼ Trang Hình 1.1 Trí tuệ nhân tạo, học máy và học sâu ......................................... 9 Hình 1.2 Bài toán phát hiện đối tượng ứng dụng trong thực tế ................ 13 Hình 1.3 Các tác vụ của bài toán phát hiện đối tượng .............................. 15 Hình 1.4 Phân tầng các loại thiết bị .......................................................... 23 Hình 1.5 Minh họa phép nhân và phép cộng được thay thế bằng các phép tính theo bit XNOR và POPCOUNT ................................ 24 Hình 1.6 Minh họa hoạt động một nơ-ron của SNN ................................. 27 Hình 1.7 Sự khác nhau giữa ANN và SNN ............................................... 29 Hình 1.8 So sánh các khối cơ bản của BNN và BSNN ............................ 32 Hình 1.9 Minh họa tấn công đối nghịch [32] ............................................ 33 Hình 1.10 Nguyên lý của tấn công đối nghịch .......................................... 34 Hình 2.1 Các khối cơ bản BSNN (minh họa tại một bước thời gian) ....... 48 Hình 2.2 Các khối cơ bản của FBW-SNN ................................................ 50 Hình 2.3 Hoạt động của các xung tại nơ-ron IF ........................................ 51 Hình 2.4 Bộ tạo số ngẫu nhiên cho các trọng số ....................................... 53 Hình 2.5 Mã hóa tỉ lệ cho hình ảnh đầu vào .............................................. 54 Hình 2.6 Các khối lớp đầu vào của BSNN: a) BSNN với các trọng số thực; b) FBW-BSNN với các trọng số nhị phân; c) NUTS-BSNN với K bộ trọng số nhị phân .................................................................. 56 Hình 2.7 Ảnh đầu vào của tập dữ liệu CIFAR-10 được mã hóa theo mã hóa tỉ lệ với các bước thời gian khác nhau .......................................... 59 Hình 2.8 Hai kiến trúc In-Memory Computing. a) Bulk bitwise Computing b) Crossbar Array Computing [11] ............................................ 64 Hình 2.9 Thành phần MAC lớp tích chập của BSNN .............................. 67 Hình 2.10 Một kiến trúc IMC dự đoán sử dụng mảng XNOR ................. 68 xv Hình 2.11 Thực thi tại lớp đầu vào của NUTS-BSNN ............................. 70 Hình 2.12 Độ chính xác phân loại của BSNN với các trọng số giá trị thực tại lớp đầu vào và đầu ra khi thay đổi bước thời gian ................ 73 Hình 2.13 Phân bố của bộ trọng số lớp đầu vào ........................................ 74 Hình 2.14 Độ chính xác của NUTS-BSNN

Các file đính kèm theo tài liệu này:

  • pdfluan_an_nghien_cuu_xay_dung_mo_hinh_mang_no_ron_xung_trong_s.pdf
  • pdfQĐ cấp Viện NCS Đinh Văn Ngọc.pdf
  • docxThongTin KetLuanMoi LuanAn NCS DinhVanNgoc.doc.docx
  • pdfTomTat LuanAn NCS DinhVanNgoc_TiengAnh.pdf.pdf
  • pdfTomTat LuanAn NCS DinhVanNgoc_TiengViet.pdf.pdf
  • docxTrichYeu LuanAn NCS DinhVanNgoc.doc.docx