Cầu giao thông chịu tác động của các chế độ tải trọng phức tạp. Ngoài tác động của tải trọng phân
bốdo trọng lượng của chính cơ hệ, hệ còn chịu tác động của tải trọng tĩnh và tải trọng động do
nhiều nguyên nhân khác nhau, chẳng hạn tải trọng do con người và các phương tiện giao thông lưu
thông qua cầu tạo ra, tải trọng do tác động của sóng nước, của gió và/hoặctải trọng động do địa
chấn.[176].Trong tính toán thiết kế, trên cơ sở phân tích ảnh hưởng của từng yếu tố tới công trình
[158-159][170-171][174-175][177] chúng tati ến hành tính toán theo nguyên lý cộng tác dụngdựa
trênnhững tiêu chuẩn thiết kếkhác nhau[151-152][171].Thực tế cho thấy rằng khó có thể đưa ra
một tiêu chuẩn thi ết kếphù hợp một cách hoàn hảovới tất cả các chế độ tải trọng thực tác động lên
cầu. Ngoài ra, khả năng tải của cầu cũng thay đổi theo thời gian do xuất hiện khuyết tật – với nhiều
loại hình khác nhau [154][156][165][167] ở các cấp độ khác nhau –có thể gây ra t ình trạng quá tải
cho cơ hệ nếu xét theo khả năng tải thực tế. Kết quả là,mặc dù đã được các nhà chuyên môn thi ết
kế một cách chi tiết dựa theo các tiêu chuẩn thiết kế chặt chẽ nhưng vẫn xảy ra những sự cố đáng
ti ếctrong quá trình khai tháccầu.
Ở nước ta, hệ thống cầu giao thôngcó tổng chiều dài cũng như chủng loại cầu là rất lớn,
trong đó nhiều câycầu nằm trên những trục đường huyết mạch. Xét về tình trạng kỹ thuật:khả năng
tải và dự trữ tuổi thọ của từng cây cầu trong hệ thống có sự khác biệt nhau; nhiều câycầu làm việc
quá tải trong thời gian dài. Bên cạnh những cầucó dự trữ về tuổi thọ không caol ại córất nhiều cây
cầu có dự trữ về tuổi thọ khá cao nhưng chất lượng của chúng đang xuống cấpnhanh chóng theo
thời gian. Nguyên nhân chính của tình trạng này là do chế độ quá tải trầm trọng kéo dài liên tục
trong khoảng thời gian dài; đặc biệt, các phương tiện vận tải tải trọng lớn đang được đưa vào sử
dụng với tốc độ gia tăng hầu như không kiểm soát được trong thời gian gần đây. Bên cạng đó, hệ
thống nhận dạng khuyết tật cầu ở nước ta chưatheo kịp với yêu cầu thực tế, hệ thống dự báo khả
năng tải của cầu chưa được quan tâm đúng mực. Việckhai thác cầu không thỏa đáng cùng với việc
thi ếu hệ thống nhận dạng và dự báo khuyết tật,thiếu cơ sở dữ liệu đủ tin cậy trong công tác quản trị
cầu đã dẫn tới tình trạng sập cầu diễn ra nhiều trong thời gian gần đây.
Xét ở góc độ kỹ thuật ta có thể thấy rằng trên đa số các hệ thống cầu giao thông, dầm cầu là
một trong những thành phần chịu tải cơ bản, khuyết tật xuất hiện trên dầm cầu là một trong những
nguyên nhân chính gây ra sập cầu. Vì vậy, nghiên cứu xây dựng phương pháp nhận dạng và dự báo
khuyết tật của dầm là công tác cần thiết góp phần vào việcxây dựng hệ thống nhận dạng khuyết tật
và dự báo thường xuyên khả năng tải của cầu (ND-DBTX), phục vụ cho công tác quản trị cầu một
cách khoa học và hiệu quả. Đâychính là động lực để tác giả thực hiện luận án.
45 trang |
Chia sẻ: tuandn | Lượt xem: 2049 | Lượt tải: 4
Bạn đang xem trước 20 trang tài liệu Luận án Nhận dạng và dự báo khuyết tật của dầm trên nền mạng Neuron và Logic mờ, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
100 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
Chương 4
THÍ NGHIỆM KIỂM CHỨNG
Cơ sở lý thuyết cũng như một số thuật toán liên quan tới nhận dạng và dự báo khuyết tật của dầm đã
được trình bày chi tiết trong các chương 2 và 3, cụ thể như sau. Chương 2 trình bày một số thuật
toán mới về huấn luyện mạng ANN và tổng hợp mạng neuro-fuzzy: thuật toán TT*, CBMM, CSHL,
HLM1, HLM2, HLM [1-2][9]. Đây là các công cụ toán học được sử dụng để xây dựng các thuật
toán xác định và dự báo khuyết tật trên dầm. Trong chương 3 luận án đề cập tới cơ sở lý thuyết và
trình bày các thuật toán mới về nhận dạng và dự báo khuyết tật: VTKT-NL [3], VTKT-NF [4],
KTKT-WL [6]), và TSPA [5]. Trên cơ sở đó, các thí nghiệm trong chương này nhằm kiểm chứng,
đánh giá hiệu quả cũng như phạm vi ứng dụng của từng thuật toán nêu trên.
Độ chính xác và hiệu quả của các thuật toán nhận dạng và dự báo khuyết tật phụ thuộc một
phần vào các công cụ toán học được sử dụng để xây dựng chúng, trong nghiên cứu này, đó là các
thuật toán huấn luyện và tổng hợp hệ ANN và neuro-fuzzy. Do đó, các thí nghiệm kiểm chứng đầu
tiên trong chương dùng để đánh giá độ chính xác và tốc độ hội tụ của các thuật toán huấn luyện
mạng ANN và tổng hợp mạng neuro-fuzzy. Các thí nghiệm tiếp theo nhằm phân tích, đánh giá độ
chính xác và phạm vi ứng dụng của các thuật toán nhận dạng và dự báo khuyết tật cơ hệ.
Các nguồn số liệu được sử dụng trong các thí nghiệm này nhận được từ:
- sử dụng chương trình tính toán cơ học ANSYS trên mô hình của một dầm cầu dao động;
- thí nghiệm đo đạc trên một khung kim loại dạng dầm dao động cưỡng bức, được chúng tôi
thực hiện tại Phòng thí nghiệm Cơ học ứng dụng (PTN CHUD), trường Đại học Bách khoa thành
phố Hồ Chí Minh (ĐHBK ĐHQG TpHCM);
- số liệu đo chuyển vị trên cầu Sài Gòn khi cầu dao động theo tải giao thông: thông qua hệ
thống Wireless Network Connection, tín hiệu dao động của cầu Sài Gòn được truyền dẫn liên tục về
Trung tâm xử lý tín hiệu tại PTN CHUD.
101 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
4.1 TỔNG HỢP MẠNG NEURON VÀ NEURO-FUZZY
Trong phần này các thuật toán mới được ứng dụng để tổng hợp mạng ANN và neuro-fuzzy từ các
tập dữ liệu số nhằm mục đích kiểm chứng hiệu quả của chúng trong huấn luyện và tổng hợp mạng.
4.1.1 Kiểm chứng thuật toán TT*
4.1.1.1 Nhận dạng vector đặc trưng của ảnh
Hình 4.1 trình bày sơ đồ khối của quá trình huấn luyện mạng ANN nhận dạng vector đặc trưng của
ảnh. Mỗi ảnh được đặc trưng bởi một vector đặc trưng tương ứng. Trong khảo sát này chúng tôi đưa
ra một số vector đặc trưng của ảnh giả định để trình bày phương pháp và thông qua đó đánh giá hiệu
quả huấn luyện mạng của từng thuật toán.
1 2[ , ,..., ]mv v v v
1 1
1 2
2 3 1
1 [ , ,..., ]
2 [ , ,..., ]
1 [ , ,..., , ]
m m
m m m
m
vcl v v v
vcl v v v
vcl m v v v v
Hình 4.1 Dùng hàm sai số tự tương quan để huấn luyện mạng neuron nhận dạng vector đặc trưng của ảnh
Với mỗi vector đặc trưng 1 2[ , ,..., ] [ (1,1), (1, 2),..., (1, )]mv v v v v v v m , thực hiện phép right shift sẽ
nhận được m-1 vector:
1 1
1 2
2 3 1
1 [ , ,..., ] [ 1(1,1),..., 1(1, )]
2 [ , ,..., ] [ 2(1,1),..., 2(1, )]
1 [ , ,..., , ] [ ( 1)(1,1),...]
m m
m m m
m
vcl v v v vcl vcl m
vcl v v v vcl vcl m
vcl m v v v v vcl m
Như vậy, để nhận dạng một ảnh có vector đặc trưng v ( m1 ), mạng ANN được huấn luyện bởi bộ
m-1 tập mẩu huấn luyện vào-ra , , 1 ( 1)vclj tclj j m , trong đó:
SHIFT
NEURAL NETWORKS
(Update W)
tclj
tclj(W)
ei
+
-
ai
bi 2
1
( )
m
i i
i
tclj a b
102 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
2 2
1 1
( ) [ (1, ) (1, )]
m m
i i
i i
tclj a b v i vclj i
Sử dụng ba thuật toán, thuật toán được trình bày trong [111] (gọi tắt là thuật toán [111]),
TT* và TT**[1], để cùng huấn luyện các mạng ba lớp 5-5-1 và bốn lớp 5-5-5-1 nhằm so sánh tốc độ
hội tụ của các thuật toán. Thời gian hội tụ tới sai số E=0.01 của mạng 5-5-1 ứng với các vector đặc
trưng được thể hiện trong bảng 4.1 và hình 4.2; và của mạng 5-5-5-1 được thể hiện trên hình 4.3.
Kết quả cho thấy tốc độ hội tụ của TT* cao hơn [111]. Đối với TT**, hiệu quả thuật toán phụ thuộc
nhiều vào hệ số học thích nghi.
Hình 4.2 a/ ANN 5-5-1, v=[13 24 21 56 44]: so sánh tốc độ hôi tụ của TT*, TT**[1], CG ([111])
b/ ANN 5-5-1, v=[3 7 25 5 9]: so sánh tốc độ hôi tụ của TT*,TT**[1], CG ([111]) . Sự phụ thuộc tốc độ hội tụ
của TT**[1] vào hệ số học thích nghi: 1 =0.05, 2 =-0,05 (3); 1 =-0.07, 2 =0,05 (4); 1 =-0.1, 2 =0,05 (5)
(a)
(b)
ALGORITHM [111]
ALGORITHM [111]: 1
ALGORITHM T* : 2
ALGORITHM T** : 3,4,5
Hình 4.3 ANN 5-5-5-1, v=[91 18 26 4 50], Emin=0.01
- So sánh tốc độ hội tụ của ba thuật toán: thời gian hội tụ của TT* là 360s (5); của TT**[1] là
65,78s ( 1 = -0,2; 2 =0,1) (3); [111] vẫn chưa hội tụ sau 5000s, tại đó Er=2,473.10
7.
- Thời gian hội tụ của TT**[1] phụ thuộc vào hệ số học thích nghi, cụ thể: 1 =-0.2; 2 =0,1, t=65,8
(3); 1 =-0,15; 2 =0,1, t=87,6s (2); 1 =-0.25; 2 =0,1, t=148 (1); 1 =0,1; 2 =-0,1 t=342,2s (4).
ALGORITHM [111]
103 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
Bảng 4.1 Thời gian huấn luyện ứng với ANN 5-5-1, Emin=0.01
Thời gian huấn luyện (sec) Vector
v=[v1…v5] CG ([111]) TT* TT**[1]
[3 5 7 9 11] 7,66 2,62 1,552 ( 1 =0,1; 2 =0,07)
[13 24 21 56 44] 10,4 1,35 1.23 ( 1 =0,145; 2 =0)
[24 11 66 45 87] 7,85 3,32 2,33 ( 1 =0,11; 2 =-0,15)
[1 3 5 7 9 ] 8,63 3,51 1,48 ( 1 =-0,15; 2 =0,18)
[20 40 34 32 55] 16,22 2,67 1,56 ( 1 =-0,1; 2 =0,16)
[2 1 4 5 8] 7,78 1,03 1,03 ( 1 = 2 =0)
[9 10 5 12 1] 10,8 0,99 0,99 ( 1 = 2 =0)
[3 9 2 11 15] 6,34 1,62 1,62 ( 1 = 2 =0)
[91 18 26 4 50] 6,77 1,25 1,25 ( 1 = 2 =0)
[103 49 56 11 87] 6,76 1,32 1,32 ( 1 = 2 =0)
[6 9 15 21 7] 6,8 1,35 1,35 ( 1 = 2 =0)
[55 37 9 6 15] 14,4 1,73 1,73 ( 1 = 2 =0)
[4 31 87 3 8] 6,61 3,0 3,0 ( 1 = 2 =0)
[12 4 7 9 3] 6,04 2,59 2,59 ( 1 = 2 =0)
[21 4 7 9 11] 13,7 21,3 5,28 ( 1 =-0.05; 2 =0.05)
[3 7 25 5 9]
6,4
3,6
2,25 ( 1 =0.05; 2 =-0,05)
2,79 ( 1 =0,04; 2 =-0,05)
2,39 ( 1 =-0.1; 2 =0,05)
4.1.1.2 Nhận dạng hàm số
Hình 4.4 Tốc độ hội tụ của các thuật toán
Kết quả xấp xỉ hàm y=1+sin(x) tại hai thời điểm 150 giây và 225 giây được thể hiện qua các giá
trị hàm sai số tương ứng với từng thuật toán E([111]) (trên hình, ký kiệu [1] ứng với thuật toán
[111]), E(TT*), E(TT**) và các đồ thị xấp xỉ của hàm y bởi tín hiệu ra của mạng tại từng thời điểm
(hình 4.5)
104 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
Sử dụng ba thuật toán, thuật toán [111], TT* và TT**[1] huấn luyện mạng truyền thẳng 1-5-1 có số
trọng số W=16 để xấp xỉ hàm số y=1+sin(x) trong khoảng [0,2 ]x bởi tập mẫu có P=21 mẫu dữ
liệu. Các kết quả được trình bày trên các hình 4.4 và 4.5 cho thấy tốc độ hội tụ của TT* cao hơn
[111]. Đối với TT**, cũng như khảo sát ở trên, hiệu quả thuật toán phụ thuộc nhiều vào hệ số học
thích nghi.
4.1.2 Kiểm chứng các thuật toán HLM1, HLM2 và HLM
Độ chính xác và tốc độ hội tụ của HLM1, HLM2 và HLM ảnh hưởng trực tiếp tới độ chính xác của
các thuật toán nhận dạng và dự báo khuyết tật được xây dựng trên cở sở ứng dụng chúng (chương 3).
Do đó trong mục này chúng tôi thực hiện các thí nghiệm kiểm chứng độ chính xác và tốc độ hội tụ
của các thuật toán tổng hợp mạng neuro-fuzzy thích nghi HLM1, HLM2 của [9] và HLM của [2] từ
các tập dữ liệu số.
4.1.2.1 Khảo sát hiệu quả của HLM1 và HLM2 dựa vào tập mẫu ngẫu nhiên
Sử dụng tập mẫu tr_set1 15 mẫu, 3 biến vào một biến ra là những giá trị ngẫu nhiên xác định theo
Matlab. Sử dụng thuật toán được trình bày trong [93] (gọi tắt là thuật toán [93]) và hai thuật toán
mới, HLM1 (có các hệ số định hướng là 1 0.05; 2 0.95; 0.35 ) và HLM2, để huấn luyện
mạng neuro-fuzzy xấp xỉ hàm 1 1 1 2 3( , , )y f x x x phản ánh quan hệ vào-ra của tr_set1.
Kết quả được thể hiện trên bảng 4.2 cho thấy tốc độ hội tụ của HLM1 và HLM2 cao hơn
thuật toán được trình bày trong [93].
Hình 4.5 Đồ thị hàm y được xấp xỉ bởi tín hiệu ra của mạng tại thời điểm a/ 150s và b/ 225s ứng với
từng thuật toán (trên hình, ký kiệu [1] ứng với thuật toán [111])
105 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
Bảng 4.2 Sai số bình phương trung bình của từng thuật toán
Sai số E của các thuật toán Số luật
mờ [93] HLM1 HLM2
M=5 0,02760 0,0213 0,0246
M=6 0,02561 0,0107 7,1148.10-4
M=7 2,8576. 10-6 1,0199.10-7 7,3906.10-8
M=8 7,0300. 10-6 1,7844.10-7 8,6461.10-9
M=9 5,6341. 10-6 4,2997.10-7 1,1859. 10-7
4.1.2.2 Đánh giá HLM1 và HLM2 qua nhận dạng hàm số
Hàm 2 2 22 2 1 2(5 ) /[3(5 ) (5 ) ]y x x x của [93] được sử dụng để xây dựng tập mẫu tr_set2 gồm
100 mẫu trong đó các giá trị 1 2[ , ]x x x được lấy ngẫu nhiên trong khoảng ]10,0[ nhờ hàm random
của Matlab và dữ liệu ra được tính theo 2y . Sử dụng các thuật toán [93], HLM1 và HLM2 để tổng
hợp các mạng các neuro-fuzzy trên cùng một tập mẫu tr_set2. Các kết quả khảo sát được thể hiện
trên hình 4.6, hình 4.7 và bảng 4.3.
Hình 4.6 So sánh sai số đáp ứng ˆ ,i i iError y y 1...100i và giá trị sai số bình phương trung
bình E của thuật tóan [93], HLM1 và HLM2 ứng với tập mẫu tr_set2 với số luật mờ M=30
E=2,099.10-5 E=1,704.10-5 E=1,6686.10-5
Bảng 4.3 Sai số bình phương trung bình của từng thuật toán
Sai số E của các thuật toán Số luật
mờ [93] HLM1 HLM2
M=10 2,000. 10-3 1,700. 10-3 2,769.10-4
M=20 25,000.10-4 1,477.10-4 1,233.10-4
M=30 2,099.10-5 1,704.10-5 1,669.10-5
Algorithm [93]
106 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
Ở hình 4.6 thể hiện sai số đáp ứng ˆ ,i i iError y y 1...100i và các giá trị sai số bình phương
trung bình E của từng thuật toán [93], HLM1 (có các hệ số định hướng 1 0.05; 2 0.95; 0.35 )
và HLM2 ứng với số luật mờ M=30. Ở Hình 4.7, biểu diễn chung trên một hệ trục dữ liệu ra của tập
mẫu huấn luyện tr_set2, iy 1...100i (nét liền) và tín hiệu ra của mạng ˆiy (nét đứt) ứng với hai
thuật toán [93] và HLM2 với số luật mờ M=20. Trên hình 4.7a cho thấy sự khác biệt giữa hai đường
iy và ˆiy ; ngược lại ở hình 4.7b, hai đường này gần như trùng nhau, chứng tỏ ở hình 4.7b các giá trị
ra của mạng tiệm cận gần hơn tới tập các giá trị ra tương ứng của tập dữ liệu huấn luyện mạng. Bảng
4.3, hình 4.6 và hình 4.7 cho thấy độ chính xác của các thuật toán mới cao hơn độ chính xác của
thuật toán [93].
4.1.2.3 Kiểm chứng HLM1, HLM2 và HLM qua xấp xỉ hàm từ tập dữ liệu số
Sử dụng các thuật toán [93], HLM1 ( 1 20.05; 0.95; 0.5 ), HLM2 và HLM để xây dựng các
mạng neuro-fuzzy, mỗi mạng đóng vai trò là một hàm xấp xỉ của cùng một tập dữ liệu số gồm 100
mẫu, 10 biến vào một biến ra 1 1 10([ , ,..., ], )x x x y được cho trong phụ lục IV “Daily Data of Stock A”
của [95]. Kết quả thể hiện trên hình 4.8, 4.9 và bảng 4.4 cho thấy độ chính xác của HLM1, HLM2 và
HLM cao hơn độ chính xác của [93]; trong bốn thuật toán nêu trên, thuật toán HLM2 có độ chính xác
cao nhất nhưng có tốc độ hội tụ kém nhất.
Hình 4.7 Tín hiệu ra của tập mẫu tập tr_set2 yi ( ) và của mạng ˆ , 1...100iy i (----) ứng
với hai thuật toán [93] (a) và HLM2 (b)
(a) (b)
107 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
Bảng 4.4 Sai số E của [93], HLM1, HLM2 và HLM khi số luật mờ M=10, 12, 14, 18, 20
Sai số E ứng với từng thuật toán Số luật mờ
[93] HLM1 HLM2 HLM
M=10 13,4148 0,5618 0,0675 0,5222
M=12 1,74460 0,2070 0,0352 0,1526
M=14 3,5028. 10-5 2,1013. 10-6 1,2101.10-6 1,2971.10-6
M=18 8,7387.10-23 4,7213.10-23 1,1121.10-24 1,1737.10-24
M=20 0,0028 3,6972.10-12 4,0908.10-14 1,1006.10-13
Hình 4.9 Giá trị sai lệch ˆi i iError y y và giá trị sai số bình phương trung bình E của các thuật toán
[93] và HLM khi số luật mờ M=18, sử dụng tập mẫu “Daily Data of Stock A” của [95]
Hình 4.8 Giá trị sai lệch ˆi i iError y y và giá trị sai số bình phương trung bình E (=Error) của các thuật
toán [93] HLM1, HLM2 và HLM khi số luật mờ M=12, tập mẫu “Daily Data of Stock A” của [95]
M = 1 2
S e t 1 0 0 x1 0 x1
Al g o ri t h m [ 9 3 ]
E r r o r= 1 . 7 4 4 6
S e t 1 0 0 x 1 0 x 1
M = 1 8
A lg o r i t h m [ 9 3 ]
E r r o r = 8 . 7 3 8 7 e - 2 3
108 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
4.1.2.4 Đánh giá HLM1, HLM2 và HLM qua nhận dạng hàm số
Từ hàm 2 1,5 21 1(1 )y x x , 1 2, [1,5]x x xây dựng tập mẫu gồm 50 mẫu tương tự tập mẫu đã được sử
dụng trong [112]. Thực hiện huấn luyện mạng nhận dạng hàm y bằng cách ứng dụng các thuật toán
HLM1, HLM2, HLM, [93] và các thuật toán được trình bày trong [112][133][143] (gọi tắt là các thuật
toán [112][133][143]). Các kết quả nhận được cho trong bảng 4.5 cho thấy độ chính xác trung bình
của HLM1, HLM2 và HLM cao hơn rất nhiều so với độ chính xác trung bình của [93][112][133]
[143]. Trong ba thuật toán mới, HLM2 có độ chính xác cao nhất.
4.1.2.5 Khảo sát hiệu quả của HLM qua nhận dạng hàm số
Hàm 2 2 22 2 1 2(5 ) /[3(5 ) (5 ) ]y x x x của [93] được sử dụng để xây dựng tập mẫu tr_set gồm
100 mẫu. Các giá trị 1 2[ , ]x x x được lấy ngẫu nhiên trong khoảng [0;10] nhờ hàm random của
Matlab. Dữ liệu ra được tính theo 2 2 22 2 1 2(5 ) /[3(5 ) (5 ) ].y x x x
Trên hình 4.10 thể hiện sai số đáp ứng ˆ ,i i iError y y 1...100i và giá trị sai số bình phương
trung bình E của thuật toán [93] và thuật toán HLM [2] (có 1 0.05; 2 0.95; 0.35 ) ứng với số
luật mờ M=30. Hình 4.10 và số liệu cụ thể ứng với các giá trị của số luật mờ M được thể hiện trên
bảng 4.6 cho thấy hiệu quả của thuật toán mới, thuật toán HLM.
Bảng 4.6 Sai số E của [93] và HLM khi M=10, 15, 20, 25, 30
Sai số E ứng với từng thuật toán Số luật mờ
[93] HLM
M=10 2,000. 10-3 1,650. 10-3
M=15 2,200.10-3 2,100.10-3
M=20 25,000.10-4 1,338.10-4
M=25 3,545.10-5 2,326.10-5
M=30 2,099.10-5 1,4543.10-5
Bảng 4.5 Sai số E của [112][133][143][93] HLM, HLM1 và HLM2 khi M=6, 8, 10
Các thuật toán Số
luật mờ
ĐL [112] [133] [143] [93] HLM HLM1 HLM2
M=6 E 0,0589 0,0572 0,0599 0,0221 0,0167 0,0182 0,0196.10-2
M=8 E 0,0500 0,0499 0,0499 0,0220 0,0198 0,0218 0,0185.10-2
M=10 E 0,0148 0,0149 0,0149 0,0188 0,0244.10-1 0,0260.10-1 0,0198.10-2
109 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
4.1.2.6 Đánh giá hiệu quả của HLM qua nhận dạng dầm trong quan hệ độ võng-vị trí đặt tải
Khảo sát dầm mô hình như trên hình 4.11. Chia dầm thành 29 phần tử bởi 30 nút theo cách chia của
phương pháp phần tử hữu hạn. Lực tập trung F=200.000N được đặt tại nhiều vị trí khác nhau trên
dầm. Với mỗi vị trí của F, sử dụng chương trình tính toán cơ học ANSYS [166] xác định độ võng của
dầm tại 30 nút để xây dựng hai tập mẫu: TrainingSet có số mẫu P=900 và TestSet có số mẫu P=100
sao cho một mẫu bất kỳ thuộc tập này sẽ không thuộc tập kia.
Hình 4.11 Mô hình thí nghiệm đo độ võng của dầm cầu trên hai gối khi tải thay đổi
Hình 4.10 So sánh sai số đáp ứng ˆ ,i i iError y y 1...100i và giá trị sai số bình phương trung
bình E của thuật toán [93] và HLM ứng với tập mẫu tr_set với số luật mờ M=30
function f2
algorithm [93]
E=2.099e-5
E=1.4543e-5
24,703 m
E = 35.982 MPa
F = 200.000N
Dầm có tiết diện ngang là
hình chữ nhật 1,1 0, 45m m
Hình 4.12 Sai lệch ˆi i iError y y và sai số bình phương trung bình E ứng với từng thuật toán
M =4 0
Al go r i t h m [ 9 3 ]
E= 2 . 9 7 7 4 e - 6
M=40
Set 900x2x1
Algorithm HLM
E=2.5794e-6
110 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
Sử dụng thuật toán [93] và HLM để tổng hợp mạng neuro-fuzzy nhận dạng dầm trong quan hệ độ
võng-vị trí đặt tải thông qua tập dữ liệu TrainingSet. Sai số ˆi i iError y y và sai số bình phương
trung bình E ứng với từng thuật toán được thể hiện trên hình 4.12. Kết quả cho thấy độ chính xác
của thuật toán HLM cao hơn độ chính xác của [93].
Để kiểm tra khả năng nhận dạng và dự báo của mạng neuro-fuzzy được tổng hợp bởi thuật
toán HLM chúng tôi sử dụng tập TestSet làm dữ liệu vào-ra cho mạng đã được tổng hợp bởi thuật
toán HLM với tập dữ liệu TrainingSet (gọi tắt là mạng N-F/TrainingSet). Cụ thể, sử dụng tập TestSet
và N-F/TrainingSet chúng tôi đã tính và kiểm tra hai nội dung sau. Thứ nhất, tính sai lệch giữa dữ
liệu ra cho trong tập mẫu TestSet và dữ liệu ra tương ứng của N-F/TrainingSet khi sử dụng tín hiệu
vào cho mạng là tín hiệu vào của tập TestSet, ˆi i iError y y . Thứ hai, tính sai số bình phương trung
bình E giữa tín hiệu ra của N-F/TrainingSet (khi sử dụng tín hiệu vào cho mạng là tín hiệu vào của
tập TestSet) và tín hiệu ra của tập TestSet. Kết quả thể hiện trên hình 4.13 cho thấy khả năng nhận
dạng đối tượng và dự báo của mạng neuro-fuzzy được tổng hợp bởi thuật toán HLM khá tốt.
Nhận xét Kết quả thí nghiệm cho thấy hiệu quả tác động của hàm định hướng j [9]. Hàm j
thông qua bộ tham số định hướng 1 2[ ; ; ] đóng vai trò định hướng quá trình phân chia không gian
dữ liệu để xác lập các tập mờ, gia tăng tốc độ hội tụ, giảm số lượng tập mờ (giảm số lượng bó được
tạo thành) và do đó giảm mức độ phức tạp của mạng. Hàm j còn làm gia tăng mức độ phù hợp
trong mối liên hệ giữa không gian nền của các tập mờ (là không gian của các đại lượng vật lý cho
trong tập mẫu) với chính các tập mờ được xây dựng trên nó, và do đó làm gia tăng độ chính xác của
thuật toán HLM1, HLM2 và HLM. Việc gia tăng độ chính xác trong giai đoạn chia bó dữ liệu min-
max của thuật toán CBMM và trong giai đoạn xây dựng các bó siêu hộp thuần chủng của thuật toán
CSHL có tác dụng gia tăng mức độ ràng buộc giữa các tập mờ ở không gian vào và các lớp dữ liệu
Hình 4.13 Khả năng đáp ứng của mạng neuro-fuzzy được huấn luyện bởi thuật toán HLM
M=30
E=7.3927e-6
111 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
dạng siêu phẳng ở không gian ra, nghĩa là làm gia tăng mức độ phù hợp trong mối liên hệ giữa
không gian nền của các tập mờ (là không gian của các đại lượng vật lý cho trong tập mẫu) với chính
các tập mờ được xây dựng trên nó, và do đó làm gia tăng độ chính xác của các thuật toán này. Ngoài
ra, việc định hướng hợp lý trong quá trình chia cắt các siêu hộp có tác dụng làm gia tăng tốc độ hội
tụ, giảm số lượng tập mờ (giảm số lượng bó được tạo thành) và do đó giảm mức độ phức tạp của
mạng.
Đặc điểm của các thuật toán này là với một tập dữ liệu đã cho, các thuật toán có thể tự động
xác lập cấu hình mạng neuro-fuzzy, bao gồm tự động xác định số lượng các tập mờ, tự động xác lập
các hàm liên thuộc, tự động xác định số lượng neuron trên lớp ẩn phù hợp với độ chính xác yêu cầu.
So với HLM1 và HLM2, ưu điểm của thuật toán HLM là có khả năng nhận ra và cho biết
mức độ chính xác mà ANFIS không thể đạt tới ứng với tập dữ liệu huấn luyện đã cho. Trong ba
thuật toán, sai số của HLM2 nhỏ hơn HLM1 và HLM, tuy nhiên hạn chế cơ bản của HLM2 là thời
gian huấn luyện mạng và yêu cầu dung lượng nhớ của máy tính cao hơn nhiều so hai thuật toán kia.
112 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
4.2 CÁC THÍ NGHIỆM TRÊN MÔ HÌNH TOÁN
Trong các khảo sát của nhóm này chúng tôi sử dụng mô hình toán của một dầm cầu với trạng thái
chịu lực là uốn ngang phẳng. Các thông số hình học cũng như cơ học của dầm được thể hiện trên
hình 4.14. Dầm được chia thành N=20 phần tử. Tạo ra các khuyết tật riêng lẻ và các khuyết tật đồng
thời trên cơ hệ. Xác định sáu tần số riêng đầu tiên khi chưa bị hư hỏng ( Hz ): f1=1,7; f2=6,9; f3=15,6;
f4=19,6; f5=27,6; f6=42. Chia đều miền tần số từ 0 đến 50Hz thành 501 điểm chia với bước chia là
0.1 Hz. Cho cơ hệ dao động và sử dụng chương trình ANSYS [166] để tính toán chuyển vị của hệ tại
các nút phần tử.
4.2.1 Xác định vị trí hỏng dựa vào phương pháp năng lượng và VTKT-NL
Phương pháp năng lượng của [67] và thuật toán cải biên VTKT-NL của [3] (đã được trình bày chi
tiết trong chương 3) được sử dụng để xác định vị trí khuyết tật trên mô hình thí nghiệm được