at1_007

New Member

Download miễn phí Bài giảng Nhận dạng ảnh





Trên thực tế, quá trình học chỉ là nhằm tạo ra liên kết giữa các dữ liệu vào và dữ liệu ra trong mẫu học, dẫu rằng về bản chất chúng không có liên quan gì trực tiếp với nhau. Thực chất, mạng ABAM còn học được thêm hai khái niệm tổng quát, tuy rằng ta không chủ định huấn luyện cho chúng. Đó là - Phân tích ảnh ghép thành các thành phần
- Lấy phần bù kết quả để đối sánh với ảnh âm bản.
Những điều này có thể đạt được khi ta chọn tương đối cẩn thận tập mẫu học. Quả thật khó có thể lựa chọn ngẫu nhiên các mẫu học để tạo ra mạng ABAM đủ thông minh, có khả năng phân tách các ảnh vào ghép. Có thể thấy rằng kết quả xử lý của mạng ABAM chỉ là kết quả của việc lắp ráp từ các mẫu học. Một cách trực quan, ta có thể cho rằng các mẫu vào tương tự sẽ cho những kết quả tương tự. Điều này quả thật không đúng. Ví dụ X1 bị nhiễu 1 điểm ảnh sẽ cho kết quả ra là ảnh ghép X14, trong khi đó nhiễu tại 1 điểm ảnh ở X2 không làm thay đổi kết quả đầu ra. Lý do chính ở đây là chúng ta lẫn lộn hai khái niệm "tương tự" và đối xứng". Hơn nữa, ta nhận thấy 2 mẫu X1 và X2 cũng như X4 và X5 đối xứng nhau qua tâm. Các ảnh ghép X1,2 và X45 tự đối xứng với chính nó qua tâm. Ta nói chúng có chứa tâm đối xứng. Tuy vậy, X3 không chứa tâm đối xứng và không thể ghép với ảnh khác để có tính chất đó. Vì lẽ đó, sau khi học xong tập mẫu, chính X3 đã ngăn cản mạng có tính chất đối xứng đó. Như vậy có thể nói, để có hiệu ứng tương tự lên các mẫu vào bị biến dạng còn tuỳ từng trường hợp vào sự tương tự của các mẫu học nguyên bản và các ảnh ghép của chúng.
 



Để tải bản Đầy Đủ của tài liệu, xin Trả lời bài viết này, Mods sẽ gửi Link download cho bạn sớm nhất qua hòm tin nhắn.
Ai cần download tài liệu gì mà không tìm thấy ở đây, thì đăng yêu cầu down tại đây nhé:
Nhận download tài liệu miễn phí

Tóm tắt nội dung tài liệu:

hiệu vào thì ma trận trọng số W sẽ có kích cỡ mxm : W=(wij) trong đó wij là trọng số liên kết nơ ron thứ j ở lớp vào sang nơ ron thứ i ở lớp ra (Các hàng tương ứng với nơ ron ra, các cột tương ứng với nơ ron vào).
Mạng nơ ron Hopfield yêu cầu các tín hiệu vào có giá trị lưỡng cực -1 và 1. Trường hợp đầu vào x nhị phân có thể dùng hàm biến đổi x'=2x-1.
(3)
Hàm kích hoạt được dùng tại các nơ ron là hàm dấu.
B. Huấn luyện mạng
Mạng Hopfield HF học dựa trên nguyên tắc có giám sát. Giả sử có p mẫu học tương ứng với các vectơ tín hiệu vào Xs , s=1,p. Mạng sẽ xác định bộ trọng số W sao cho
Xs = Tinh ( Xs , W) với mọi s=1,p (4)
Nếu i ạ j
wji =
0
Nếu i=j
(5)
Ta xây dựng ma trận trọng số W như sau : W = (w ij) với
ở đây Xs = (xs1,...,xsm).
Một cách trực quan, trọng số liên kết wji sẽ tăng thêm một lượng là 1 (tương ứng với số hạng xsj.xsi ) nếu cả hai thành phần thứ i và thứ j của mẫu học Xs bằng nhau. Khi có mẫu học mới Xp+1 ta chỉ cần xét các thành phần thứ i và thứ j của nó để cập nhật giá trị cho wji (6). Có thể chứng minh được với ma trận W được xác định như trong (5), ta sẽ có được (4). Nói cách khác, mạng đã "học thuộc" các ví dụ mẫu {Xs}.
C. Sử dụng mạng.
Giả sử đưa vào mạng vectơ tín hiệu X.
Sử dụng mạng để tính đầu ra tương ứng với tín hiệu vào X là quá trình lặp bao gồm các bước:
Ban đầu , đặt X(0) = X . Gọi Y(t) là vectơ tín hiệu ra tương ứng với một lần cho X(t) lan truyền trong mạng.
Y(t) = out(t) = Tinh ( HF, X(t)).
Nếu Y(t) ạ X(t) thì tiếp tục bước lặp với t=t+1 và X(t+1) = Y(t) = out(t)
Nếu Y(t) = X(t) thì dừng và khi đó X(t) được coi là kết quả xử lý của mạng khi có tín hiệu vào X.
Điểm chú ý quan trọng là ma trận W không thay đổi trong quá trình sử dụng mạng.
Một vài tình huống nảy sinh
Mạng không hội tụ.
Mạng hội tụ và X(t) = X
Mạng hội tụ và X(t) = Xs với Xs là mẫu nào đó đã học.
Mạng hội tụ với X(t) ạ Xs với mọi mẫu học Xs
Mạng hội tụ với X(t) nào đó như trong 2) 3) 4) nhưng là ảnh ngược ( 1 thành -1, -1 thành 1).
Mạng có thể đưa ra luân phiên một vài mẫu học (hay ảnh ngược của chúng).
Trường hợp 2) có nghĩa rằng vectơ X đã được đoán nhận đúng dựa trên mẫu học {Xs} hay nói cách khác, X có thể suy ra từ mẫu học.
Trường hợp 3) chứng tỏ rằng mạng đã phục hồi dạng nguyên bản Xs của X.
Trường hợp 4) chỉ ra một vectơ mới, có thể xem là mẫu học và sẽ được dùng để cập nhật ma trận trọng số (xem (6)).
D. Thử nghiệm mạng trong phục hồi ảnh
Xét bài toán phục hồi ảnh đen trắng kích cỡ 4 x 4. Như vậy mỗi ảnh có 16 điểm ảnh. Ta thiết kế một mạng HF với 16 đầu vào và 16 nơ ron ra. Vectơ đầu vào của mạng nhận được từ ma trận ảnh, lấy từng dòng một, sau khi đã biến đổi nhờ sử dụng hàm x'=2x-1.
Ban đầu ta có 4 mẫu
X1=(0,0,1,1,0,0,1,1,1,1,0,0,1,1,0,0) X2=(0,0,0,0,0,0,0,0,1,1,1,1,1,0,0,0)
X3=(1,1,1,1,0,0,0,1,0,0,0,1,1,1,1,1) X4=(1,0,0,0,1,0,0,0,1,0,0,0,1,1,1,1)
Hình 7.9. Mẫu học
X1 0 0 1 1 0 0 1 1 1 1 0 0 1 1 0 0
X1' -1 -1 1 1 -1 -1 1 1 1 1 -1 -1 1 1 -1 -1
U U U U U U U U U U U U U U U U
... ...
O O O O O O O O O O O O O O O O
¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯
Y1 -1 -1 1 1 -1 -1 1 1 1 1 -1 -1 1 1 -1 -1
Hình 7.10. Mạng Hopfield khôi phục ảnh.
Ma trận W được tính theo công thức (5) cho kết quả sau:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
0
2
0
0
2
0
-2
0
-2
-4
-2
0
0
2
4
4
1
2
0
2
2
0
2
0
2
-4
-2
0
2
-2
0
2
2
2
0
2
0
4
-2
0
2
4
-2
0
-2
0
0
2
0
0
3
0
2
4
0
-2
0
2
4
-2
0
-2
0
0
2
0
0
4
2
0
-2
-2
0
2
0
-2
0
-2
0
-2
-2
0
2
2
5
0
2
0
0
2
0
2
0
-2
0
2
0
-4
-2
0
0
6
-2
0
2
2
0
2
0
2
0
2
0
-2
-2
0
-2
-2
7
0
2
4
4
-2
0
2
0
-2
0
-2
0
0
2
0
0
8
-2
-4
-2
-2
0
-2
0
-2
0
2
0
-2
2
0
-2
-2
9
-4
-2
0
0
-2
0
2
0
2
0
2
0
0
-2
-4
-4
10
-2
0
-2
-2
0
2
0
-2
0
2
0
2
-2
-4
-2
-2
11
0
2
0
0
-2
0
-2
0
-2
0
2
0
0
-2
0
0
12
0
-2
0
0
-2
-4
-2
0
2
0
-2
0
0
2
0
0
13
2
0
2
2
0
-2
0
2
0
-2
-4
-2
2
0
2
2
14
4
2
0
0
2
0
-2
0
-2
-4
-2
0
0
2
0
4
15
4
2
0
0
2
0
-2
0
-2
-4
-2
0
0
2
4
0
16
Kết quả thử nghiệm với các ảnh có nhiễu tại 2,5,13 điểm ảnh (tương ứng với 13, 31 và 81%) được cho trên hình 7.11. Hơn nữa, với ảnh đầu vào có cùng số điểm ảnh biến dạng có thể dẫn tới những hành vi khác nhau (không hội tụ giống nhau, số vòng lặp khác nhau ...). Nếu có hơn 50% điểm ảnh biến dạng thì ảnh được tái tạo ở đầu ra là âm bản của ảnh gốc.
E . Khả năng nhớ mẫu của mạng Hopfield
Kết quả thực nghiệm chỉ ra rằng số nơ ron Nnơ ron nói chunggấp 7 lần số ảnh mẫu N anh cần nhớ (đã khôi phục) trong mạng:
Nnơ ron = 7. N anh (7).
Từ công thức này rút ra hai điều:
Thứ nhất, độ phân giải r x r của ảnh phụ thuộc vào cần nhớ bao nhiêu ảnh mẫu. Chẳng hạn, nếu cần nhớ 100 ảnh mẫu thì cần có 700 nơ ron, mỗi nơ ron tương ứng với một điểm ảnh. Do vậy,
r 2 = Nnơ ron = 7. N anh = 700, do đó ảnh phải có độ phân giải 27 x 27.
Mẫu X1 Mẫu X2 Mẫu X3 Mẫu X4
1
2
1
2
2
2
2
3
3
5
4
4
ảnh gốc
ảnh nhiễu tại 2 điểm
ảnh kết quả
số lần lặp
ảnh nhiễu tại 5 điểm
ảnh nhiễu tại 13 điểm
Hình 7.11 . Thí nghiệm mạng với ảnh nhiễu.
Thứ hai, kích thước ma trận trong số sẽ là m2 = (Nnơ ron)2 = 49 (N anh)2
Nếu cần nhớ 100 ảnh mẫu, cần lưu giữ 490.000 trọng số, mỗi trọng số cần 2 hay 4 byte; Do vậy, để lưu giữu thông tin về mạng cần mất cỡ 1Mbyte hay 2Mbyte. Đây chính là độ phức tạp của mạng Hopfield.
Để ước lượng chi phí thời gian, ta làm như sau:
Mỗi lần lặp để tính out(t) từ X(t) ta cần chi phí cỡ 2.106 phép nhân và 2.106 phép cộng. Một ước lượng thô là độ phức tạp thời gian của mạng Hopfield tăng theo luỹ thừa bậc 2 của kích cỡ bài toán.
Hệ thức (7) chỉ đúng khi các mẫu học phân bố ngẫu nhiên trong không gian mẫu. Nếu phân bố hay lựa chọn mẫu học tốt, có thể tăng khả năng nhớ mẫu của mạng từ 0,14 mẫu/1 nơron lên tới 0,25 mẫu / 1 nơ ron. Trong ví dụ đã xét, ta chỉ có 4 mẫu (N anh=4) dùng cho mạng với Nnơ ron = 4x4 = 16 nơ ron. Khả năng nhớ mẫu của nó là 4/16 = 0,25.
Một số điểm lưu ý về mạng Hopfield
Mạng Hopfield cho phép tạo ánh xạ tự kết hợp trên các tập dữ liệu
Dữ liệu vào, ra có giá trị lưỡng cực
Học có giám sát
Mạng cho phép phục hồi dữ liệu
Khả năng nhớ mẫu phụ thuộc vào số nơ ron của mạng
7.4.3.2 Mạng kiểu bộ nhớ 2 chiều kết hợp thích nghi (Adaptive Bidirectional Associative Memory Neural Network)
Có chữ "hai chiều " trong tên gọi của mạng là vì có thể dùng mạng để biến đổi tín hiệu vào thành tín hiệu ra và ngược lại nghĩa là
Y = Tính (X , WT)
và X = Tinh (Y , W) ở đây WT là ma trận chuyển vị của W. Chữ "thích nghi"
có nghĩa là mạng có thể điều chỉnh ma trận trọng số cho phù hợp với dáng điệu của môi trường.
Theo một nghĩa nào đó, mạng ABAM có những nét giống mạng Hopfield:
Chúng cùng là mạng 1 lớp
Tín hiệu vào có thể là nhị phân, hay lưỡng cực
Việc xác định ma trận trọng số ban đầu giống nhau.
Điểm khác giữa 2 loại mạng chính là ở phạm vi bài toán có thể giải quyết và cách xác định các trọng số cho phù hợp với các bài toán đó:
Mạng Hopfield được xác định đúng một lần và được dùng ...
 

Các chủ đề có liên quan khác

Top