15
15
16
16
1 ) 고양이가 어떻게 이미지를 인식할까? 에 대한 연구 (Hubel & Wiesel,1959)
17
17
18
- ![ cs231n_week1_1] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_1\cs231n_week1_1.JPG)
18
+ ![ cs231n_week1_1] ( https://user-images.githubusercontent.com/32008883/30751966-dea3b4c2-9ff5-11e7-870d-44140ff3b480.JPG )
19
+
19
20
20
21
고양이가 이미지를 처리하는 방법을 살펴보니, 각기 다른 뉴런이 이미지를 나누어 인식한다. 복잡한 이미지를 단순한 이미지로 나누어서 처리한다.
21
22
22
23
2 ) 복잡한 물체(object)를 간단한 것의 결합으로 보는 시선
23
24
24
- ![ cs231n_week1_2] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_1\cs231n_week1_2 .JPG)
25
+ ![ cs231n_week1_2] ( https://user-images.githubusercontent.com/32008883/30751987-f03d50e4-9ff5-11e7-8650-70da272845b6 .JPG)
25
26
26
27
3 ) 특성 중심(feature based)의 이미지 처리
27
28
28
- ![ cs231n_week1_3] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_1\cs231n_week1_3 .JPG)
29
+ ![ cs231n_week1_3] ( https://user-images.githubusercontent.com/32008883/30752062-1eba20aa-9ff6-11e7-92d5-38e5bb037353 .JPG)
29
30
30
31
이미지에서 중요한 특성만 추출해서 그 특징을 바탕으로 이미지를 처리한다. 예를 들어 위의 표지판에서는 'STOP' 이라는 글자가 '특성(feature)'이 된다.
31
32
32
33
4 ) 이미지넷 챌린지(IMAGENET Challenge)
33
34
34
- ![ cs231n_week1_4] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_1\cs231n_week1_4 .JPG)
35
+ ![ cs231n_week1_4] ( https://user-images.githubusercontent.com/32008883/30752067-21d78aac-9ff6-11e7-9f14-c279c2e63cf3 .JPG)
35
36
36
- 십만 개가 넘는 이미지를 1000개의 물체로 분류하는 챌린지다. ![ cs231n_week1_5] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_1\cs231n_week1_5.JPG)위의 그래프는 이미지 분류 챌린지의 오류 정도가 낮아짐을 알 수 있다. 주목할 만한 것은 2012 년도인데, 앞으로 강의에서 배울 'Convolutional Neural Network(CNN)'를 적용한 년도이기도 하다.![ cs231n_week1_6] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_1\cs231n_week1_6.JPG)하지만 CNN은 새로 등장한 개념이 아니다. 1998년도에도 손글씨를 인식하여 우편을 분류하려는 노력이 있었는데, 2012년도의 CNN과 매우 유사함을 알 수 있다.
37
+ 십만 개가 넘는 이미지를 1000개의 물체로 분류하는 챌린지다.
38
+ ![ cs231n_week1_5] ( https://user-images.githubusercontent.com/32008883/30752076-258dec72-9ff6-11e7-95bd-5ddb9a074c2b.JPG )
39
+ 위의 그래프는 이미지 분류 챌린지의 오류 정도가 낮아짐을 알 수 있다. 주목할 만한 것은 2012 년도인데, 앞으로 강의에서 배울 'Convolutional Neural Network(CNN)'를 적용한 년도이기도 하다.
40
+ ![ cs231n_week1_6] ( https://user-images.githubusercontent.com/32008883/30752073-255fcedc-9ff6-11e7-94af-2fe6c78d2ce4.JPG )
41
+ 하지만 CNN은 새로 등장한 개념이 아니다. 1998년도에도 손글씨를 인식하여 우편을 분류하려는 노력이 있었는데, 2012년도의 CNN과 매우 유사함을 알 수 있다.
37
42
38
- 4 ) 하지만 아직 갈 길은 멀다.. (to be continued..)![ cs231n_week1_7] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_1\cs231n_week1_7.JPG)위의 이미지를 기계가 파악할 수 있을까? '사람들은 몸무게에 예민하다','대통령이 이런 장난을 치는 것은 흔하지 않은 일이다' 등 다양한 맥락적 요소가 포함되어 있는 것이다. 즉, 사람의 시력은 단순한 것이 아니라 지능 (visual intelligence)도 포함되어 있다. 갈 길이 멀다는 뜻이다. 하지만 컴퓨터의 이미지 처리 관련 기술이 발전해야 삶의 질을 개선할 수 있다는 것 또한 팩트..
43
+ 4 ) 하지만 아직 갈 길은 멀다.. (to be continued..)
44
+ ![ cs231n_week1_7] ( https://user-images.githubusercontent.com/32008883/30752075-258195bc-9ff6-11e7-9f6c-4b57682c0c21.JPG )
45
+ 위의 이미지를 기계가 파악할 수 있을까? '사람들은 몸무게에 예민하다','대통령이 이런 장난을 치는 것은 흔하지 않은 일이다' 등 다양한 맥락적 요소가 포함되어 있는 것이다. 즉, 사람의 시력은 단순한 것이 아니라 지능 (visual intelligence)도 포함되어 있다. 갈 길이 멀다는 뜻이다. 하지만 컴퓨터의 이미지 처리 관련 기술이 발전해야 삶의 질을 개선할 수 있다는 것 또한 팩트..
39
46
40
47
41
48
48
55
우리는 의자를 옆에서 보든 앞에서 보든 거꾸로 보든 의자인지 알고 있다. 하지만 기계는 모른다. 이렇게 빛 노출에 따라 고양이인지 파악하기 어렵다.
49
56
50
57
51
- ![ cs231n_week2_1] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_2\cs231n_week2_1 .JPG)
58
+ ![ cs231n_week2_1] ( https://user-images.githubusercontent.com/32008883/30752113-32df721a-9ff6-11e7-9264-78ea0f54a2a2 .JPG)
52
59
53
60
54
61
89
96
90
97
#### 2) 그러면 어떤 이미지가 '가깝다'고 할 수 있을까? : L1 distance
91
98
92
- ![ cs231n_week2_4JPG ] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_2\cs231n_week2_4JPG .JPG)
99
+ ![ cs231n_week2_4jpg ] ( https://user-images.githubusercontent.com/32008883/30752114-32e25ec6-9ff6-11e7-8841-c1bc7cd97d6e .JPG)
93
100
94
101
새롭게 들어온 고양이 이미지와 학습시켰던 고양이 이미지를 픽셀로 표현했을 때, 그 차이를 계산하여 더하는 방법이 'L1 distance'이다. 그 합이 이미지 간의 거리라고 할 수 있다.
95
102
@@ -107,7 +114,7 @@ Nearest Neighbor classifier은 모든 데이터를 단지 외우게 학습시키
107
114
108
115
##### 1. 개념
109
116
110
- ![ cs231n_week2_6JPG ] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_2\cs231n_week2_6JPG .JPG)
117
+ ![ cs231n_week2_6jpg ] ( https://user-images.githubusercontent.com/32008883/30752116-32f54248-9ff6-11e7-89c8-bcc29031bb59 .JPG)
111
118
112
119
단순히 근처 가까운 이웃의 라벨을 베끼기보다, K개의 가까운 점들에게서 투표를 받아서 해당 이미지가 무엇인지 결정하게 됩니다.
113
120
@@ -117,7 +124,7 @@ K가 커질수록 경계선 부분이 부드러워진 것을 알 수 있습니
117
124
118
125
##### 2. L2 Distance
119
126
120
- ![ cs231n_week2_7] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_2\cs231n_week2_7. JPG)
127
+ ![ cs231n_week2_7] ( https://user-images.githubusercontent.com/32008883/30752098-3259b102-9ff6-11e7-9c31-846ad80f671f. JPG)
121
128
122
129
K-Nearest Neighbor Classifier에서는 L2 distance라는 것이 등장합니다. L1은 좌표축이 달라지면, 거리가 달라질 수 있다. 하지만 L2는 원이기 때문에 좌표축이 바뀌어도 괜찮다.
123
130
@@ -137,7 +144,7 @@ K-Nearest Neighbor Classifier에서는 L2 distance라는 것이 등장합니다.
137
144
138
145
3 ) Test set: 모델이 한 번도 본 적 없는 새로운 데이터여야 하며, 위에서 정한 hyperparameter를 적용하여 최종 예측률을 계산한다.
139
146
140
- ![ cs231n_week2_9_1] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_2\cs231n_week2_9_1 .jpg)
147
+ ![ cs231n_week2_9_1] ( https://user-images.githubusercontent.com/32008883/30752100-3281d5ce-9ff6-11e7-9122-925aede621ba .jpg)
141
148
142
149
143
150
@@ -147,7 +154,7 @@ K-Nearest Neighbor Classifier에서는 L2 distance라는 것이 등장합니다.
147
154
148
155
2 . L1 distance, L2 distance는 이미지 간 차이를 완벽하게 설명하지 못한다.예를 들어 하단의 4가지 이미지는 모두 같은 L2 distance를 가진다.
149
156
150
- ![ cs231n_week2_10_1] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_2\cs231n_week2_10_1 .jpg)
157
+ ![ cs231n_week2_10_1] ( https://user-images.githubusercontent.com/32008883/30752107-32b40f44-9ff6-11e7-81cc-5994f19e2e2e .jpg)
151
158
152
159
153
160
@@ -173,21 +180,21 @@ K-Nearest Neighbor Classifier에서는 L2 distance라는 것이 등장합니다.
173
180
174
181
175
182
176
- ![ cs231n_week2_12] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_2\cs231n_week2_12 .JPG)
183
+ ![ cs231n_week2_12] ( https://user-images.githubusercontent.com/32008883/30752104-32ab5d36-9ff6-11e7-83c1-3583a0f2a7c6 .JPG)
177
184
178
185
179
186
180
- ![ cs231n_week2_13] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_2\cs231n_week2_13 .JPG)
187
+ ![ cs231n_week2_13] ( https://user-images.githubusercontent.com/32008883/30752106-32b0ccbc-9ff6-11e7-846c-3745de505460 .JPG)
181
188
182
189
#####2 ) W
183
190
184
191
아래 왼쪽에서 다섯번째 이미지를 보자. 사슴에 대한 W의 행을 뽑아서 이미지로 나타낸 것이다. 희여멀건하지만 풀이라고 추정되는 녹색 바탕과 갈색의 물체가 보인다. 학습 데이터의 이미지를 하나의 템플릿으로 표현하려고 하다보니 뿌옇다.
185
192
186
- ![ s231n_week2_14 ] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_2\cs231n_week2_14 .JPG)
193
+ ![ cs231n_week2_14 ] ( https://user-images.githubusercontent.com/32008883/30752105-32ae15bc-9ff6-11e7-8ff7-6b84bb4d8ef0 .JPG)
187
194
188
195
#####3 )한계
189
196
190
- ![ cs231n_week2_15] (C:\Users\kimhj\OneDrive\문서\4-YBIGTA\데이터 사이언스\발표자료\cs231n_2\cs231n_week2_15 .JPG)
197
+ ![ cs231n_week2_15] ( https://user-images.githubusercontent.com/32008883/30752108-32bb04f2-9ff6-11e7-8f9c-d86d5501ffb6 .JPG)
191
198
192
199
linear classifier도 한계가 있는데, 첫번째 케이스처럼 나누어져있다면 하나의 선으로 구역을 나눌 수 없다. 두번째 도넛과 같은 경우도 마찬가지이다. 세번째 경우도 세가지 덩어리(?)가 흩어져 있어 하나의 선으로 표현하기 어렵다.
193
200
0 commit comments