Skip to content

Commit 01a7aef

Browse files
Update CS231n 1강~2강(혜주).md
1 parent cf25e87 commit 01a7aef

File tree

1 file changed

+23
-20
lines changed

1 file changed

+23
-20
lines changed

CNN/CS231n 1강~2강(혜주).md

Lines changed: 23 additions & 20 deletions
Original file line numberDiff line numberDiff line change
@@ -11,7 +11,7 @@
1111

1212

1313

14-
### 1.이미지 처리 insight(1강)
14+
## 1.이미지 처리 insight(1강)
1515

1616
1) 고양이가 어떻게 이미지를 인식할까? 에 대한 연구 (Hubel & Wiesel,1959)
1717

@@ -36,19 +36,22 @@
3636

3737
십만 개가 넘는 이미지를 1000개의 물체로 분류하는 챌린지다.
3838
![cs231n_week1_5](https://user-images.githubusercontent.com/32008883/30752076-258dec72-9ff6-11e7-95bd-5ddb9a074c2b.JPG)
39+
3940
위의 그래프는 이미지 분류 챌린지의 오류 정도가 낮아짐을 알 수 있다. 주목할 만한 것은 2012 년도인데, 앞으로 강의에서 배울 'Convolutional Neural Network(CNN)'를 적용한 년도이기도 하다.
4041
![cs231n_week1_6](https://user-images.githubusercontent.com/32008883/30752073-255fcedc-9ff6-11e7-94af-2fe6c78d2ce4.JPG)
42+
4143
하지만 CNN은 새로 등장한 개념이 아니다. 1998년도에도 손글씨를 인식하여 우편을 분류하려는 노력이 있었는데, 2012년도의 CNN과 매우 유사함을 알 수 있다.
4244

4345
4) 하지만 아직 갈 길은 멀다.. (to be continued..)
4446
![cs231n_week1_7](https://user-images.githubusercontent.com/32008883/30752075-258195bc-9ff6-11e7-9f6c-4b57682c0c21.JPG)
47+
4548
위의 이미지를 기계가 파악할 수 있을까? '사람들은 몸무게에 예민하다','대통령이 이런 장난을 치는 것은 흔하지 않은 일이다' 등 다양한 맥락적 요소가 포함되어 있는 것이다. 즉, 사람의 시력은 단순한 것이 아니라 지능 (visual intelligence)도 포함되어 있다. 갈 길이 멀다는 뜻이다. 하지만 컴퓨터의 이미지 처리 관련 기술이 발전해야 삶의 질을 개선할 수 있다는 것 또한 팩트..
4649

4750

4851

4952

5053

51-
### 2. 이미지 분류의 어려움
54+
## 2. 이미지 분류의 어려움
5255

5356
저번 시간에 이어서 이미지 분류에는 여러 어려움을 소개한다.
5457

@@ -61,29 +64,29 @@
6164

6265

6366

64-
### 3. 해결책 : Data-Driven Approach
67+
## 3. 해결책 : Data-Driven Approach
6568

6669
그!래!서! 이미지 분류의 어려움을 해소하는데 도움을 주고자 데이터에 기반한 접근법(Data-Driven Approach)이 등장하였다.
6770

6871

6972

70-
##### Data-Driven Approach
73+
#### Data-Driven Approach
7174

72-
#####1) 이미지와 라벨(label) 데이터를 모은다.
75+
#### 1) 이미지와 라벨(label) 데이터를 모은다.
7376

7477
라벨이란 이미지를 분류하는 이름이라고 생각하면 된다. '고양이','비행기' 등이 예이다.
7578

76-
#####2) 머신러닝(Machinen Learning)을 통해 이미지 분류기(Classifier)를 학습시킨다.
79+
#### 2) 머신러닝(Machinen Learning)을 통해 이미지 분류기(Classifier)를 학습시킨다.
7780

78-
#####3) 새로운 이미지에 분류기를 적용하고 평가한다.
81+
#### 3) 새로운 이미지에 분류기를 적용하고 평가한다.
7982

8083

8184

82-
### 4. Classifier 1: Nearest Neighbor
85+
## 4. Classifier 1: Nearest Neighbor
8386

8487
주어진 이미지와 '가장 가까운 이웃' 이미지를 찾는 분류기이다. 이 분류기가 작동하는 원리는 다음과 같다.
8588

86-
#### 1) 작동원리
89+
### 1) 작동원리
8790

8891
1. 모든 데이터와 라벨을 학습시킨다.
8992
2. 테스트용 이미지가 주어지면, 학습했던 이미지와 가장 유사한 라벨을 찾아준다.
@@ -94,25 +97,25 @@
9497

9598

9699

97-
#### 2) 그러면 어떤 이미지가 '가깝다'고 할 수 있을까? : L1 distance
100+
### 2) 그러면 어떤 이미지가 '가깝다'고 할 수 있을까? : L1 distance
98101

99102
![cs231n_week2_4jpg](https://user-images.githubusercontent.com/32008883/30752114-32e25ec6-9ff6-11e7-8841-c1bc7cd97d6e.JPG)
100103

101104
새롭게 들어온 고양이 이미지와 학습시켰던 고양이 이미지를 픽셀로 표현했을 때, 그 차이를 계산하여 더하는 방법이 'L1 distance'이다. 그 합이 이미지 간의 거리라고 할 수 있다.
102105

103106

104107

105-
#### 3) 단점: 빠른 학습, 느린 예측
108+
### 3) 단점: 빠른 학습, 느린 예측
106109

107110
Nearest Neighbor classifier은 모든 데이터를 단지 외우게 학습시키기 때문에 학습 속도는 빠르다. 하지만 예측할 때는 하나하나 대조하므로 시간이 너무 오래 걸린다.
108111

109112
중요한 것은 '빠른 예측'인데, 뒤에서 배울 CNN은 학습 속도는 다소 느리지만 예측 속도는 빠르다.
110113

111114

112115

113-
#### 4) K-Nearest Neighbors
116+
### 4) K-Nearest Neighbors
114117

115-
##### 1. 개념
118+
#### 1. 개념
116119

117120
![cs231n_week2_6jpg](https://user-images.githubusercontent.com/32008883/30752116-32f54248-9ff6-11e7-89c8-bcc29031bb59.JPG)
118121

@@ -122,15 +125,15 @@ K가 커질수록 경계선 부분이 부드러워진 것을 알 수 있습니
122125

123126
하얀색 부분은 근처에 이웃이 아무도 없어서 하얀색으로 표시됩니다.
124127

125-
##### 2. L2 Distance
128+
#### 2. L2 Distance
126129

127130
![cs231n_week2_7](https://user-images.githubusercontent.com/32008883/30752098-3259b102-9ff6-11e7-9c31-846ad80f671f.JPG)
128131

129132
K-Nearest Neighbor Classifier에서는 L2 distance라는 것이 등장합니다. L1은 좌표축이 달라지면, 거리가 달라질 수 있다. 하지만 L2는 원이기 때문에 좌표축이 바뀌어도 괜찮다.
130133

131134

132135

133-
#####3. hyperparameter 정하기: 그러면 K에는 얼마를 넣어야 , 어떤 distance 기준을 선택해야 좋을까?
136+
#### 3. hyperparameter 정하기: 그러면 K에는 얼마를 넣어야 , 어떤 distance 기준을 선택해야 좋을까?
134137

135138
상황에 따라 다르다는 당연한 얘기...
136139

@@ -148,7 +151,7 @@ K-Nearest Neighbor Classifier에서는 L2 distance라는 것이 등장합니다.
148151

149152

150153

151-
#####4. 하지만 K-Nearest Neighbor는 이미지 처리에 쓰이지 않는다...문제점은
154+
#### 4. 하지만 K-Nearest Neighbor는 이미지 처리에 쓰이지 않는다...문제점은
152155

153156
1. 아까 언급했듯이 예측 속도가 매우 느리다.
154157

@@ -160,9 +163,9 @@ K-Nearest Neighbor Classifier에서는 L2 distance라는 것이 등장합니다.
160163

161164

162165

163-
###5. Classifier 2: Linear Classifier
166+
## 5. Classifier 2: Linear Classifier
164167

165-
#####1. 개념
168+
#### 1. 개념
166169

167170
두번째 이미지 분류기는 Linear Classifier이다.
168171

@@ -186,13 +189,13 @@ K-Nearest Neighbor Classifier에서는 L2 distance라는 것이 등장합니다.
186189

187190
![cs231n_week2_13](https://user-images.githubusercontent.com/32008883/30752106-32b0ccbc-9ff6-11e7-846c-3745de505460.JPG)
188191

189-
#####2) W
192+
#### 2. W
190193

191194
아래 왼쪽에서 다섯번째 이미지를 보자. 사슴에 대한 W의 행을 뽑아서 이미지로 나타낸 것이다. 희여멀건하지만 풀이라고 추정되는 녹색 바탕과 갈색의 물체가 보인다. 학습 데이터의 이미지를 하나의 템플릿으로 표현하려고 하다보니 뿌옇다.
192195

193196
![cs231n_week2_14](https://user-images.githubusercontent.com/32008883/30752105-32ae15bc-9ff6-11e7-8ff7-6b84bb4d8ef0.JPG)
194197

195-
#####3)한계
198+
#### 3. 한계
196199

197200
![cs231n_week2_15](https://user-images.githubusercontent.com/32008883/30752108-32bb04f2-9ff6-11e7-8f9c-d86d5501ffb6.JPG)
198201

0 commit comments

Comments
 (0)