Skip to content

Commit c42e026

Browse files
committed
reStructuredText 문법 오류를 수정합니다. (#174)
1 parent 699cb60 commit c42e026

File tree

1 file changed

+14
-14
lines changed

1 file changed

+14
-14
lines changed

beginner_source/pytorch_with_examples.rst

+14-14
Original file line numberDiff line numberDiff line change
@@ -1,4 +1,4 @@
1-
예제로 배우는 파이토치(PYTORCH)
1+
예제로 배우는 파이토치(PyTorch)
22
******************************
33
**Author**: `Justin Johnson <https://github.com/jcjohnson/pytorch-examples>`_
44
**번역**: `박정환 <https://github.com/9bow>`_
@@ -30,7 +30,7 @@
3030
=============
3131

3232
준비 운동: numpy
33-
--------------
33+
-------------------------------------------------------------------------------
3434

3535
PyTorch를 소개하기 전에, 먼저 NumPy를 사용하여 신경망을 구성해보겠습니다.
3636

@@ -44,7 +44,7 @@ NumPy는 연산 그래프(computation graph)나 딥러닝, 변화도(gradient)
4444

4545

4646
파이토치(PyTorch): 텐서(Tensor)
47-
------------------------------
47+
-------------------------------------------------------------------------------
4848

4949
NumPy는 훌륭한 프레임워크지만, GPU를 사용하여 수치 연산을 가속화할 수는 없습니다.
5050
현대의 심층 신경망에서 GPU는 종종 `50배 또는 그 이상 <https://github.com/jcjohnson/cnn-benchmarks>`__ 의
@@ -69,7 +69,7 @@ Autograd
6969
=========
7070

7171
PyTorch: 텐서(Tensor)와 autograd
72-
-------------------------------
72+
-------------------------------------------------------------------------------
7373

7474
위의 예제들에서는 신경망의 순전파 단계와 역전파 단계를 직접 구현해보았습니다.
7575
작은 2계층(2-layer) 신경망에서는 역전파 단계를 직접 구현하는 것이 큰일이 아니지만,
@@ -91,7 +91,7 @@ PyTorch: 텐서(Tensor)와 autograd
9191
.. includenodoc:: /beginner/examples_autograd/polynomial_autograd.py
9292

9393
PyTorch: 새 autograd Function 정의하기
94-
----------------------------------------
94+
-------------------------------------------------------------------------------
9595

9696
내부적으로, autograd의 기본(primitive) 연산자는 실제로 텐서를 조작하는 2개의 함수입니다.
9797
**forward** 함수는 입력 텐서로부터 출력 텐서를 계산합니다.
@@ -114,10 +114,10 @@ PyTorch에서 ``torch.autograd.Function`` 의 하위클래스(subclass)를 정
114114
.. includenodoc:: /beginner/examples_autograd/polynomial_custom_function.py
115115

116116
`nn` 모듈
117-
===========
117+
======================
118118

119119
PyTorch: nn
120-
-----------
120+
-------------------------------------------------------------------------------
121121

122122
연산 그래프와 autograd는 복잡한 연산자를 정의하고 도함수(derivative)를 자동으로 계산하는
123123
매우 강력한 패러다임(paradigm)입니다; 하지만 대규모 신경망에서는 autograd 그 자체만으로는 너무
@@ -142,7 +142,7 @@ PyTorch: nn
142142
.. includenodoc:: /beginner/examples_nn/polynomial_nn.py
143143

144144
PyTorch: optim
145-
---------------
145+
-------------------------------------------------------------------------------
146146

147147
지금까지는 ``torch.no_grad()`` 로 학습 가능한 매개변수를 갖는 텐서들을 직접 조작하여 모델의 가중치(weight)를 갱신하였습니다.
148148
이것은 확률적 경사하강법(SGD; stochastic gradient descent)와 같은 간단한 최적화 알고리즘에서는 크게 부담이 되지 않지만,
@@ -157,7 +157,7 @@ RMSProp 알고리즘을 사용하겠습니다:
157157
.. includenodoc:: /beginner/examples_nn/polynomial_optim.py
158158

159159
PyTorch: 사용자 정의 nn.Module
160-
-----------------------------
160+
-------------------------------------------------------------------------------
161161

162162
때대로 기존 Module의 구성(sequence)보다 더 복잡한 모델을 구성해야 할 때가 있습니다;
163163
이러한 경우에는 ``nn.Module`` 의 하위 클래스(subclass)로 새로운 Module을 정의하고,
@@ -168,7 +168,7 @@ PyTorch: 사용자 정의 nn.Module
168168
.. includenodoc:: /beginner/examples_nn/polynomial_module.py
169169

170170
PyTorch: 제어 흐름(Control Flow) + 가중치 공유(Weight Sharing)
171-
-----------------------------------------------------------
171+
-------------------------------------------------------------------------------
172172

173173
동적 그래프와 가중치 공유의 예를 보이기 위해, 매우 이상한 모델을 구현해보겠습니다:
174174
각 순전파 단계에서 3 ~ 5 사이의 임의의 숫자(random number)를 선택하여 다차항들에서 사용하고,
@@ -185,12 +185,12 @@ PyTorch: 제어 흐름(Control Flow) + 가중치 공유(Weight Sharing)
185185
.. _examples-download:
186186

187187
예제 코드
188-
========
188+
=============
189189

190190
위의 예제들을 여기서 찾아볼 수 있습니다.
191191

192192
Tensors
193-
-------
193+
-------------------------------------------------------------------------------
194194

195195
.. toctree::
196196
:maxdepth: 2
@@ -208,7 +208,7 @@ Tensors
208208
<div style='clear:both'></div>
209209

210210
Autograd
211-
--------
211+
-------------------------------------------------------------------------------
212212

213213
.. toctree::
214214
:maxdepth: 2
@@ -227,7 +227,7 @@ Autograd
227227
<div style='clear:both'></div>
228228

229229
`nn` module
230-
-----------
230+
-------------------------------------------------------------------------------
231231

232232
.. toctree::
233233
:maxdepth: 2

0 commit comments

Comments
 (0)