Skip to content

Commit 449bd8d

Browse files
committed
reStructuredText 문법 오류를 수정합니다. (#174)
1 parent d9c7ecc commit 449bd8d

File tree

6 files changed

+35
-32
lines changed

6 files changed

+35
-32
lines changed

beginner_source/blitz/tensor_tutorial.py

+7-7
Original file line numberDiff line numberDiff line change
@@ -72,7 +72,7 @@
7272

7373
######################################################################
7474
# 텐서의 속성(Attribute)
75-
# ~~~~~~~~~~~~~~~~~~~~
75+
# ~~~~~~~~~~~~~~~~~~~~~~~~~~~
7676
#
7777
# 텐서의 속성은 텐서의 모양(shape), 자료형(datatype) 및 어느 장치에 저장되는지를 나타냅니다.
7878

@@ -90,10 +90,10 @@
9090

9191
######################################################################
9292
# 텐서 연산(Operation)
93-
# ~~~~~~~~~~~~~~~~~~
93+
# ~~~~~~~~~~~~~~~~~~~~~~~~~~
9494
#
95-
# 전치(transposing), 인덱싱(indexing), 슬라이싱(slicing), 수학 계산, 선형 대수,
96-
# 임의 샘플링(random sampling) 등, 100가지 이상의 텐서 연산들을
95+
# 전치(transposing), 인덱싱(indexing), 슬라이싱(slicing), 수학 계산, 선형 대수,
96+
# 임의 샘플링(random sampling) 등, 100가지 이상의 텐서 연산들을
9797
# `여기 <https://pytorch.org/docs/stable/torch.html>`__ 에서 확인할 수 있습니다.
9898
#
9999
# 각 연산들은 (일반적으로 CPU보다 빠른) GPU에서 실행할 수 있습니다. Colab을 사용한다면,
@@ -106,7 +106,7 @@
106106

107107

108108
######################################################################
109-
#
109+
#
110110
# 목록에서 몇몇 연산들을 시도해보세요.
111111
# NumPy API에 익숙하다면 Tensor API를 사용하는 것은 식은 죽 먹기라는 것을 알게 되실 겁니다.
112112
#
@@ -120,7 +120,7 @@
120120

121121
######################################################################
122122
# **텐서 합치기** ``torch.cat`` 을 사용하여 주어진 차원에 따라 일련의 텐서를 연결할 수 있습니다.
123-
# ``torch.cat`` 과 미묘하게 다른 또 다른 텐서 결합 연산인 `torch.stack <https://pytorch.org/docs/stable/generated/torch.stack.html>`__
123+
# ``torch.cat`` 과 미묘하게 다른 또 다른 텐서 결합 연산인 `torch.stack <https://pytorch.org/docs/stable/generated/torch.stack.html>`__
124124
# 도 참고해보세요.
125125
t1 = torch.cat([tensor, tensor, tensor], dim=1)
126126
print(t1)
@@ -163,7 +163,7 @@
163163
# .. _bridge-to-np-label:
164164
#
165165
# NumPy 변환(Bridge)
166-
# ~~~~~~~~~~~~~~~~~
166+
# ~~~~~~~~~~~~~~~~~~~~~~~~
167167
# CPU 상의 텐서와 NumPy 배열은 메모리 공간을 공유하기 때문에, 하나를 변경하면 다른 하나도 변경됩니다.
168168

169169

beginner_source/examples_nn/polynomial_module.py

+1-1
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,7 @@
11
# -*- coding: utf-8 -*-
22
"""
33
PyTorch: 사용자 정의 nn.Module
4-
-----------------------------
4+
------------------------------------
55
66
:math:`y=\sin(x)` 을 예측할 수 있도록, :math:`-\pi` 부터 :math:`pi` 까지
77
유클리드 거리(Euclidean distance)를 최소화하도록 3차 다항식을 학습합니다.

beginner_source/examples_tensor/polynomial_numpy.py

+1-1
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,7 @@
11
# -*- coding: utf-8 -*-
22
"""
33
준비 운동: NumPy
4-
--------------
4+
-------------------
55
66
:math:`y=\sin(x)` 을 예측할 수 있도록, :math:`-\pi` 부터 :math:`pi` 까지
77
유클리드 거리(Euclidean distance)를 최소화하도록 3차 다항식을 학습합니다.

beginner_source/pytorch_with_examples.rst

+20-20
Original file line numberDiff line numberDiff line change
@@ -1,11 +1,11 @@
11
예제로 배우는 파이토치(PyTorch)
2-
******************************
2+
************************************
33
**Author**: `Justin Johnson <https://github.com/jcjohnson/pytorch-examples>`_
44
**번역**: `박정환 <https://github.com/9bow>`_
55

66
.. Note::
7-
이 튜토리얼은 다소 오래된 PyTorch 튜토리얼입니다.
8-
`기본 다지기 <https://tutorials.pytorch.kr/beginner/basics/intro.html>`_ 에서
7+
이 튜토리얼은 다소 오래된 PyTorch 튜토리얼입니다.
8+
`기본 다지기 <https://tutorials.pytorch.kr/beginner/basics/intro.html>`_ 에서
99
입문자를 위한 최신의 내용을 보실 수 있습니다.
1010

1111
이 튜토리얼에서는 `PyTorch <https://github.com/pytorch/pytorch>`__ 의 핵심적인 개념을
@@ -34,10 +34,10 @@
3434

3535
PyTorch를 소개하기 전에, 먼저 NumPy를 사용하여 신경망을 구성해보겠습니다.
3636

37-
NumPy는 n-차원 배열 객체와 이러한 배열들을 조작하기 위한 다양한 함수들을 제공합니다. NumPy는 과학 분야의
38-
연산을 위한 포괄적인 프레임워크(generic framework)입니다;
39-
NumPy는 연산 그래프(computation graph)나 딥러닝, 변화도(gradient)에 대해서는 알지 못합니다.
40-
하지만 NumPy 연산을 사용하여 신경망의 순전파 단계와 역전파 단계를 직접 구현함으로써,
37+
NumPy는 n-차원 배열 객체와 이러한 배열들을 조작하기 위한 다양한 함수들을 제공합니다. NumPy는 과학 분야의
38+
연산을 위한 포괄적인 프레임워크(generic framework)입니다;
39+
NumPy는 연산 그래프(computation graph)나 딥러닝, 변화도(gradient)에 대해서는 알지 못합니다.
40+
하지만 NumPy 연산을 사용하여 신경망의 순전파 단계와 역전파 단계를 직접 구현함으로써,
4141
3차 다항식이 사인(sine) 함수에 근사하도록 만들 수 있습니다:
4242

4343
.. includenodoc:: /beginner/examples_tensor/polynomial_numpy.py
@@ -46,12 +46,12 @@ NumPy는 연산 그래프(computation graph)나 딥러닝, 변화도(gradient)
4646
파이토치(PyTorch): 텐서(Tensor)
4747
-------------------------------------------------------------------------------
4848

49-
NumPy는 훌륭한 프레임워크지만, GPU를 사용하여 수치 연산을 가속화할 수는 없습니다.
50-
현대의 심층 신경망에서 GPU는 종종 `50배 또는 그 이상 <https://github.com/jcjohnson/cnn-benchmarks>`__ 의
49+
NumPy는 훌륭한 프레임워크지만, GPU를 사용하여 수치 연산을 가속화할 수는 없습니다.
50+
현대의 심층 신경망에서 GPU는 종종 `50배 또는 그 이상 <https://github.com/jcjohnson/cnn-benchmarks>`__ 의
5151
속도 향상을 제공하기 때문에, 안타깝게도 NumPy는 현대의 딥러닝에는 충분치 않습니다.
5252

5353
이번에는 PyTorch의 가장 핵심적인 개념인 **텐서(Tensor)** 에 대해서 알아보겠습니다.
54-
PyTorch 텐서(Tensor)는 개념적으로 NumPy 배열과 동일합니다:
54+
PyTorch 텐서(Tensor)는 개념적으로 NumPy 배열과 동일합니다:
5555
텐서(Tensor)는 n-차원 배열이며, PyTorch는 이러한 텐서들의 연산을 위한 다양한 기능들을 제공합니다.
5656
NumPy 배열처럼 PyTorch Tensor는 딥러닝이나 연산 그래프, 변화도는 알지 못하며, 과학적 분야의 연산을 위한 포괄적인 도구입니다.
5757
텐서는 연산 그래프와 변화도를 추적할 수도 있지만, 과학적 연산을 위한 일반적인 도구로도 유용합니다.
@@ -71,14 +71,14 @@ Autograd
7171
PyTorch: 텐서(Tensor)와 autograd
7272
-------------------------------------------------------------------------------
7373

74-
위의 예제들에서는 신경망의 순전파 단계와 역전파 단계를 직접 구현해보았습니다.
75-
작은 2계층(2-layer) 신경망에서는 역전파 단계를 직접 구현하는 것이 큰일이 아니지만,
74+
위의 예제들에서는 신경망의 순전파 단계와 역전파 단계를 직접 구현해보았습니다.
75+
작은 2계층(2-layer) 신경망에서는 역전파 단계를 직접 구현하는 것이 큰일이 아니지만,
7676
복잡한 대규모 신경망에서는 매우 아슬아슬한 일일 것입니다.
7777

7878
다행히도, `자동 미분 <https://en.wikipedia.org/wiki/Automatic_differentiation>`__ 을
79-
사용하여 신경망의 역전파 단계 연산을 자동화할 수 있습니다. PyTorch의 **autograd** 패키지는 정확히
80-
이런 기능을 제공합니다. Autograd를 사용하면, 신경망의 순전파 단계에서 **연산 그래프(computational graph)**
81-
를 정의하게 됩니다; 이 그래프의 노드(node)는 텐서(tensor)이고, 엣지(edge)는 입력 텐서로부터 출력 텐서를
79+
사용하여 신경망의 역전파 단계 연산을 자동화할 수 있습니다. PyTorch의 **autograd** 패키지는 정확히
80+
이런 기능을 제공합니다. Autograd를 사용하면, 신경망의 순전파 단계에서 **연산 그래프(computational graph)**
81+
를 정의하게 됩니다; 이 그래프의 노드(node)는 텐서(tensor)이고, 엣지(edge)는 입력 텐서로부터 출력 텐서를
8282
만들어내는 함수가 됩니다. 이 그래프를 통해 역전파를 하게 되면 변화도를 쉽게 계산할 수 있습니다.
8383

8484
이는 복잡하게 들리겠지만, 실제로 사용하는 것은 매우 간단합니다. 각 텐서는 연산그래프에서 노드로 표현됩니다.
@@ -94,12 +94,12 @@ PyTorch: 새 autograd Function 정의하기
9494
-------------------------------------------------------------------------------
9595

9696
내부적으로, autograd의 기본(primitive) 연산자는 실제로 텐서를 조작하는 2개의 함수입니다.
97-
**forward** 함수는 입력 텐서로부터 출력 텐서를 계산합니다.
97+
**forward** 함수는 입력 텐서로부터 출력 텐서를 계산합니다.
9898
**backward** 함수는 어떤 스칼라 값에 대한 출력 텐서의 변화도(gradient)를 전달받고,
9999
동일한 스칼라 값에 대한 입력 텐서의 변화도를 계산합니다.
100100

101-
PyTorch에서 ``torch.autograd.Function`` 의 하위클래스(subclass)를 정의하고
102-
``forward`` 와 ``backward`` 함수를 구현함으로써 사용자 정의 autograd 연산자를 손쉽게
101+
PyTorch에서 ``torch.autograd.Function`` 의 하위클래스(subclass)를 정의하고
102+
``forward`` 와 ``backward`` 함수를 구현함으로써 사용자 정의 autograd 연산자를 손쉽게
103103
정의할 수 있습니다. 그 후, 인스턴스(instance)를 생성하고 이를 함수처럼 호출하고,
104104
입력 데이터를 갖는 텐서를 전달하는 식으로 새로운 autograd 연산자를 사용할 수 있습니다.
105105

@@ -126,7 +126,7 @@ PyTorch: nn
126126
신경망을 구성하는 것을 종종 연산을 **계층(layer)** 에 배열(arrange)하는 것으로 생각하는데,
127127
이 중 일부는 학습 도중 최적화가 될 **학습 가능한 매개변수** 를 갖고 있습니다.
128128

129-
텐서플로우(Tensorflow)에서는, `Keras <https://github.com/fchollet/keras>`__ 와
129+
텐서플로우(Tensorflow)에서는, `Keras <https://github.com/fchollet/keras>`__ 와
130130
`TensorFlow-Slim <https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/slim>`__,
131131
`TFLearn <http://tflearn.org/>`__ 같은 패키지들이 연산 그래프를 고수준(high-level)으로 추상화(abstraction)하여
132132
제공하므로 신경망을 구축하는데 유용합니다.
@@ -170,7 +170,7 @@ PyTorch: 사용자 정의 nn.Module
170170
PyTorch: 제어 흐름(Control Flow) + 가중치 공유(Weight Sharing)
171171
-------------------------------------------------------------------------------
172172

173-
동적 그래프와 가중치 공유의 예를 보이기 위해, 매우 이상한 모델을 구현해보겠습니다:
173+
동적 그래프와 가중치 공유의 예를 보이기 위해, 매우 이상한 모델을 구현해보겠습니다:
174174
각 순전파 단계에서 3 ~ 5 사이의 임의의 숫자(random number)를 선택하여 다차항들에서 사용하고,
175175
동일한 가중치를 여러번 재사용하여 4차항과 5차항을 계산합니다.
176176

beginner_source/text_sentiment_ngrams_tutorial.py

+5-3
Original file line numberDiff line numberDiff line change
@@ -1,6 +1,7 @@
11
"""
22
torchtext 라이브러리로 텍스트 분류하기
3-
========================================
3+
===============================================
4+
45
**번역**: `김강민 <https://github.com/gangsss>`_ , `김진현 <https://github.com/lewhe0>`_
56
67
이 튜토리얼에서는 torchtext 라이브러리를 사용하여 어떻게 텍스트 분류 분석을 위한 데이터셋을 만드는지를 살펴보겠습니다.
@@ -55,7 +56,6 @@
5556
# 사용자는 Vocab 클래스의 생성자에 인자를 설정하여 사용자 정의된 어휘집(customized vocab)을 만들 수 있습니다.
5657
# 토큰(token)들의 최소 빈도 ``min_freq`` 에 대한 예시는 아래와 같습니다.
5758

58-
"""
5959

6060
from torchtext.data.utils import get_tokenizer
6161
from collections import Counter
@@ -308,6 +308,8 @@ def evaluate(dataloader):
308308
######################################################################
309309
# 이 모델을 GPU 상에서 수행하고 다음과 같은 결과를 얻었습니다:
310310
#
311+
# ::
312+
#
311313
# | epoch 1 | 500/ 1782 batches | accuracy 0.684
312314
# | epoch 1 | 1000/ 1782 batches | accuracy 0.852
313315
# | epoch 1 | 1500/ 1782 batches | accuracy 0.877
@@ -372,7 +374,7 @@ def evaluate(dataloader):
372374

373375
######################################################################
374376
# 평가 데이터로 모델 평가하기
375-
# ---------------------------
377+
# -------------------------------
376378
#
377379

378380

intermediate_source/dynamic_quantization_bert_tutorial.rst

+1
Original file line numberDiff line numberDiff line change
@@ -524,6 +524,7 @@ MRPC 데이터셋을 평가하는데 약 46초가 소요됐습니다.
524524
양자화된 모델을 불러올 때는 `torch.jit.load` 를 사용합니다.
525525

526526
.. code:: python
527+
527528
loaded_quantized_model = torch.jit.load("bert_traced_eager_quant.pt")
528529
529530

0 commit comments

Comments
 (0)