Skip to content

Commit 461dd69

Browse files
committed
proofread Chinese translations
1 parent bf80aa8 commit 461dd69

9 files changed

+37
-37
lines changed

Diff for: chapter3.html

+1-1
Original file line numberDiff line numberDiff line change
@@ -201,7 +201,7 @@ <h3>
201201
<hr>
202202
<p>
203203
Early researchers tried to use these perceptrons to determine how likely an image
204-
contains a cat, but they quickly ran into a problem: the
204+
contains a huamn face, but they quickly ran into a problem: the
205205
resulting probability of the model was often above 100% or below 0%.
206206
</p>
207207
</div>

Diff for: zh/about.html

+2-2
Original file line numberDiff line numberDiff line change
@@ -81,7 +81,7 @@ <h1>关于我们</h1>
8181
<div class="col-10 col-md-5 text-center">
8282
<!-- <div id="openingLottie" class="openingAnimation mx-auto"></div> -->
8383
<div class="text-left" id="aboutText">
84-
<p>OKAI是由的<a href="http://risd.brown.edu/" target="_blank">布朗大学 | 罗德岛设计学院双学位项目</a>学生<a href="https://majiaju.io/" target="_blank">马家驹</a>所带领的团队创作的。<br>
84+
<p>OKAI是由的<a href="http://risd.brown.edu/" target="_blank">布朗大学 | 罗德岛设计学院双学位项目</a>的学生<a href="https://majiaju.io/" target="_blank">马家驹</a>所带领的团队创作的。<br>
8585
这个项目致力于将人工智能概念及原理介绍给大家,特别是那些本身对人工智能及其相关领域没有涉猎的朋友们。它利用基于网页的交互式动画来形象地讲解人工智能的基本原理。
8686
</p>
8787
</div>
@@ -258,7 +258,7 @@ <h1>参与</h1>
258258
<br><br>
259259
也欢迎你根据OKAI来制作开发你自己的项目,请访问我们的
260260
<a href="https://github.com/jama1017/OKAI" target="_blank">
261-
<i class="fab fa-github-alt fa-sm"></i> GitHub源代码库</a>,里面包含源代码json格式的动画和许可证信息。
261+
<i class="fab fa-github-alt fa-sm"></i> GitHub源代码库</a>,里面包含源代码json格式的动画和许可证信息。
262262
</p>
263263
</div>
264264
</div>

Diff for: zh/chapter1.html

+6-6
Original file line numberDiff line numberDiff line change
@@ -130,7 +130,7 @@ <h2>无处不在的人工智能</h2>
130130

131131
<div id="text3" class="bg-1grey scene">
132132
<div class="text right">
133-
<p>工业革命改变了这个世界的面貌。许多人相信人工智能会给这个世界带来一场如同如工业革命般剧烈的变革
133+
<p>工业革命改变了这个世界的面貌。许多人相信人工智能会给这个世界带来一场如同工业革命般剧烈的变革
134134
</p>
135135
</div>
136136
</div>
@@ -155,14 +155,14 @@ <h2>无处不在的人工智能</h2>
155155
<!-- agi animation text section -->
156156
<div id="text6" class="scene bg-3grey topLayer">
157157
<div class="text right">
158-
<p>今天的人工智能仍旧是科学家们所称作的弱人工智能(ANI)。这代表着现今的人工智能算法只能“智能地”完成某一种任务,比如自动驾驶人脸识别等等。
158+
<p>今天的人工智能仍旧是科学家们所称作的弱人工智能(ANI)。这代表着现今的人工智能算法只能“智能地”完成某一种任务,比如自动驾驶人脸识别等等。
159159
</p>
160160
</div>
161161
</div>
162162

163163
<div id="text7" class="scene bg-3grey topLayer">
164164
<div class="text right">
165-
<p>自人工智能领域的出现,科学家们就在探寻人工智能的终极目标-通用人工智能(AGI)。通用人工智能算法可以自我学习并完成人类智能能完成的几乎所有任务。
165+
<p>自人工智能领域的出现,科学家们就在探寻人工智能的终极目标——通用人工智能(AGI)。通用人工智能算法可以自我学习并完成人类智能能完成的几乎所有任务。
166166
</p>
167167
</div>
168168
</div>
@@ -189,7 +189,7 @@ <h3>
189189
</h3>
190190
<hr>
191191
<p>
192-
40亿 - 2017年带有智能语音助手(如SiriAlexa)的移动设备的数量
192+
40亿 - 2017年带有智能语音助手(如SiriAlexa)的移动设备的数量
193193
<a href="https://www.fool.com/investing/2017/10/04/7-artificial-intelligence-stats-that-will-blow-you.aspx"
194194
target="_blank">(Motley Fool)</a>
195195
</p>
@@ -231,7 +231,7 @@ <h3>
231231
</h3>
232232
<hr>
233233
<p>
234-
我们可以把算法和菜谱类比。他们都是一套为了达成某个目的清晰且有顺序的可以被执行的指令。计算机不能理解人类常用的抽象高级的指令,而算法可以将这些抽象的指令翻译成计算机可以执行的初级指令。
234+
我们可以把算法和菜谱类比。他们都是一套为了达成某个目的清晰且有顺序的可以被执行的指令。计算机不能理解人类常用的抽象高级的指令,而算法可以将这些抽象的指令翻译成计算机可以执行的初级指令。
235235
</p>
236236
</div>
237237
</div>
@@ -275,7 +275,7 @@ <h3>
275275
<div class="col-10 col-md-5 fourLayer align-self-start">
276276
<div class="text-left align-self-start">
277277
<h3><strong>总结</strong></h3>
278-
<p>在这章里,我们了解了人工智能以及它对社会的影响。值得注意的是,即便我们看到了人工智能领域很多十分可人的进展,我们仍然离通用人工智能非常遥远。下一章,我们将深入了解深度学习这个近几年发展迅猛的人工智能领域。
278+
<p>在这一章里,我们了解了人工智能以及它对社会的影响。值得注意的是,即便我们看到了人工智能领域很多十分可人的进展,我们仍然离通用人工智能非常遥远。下一章,我们将深入了解深度学习这个近几年发展迅猛的人工智能领域。
279279
</p>
280280

281281
<h3><strong>延伸阅读</strong></h3>

Diff for: zh/chapter2.html

+2-2
Original file line numberDiff line numberDiff line change
@@ -138,7 +138,7 @@ <h2>深度学习简史</h2>
138138
<div class="text left">
139139
<p>感知器算法并不能够学习相对复杂的概念。不过,一些简单的概念,比如<strong data-toggle="tooltip"
140140
title="当A和B都为真(1)时A与B为真(1),若不然则为假(0)"
141-
class="highlight">逻辑与</strong>就可以被感知器所学习。在动画中,感知机用一条直线将逻辑与的两种结果正确地分成两组,每一组都具有形式相同的圆圈。
141+
class="highlight">逻辑与</strong>就可以被感知器所学习。在动画中,感知器用一条直线将逻辑与的两种结果正确地分成两组,每一组都具有形式相同的圆圈。
142142
</p>
143143
</div>
144144
</div>
@@ -221,7 +221,7 @@ <h3><strong>延伸阅读</strong></h3>
221221
<div class="col-10 col-md-5 fourLayer align-self-start">
222222
<div class="text-left">
223223
<h3><strong>核心词汇</strong></h3>
224-
<p><strong>感知机</strong>:一个受到神经元启发的算法,是一种可以对数据进行二元分类的单层神经网络。<br><br>
224+
<p><strong>感知器</strong>:一个受到神经元启发的算法,是一种可以对数据进行二元分类的单层神经网络。<br><br>
225225
<strong>前馈神经网络</strong>:最早也是最简单的人工神经网络。它是由多层感知器组成的通用的神经网络,可以执行更复杂的任务。<br><br>
226226
<strong>卷积神经网络</strong>:一种主要用来处理和分类图像的神经网络。
227227
</p>

Diff for: zh/chapter3.html

+11-11
Original file line numberDiff line numberDiff line change
@@ -67,7 +67,7 @@
6767
<div class="text-left">
6868
<p>第三章</p>
6969
<h2>深度学习的基本元素</h2>
70-
<p>用于深度学习的复杂神经网络是由多个简单的“零件”组成的。在这一章里,我们就来详细了解一下组成这些神经网络的基本元素 - 感知器。请向下滚动继续阅读。
70+
<p>用于深度学习的复杂神经网络是由多个简单的“零件”组成的。在这一章里,我们就来详细了解一下组成这些神经网络的基本元素——感知器。请向下滚动继续阅读。
7171
</p>
7272
</div>
7373
</div>
@@ -111,11 +111,11 @@ <h2>深度学习的基本元素</h2>
111111
<div id="nerveText" class="bg-1grey scene">
112112
<div class="text right">
113113
<p>每一个神经元都由三部分组成:</p>
114-
<p>树突:神经信息的接收器,用于感知其他神经元所传来的刺激。
114+
<p>树突(Dendrites):神经信息的接收器,用于感知其他神经元所传来的刺激。
115115
</p>
116-
<p>神经元胞体:包含着细胞核的神经元“核心”, 它决定一个神经信号是否会被传送到其他的神经元。
116+
<p>神经元胞体(Soma):包含着细胞核的神经元“核心”, 它决定一个神经信号是否会被传送到其他的神经元。
117117
</p>
118-
<p>轴突:神经元向外伸长的突起,用于将神经信号传递给临近的神经元。</p>
118+
<p>轴突(Axon):神经元向外伸长的突起,用于将神经信号传递给临近的神经元。</p>
119119
</div>
120120
</div>
121121

@@ -125,7 +125,7 @@ <h2>深度学习的基本元素</h2>
125125
</p>
126126
<p>输入单元:接受输入信号(数字)并传递给感知器。</p>
127127
<p>感知器:汇总所有输入信号并进行数学运算。</p>
128-
<p>输出单位:感知器的输出就是数学运算的结果。
128+
<p>输出单元:感知器的输出就是数学运算的结果。
129129
</p>
130130
</li>
131131
</ul>
@@ -146,7 +146,7 @@ <h2>深度学习的基本元素</h2>
146146
<p>与之相比,位于下方的输入单元和感知器之间的连接线就细了许多。这会导致信号值被缩小为原来的三分之二。在接收到全部缩放后的信号后,感知器便会把这些信号加起来:来自上方的信号值2加上来自下方的信号值2, 得到汇总的信号值4。
147147
<br>
148148
在深度学习中,连接线的粗细程度被称为<strong class="highlight" data-toggle="tooltip"
149-
title="附于连接线上的数值,可以放大,减小,或倒置信号">权重</strong>(weight)。
149+
title="附于连接线上的数值,可以放大,减小,或倒置信号">权重</strong>(weight)。
150150
</p>
151151
</div>
152152
</div>
@@ -156,15 +156,15 @@ <h2>深度学习的基本元素</h2>
156156
<p>接下来,感知器会通过“抖一抖”的方式来继续处理这些信号。在动画中,信号值增加了1。
157157
<br>
158158
感知器的“抖动程度”被称为<strong class="highlight" data-toggle="tooltip"
159-
title="一个被加到所有输入信号的加权和的数值">偏置</strong>(bias) - 它可以增加或者减少一个信号的值。
159+
title="一个被加到所有输入信号的加权和的数值">偏置</strong>(bias) - 它可以增加或者减少一个信号的值。
160160
</p>
161161
</div>
162162
</div>
163163

164164
<div id="neuron5Text" class="scene bg-2grey upperLayer">
165165
<div class="text left">
166166
<p>最后,我们用一个<strong class="highlight" data-toggle="tooltip"
167-
title="一个用来控制感知器最后输出值的函数">
167+
title="一个用来控制感知器最后输出值的函数">
168168
激活函数</strong>(activation function)来控制一个感知器应该输出多强的信号。我们很快将解释什么是激活函数。
169169
</p>
170170
<p>
@@ -182,7 +182,7 @@ <h3>
182182
</h3>
183183
<hr>
184184
<p>
185-
早期的研究者试图用感知器来检测一张图片里有猫的概率,但是他们很快就遇到了一个问题:最后输出的概率经常会高于100%或者低于0%。
185+
早期的研究者试图用感知器来检测一张图片里有人脸的概率,但是他们很快就遇到了一个问题:最后输出的概率经常会高于100%或者低于0%。
186186
</p>
187187
<!-- <p>
188188
Intuitively, this isn’t possible, but to the machine, it is just trying
@@ -194,15 +194,15 @@ <h3>
194194
<div id="appanana2Text" class="scene topLayer bg-3grey">
195195
<div class="text right">
196196
<p>
197-
为了解决这些问题,研究者们把一个激活函数放在了感知器的输出单位里,从而控制感知器的输出数值区间。Sigmoid函数和ReLU都是用来限制输出范围的一些常用的激活函数。
197+
为了解决这些问题,研究者们把一个激活函数放在了感知器的输出单元里,从而控制感知器的输出数值区间。Sigmoid函数和ReLU都是用来限制输出范围的一些常用的激活函数。
198198
</p>
199199
</div>
200200
</div>
201201

202202
<div id="appanana3Text" class="scene topLayer bg-3grey">
203203
<div class="text right">
204204
<p>
205-
Sigmoid函数可以计算概率。例如,如果你想知道这是还是不是一张猫的图片,你就需要用到Sigmoid函数来把输出值变成一个概率(一个0到1之间的数字)。
205+
Sigmoid函数可以计算概率。例如,如果你想知道这是不是一张猫的图片,你就需要用到Sigmoid函数来把输出值变成一个概率(一个0到1之间的数字)。
206206
</p>
207207
</div>
208208
</div>

Diff for: zh/chapter4.html

+8-8
Original file line numberDiff line numberDiff line change
@@ -68,8 +68,8 @@
6868
<div class="col-10 col-md-4 order-2 order-md-1 text-center">
6969
<div class="text-left">
7070
<p>第四章</p>
71-
<h2>感知机学习</h2>
72-
<p>我们应该如何让感知器去学习执行一些任务呢?在一章里,我们将走进“感知器蓝翔培训学校”来了解这背后的原理。请向下滚动继续阅读。
71+
<h2>感知器学习</h2>
72+
<p>我们应该如何让感知器去学习执行一些任务呢?在这一章里,我们将走进“感知器培训学校”来了解这背后的原理。请向下滚动继续阅读。
7373
</p>
7474
</div>
7575
</div>
@@ -116,7 +116,7 @@ <h2>感知机学习</h2>
116116

117117
<div id="text2" class="bg-1grey scene">
118118
<div class="text right">
119-
<p>从更高的层面来说,一个感知器可以被当做一个数学函数- 输入一些信号,权重,和偏置,进行一些数学运算,然后产生一个输出值。
119+
<p>从更高的层面来说,一个感知器可以被当做一个数学函数——输入一些信号、权重、和偏置,进行一些数学运算,然后产生一个输出值。
120120
</p>
121121
</div>
122122
</div>
@@ -134,7 +134,7 @@ <h2>感知机学习</h2>
134134
<div class="text left">
135135
<p>“训练”一个感知器的核心是如何让它知道自己的行为(预测)和正确结果(ground truth)之间的差距。为了达成这一目的,我们利用
136136
<strong class="highlight" data-toggle="tooltip"
137-
title="一个用来计算损失的函数。损失是一个表示输出预测和正确结果之间的差别的数值">损失函数
137+
title="一个用来计算损失的函数。损失是一个表示输出预测和正确结果之间的差别的数值">损失函数
138138
</strong>来测量感知器的表现。Cross entropy是一个常用的损失函数,很适合用来执行图片分类的任务。一个理想的训练算法会通过改变权重和偏置来让损失值减少。
139139
</p>
140140
</div>
@@ -144,15 +144,15 @@ <h2>感知机学习</h2>
144144
<div class="text left">
145145
<p>
146146
在动画中,损失由输出值(三角形)和正确结果(正方形)的面积差所表示。训练感知器的过程就是缩小这个面积差的过程。一旦损失被减少到了<strong class="highlight" data-toggle="tooltip"
147-
title="将损失减少到绝对最小值(global minimum)是一个很困难的事,但是将它减少的相对最小值(local minimum)的没有问题的">最小值
147+
title="将损失减少到绝对最小值(global minimum)是一个很困难的事,但是将它减少到相对最小值(local minimum)是没有问题的">最小值
148148
</strong>,感知器就完成了它的学习。
149149
</p>
150150
</div>
151151
</div>
152152

153153
<div id="text6" class="scene bg-2grey upperLayer">
154154
<div class="text left">
155-
<p>损失函数是有很多不同种类的,不过它们全都有着同样的行为:当预测和正确结果的差距越大,损失函数的输出也就越大。通过调整权重和偏置的值,我们可以让损失函数的值变小,从而逐步提升感知机的性能
155+
<p>损失函数是有很多不同种类的,不过它们全都有着同样的行为:当预测和正确结果的差距越大,损失函数的输出也就越大。通过调整权重和偏置的值,我们可以让损失函数的值变小,从而逐步提升感知器的性能
156156
</p>
157157
</div>
158158
</div>
@@ -166,7 +166,7 @@ <h2>感知机学习</h2>
166166
优化器算法</strong>(optimizer)。
167167

168168
动画中的“小山丘”描绘了感知器的权重与偏置和损失函数之间的<strong data-toggle="tooltip" class="highlight"
169-
title="在地图中的位置对应的权重和偏置,所在山丘的高度代表了损失">关系</strong>。我们如果处在山丘更高的位置上,损失函数的值也会越大。梯度下降就是一个通过改变权重和偏置来引领我们“走下山”的技巧。这个优化器会找出最陡峭(最快)的下山方向。
169+
title="在地图中的位置对应着权重和偏置,所在山丘的高度代表了损失">关系</strong>。我们如果处在山丘更高的位置上,损失函数的值也会越大。梯度下降就是一个通过改变权重和偏置来引领我们“走下山”的技巧。这个优化器会找出最陡峭(最快)的下山方向。
170170
</p>
171171
</div>
172172
</div>
@@ -175,7 +175,7 @@ <h2>感知机学习</h2>
175175
<div class="text right">
176176
<p>
177177
一开始,梯度下降优化器会根据数据来观测这个“山丘”,并通过生成<strong data-toggle="tooltip" class="highlight"
178-
title="一组用来指示最快减少损失方向(最陡峭下山方向)的数值">梯度</strong>(gradients)来提供一个下山的方向。然后,优化器会根据设定好的学习率(learning rate)来决定往山下走多远之后停住,再重新生成新的梯度。在重复很多次之后,优化器就到达了这个山丘区域的最低谷(最小损失)。
178+
title="一组用来指示最快减少损失方向(最陡峭下山方向)的数值">梯度</strong>(gradients)来提供一个下山的方向。然后,优化器会根据设定好的学习率(learning rate)来决定往山下走多远之后停住,再重新生成新的梯度。在重复很多次之后,优化器就到达了这个山丘区域的最低谷(最小损失)。
179179
</p>
180180
</div>
181181
</div>

Diff for: zh/chapter5.html

+2-2
Original file line numberDiff line numberDiff line change
@@ -107,7 +107,7 @@ <h2>前馈神经网络简介</h2>
107107
<!-- fnn animation text section -->
108108
<div id="text1" class="bg-1grey scene">
109109
<div class="text right">
110-
<p>到目前为止,我们只讲解过由一个感知器所构成的神经网络。单个感知器算法并不是很强大,他们学习不了过于复杂的概念。为了学习更加复杂的概念,我们需要把更多的感知器连接在一起从而组成更复杂的网络模型
110+
<p>到目前为止,我们只讲解过由一个感知器所构成的神经网络。单个感知器算法并不是很强大,他们学习不了过于复杂的概念。为了学习更加复杂的概念,我们需要把更多的感知器连接在一起从而组成更高级的网络模型
111111
</p>
112112
</div>
113113
</div>
@@ -162,7 +162,7 @@ <h2>前馈神经网络简介</h2>
162162
<div class="text left">
163163
<p>
164164
这其中的原因是,即便我们有多个相连的线性层,从数学的角度看,这个更复杂的网络和只有单个线性层的网络是没有本质区别的。为了让这些被添加的层起到作用,我们需要加入<strong data-toggle="tooltip"
165-
class="highlight" title="线性整流函数。一种被经常用于增加非线性的激活函数">ReLU函数</strong>让这些隐藏层变成非线性的
165+
class="highlight" title="线性整流函数。一种被经常用于增加非线性的激活函数">ReLU</strong>函数让这些隐藏层变成非线性的
166166

167167
</p>
168168
</div>

0 commit comments

Comments
 (0)