Update Thinking Like Transformers-cn.md
#24
by
xianbao
HF staff
- opened
Thinking Like Transformers-cn.md
CHANGED
@@ -44,13 +44,13 @@ flip()
|
|
44 |
|
45 |
## Transformers 作为代码
|
46 |
|
47 |
-
我们的目标是定义一套计算形式来最小化 Transformers
|
48 |
|
49 |
这个语言的核心单元是将一个序列转换成相同长度的另一个序列的序列操作。我后面将其称之为 transforms。
|
50 |
|
51 |
### 输入
|
52 |
|
53 |
-
在一个 Transformer
|
54 |
|
55 |
<center>
|
56 |
|
@@ -188,7 +188,7 @@ atoi.input("31234")
|
|
188 |
|
189 |
</center>
|
190 |
|
191 |
-
|
192 |
|
193 |
```python
|
194 |
def atoi(seq=tokens):
|
@@ -213,7 +213,7 @@ op.input("02-13")
|
|
213 |
|
214 |
</center>
|
215 |
|
216 |
-
我们开始定义 key 和 query
|
217 |
|
218 |
```python
|
219 |
key(tokens)
|
@@ -249,7 +249,7 @@ query(1)
|
|
249 |
|
250 |
</center>
|
251 |
|
252 |
-
我们创建了筛选器来应用 key 和 query 之间的操作。这对应于一个二进制矩阵,指示每个 query 要关注哪个 key。与 Transformers
|
253 |
|
254 |
```python
|
255 |
eq = (key(tokens) == query(tokens))
|
@@ -303,7 +303,7 @@ after
|
|
303 |
|
304 |
</center>
|
305 |
|
306 |
-
|
307 |
|
308 |
```python
|
309 |
before & eq
|
@@ -318,7 +318,7 @@ before & eq
|
|
318 |
## 使用注意力机制
|
319 |
给一个注意力选择器,我们可以提供一个序列值做聚合操作。我们通过累加那些选择器选过的真值做聚合。
|
320 |
|
321 |
-
(
|
322 |
|
323 |
注意聚合操作使我们能够计算直方图之类的功能。
|
324 |
|
@@ -408,7 +408,7 @@ sum2.input([1,3,2,2,2])
|
|
408 |
|
409 |
</center>
|
410 |
|
411 |
-
|
412 |
|
413 |
```python
|
414 |
def cumsum(seq=tokens):
|
@@ -449,7 +449,7 @@ x.input([3, 2, 3, 5])
|
|
449 |
|
450 |
使用这个函数库,我们可以编写完成一个复杂任务
|
451 |
|
452 |
-
Gail Weiss
|
453 |
|
454 |
我们可以加载一个添加任意长度数字的 Transformer 吗?
|
455 |
|
@@ -659,4 +659,5 @@ add()("683+345")
|
|
659 |
<hr>
|
660 |
|
661 |
> 英文原文:[Thinking Like Transformers](https://srush.github.io/raspy/)
|
|
|
662 |
> 译者:innovation64 (李洋)
|
|
|
44 |
|
45 |
## Transformers 作为代码
|
46 |
|
47 |
+
我们的目标是定义一套计算形式来最小化 Transformers 的表达。我们将通过类比,描述每个语言构造及其在 Transformers 中的对应。(正式语言规范请看 [全文](https://arxiv.org/pdf/2106.06981.pdf))
|
48 |
|
49 |
这个语言的核心单元是将一个序列转换成相同长度的另一个序列的序列操作。我后面将其称之为 transforms。
|
50 |
|
51 |
### 输入
|
52 |
|
53 |
+
在一个 Transformer 中,基本层是一个模型的前馈输入。这个输入通常包含原始的 token 和位置信息。
|
54 |
|
55 |
<center>
|
56 |
|
|
|
188 |
|
189 |
</center>
|
190 |
|
191 |
+
函数 (functions) 可以容易的描述这些 transforms 的级联。举例来说,下面是应用了 where 和 atoi 和加 2 的操作
|
192 |
|
193 |
```python
|
194 |
def atoi(seq=tokens):
|
|
|
213 |
|
214 |
</center>
|
215 |
|
216 |
+
我们开始定义 key 和 query 的概念,Keys 和 Queries 可以直接从上面的 transforms 创建。举个例子,如果我们想要定义一个 key 我们称作 `key`。
|
217 |
|
218 |
```python
|
219 |
key(tokens)
|
|
|
249 |
|
250 |
</center>
|
251 |
|
252 |
+
我们创建了筛选器来应用 key 和 query 之间的操作。这对应于一个二进制矩阵,指示每个 query 要关注哪个 key。与 Transformers 不同,这个注意力矩阵未加入权重。
|
253 |
|
254 |
```python
|
255 |
eq = (key(tokens) == query(tokens))
|
|
|
303 |
|
304 |
</center>
|
305 |
|
306 |
+
选择器可以通过布尔操作合并。比如,这个选择器将 before 和 eq 做合并,我们通过在矩阵中包含一对键和值来显示这一点。
|
307 |
|
308 |
```python
|
309 |
before & eq
|
|
|
318 |
## 使用注意力机制
|
319 |
给一个注意力选择器,我们可以提供一个序列值做聚合操作。我们通过累加那些选择器选过的真值做聚合。
|
320 |
|
321 |
+
(请注意:在原始论文中,他们使用一个平均聚合操作并且展示了一个巧妙的结构,其中平均聚合能够代表总和计算。RASPy 默认情况下使用累加来使其简单化并避免碎片化。实际上,这意味着 raspy 可能低估了所需要的层数。基于平均值的模型可能需要这个层数的两倍)
|
322 |
|
323 |
注意聚合操作使我们能够计算直方图之类的功能。
|
324 |
|
|
|
408 |
|
409 |
</center>
|
410 |
|
411 |
+
这里有个可以计算累计求和的例子,我们这里引入一个给 transform 命名的能力来帮助你调试。
|
412 |
|
413 |
```python
|
414 |
def cumsum(seq=tokens):
|
|
|
449 |
|
450 |
使用这个函数库,我们可以编写完成一个复杂任务
|
451 |
|
452 |
+
Gail Weiss,给过我一个极其挑战的问题来打破这个步骤
|
453 |
|
454 |
我们可以加载一个添加任意长度数字的 Transformer 吗?
|
455 |
|
|
|
659 |
<hr>
|
660 |
|
661 |
> 英文原文:[Thinking Like Transformers](https://srush.github.io/raspy/)
|
662 |
+
>
|
663 |
> 译者:innovation64 (李洋)
|