Add glossary for Paddle

avx_docs
Yu Yang 9 years ago
parent f1955e2b20
commit b3dd2d10b7

@ -0,0 +1,7 @@
.. algo_hrnn_demo:
#################
双层RNN的使用示例
#################
TBD

@ -0,0 +1,183 @@
.. _algo_hrnn_rnn_api_compare:
#####################
单双层RNN API对比介绍
#####################
这篇教程主要介绍了 :ref:`glossary_双层RNN` 的API接口。本文中的以 :ref:`glossary_paddle`:ref:`glossary_双层RNN` 单元测试为示例用多对效果完全相同的、分别使用单、双层RNN作为网络配置的模型来讲解如何使用 :ref:`glossary_双层RNN` 。本文中所有的例子,都只是介绍 :ref:`glossary_双层RNN` 的API接口并不是使用 :ref:`glossary_双层RNN` 解决实际的问题。如果想要了解 :ref:`glossary_双层RNN` 在具体问题中的使用,请参考 :ref:`algo_hrnn_demo` 。文章中示例所使用的单元测试文件是 `test_RecurrentGradientMachine.cpp <https://github.com/reyoung/Paddle/blob/develop/paddle/gserver/tests/test_RecurrentGradientMachine.cpp>`_
示例1双层RNN子序列间无Memory
================================
配置单层RNN:code:`sequence_layer_group`和双层RNN:code:`sequence_nest_layer_group`),语义完全相同。
读取双层序列的方法
------------------
首先,我们看一下单双层序列的不同数据组织形式(您也可以采用别的组织形式)\:
- 单层序列的数据( :code:`Sequence/tour_train_wdseg`如下一共有10个样本。每个样本由两部分组成一个label此处都为2和一个已经分词后的句子。
.. literalinclude:: ../../../paddle/gserver/tests/Sequence/tour_train_wdseg
:language: text
- 双层序列的数据( :code:`Sequence/tour_train_wdseg.nest`如下一共有4个样本。样本间用空行分开代表不同的双层序列序列数据和上面的完全一样。每个样本的子句数分别为2,3,2,3。
.. literalinclude:: ../../../paddle/gserver/tests/Sequence/tour_train_wdseg.nest
:language: text
其次我们看一下单双层序列的不同dataprovider:code:`sequenceGen.py`
- 单层序列的dataprovider如下
- word_slot是integer_value_sequence类型代表单层序列。
- label是integer_value类型代表一个向量。
.. literalinclude:: ../../../paddle/gserver/tests/sequenceGen.py
:language: python
:lines: 21-39
- 双层序列的dataprovider如下
- word_slot是integer_value_sub_sequence类型代表双层序列。
- label是integer_value_sequence类型代表单层序列即一个子句一个label。注意也可以为integer_value类型代表一个向量即一个句子一个label。通常根据任务需求进行不同设置。
- 关于dataprovider中input_types的详细用法参见PyDataProvider2。
.. literalinclude:: ../../../paddle/gserver/tests/sequenceGen.py
:language: python
:lines: 42-71
模型中的配置
------------
首先,我们看一下单层序列的配置(见 :code:`sequence_layer_group.conf`。注意batchsize=5表示一次过5句单层序列因此2个batch就可以完成1个pass。
.. literalinclude:: ../../../paddle/gserver/tests/sequence_layer_group.conf
:language: python
:lines: 38-63
其次,我们看一下语义相同的双层序列配置(见 :code:`sequence_nest_layer_group.conf` ),并对其详细分析:
- batchsize=2表示一次过2句双层序列。但从上面的数据格式可知2句双层序列和5句单层序列的数据完全一样。
- data_layer和embedding_layer不关心数据是否是序列格式因此两个配置在这两层上的输出是一样的。
- lstmemory\:
- 单层序列过了一个mixed_layer和lstmemory_group。
- 双层序列在同样的mixed_layer和lstmemory_group外直接加了一层group。由于这个外层group里面没有memory表示subseq间不存在联系即起到的作用仅仅是把双层seq拆成单层因此双层序列过完lstmemory的输出和单层的一样。
- last_seq\:
- 单层序列直接取了最后一个元素
- 双层序列首先last_seq层取了每个subseq的最后一个元素将其拼接成一个新的单层序列接着expand_layer层将其扩展成一个新的双层序列其中第i个subseq中的所有向量均为输入的单层序列中的第i个向量最后average_layer层取了每个subseq的平均值。
- 分析得出第一个last_seq后每个subseq的最后一个元素就等于单层序列的最后一个元素而expand_layer和average_layer后依然保持每个subseq最后一个元素的值不变这两层仅是为了展示它们的用法实际中并不需要。因此单双层序列的输出是一样旳。
.. literalinclude:: ../../../paddle/gserver/tests/sequence_nest_layer_group.conf
:language: python
:lines: 38-84
示例2双进双出subseq间有memory
=================================
配置单层RNN :code:`sequence_rnn.conf` 双层RNN :code:`sequence_nest_rnn.conf`:code:`sequence_nest_rnn_readonly_memory.conf` ),语义完全相同。
读取双层序列的方法
------------------
我们看一下单双层序列的不同数据组织形式和dataprovider:code:`rnn_data_provider.py`
.. literalinclude:: ../../../paddle/gserver/tests/rnn_data_provider.py
:language: python
:lines: 20-32
- 单层序列:有两句,分别为[1,3,2,4,5,2]和[0,2,2,5,0,1,2]。
- 双层序列:有两句,分别为[[1,3,2],[4,5,2]]2个子句和[[0,2],[2,5],[0,1,2]]3个子句
- 单双层序列的label都分别是0和1
模型中的配置
------------
我们选取单双层序列配置中的不同部分,来对比分析两者语义相同的原因。
- 单层序列过了一个很简单的recurrent_group。每一个时间步当前的输入y和上一个时间步的输出rnn_state做了一个全链接。
.. literalinclude:: ../../../paddle/gserver/tests/sequence_rnn.conf
:language: python
:lines: 36-48
- 双层序列外层memory是一个元素
- 内层inner_step的recurrent_group和单层序列的几乎一样。除了boot_layer=outer_mem表示将外层的outer_mem作为内层memory的初始状态。外层outer_step中outer_mem是一个子句的最后一个向量即整个双层group是将前一个子句的最后一个向量作为下一个子句memory的初始状态。
- 从输入数据上看单双层序列的句子是一样的只是双层序列将其又做了子序列划分。因此双层序列的配置中必须将前一个子句的最后一个元素作为boot_layer传给下一个子句的memory才能保证和单层序列的配置中“每一个时间步都用了上一个时间步的输出结果”一致。
.. literalinclude:: ../../../paddle/gserver/tests/sequence_nest_rnn.conf
:language: python
:lines: 39-66
- 双层序列外层memory是单层序列
- 由于外层每个时间步返回的是一个子句这些子句的长度往往不等长。因此当外层有is_seq=True的memory时内层是**无法直接使用**它的即内层memory的boot_layer不能链接外层的这个memory。
- 如果内层memory想**间接使用**这个外层memory只能通过`pooling_layer``last_seq``first_seq`这三个layer将它先变成一个元素。但这种情况下外层memory必须有boot_layer否则在第0个时间步时由于外层memory没有任何seq信息因此上述三个layer的前向会报出“**Check failed: input.sequenceStartPositions**”的错误。
示例3双进双出输入不等长
===========================
.. role:: red
.. raw:: html
<style> .red {color:red} </style>
**输入不等长** 是指recurrent_group的多个输入在各时刻的长度可以不相等, 但需要指定一个和输出长度一致的input:red:`targetInlink` 表示。参考配置单层RNN:code:`sequence_rnn_multi_unequalength_inputs.conf`双层RNN:code:`sequence_nest_rnn_multi_unequalength_inputs.conf`
读取双层序列的方法
------------------
我们看一下单双层序列的数据组织形式和dataprovider:code:`rnn_data_provider.py`
.. literalinclude:: ../../../paddle/gserver/tests/rnn_data_provider.py
:language: python
:lines: 69-97
data2 中有两个样本,每个样本有两个特征, 记fea1, fea2。
- 单层序列:两个样本分别为[[1, 2, 4, 5, 2], [5, 4, 1, 3, 1]] 和 [[0, 2, 2, 5, 0, 1, 2], [1, 5, 4, 2, 3, 6, 1]]
- 双层序列:两个样本分别为
- **样本1**\[[[1, 2], [4, 5, 2]], [[5, 4, 1], [3, 1]]]。fea1和fea2都分别有2个子句fea1=[[1, 2], [4, 5, 2]], fea2=[[5, 4, 1], [3, 1]]
- **样本2**\[[[0, 2], [2, 5], [0, 1, 2]],[[1, 5], [4], [2, 3, 6, 1]]]。fea1和fea2都分别有3个子句 fea1=[[0, 2], [2, 5], [0, 1, 2]], fea2=[[1, 5], [4], [2, 3, 6, 1]]。<br/>
- **注意**\每个样本中各特征的子句数目需要相等。这里说的“双进双出输入不等长”是指fea1在i时刻的输入的长度可以不等于fea2在i时刻的输入的长度。如对于第1个样本时刻i=2, fea1[2]=[4, 5, 2]fea2[2]=[3, 1]3≠2。
- 单双层序列中两个样本的label都分别是0和1
模型中的配置
------------
单层RNN :code:`sequence_rnn_multi_unequalength_inputs.conf`和双层RNN :code:`v.conf`)两个模型配置达到的效果完全一样,区别只在于输入为单层还是双层序列,现在我们来看它们内部分别是如何实现的。
- 单层序列\
- 过了一个简单的recurrent_group。每一个时间步当前的输入y和上一个时间步的输出rnn_state做了一个全连接功能与示例2中`sequence_rnn.conf``step`函数完全相同。这里两个输入x1,x2分别通过calrnn返回最后时刻的状态。结果得到的encoder1_rep和encoder2_rep分别是单层序列最后取encoder1_rep的最后一个时刻和encoder2_rep的所有时刻分别相加得到context。
- 注意到这里recurrent_group输入的每个样本中fea1和fea2的长度都分别相等这并非偶然而是因为recurrent_group要求输入为单层序列时所有输入的长度都必须相等。
.. literalinclude:: ../../../paddle/gserver/tests/sequence_rnn_multi_unequalength_inputs.conf
:language: python
:lines: 41-58
- 双层序列\
- 双层RNN中对输入的两个特征分别求时序上的连续全连接(`inner_step1``inner_step2`分别处理fea1和fea2)其功能与示例2中`sequence_nest_rnn.conf``outer_step`函数完全相同。不同之处是,此时输入`[SubsequenceInput(emb1), SubsequenceInput(emb2)]`在各时刻并不等长。
- 函数`outer_step`中可以分别处理这两个特征,但我们需要用<font color=red>targetInlink</font>指定recurrent_group的输出的格式各子句长度只能和其中一个保持一致如这里选择了和emb2的长度一致。
- 最后依然是取encoder1_rep的最后一个时刻和encoder2_rep的所有时刻分别相加得到context。
.. literalinclude:: ../../../paddle/gserver/tests/sequence_nest_rnn_multi_unequalength_inputs.conf
:language: python
:lines: 41-89
示例4beam_search的生成
========================
TBD

@ -0,0 +1,59 @@
.. _glossary:
########################
Paddle文档中使用的词汇表
########################
.. _glossary_paddle:
PaddlePaddle
------------
TBD
.. _glossary_memory:
Memory
------
Memory是 :ref:`glossary_paddle` 实现 :ref:`glossary_RNN` 时候使用的一个概念。 :ref:`glossary_RNN` 即时间递归神经网络,通常要求时间步之间具有一些依赖性,即当前时间步下的神经网络依赖前一个时间步神经网络中某一个神经元输出。如下图所示。
.. graphviz:: glossary_rnn.dot
上图中虚线的连接,即是跨越时间步的网络连接。:ref:`glossary_paddle` 在实现 :ref:`glossary_RNN` 的时候将这种跨越时间步的连接用一个特殊的神经网络单元实现。这个神经网络单元就叫Memory。Memory可以缓存上一个时刻某一个神经元的输出然后在下一个时间步输入给另一个神经元。使用Memory的 :ref:`glossary_RNN` 实现便如下图所示。
.. graphviz:: glossary_rnn_with_memory.dot
使用这种方式,:ref:`glossary_paddle` 可以比较简单的判断哪些输出是应该跨越时间步的,哪些不是。
.. _glossary_Sequence:
时间序列
--------
时间序列(time series)是指一系列的特征数据。这些特征数据之间的顺序是有意义的。即特征的数组,而不是特征的集合。而这每一个数组元素,或者每一个系列里的特征数据,即为一个时间步(time step)。值得注意的是,时间序列、时间步的概念,并不真正的和『时间』有关。只要一系列特征数据中的『顺序』是有意义的,即为时间序列的输入。
举例说明,例如文本分类中,我们通常将一句话理解成一个时间序列。比如一句话中的每一个单词,会变成词表中的位置。而这一句话就可以表示成这些位置的数组。例如 :code:`[9, 2, 3, 5, 3]`
关于时间序列(time series)的更详细准确的定义,可以参考 `维基百科页面 Time series <https://en.wikipedia.org/wiki/Time_series>`_ 或者 `维基百科中文页面 时间序列 <https://zh.wikipedia.org/wiki/%E6%99%82%E9%96%93%E5%BA%8F%E5%88%97>`_
另外Paddle中经常会将时间序列成为 :code:`Sequence` 。他们在Paddle的文档和API中是一个概念。
.. _glossary_RNN:
RNN
---
RNN 在 :ref:`glossary_paddle` 的文档中,一般表示 :code:`Recurrent neural network`,即时间递归神经网络。详细介绍可以参考 `维基百科页面 Recurrent neural network <https://en.wikipedia.org/wiki/Recurrent_neural_network>`_ 或者 `中文维基百科页面 <https://zh.wikipedia.org/wiki/%E9%80%92%E5%BD%92%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C>`_ 中关于时间递归神经网络的介绍。
RNN 一般在 :ref:`glossary_paddle` 中,指对于一个 :ref:`glossary_Sequence` 输入数据,每一个时间步之间的神经网络具有一定的相关性。例如,某一个神经元的一个输入为上一个时间步网络中某一个神经元的输出。或者,从每一个时间步来看,神经网络的网络结构中具有有向环结构。
.. _glossary_双层RNN:
双层RNN
-------
双层RNN顾名思义:ref:`glossary_RNN` 之间有一次嵌套关系。输入数据整体上是一个时间序列,而对于每一个内层特征数据而言,也是一个时间序列。即二维数组,或者数组的数组这个概念。 而双层RNN是可以处理这种输入数据的网络结构。
例如对于段落的文本分类即将一段话进行分类。我们将一段话看成句子的数组每个句子又是单词的数组。这便是一种双层RNN的输入数据。而将这个段落的每一句话用lstm编码成一个向量再对每一句话的编码向量用lstm编码成一个段落的向量。再对这个段落向量进行分类即为这个双层RNN的网络结构。

@ -0,0 +1,42 @@
digraph G{
subgraph cluster_timestep0 {
label="recurrent timestep i-1"
bgcolor=lightgray
node [style=filled,color=white]
fc0_0 [label="fc 0"]
fc0_1 [label="fc 1"]
fc0_2 [label="fc 2"]
fc0_0 -> fc0_1
fc0_1 -> fc0_2
}
subgraph cluster_timestep1 {
label="recurrent timestep i"
node [style=filled];
fc1_0 [label="fc 0"]
fc1_1 [label="fc 1"]
fc1_2 [label="fc 2"]
color=blue
fc1_0 -> fc1_1
fc1_1 -> fc1_2
}
subgraph cluster_timestep2 {
label="recurrent timestep i+1"
bgcolor=lightgray
node [style=filled,color=white]
fc2_0 [label="fc 0"]
fc2_1 [label="fc 1"]
fc2_2 [label="fc 2"]
fc2_0 -> fc2_1
fc2_1 -> fc2_2
}
fc0_1 -> fc1_1 [style="dotted" constraint=false]
fc1_1 -> fc2_1 [style="dotted" constraint=false]
}

@ -0,0 +1,48 @@
digraph G{
subgraph cluster_timestep0 {
label="recurrent timestep i-1"
bgcolor=lightgray
node [style=filled,color=white]
fc0_0 [label="fc 0"]
fc0_1 [label="fc 1"]
fc0_2 [label="fc 2"]
m0 [label="memory"]
fc0_0 -> fc0_1
fc0_1 -> fc0_2
fc0_1 -> m0
m0 -> fc0_1
}
subgraph cluster_timestep1 {
label="recurrent timestep i"
node [style=filled];
fc1_0 [label="fc 0"]
fc1_1 [label="fc 1"]
fc1_2 [label="fc 2"]
m1 [label="memory"]
color=blue
fc1_0 -> fc1_1
fc1_1 -> fc1_2
fc1_1 -> m1
m1 -> fc1_1
}
subgraph cluster_timestep2 {
label="recurrent timestep i+1"
bgcolor=lightgray
node [style=filled,color=white]
fc2_0 [label="fc 0"]
fc2_1 [label="fc 1"]
fc2_2 [label="fc 2"]
m2 [label="memory"]
fc2_0 -> fc2_1
fc2_1 -> fc2_2
fc2_1 -> m2
m2 -> fc2_1
}
m0 -> m1 [style="dotted" constraint=false]
m1 -> m2 [style="dotted" constraint=false]
}

@ -11,6 +11,7 @@ PaddlePaddle文档
* `使用示例 <demo/index.html>`_
* `模型配置 <../doc/ui/api/trainer_config_helpers/index.html>`_
* `集群训练 <cluster/index.html>`_
* :ref:`glossary`
开发指南
--------
@ -22,7 +23,7 @@ PaddlePaddle文档
* `Recurrent Group教程 <algorithm/rnn/rnn-tutorial.html>`_
* `单层RNN示例 <../doc/algorithm/rnn/rnn.html>`_
* `双层RNN示例 <algorithm/rnn/hierarchical-rnn.html>`_
* :ref:`algo_hrnn_rnn_api_compare`
* `支持双层序列作为输入的Layer <algorithm/rnn/hierarchical-layer.html>`_
常见问题

Loading…
Cancel
Save