|
|
|
@ -134,8 +134,8 @@ define_py_data_sources2(train_list='data/train.list',
|
|
|
|
|
* obj="process": 指定生成数据的函数
|
|
|
|
|
* args={"dictionary": word_dict}: 额外的参数,这里指定词典
|
|
|
|
|
|
|
|
|
|
更详细用例请参考文档<a href = "../../ui/data_provider/python_case.html">Python Use Case</a>,
|
|
|
|
|
数据格式和详细文档请参考<a href = "../../ui/py_data_provider_wrapper_api.html">
|
|
|
|
|
更详细用例请参考文档<a href = "../../../doc/ui/data_provider/python_case.html">Python Use Case</a>,
|
|
|
|
|
数据格式和详细文档请参考<a href = "../../../doc/ui/data_provider/pydataprovider2.html">
|
|
|
|
|
PyDataProviderWrapper</a>。
|
|
|
|
|
|
|
|
|
|
## 网络结构(Network Architecture)
|
|
|
|
@ -143,7 +143,7 @@ PyDataProviderWrapper</a>。
|
|
|
|
|
<center>  </center>
|
|
|
|
|
|
|
|
|
|
我们将以基本的逻辑回归网络作为起点,并逐渐展示更加深入的功能。更详细的网络配置
|
|
|
|
|
连接请参考<a href = "../../ui/trainer_config_helpers_api.html#module-paddle.trainer_config_helpers.layers">Layer文档</a>。
|
|
|
|
|
连接请参考<a href = "../../../doc/layer.html">Layer文档</a>。
|
|
|
|
|
所有配置在`demo/quick_start`目录,首先列举逻辑回归网络。
|
|
|
|
|
|
|
|
|
|
### 逻辑回归模型(Logistic Regression)
|
|
|
|
@ -350,7 +350,7 @@ lstm = simple_lstm(input=emb, size=lstm_size)
|
|
|
|
|
<br>
|
|
|
|
|
|
|
|
|
|
## 优化算法(Optimization Algorithm)
|
|
|
|
|
<a href = "../../ui/trainer_config_helpers_api.html#module-paddle.trainer_config_helpers.optimizers">优化算法</a>包括
|
|
|
|
|
<a href = "../../../doc/ui/trainer_config_helpers_api.html#module-paddle.trainer_config_helpers.optimizers">优化算法</a>包括
|
|
|
|
|
Momentum, RMSProp,AdaDelta,AdaGrad,ADAM,Adamax等,这里采用Adam优化方法,加了L2正则和梯度截断。
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
@ -375,7 +375,7 @@ paddle train \
|
|
|
|
|
--num_passes=15 \
|
|
|
|
|
--use_gpu=false
|
|
|
|
|
```
|
|
|
|
|
这里没有介绍多机分布式训练,可以参考<a href = "../../platform/index.html">分布式训练</a>的demo学习如何进行多机训练。
|
|
|
|
|
这里没有介绍多机分布式训练,可以参考<a href = "../../cluster/index.html">分布式训练</a>的demo学习如何进行多机训练。
|
|
|
|
|
|
|
|
|
|
## 预测(Prediction)
|
|
|
|
|
可以使用训练好的模型评估带有label的验证集,也可以预测没有label的测试集。
|
|
|
|
|