Skip to content

Commit

Permalink
docs: fix docs issue (#6468)
Browse files Browse the repository at this point in the history
  • Loading branch information
Hhankyangg authored Jan 16, 2024
1 parent 7db0b8a commit be13543
Show file tree
Hide file tree
Showing 8 changed files with 62 additions and 61 deletions.
2 changes: 1 addition & 1 deletion docs/api/paddle/diagonal_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -23,7 +23,7 @@ diagonal
- **x** (Tensor):输入变量,类型为 Tensor,支持 bool、int32、int64、float16、float32、float64 数据类型。
- **offset** (int,可选)- 从指定的二维平面中获取对角线的位置,默认值为 0,既主对角线。
- **axis1** (int,可选)- 获取对角线的二维平面的第一维,默认值为 0。
- **axis2** (int,可选)- 获取对角线的二维平面的第二维,默认值为 1
- **axis2** (int,可选)- 获取对角线的二维平面的第二维,默认值为 1
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。

返回
Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/nn/CosineEmbeddingLoss_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -24,7 +24,7 @@ CosineEmbeddingLoss
参数
:::::::::
- **margin** (float,可选): - 可以设置的范围为[-1, 1],建议设置的范围为[0, 0.5]。其默认为 `0`。数据类型为 int。
- **margin** (float,可选): - 可以设置的范围为[-1, 1],建议设置的范围为[0, 0.5]。其默认为 `0`。
- **reduction** (string,可选): - 指定应用于输出结果的计算方式,可选值有:``'none'``, ``'mean'``, ``'sum'``。默认为 ``'mean'``,计算 `CosineEmbeddingLoss` 的均值;设置为 ``'sum'`` 时,计算 `CosineEmbeddingLoss` 的总和;设置为 ``'none'`` 时,则返回 `CosineEmbeddingLoss`。数据类型为 string。
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。

Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/nn/functional/cross_entropy_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -9,7 +9,7 @@ cross_entropy

默认会对结果进行求 mean 计算,您也可以影响该默认行为,具体参考 reduction 参数说明。

可用于计算硬标签或软标签的交叉熵。其中,硬标签是指实际 label 值,例如:0, 1, 2...,软标签是指实际 label 的概率,例如:0.6, 0,8, 0,2..
可用于计算硬标签或软标签的交叉熵。其中,硬标签是指实际 label 值,例如:0, 1, 2...,软标签是指实际 label 的概率,例如:0.6, 0,8, 0,2...

计算包括以下两个步骤:

Expand Down
4 changes: 2 additions & 2 deletions docs/api/paddle/optimizer/SGD_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -11,7 +11,7 @@ SGD
\\param\_out=param-learning\_rate*grad\\
为网络添加反向计算过程,并根据反向计算所得的梯度,更新 parameters 中的 Parameters,最小化网络损失值 loss。
为网络添加反向计算过程,并根据反向计算所得的梯度,更新 parameters(传入 SGD 的变量,一般会是网络中的参数) ,最小化网络损失值 loss。

参数
::::::::::::
Expand Down Expand Up @@ -52,7 +52,7 @@ COPY-FROM: paddle.optimizer.SGD.step
minimize(loss, startup_program=None, parameters=None, no_grad_set=None)
'''''''''

为网络添加反向计算过程,并根据反向计算所得的梯度,更新 parameters 中的 Parameters,最小化网络损失值 loss。
为网络添加反向计算过程,并根据反向计算所得的梯度,更新 parameters(传入 SGD 的变量,一般会是网络中的参数),最小化网络损失值 loss。

**参数**

Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/static/nn/fc_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -40,7 +40,7 @@ fc
.. code-block:: text
# Case 1, input is a single tensor:
data = [[[0.1, 0.2],
x.data = [[[0.1, 0.2],
[0.3, 0.4]]]
x.shape = (1, 2, 2) # 1 is batch_size
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -207,26 +207,26 @@

- 在用于 API 命名时,以下建议使用全称,不推荐使用缩写

| 不规范命名 | 规范命名 |
| :-------- | :----------- |
| div | divide |
| mul | multiply |
| sub | subtract |
| floor_div | floor_divide |
| lr | learning_rate |
| act | activation |
| eps | epsilon |
| val | value |
| var | varible |
| param | parameter |
| prog | program |
| idx | index |
| exe | executor |
| buf | buffer |
| trans | transpose |
| img | image |
| loc | location |
| len | length |
| 不规范命名 | 规范命名 |
| :-------- | :----------- |
| div | divide |
| mul | multiply |
| sub | subtract |
| floor_div | floor_divide |
| lr | learning_rate |
| act | activation |
| eps | epsilon |
| val | value |
| var | varible |
| param | parameter |
| prog | program |
| idx | index |
| exe | executor |
| buf | buffer |
| trans | transpose |
| img | image |
| loc | location |
| len | length |



Expand All @@ -239,44 +239,45 @@

- 常见的数学计算 API 中的逐元素操作不需要加上 elementwise 前缀,按照某一轴操作不需要加上 reduce 前缀,一些例子如下

| paddle2.0 之前 | pytorch | numpy | tensorflow | paddle2.0 之后 |
| :------------- | :----- | :------ | :--------- | :--------------- |
| elementwise_add | add | add | add | add |
| elementwise_sub | sub | subtract | subtract | subract |
| elementwise_mul | mul | multiply | multiply | multiply |
| elementwise_div | div | divide | divide | divide |
| elementwise_min | min | minimum | minimum | minimum |
| elementwise_max | max | maximum | maximum | maximum |
| reduce_sum | sum | sum | reduce_sum | sum |
| reduce_prod | prod | prod | reduce_prod | prod |
| reduce_min | min | min | reduce_min | min |
| reduce_max | max | max | reduce_max | max |
| reduce_all | all | all | reduce_all | all |
| reduce_any | any | any | reduce_any | any |
| reduce_mean | mean | mean | reduce_mean | mean |
| paddle2.0 之前 | pytorch | numpy | tensorflow | paddle2.0 之后 |
| :------------- | :----- | :------ | :--------- | :--------------- |
| elementwise_add | add | add | add | add |
| elementwise_sub | sub | subtract | subtract | subract |
| elementwise_mul | mul | multiply | multiply | multiply |
| elementwise_div | div | divide | divide | divide |
| elementwise_min | min | minimum | minimum | minimum |
| elementwise_max | max | maximum | maximum | maximum |
| reduce_sum | sum | sum | reduce_sum | sum |
| reduce_prod | prod | prod | reduce_prod | prod |
| reduce_min | min | min | reduce_min | min |
| reduce_max | max | max | reduce_max | max |
| reduce_all | all | all | reduce_all | all |
| reduce_any | any | any | reduce_any | any |
| reduce_mean | mean | mean | reduce_mean | mean |



- 整数取模和取余

目前整除和取余取模运算机器运算符重载在不同的语言和库中对应关系比较复杂混乱(取余运算中余数和被除数同号,取模运算中模和除数同号。取余整除是对商向 0 取整,取模整除是对商向负取整)

|| 取余整除 | 取余 | 取模整除 | 取模 |
| ---------- | :----------------------- | :-------------------- | :--------------- | :---------------------------------- |
| tf | truncatediv | truncatemod | //或 floordiv | %或 floormod |
| torch | //或 floor_divide | fmod || %或 remainder |
| math || math.fmod || math.remainder |
| python ||| // | % |
| numpy ||| //或 floor_divide | %或 mod remainder |
| paddle | //或 elementwise_div(int) | %或 elemtwise_mod(int) || %或 elemtwise_mod(float) |
| paddle 2.0 | truncate_divide(int) | %或 truncate_mod(int) | //或 floor_divide | %或 floor_mod(float)或 mod 或 remainder |

| | paddle2.0 之前 | torch | numpy | tensorflow | math | python | paddle2.0 之后 |
| :------: | :----------------------- | :-------------- | :---------------- | :------------ | :------------- | :----- | :---------------------------------- |
| 取余整除 | //或 elementwise_div(int) | //或 floor_divid || truncatediv | - || truncate_divide(int) |
| 取余 | %或 elemtwise_mod(int) | fmod || truncatemod | math.fmod || %或 truncate_mod(int) |
| 取模整除 | - | - | floor_divide | //或 floordiv- | - | // | //或 floor_divide |
| 取模 | %或 elemtwise_mod(float) | %或 remainder | %或 mod 或 remainder | %或 floormod | math.remainder | % | %或 floor_mod(float)或 mod 或 remainder |
|| 取余整除 | 取余 | 取模整除 | 取模 |
| ---------- | :----------------------- | :-------------------- | :--------------- | :---------------------------------- |
| tf | truncatediv | truncatemod | //或 floordiv | %或 floormod |
| torch | //或 floor_divide | fmod || %或 remainder |
| math || math.fmod || math.remainder |
| python ||| // | % |
| numpy ||| //或 floor_divide | %或 mod remainder |
| paddle | //或 elementwise_div(int) | %或 elemtwise_mod(int) || %或 elemtwise_mod(float) |
| paddle 2.0 | truncate_divide(int) | %或 truncate_mod(int) | //或 floor_divide | %或 floor_mod(float)或 mod 或 remainder |


| | paddle2.0 之前 | torch | numpy | tensorflow | math | python | paddle2.0 之后 |
| :------: | :----------------------- | :-------------- | :---------------- | :------------ | :------------- | :----- | :---------------------------------- |
| 取余整除 | //或 elementwise_div(int) | //或 floor_divid || truncatediv | - || truncate_divide(int) |
| 取余 | %或 elemtwise_mod(int) | fmod || truncatemod | math.fmod || %或 truncate_mod(int) |
| 取模整除 | - | - | floor_divide | //或 floordiv- | - | // | //或 floor_divide |
| 取模 | %或 elemtwise_mod(float) | %或 remainder | %或 mod 或 remainder | %或 floormod | math.remainder | % | %或 floor_mod(float)或 mod 或 remainder |

- 常用组网 API 命名规范

Expand Down
4 changes: 2 additions & 2 deletions docs/guides/beginner/data_load_cn.ipynb
Original file line number Diff line number Diff line change
Expand Up @@ -118,7 +118,7 @@
"source": [
"内置的 [MNIST](../../api/paddle/vision/datasets/MNIST_cn.html) 数据集已经划分好了训练集和测试集,通过 `mode` 字段传入 `'train'` 或 `'test'` 来区分。\n",
"\n",
"另外可通过 `transform` 字段传入一些对图像进行变换的操作,飞桨在 [paddle.vision.transforms](../..api/paddle/vision/Overview_cn.html#about-transforms) 下提供了一些常用的图像变换操作,如对图像进行中心裁剪、水平翻转图像和对图像进行归一化等。这里在初始化 MNIST 数据集时传入了 `Normalize` 变换对图像进行归一化,对图像进行归一化可以加快模型训练的收敛速度。"
"另外可通过 `transform` 字段传入一些对图像进行变换的操作,飞桨在 [paddle.vision.transforms](../../api/paddle/vision/Overview_cn.html#about-transforms) 下提供了一些常用的图像变换操作,如对图像进行中心裁剪、水平翻转图像和对图像进行归一化等。这里在初始化 MNIST 数据集时传入了 `Normalize` 变换对图像进行归一化,对图像进行归一化可以加快模型训练的收敛速度。"
]
},
{
Expand Down Expand Up @@ -324,7 +324,7 @@
"\n",
"\n",
"\n",
"另外,在 `__init__` 函数和 `__getitem__` 函数中还可实现一些数据预处理操作,如对图像的翻转、裁剪、归一化等操作,最终返回处理好的单条数据(样本数据、对应的标签),该操作可增加图像数据多样性,对增强模型的泛化能力带来帮助。飞桨框架在 [paddle.vision.transforms](../..api/paddle/vision/Overview_cn.html#about-transforms) 下内置了几十种图像数据处理方法,详细使用方法可参考 [数据预处理](data_preprocessing_cn.html) 章节。\n",
"另外,在 `__init__` 函数和 `__getitem__` 函数中还可实现一些数据预处理操作,如对图像的翻转、裁剪、归一化等操作,最终返回处理好的单条数据(样本数据、对应的标签),该操作可增加图像数据多样性,对增强模型的泛化能力带来帮助。飞桨框架在 [paddle.vision.transforms](../../api/paddle/vision/Overview_cn.html#about-transforms) 下内置了几十种图像数据处理方法,详细使用方法可参考 [数据预处理](data_preprocessing_cn.html) 章节。\n",
"\n",
"和内置数据集类似,可以使用下面的代码直接对自定义数据集进行迭代读取。"
]
Expand Down
4 changes: 2 additions & 2 deletions docs/practices/quick_start/high_level_api.ipynb
Original file line number Diff line number Diff line change
Expand Up @@ -260,7 +260,7 @@
"source": [
"### 4.3 数据增强\n",
"\n",
"训练过程中有时会遇到过拟合的问题,其中一个解决方法就是对训练数据做增强,对数据进行处理得到不同的图像,从而泛化数据集。数据增强API是定义在领域目录的transofrms下,这里介绍两种使用方式,一种是基于框架自带数据集,一种是基于自己定义的数据集。\n",
"训练过程中有时会遇到过拟合的问题,其中一个解决方法就是对训练数据做增强,对数据进行处理得到不同的图像,从而泛化数据集。数据增强API是定义在领域目录的transforms下,这里介绍两种使用方式,一种是基于框架自带数据集,一种是基于自己定义的数据集。\n",
"\n",
"#### 4.3.1 框架自带数据集"
]
Expand Down Expand Up @@ -290,7 +290,7 @@
"source": [
"#### 4.3.2 自定义数据集\n",
"\n",
"针对自定义数据集使用数据增强有两种方式,一种是在数据集的构造函数中进行数据增强方法的定义,之后对__getitem__中返回的数据进行应用。另外一种方式也可以给自定义的数据集类暴漏一个构造参数,在实例化类的时候将数据增强方法传递进去。"
"针对自定义数据集使用数据增强有两种方式,一种是在数据集的构造函数中进行数据增强方法的定义,之后对__getitem__中返回的数据进行应用。另外一种方式也可以给自定义的数据集类暴露一个构造参数,在实例化类的时候将数据增强方法传递进去。"
]
},
{
Expand Down

0 comments on commit be13543

Please sign in to comment.