Skip to content

[Docathon][Fix note No.25、26] #7171

New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Closed
wants to merge 1 commit into from
Closed
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
8 changes: 4 additions & 4 deletions docs/api/paddle/static/Executor_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -64,8 +64,8 @@ run(program=None, feed=None, fetch_list=None, feed_var_name='feed', fetch_var_na
返回 fetch_list 中指定的变量值。

.. note::
1. 如果是多卡训练,并且 feed 参数为 dict 类型,输入数据将被均匀分配到不同的卡上,例如:使用 2 块 GPU 训练,输入样本数为 3,即[0, 1, 2],经过拆分之后,GPU0 上的样本数为 1,即[0],GPU1 上的样本数为 2,即[1, 2]。如果样本数少于设备数,程序会报错,因此运行模型时,应额外注意数据集的最后一个 batch 的样本数是否少于当前可用的 CPU 核数或 GPU 卡数,如果是少于,建议丢弃该 batch。
2. 如果可用的 CPU 核数或 GPU 卡数大于 1,则 fetch 出来的结果为不同设备上的相同变量值(fetch_list 中的变量)在第 0 维拼接在一起。
1. 如果是多卡训练,并且 feed 参数为 dict 类型,输入数据将被均匀分配到不同的卡上,例如:使用 2 块 GPU 训练,输入样本数为 3,即[0, 1, 2],经过拆分之后,GPU0 上的样本数为 1,即[0],GPU1 上的样本数为 2,即[1, 2]。如果样本数少于设备数,程序会报错,因此运行模型时,应额外注意数据集的最后一个 batch 的样本数是否少于当前可用的 CPU 核数或 GPU 卡数,如果是少于,建议丢弃该 batch。
2. 如果可用的 CPU 核数或 GPU 卡数大于 1,则 fetch 出来的结果为不同设备上的相同变量值(fetch_list 中的变量)在第 0 维拼接在一起。


**代码示例 1**
Expand Down Expand Up @@ -107,7 +107,7 @@ train_from_dataset(program=None, dataset=None, scope=None, thread=0, debug=False
从预定义的数据集中训练。数据集在 paddle.fluid.dataset 中定义。给定程序(或编译程序),train_from_dataset 将使用数据集中的所有数据样本。输入范围可由用户给出。默认情况下,范围是 global_scope()。训练中的线程总数是 thread。训练中使用的线程数将是数据集中 threadnum 的最小值,同时也是此接口中线程的值。可以设置 debug,以便执行器显示所有算子的运行时间和当前训练任务的吞吐量。

.. note::
train_from_dataset 将销毁每次运行在 executor 中创建的所有资源。
train_from_dataset 将销毁每次运行在 executor 中创建的所有资源。

**参数**

Expand All @@ -127,4 +127,4 @@ train_from_dataset 将销毁每次运行在 executor 中创建的所有资源。

**代码示例**

COPY-FROM: paddle.static.Executor.train_from_dataset
COPY-FROM: paddle.static.Executor.train_from_dataset
6 changes: 3 additions & 3 deletions docs/api/paddle/static/Program_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -3,11 +3,11 @@
Program
-------------------------------

.. py:class:: paddle.static.Program
.. py:class:: paddle.static.Program


.. note::
默认情况下,Paddle 内部默认含有 :ref:`cn_api_paddle_static_default_startup_program` 和 :ref:`cn_api_paddle_static_default_main_program`,它们共享参数。:ref:`cn_api_paddle_static_default_startup_program` 只运行一次来初始化参数,:ref:`cn_api_paddle_static_default_main_program` 在每个 mini batch 中运行并更新权重。
默认情况下,Paddle 内部默认含有 :ref:`cn_api_paddle_static_default_startup_program` 和 :ref:`cn_api_paddle_static_default_main_program`,它们共享参数。:ref:`cn_api_paddle_static_default_startup_program` 只运行一次来初始化参数,:ref:`cn_api_paddle_static_default_main_program` 在每个 mini batch 中运行并更新权重。

Program 是 Paddle 对于计算图的一种静态描述,使用 Program 的构造函数可以创建一个 Program。Program 中包括至少一个 :ref:`api_guide_Block`,当 :ref:`api_guide_Block` 中存在条件选择的控制流 OP(例如 :ref:`cn_api_paddle_static_nn_while_loop` 等)时,该 Program 将会含有嵌套着的 :ref:`api_guide_Block` 即控制流外部的 :ref:`api_guide_Block` 将包含着控制流内部的 :ref:`api_guide_Block`,而嵌套的 :ref:`api_guide_Block` 的元素访问控制将由具体的控制流 OP 来决定。关于 Program 具体的结构和包含的类型请参阅 `framework.proto <https://github.com/PaddlePaddle/Paddle/blob/develop/paddle/fluid/framework/framework.proto>`_
Expand Down Expand Up @@ -51,7 +51,7 @@ clone(for_test=False)
'''''''''

.. note::
1. ``Program.clone()`` 方法不会克隆例如 :ref:`cn_api_paddle_io_DataLoader` 这样的数据读取相关的部分,这可能会造成的数据读取部分在克隆后丢失
1. ``Program.clone()`` 方法不会克隆例如 :ref:`cn_api_paddle_io_DataLoader` 这样的数据读取相关的部分,这可能会造成的数据读取部分在克隆后丢失
2. 此 API 当 ``for_test=True`` 时将会裁剪部分 OP 和变量。为防止错误的裁剪,推荐在 :ref:`cn_api_paddle_static_append_backward` 和执行优化器之前使用;``clone(for_test=True)`` 。


Expand Down