Skip to content

Latest commit

 

History

History
21 lines (11 loc) · 1.35 KB

c1_w4.md

File metadata and controls

21 lines (11 loc) · 1.35 KB

Course 1, week 4: Deep Neural Networks

  • 确保深度神经网络正常运行的一个方法是: 检查矩阵的维度:

img/dimensions_of_parameters.png

img/dimensions_of_za.png

  • 深度神经网络更关注隐层的数量, 而不是神经元的数量. L 层的小型深度神经网络可能比拥有大量隐层单元的浅度网络, 拥有更好的性能. 例如下图所示的例子, 要计算 n 个特征的异或, 深度神经网络时间复杂度为 $O(\log{n})$, 而单隐层神经网络, 时间复杂度为 $O(2^n)$.

img/circuit-theory_deep-learning.png

  • 深度神经网络, 从第一隐层到输出层, 逐层学习更复杂的特征, 比如人脸识别 (语音识别), 第一隐层用于学习面部的线条 (低级音频特征), 第二层用于学习五官特征 (音素, phoneme), 第三层用于学习面部整体特征 (单词, 词组, 句子).

  • 第 l 层的前向传播计算, 输入 $a^{[l-1]}$, 输出 $a^{[l]}$, 并缓存 $z^{[l]}$, $w^{[l]}$, $b^{[l]}$ (用于反向传播); 第 l 层的反向传播计算, 输入 $da^{[l]}$, 输出 $da^{[l-1]}$, $dW^{[l]}$, $db^{[l]}$

img/forwardprop-backprop_kiank.png

  • 机器学习/深度学习的基本流程:

img/workflow_of_nn.png