Pytorch拾遗
深度学习拾遗
dropout指的是每次更新参数的时候,随机抽取p比例的神经元不参与计算,也不更新权重。
一般来说,dropout在relu之后,即先激活,后dropout随即丢弃。
loss计算的是一个batch的均值。全体数据的 Loss 只有在验证(Evaluation)的时候,我们才会把所有 Batch 的 Loss 累加起来算一个总平均,用来评估模型好坏,但不用于更新参数。
pytorch语法拾遗
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 The Site Of Liu!


