Pytorch拾遗
深度学习拾遗dropout指的是每次更新参数的时候,随机抽取p比例的神经元不参与计算,也不更新权重。
一般来说,dropout在relu之后,即先激活,后dropout随即丢弃。
loss计算的是一个batch的均值。全体数据的 Loss 只有在验证(Evaluation)的时候,我们才会把所有 Batch 的 Loss 累加起来算一个总平均,用来评估模型好坏,但不用于更新参数。
pytorch语 ...
数据分析之ARIMA模型
ARIMA 全称是 差分整合移动平均自回归模型(Autoregressive Integrated Moving Average Model)。我们可以将其拆解为三个部分:AR(自回归)、I(差分项)和 MA(移动平均)。
1. 核心前提:平稳性 (Stationarity)在学习 ARIMA 之前,必须理解平稳性。这是所有时间序列建模的基石。
一个平稳的时间序列具有以下特征:
均值是常数(不 ...
Operating-System-存储管理之分页
//文章描述
Operating System-存储管理之分区
//文章描述
Operating System-线程
//文章描述
Operating System-死锁
//文章描述



