数据预处理 数据去均值 **函数选择 优先使用ReLU,尝试Leaky ReLU / Maxout / ELU,少用Sigmoid 权重初始化 不同的初始方法下,随迭代轮次,损失的变化 学习率与批样本大小 不同批样本数量对于训练的影响 不同大小的学习率下,神经网络的训练损失变化 损失函数与优化器 不同优化方法下,loss的变化 超参数调优 批规范化处理 / Batch Normalization Batch Normalization对于结果的影响 相关文章: 2021-11-14 2021-09-23 2022-12-23 2021-08-02 2021-11-23 2021-11-30 2021-06-21