learn_rate
学习率,通常位于优化步骤中
- 表示每次结果误差的反馈系数,越大结果反馈误差对模型影响越大,一般取3、1、0.5、0.1、0.01、0.0001···
- 对于深度学习来说,每 t 轮学习,学习率减半。对于监督学习来说,初始设置一个较大的学习率,然后随着迭代次数的增加,减小学习率。
- 大多数的网络的学习率的初始值设置为0.01和0.001为宜
感知器个数(隐藏层数)
层数越多,时间越长,越准确,注意输出神经元的参数不能改变
- 关于隐藏层大小的经验法则是在输入层和输出层之间,为了计算隐藏层大小我们使用一个一般法则:
感知层数 =(输入大小+输出大小)*2/3 -
EPOCH_NUM
训练轮数,通常位于训练步骤的迭代中
- 数越大时间越长,越拟合(你训练的模型越较真(二哈是二哈,不是狗))
- 训练轮数越小,那么你的模型越糊弄(猫看起像狗就认为它是狗)
尝试用多种不同的值去训练,然后观察对比效果,取最优值