1、grid search vs random search

有时候random search的方法还是不错的,因为top k的结果已经相差不大。所以没有必要扫过所有的参数组合,只要取前k名的其中一个结果就好了。

有sample到K的几率:

李宏毅:Tuning Hyperparameters(超参数)

2、model-based hyperparameter optimization

不一定好用

李宏毅:Tuning Hyperparameters(超参数)

3、reinforcement learning(强化学习)

用RNN来决定network架构

李宏毅:Tuning Hyperparameters(超参数)

(1)找到最好的activation function:

李宏毅:Tuning Hyperparameters(超参数)

(2)找到learning rate:

李宏毅:Tuning Hyperparameters(超参数)

李宏毅:Tuning Hyperparameters(超参数)

相关文章:

  • 2021-10-02
  • 2022-01-04
  • 2021-05-06
  • 2021-06-27
  • 2021-05-04
  • 2021-06-02
  • 2021-04-20
  • 2021-09-18
猜你喜欢
  • 2021-09-22
  • 2021-09-10
  • 2021-12-18
  • 2021-09-02
  • 2021-09-15
  • 2021-05-21
  • 2021-05-31
相关资源
相似解决方案