两种非常常见的非线性单元:rectified linear units (ReLUs) 和 leaky ReLUs

The Multilinear Structure of ReLU Networks

我们选取binary hinge loss进行分类

The Multilinear Structure of ReLU Networks

对于多分类,我们可以定义multiclass hinge loss

The Multilinear Structure of ReLU Networks

定义Ω为网络的参数空间, L(ω)为loss。

 

由于我们选了ReLU非线性单元作为loss, 那么L(ω)分片线性的。对于参数空间,我们可以将其进行一个划分,

The Multilinear Structure of ReLU Networks

 

分成有限个open cells Ωu边界N,则损失函数L(ω)在cell的内部光滑的,在边界上是不可微的。

 

下面我们将loss限制在某个cell  Ωu上单独考虑,并且loss拥有multilinear form. 由于multilinear form是调和的,由strong maximum principle知,极值点必定在边界N. 换句话说,ReLU 神经网络 with hinge loss L(ω)不存在可微的局部极值点的

 

目前为止,我们可以知道局部极值有两种情况,

Type I (Flat). 局部极值在cell中,loss为常值。

Type II (Sharp). 局部极值在边界N上。

 

Main Result 1.   Type II局部极值点L(ω)>0.

也就是说,如果存在极值0,那么Type II极值点都是sub-optimal的。

 

若我们考虑更一般的情况:fully connected networks with leaky ReLU nonlinearities. 那么我们有以下结果,

Main Result 2.  Type I局部极值点L(ω)=0. Type II局部极值点L(ω)>0.

 

在存在极值0的情况下,flat 局部极小值都是optimal的,sharp 局部极小值都是sub-optimal的。若不存在极值0,所有的局部极值点都是sharp的。

The Multilinear Structure of ReLU Networks

 

未完待续。。。

 

相关文章:

  • 2022-12-23
  • 2022-12-23
  • 2021-05-19
  • 2021-07-09
  • 2021-07-19
  • 2021-10-14
  • 2021-09-06
  • 2021-12-28
猜你喜欢
  • 2022-01-17
  • 2021-06-03
  • 2021-04-11
  • 2022-12-23
  • 2021-05-19
  • 2022-01-01
相关资源
相似解决方案