资源链接:链接: https://pan.baidu.com/s/1c1MIm1E 密码: gant

chapter2 : linear regression with one feature

2014斯坦福大学-吴恩达公开课学习笔记2014斯坦福大学-吴恩达公开课学习笔记

 

2014斯坦福大学-吴恩达公开课学习笔记2014斯坦福大学-吴恩达公开课学习笔记2014斯坦福大学-吴恩达公开课学习笔记

************************************************************************************************************

************************************************************************************************************

chapter4:linear regression with multiple feature

  • 在我们面对多维特征问题的时候,我们要保证这些特征都具有相近的尺度,这将帮助梯度下降算法更快地收敛

   2014斯坦福大学-吴恩达公开课学习笔记2014斯坦福大学-吴恩达公开课学习笔记2014斯坦福大学-吴恩达公开课学习笔记

 

  • 如果学习率 α 过小,则达到收敛所需的迭代次数会非常高;如果学习率 α 过大,每次迭代可能不会减小代价函数,可能会越过局部最小值导致无法收敛。

        2014斯坦福大学-吴恩达公开课学习笔记

************************************************************************************************************

************************************************************************************************************

chapter 5 : Octave

  • 参考文献 
  • plot 
    x=[0:0.01:1];
    y1=sin(2*pi*x);
    plot(x,y1);
    y2=cos(2*pi*x);
    hold on;
    plot(x,y2);
    xlabel('time');
    ylabel('value');
    title('my plot');
    legend('sin','cos');
    print -dpng 'my.png';
    close;
    figure(1);plot(x,y1);
    figure(2);plot(x,y2);
    figure(3);
    subplot(1,2,1);
    plot(x,y1);
    subplot(1,2,2);
    plot(x,y2);
    axis([0.5 1 -1 1]); %change the axis of x and y
    clf;
    a=magic(5)
    imagesc(a);
    imagesc(a), colorbar,colormap gray;
    View Code

相关文章:

  • 2021-05-19
  • 2021-06-12
  • 2021-10-30
  • 2021-10-02
  • 2021-09-18
  • 2021-09-15
  • 2021-07-24
  • 2021-09-02
猜你喜欢
  • 2021-09-02
  • 2021-12-22
  • 2022-01-22
  • 2021-07-17
  • 2021-07-10
  • 2020-03-22
  • 2021-11-17
相关资源
相似解决方案