学习才能消去恐惧叭

Part 1: Basic Function

% 完成 warmUpExercise.m
fprintf('Running warmUpExercise ... \n');
fprintf('5x5 Identity Matrix: \n');
warmUpExercise()

 warmUpExercise返回一个n为5的单位矩阵

function A = warmUpExercise()

A = eye(5);

 

Part 2: Plotting

data = load('ex1data1.txt');    %读入数据
X = data(:, 1); y = data(:, 2);  %X为数据的第一列,Y为第二列
m = length(y); % 训练集数据条数

plotData(X, y);  

marker是图上画上点的地方表上符号,不如点,方框,圆框,十字,星号,等等
后面的size就是其大小了,不知道值的话,可以画完图点编辑框上面的箭头,然后双击画的图,下面出现属性框,marker项后面的数字下拉菜单就是size,选择合适的大小,今后就用这个值就行。

function plotData(x, y)

figure(1); % open a new figure window
plot(x,y,'rx','MarkerSize',10);

xlabel('Population of City in 10,000s');
ylabel('Profit in $10,000s');

数据分布图如下:

  (一)梯度下降求解线性回归

 

Part 3: Cost and Gradient descent

1、梯度下降前的数据预处理与设置

X = [ones(m, 1), data(:,1)]; % 添加x0列,全置为1
theta = zeros(2, 1); % 初始化theta

iterations = 1500;  %迭代次数
alpha = 0.01;     %学习率alpha

2、计算损失函数

线性回归的损失函数为: 

(一)梯度下降求解线性回归

预测值hypothesis hθ(x)为:

(一)梯度下降求解线性回归

function J = computeCost(X, Y, theta)
m = length(Y); 

J = (1/(2*m))*sum((X*theta-Y).^2); 

  3、执行梯度下降 

(一)梯度下降求解线性回归

 

相关文章:

  • 2021-09-25
  • 2021-06-01
  • 2021-06-20
  • 2022-12-23
  • 2021-07-16
  • 2022-01-01
  • 2022-12-23
  • 2021-10-23
猜你喜欢
  • 2021-12-04
  • 2021-11-27
  • 2021-10-24
  • 2021-11-20
  • 2022-01-05
  • 2021-12-20
相关资源
相似解决方案