损失函数
$J(\theta_0, \theta_1) = \frac{1}{2m}\sum_{i=1}^{m}(h_\theta(x^{(i)}) - y^{(i)})^2$
通过使 J 值取最小来满足需求
-> 使用梯度下降方法寻找损失函数的最小值
梯度下降
好比我们下山,每次在一点环顾四周,往最陡峭的路向下走
repeat until convergence {
$\theta_j := \theta_j - \alpha\frac{\partial}{\partial\theta_j}J(\theta_0, \theta_1)$ $(for j=0 and j=1)$
}
学习率 learning rate -> 控制梯度下降时跨多大的步子