Machine Learning
+Course1
监督学习
无监督学习
线性回归
@@ -120,6 +120,62 @@多元线性回归
·
为两个向量的点积(dot)
矢量化
PS: 正规方程
特征缩放
+加快梯度下降速度
+避免特征的取值范围差异过大
-
+
-
+
除以最大值
+ $x_{1,scale} = \frac{x_1}{max}$,
+ -
+
均值归一化
+-
+
- 求均值$\mu$ +
- $x_1 = \frac{x_1-\mu}{max-min}$ +
+ -
+
+Z-score
归一化-
+
- 求标准差$\sigma$
均值$\mu$,
+ - $x_1 = \frac{x_1-\mu}{\sigma}$ +
+ - 求标准差$\sigma$
选择合适学习率
特征工程
+利用直觉设计新特征
多项式回归
分类-逻辑回归
+解决二分类问题
+sigmoid函数
+输出介于$(0,1)$
+$g(z)= \frac{1}{1+e^{-z}},z \subseteq R$
+$f_{\vec{w},b}(\vec{x})=g(\vec{w} · \vec{x}+b) = \frac{1}{1+e^{-(\vec{w} · \vec{x}+b)}}$
+决策边界
+以0.5作为阈值
$\vec{w} · \vec{x}+b = 0$称为决策边界
+也适用于多项式回归
+成本函数
+如果使用平方误差成本函数
定义$J(w,b)=\frac{1}{m}\sum_{i-1}^{m}L(f_{w,b}(x^{(i)},y^{(i)})$
+其中
+$L(f_{w,b}(x^{(i)},y^{(i)})=-log(f_{w,b}(x^{(i)})) \quad if \quad y^{(i)}=1$
+$L(f_{w,b}(x^{(i)},y^{(i)})=-log(1-f_{w,b}(x^{(i)})) \quad if \quad y^{(i)}=0$
+简化成本函数
+$L(f_{w,b}(x^{(i)},y^{(i)})=-y^{(i)} log(f_{w,b}(x^{(i)})) - (1-y^{(i)})log(1-f_{w,b}(x^{(i)}))$
+得到
+$J(w,b) = -\frac{1}{m} (y^{(i)} log(f_{w,b}(x^{(i)})) + (1-y^{(i)})log(1-f_{w,b}(x^{(i)})))$
+使得成本函数是凸函数
梯度下降
+对导数项分别求导
+$\frac{\partial{J(w,b)}}{\partial{w}} = \frac{1}{m} \sum_{i=1}^{m} (f(x^i)-y^i)x^i$
+$\frac{\partial{J(w,b)}}{\partial{b}} = \frac{1}{m} \sum_{i=1}^{m} (f(x^i)-y^i)$
+其中$f(x^i) = \frac{1}{1+e^{-(\vec{w} · \vec{x}+b)}}$
+可以使用相似方法进行特征缩放
+过拟合问题
+过拟合虽然可能完美通过训练集
解决过拟合