From aae04c47c3f0c59d6b87f4c202de05e6131f093a Mon Sep 17 00:00:00 2001 From: HuoYu233 <1981270473@qq.com> Date: Tue, 28 Nov 2023 00:01:40 +0800 Subject: [PATCH] Site updated: 2023-11-28 00:01:39 --- CNAME | 1 + machine-learning-notes/index.html | 60 +++++++++++++++++++++++++++++-- 2 files changed, 59 insertions(+), 2 deletions(-) create mode 100644 CNAME diff --git a/CNAME b/CNAME new file mode 100644 index 0000000..6e1da27 --- /dev/null +++ b/CNAME @@ -0,0 +1 @@ +hawyior.top \ No newline at end of file diff --git a/machine-learning-notes/index.html b/machine-learning-notes/index.html index a7c69f0..81dd5bb 100644 --- a/machine-learning-notes/index.html +++ b/machine-learning-notes/index.html @@ -82,12 +82,12 @@

目录

-
  1. 1. Machine Learning
    1. 1.1. 线性回归
      1. 1.1.1. 梯度下降
      2. 1.1.2. 多元线性回归
+
  1. 1. Course1
    1. 1.1. 线性回归
      1. 1.1.1. 梯度下降
      2. 1.1.2. 多元线性回归
      3. 1.1.3. 特征缩放
      4. 1.1.4. 特征工程
    2. 1.2. 分类-逻辑回归
      1. 1.2.1. sigmoid函数
      2. 1.2.2. 决策边界
      3. 1.2.3. 成本函数
      4. 1.2.4. 梯度下降
      5. 1.2.5. 过拟合问题
-

Machine Learning

+

Course1

监督学习输入特征x输出目标y对数据集进行预测分为回归分类

无监督学习输入特征x没有目标y对数据集进行聚类预测

线性回归

@@ -120,6 +120,62 @@

多元线性回归

·为两个向量的点积(dot)$\vec{w} \cdot \vec{x} = w_1*x_1+w_2*x_2+....+w_n*x_n$

矢量化代码简洁运行速度快

PS: 正规方程某些机器学习库在后端求$w,b$的方法只适用于线性回归而且速度慢不要求掌握

+

特征缩放

+

加快梯度下降速度

+

避免特征的取值范围差异过大将其进行缩放

+ +

选择合适学习率从0.001开始每次乘以3对比$J(w,b)$与迭代次数的关系选择合适的$\alpha$

+

特征工程

+

利用直觉设计新特征通常通过转化与组合使模型做出更准确的预测

+

多项式回归可以添加$x^q$项更好地拟合数据图像$f(x)=w_1x^3+w_2x^2+w_1x^1+b$

+

分类-逻辑回归

+

解决二分类问题

+

sigmoid函数

+

输出介于$(0,1)$

+

$g(z)= \frac{1}{1+e^{-z}},z \subseteq R$

+

$f_{\vec{w},b}(\vec{x})=g(\vec{w} · \vec{x}+b) = \frac{1}{1+e^{-(\vec{w} · \vec{x}+b)}}$

+

决策边界

+

以0.5作为阈值$\vec{w} · \vec{x}+b \ge 0$取值1$\vec{w} · \vec{x}+b <0$取值0

+

$\vec{w} · \vec{x}+b = 0$称为决策边界

+

也适用于多项式回归

+

成本函数

+

如果使用平方误差成本函数有多个局部最小值$J(w,b)$是不是凸函数不适用于逻辑回归

+

定义$J(w,b)=\frac{1}{m}\sum_{i-1}^{m}L(f_{w,b}(x^{(i)},y^{(i)})$

+

其中

+

$L(f_{w,b}(x^{(i)},y^{(i)})=-log(f_{w,b}(x^{(i)})) \quad if \quad y^{(i)}=1$

+

$L(f_{w,b}(x^{(i)},y^{(i)})=-log(1-f_{w,b}(x^{(i)})) \quad if \quad y^{(i)}=0$

+

简化成本函数

+

$L(f_{w,b}(x^{(i)},y^{(i)})=-y^{(i)} log(f_{w,b}(x^{(i)})) - (1-y^{(i)})log(1-f_{w,b}(x^{(i)}))$

+

得到

+

$J(w,b) = -\frac{1}{m} (y^{(i)} log(f_{w,b}(x^{(i)})) + (1-y^{(i)})log(1-f_{w,b}(x^{(i)})))$

+

使得成本函数是凸函数便于实现梯度下降

+

梯度下降

+

对导数项分别求导

+

$\frac{\partial{J(w,b)}}{\partial{w}} = \frac{1}{m} \sum_{i=1}^{m} (f(x^i)-y^i)x^i$

+

$\frac{\partial{J(w,b)}}{\partial{b}} = \frac{1}{m} \sum_{i=1}^{m} (f(x^i)-y^i)$

+

其中$f(x^i) = \frac{1}{1+e^{-(\vec{w} · \vec{x}+b)}}$

+

可以使用相似方法进行特征缩放

+

过拟合问题

+

过拟合虽然可能完美通过训练集但是有高方差应该避免欠拟合高偏差和过拟合高方差

+

解决过拟合