|
|
|
@ -1,6 +1,10 @@
|
|
|
|
|
# 必备数学基础
|
|
|
|
|
|
|
|
|
|
### 函数
|
|
|
|
|
### 高等数学基础
|
|
|
|
|
|
|
|
|
|
#### 函数
|
|
|
|
|
|
|
|
|
|
> **WHAT**:后面基本都是用函数,这里先理解一下函数的概念
|
|
|
|
|
|
|
|
|
|
**函数的定义**:
|
|
|
|
|
|
|
|
|
@ -23,7 +27,7 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
### 方向导数(引出梯度)
|
|
|
|
|
#### 方向导数(引出梯度)
|
|
|
|
|
|
|
|
|
|
> 在函数定义域的内点,对某一*方向*求导得到的*导数*。
|
|
|
|
|
>
|
|
|
|
@ -53,8 +57,10 @@
|
|
|
|
|
|
|
|
|
|
![1603800171837](assets/1603800171837.png)
|
|
|
|
|
|
|
|
|
|
### 梯度
|
|
|
|
|
#### 梯度
|
|
|
|
|
|
|
|
|
|
> **WHAT**:简而言之,就是找到函数在某点沿着哪个梯度方向变化最大(小),也就是怎样的方向对数据逼近所需要的值最好。
|
|
|
|
|
>
|
|
|
|
|
> 是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此*梯度*的方向)变化最快,变化率最大(为该*梯度*的模)。
|
|
|
|
|
|
|
|
|
|
函数:z = f(x,y)在平面域内具有连续的一阶偏导数,对于其中每个点P(x,y)都有向量![1603800802065](assets/1603800802065.png)则其称为函数点P的梯度。
|
|
|
|
@ -95,6 +101,10 @@
|
|
|
|
|
|
|
|
|
|
### 微积分
|
|
|
|
|
|
|
|
|
|
#### 微积分基本理论
|
|
|
|
|
|
|
|
|
|
> **WHAT**:前面说到,机器学习当中,求解很难或者没有解,而微积分也是一个用简单的方式,求一个与实际情况最接近的答案。
|
|
|
|
|
>
|
|
|
|
|
> 很多的微分积起来
|
|
|
|
|
|
|
|
|
|
如何求A面积的值
|
|
|
|
@ -144,7 +154,19 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
### 矩阵和特征
|
|
|
|
|
### 泰勒公式
|
|
|
|
|
|
|
|
|
|
> **what**:用简单、熟悉的多项式来近似替代复杂的函数。
|
|
|
|
|
>
|
|
|
|
|
> 一个概念可以自己去找找,需要就找我,我再把内容加上
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
### 线性代数基础
|
|
|
|
|
|
|
|
|
|
#### 矩阵和特征
|
|
|
|
|
|
|
|
|
|
> **WHAT**:人工智能领域,数据基本是矩阵形式,而矩阵的每列(一般是除开首列),称为特征
|
|
|
|
|
|
|
|
|
|
**矩阵**:
|
|
|
|
|
|
|
|
|
@ -168,7 +190,7 @@
|
|
|
|
|
|
|
|
|
|
> 同型矩阵:行列相同。矩阵相等:行列相同且里面的值一样
|
|
|
|
|
|
|
|
|
|
**向量内积**:
|
|
|
|
|
#### 向量内积
|
|
|
|
|
|
|
|
|
|
- 设有n维向量:![1603802689962](assets/1603802689962.png)
|
|
|
|
|
|
|
|
|
@ -177,7 +199,9 @@
|
|
|
|
|
- 对称性:[x, y] = [y, x]
|
|
|
|
|
- 线性性质:[λx, y] = λ[x, y], [x + y, z] = [x, z] + [y, z]
|
|
|
|
|
|
|
|
|
|
### SVD矩阵分解
|
|
|
|
|
#### SVD矩阵分解
|
|
|
|
|
|
|
|
|
|
> **WHAT**:为了让数据的呈现更好,且不破坏数据的原始表达
|
|
|
|
|
|
|
|
|
|
数据行列可能很大,如电商行业100万客户(行),有1万的商品(特征),用一组数据表达就是
|
|
|
|
|
|
|
|
|
@ -194,7 +218,9 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
### 离散和连续型数据
|
|
|
|
|
### 随机变量
|
|
|
|
|
|
|
|
|
|
#### 离散和连续型数据
|
|
|
|
|
|
|
|
|
|
![1603623698138](assets/1603623698138.png)
|
|
|
|
|
|
|
|
|
@ -226,7 +252,7 @@
|
|
|
|
|
|
|
|
|
|
> 还有一种方法是把每个值划分在不同区间,变成离散型,但如果有新数据进来就要再划分区间导致区间越来越多。
|
|
|
|
|
|
|
|
|
|
### 简单随机抽样
|
|
|
|
|
#### 简单随机抽样
|
|
|
|
|
|
|
|
|
|
抽取的样本满足两点
|
|
|
|
|
|
|
|
|
@ -236,9 +262,9 @@
|
|
|
|
|
|
|
|
|
|
![1603790015180](assets/1603790015180.png)
|
|
|
|
|
|
|
|
|
|
### 极大似然估计
|
|
|
|
|
#### 极大似然估计
|
|
|
|
|
|
|
|
|
|
> 找到最有可能的那个
|
|
|
|
|
> **WHAT**:找到最有可能的结果
|
|
|
|
|
|
|
|
|
|
1. 构造似然函数:L(θ)
|
|
|
|
|
|
|
|
|
@ -264,7 +290,7 @@
|
|
|
|
|
- 令![1603802263577](assets/1603802263577.png)
|
|
|
|
|
- 解得 λ 的极大似然估计值为 ![1603802356318](assets/1603802356318.png)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
### 概率论基础
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|