diff --git a/必备数学基础.md b/必备数学基础.md index 7b2a3a9..63a8e56 100644 --- a/必备数学基础.md +++ b/必备数学基础.md @@ -1,6 +1,10 @@ # 必备数学基础 -### 函数 +### 高等数学基础 + +#### 函数 + +> **WHAT**:后面基本都是用函数,这里先理解一下函数的概念 **函数的定义**: @@ -23,7 +27,7 @@ -### 方向导数(引出梯度) +#### 方向导数(引出梯度) > 在函数定义域的内点,对某一*方向*求导得到的*导数*。 > @@ -53,8 +57,10 @@ ![1603800171837](assets/1603800171837.png) -### 梯度 +#### 梯度 +> **WHAT**:简而言之,就是找到函数在某点沿着哪个梯度方向变化最大(小),也就是怎样的方向对数据逼近所需要的值最好。 +> > 是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此*梯度*的方向)变化最快,变化率最大(为该*梯度*的模)。 函数:z = f(x,y)在平面域内具有连续的一阶偏导数,对于其中每个点P(x,y)都有向量![1603800802065](assets/1603800802065.png)则其称为函数点P的梯度。 @@ -95,6 +101,10 @@ ### 微积分 +#### 微积分基本理论 + +> **WHAT**:前面说到,机器学习当中,求解很难或者没有解,而微积分也是一个用简单的方式,求一个与实际情况最接近的答案。 +> > 很多的微分积起来 如何求A面积的值 @@ -144,7 +154,19 @@ -### 矩阵和特征 +### 泰勒公式 + +> **what**:用简单、熟悉的多项式来近似替代复杂的函数。 +> +> 一个概念可以自己去找找,需要就找我,我再把内容加上 + + + +### 线性代数基础 + +#### 矩阵和特征 + +> **WHAT**:人工智能领域,数据基本是矩阵形式,而矩阵的每列(一般是除开首列),称为特征 **矩阵**: @@ -168,7 +190,7 @@ > 同型矩阵:行列相同。矩阵相等:行列相同且里面的值一样 -**向量内积**: +#### 向量内积 - 设有n维向量:![1603802689962](assets/1603802689962.png) @@ -177,7 +199,9 @@ - 对称性:[x, y] = [y, x] - 线性性质:[λx, y] = λ[x, y], [x + y, z] = [x, z] + [y, z] -### SVD矩阵分解 +#### SVD矩阵分解 + +> **WHAT**:为了让数据的呈现更好,且不破坏数据的原始表达 数据行列可能很大,如电商行业100万客户(行),有1万的商品(特征),用一组数据表达就是 @@ -194,7 +218,9 @@ -### 离散和连续型数据 +### 随机变量 + +#### 离散和连续型数据 ![1603623698138](assets/1603623698138.png) @@ -226,7 +252,7 @@ > 还有一种方法是把每个值划分在不同区间,变成离散型,但如果有新数据进来就要再划分区间导致区间越来越多。 -### 简单随机抽样 +#### 简单随机抽样 抽取的样本满足两点 @@ -236,9 +262,9 @@ ![1603790015180](assets/1603790015180.png) -### 极大似然估计 +#### 极大似然估计 -> 找到最有可能的那个 +> **WHAT**:找到最有可能的结果 1. 构造似然函数:L(θ) @@ -264,7 +290,7 @@ - 令![1603802263577](assets/1603802263577.png) - 解得 λ 的极大似然估计值为 ![1603802356318](assets/1603802356318.png) - +### 概率论基础