You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

44 KiB

必备数学基础

高等数学基础

函数

WHAT:后面基本都是用函数,这里先理解一下函数的概念

函数的定义

  • y = f(x) 其中x是自变量y是因变量。y随着x变化

几种特性

奇偶性、周期性、单调性(如下图)

1603799800751

极限

  • 按照一定次数排列的数x1x2...xn其中xn叫做通项
  • 对于数列xn,当n无限增大时其通项无限接近于一个常数A则称该数列以A为极限或称数列收敛于A。

导数

  • 都有对应的结果,不用死记硬背,查就行了,如(C)' = 0 或者(sin x)' = cos x

方向导数(引出梯度)

在函数定义域的内点,对某一方向求导得到的导数

常规数学中,所有问题都有一个解。而机器学习当中,求解很难或者没有解,我们只能不断逼近这个最优解。

问题一:蚂蚁沿着什么方向跑路不被火烧,能活下来(二维平面)

有个坐标轴x,y,(0,0)处着火,蚂蚁应该怎么走

蚂蚁沿着任意方向都可以活最优的是沿着对角方向Lz是函数变化也就是图中的φ。

三维平面的方向导数公式

1603799859450

求一个方向导数具体的值

求函数1603800015017在点P(1,0)处沿着从点P(1,0)到点Q(2,-1)的方向的方向导数。

1603800127515

所求方向导数

1603800171837

梯度

WHAT:简而言之,就是找到函数在某点沿着哪个梯度方向变化最大(小),也就是怎样的方向对数据逼近所需要的值最好。

是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。

函数z = f(x,y)在平面域内具有连续的一阶偏导数对于其中每个点P(x,y)都有向量1603800802065则其称为函数点P的梯度。

1603800856376

1603800888757是方向L上的单位向量

1603800922280

1603800960729

根据上面的梯度导数,和方向导数的区别就在多了个cosθθ充当梯度和方向导数之间的关系

只有当1603801027540才有最大值

函数在某点的梯度是一个向量,它的方向与方向导数最大值取得的方向一致。

其大小正好是最大的方向导数

梯度图

注意,只有θ=0cos导数才能=1梯度才能取得最大值也就是那个方向。而沿着反方向就是最小值也就是梯度下降。

求一个具体值,最大梯度方向和最小梯度方向

1603800305729求grad u并求在点M(0,1,-1)处方向导数的最大(小)值

1603800371917

1603800394319

1603800457473

注:得出的结果(-1,0,2),求解:((-1^2) + (0^2) + (-2^2)) = √5前面都是x的平方所以结果也需要开根号。

微积分

微积分基本理论

WHAT:前面说到,机器学习当中,求解很难或者没有解,而微积分也是一个用简单的方式,求一个与实际情况最接近的答案。

很多的微分积起来

如何求A面积的值

1603589223245

以直代曲

  • 对于矩形,我们可以轻松求得其面积,能否用矩形代替曲线形状呢?

  • 应该用多少个矩形来代替?

四个小矩形和九个小矩形

越小的矩形,越覆盖,然后求每个矩形的面积。

面积的由来

  • 在ab之间插入若干个点这样就得到n个小区间。
  • 每个小矩形面积为:1603801255298近似得到曲线面积1603801287337
  • 当分割无限加细,每个小区间的最大长度为λ,此时λ → 0
  • 曲边面积:1603801393606

1603688411669

注意每个小区间的最大长度为λ而λ无限接近于0时那么曲边的面积我们就可以得出当然这里的近似表达是极限无限接近的极限。

求和

我们需要尽可能的将每一个矩形的底边无穷小

莱布尼茨为了体现求和的感觉把S拉长了简写成1603790307464

1603765637923

将上面的所有矩阵求和,∫ = sum求和的意思

定积分:

1603790249795总和S总数趋于确定的极限l则称极限l为函数f(x)在曲线[a,b]上的定积分

1603765921296

泰勒公式

what:用简单、熟悉的多项式来近似替代复杂的函数。

一个概念可以自己去找找,需要就找我,我再把内容加上

线性代数基础

矩阵和特征

WHAT:人工智能领域,数据基本是矩阵形式,而矩阵的每列(一般是除开首列),称为特征

矩阵

拿到数据后,数据就长如下样子,有行有列

1603615232363

左图√表示A可以到B和C如右上图再把√号改成0/1以存储在数据里面就如右下图

几种特别的矩阵

1603790184301

上三角部分有值,和下三角部分有值

1603790200046

对角阵:对角有值且可以是任意值,单位矩阵:对角有值且相同

1603790209907

同型矩阵:行列相同。矩阵相等:行列相同且里面的值一样

向量内积

  • 设有n维向量1603802689962

  • [x, y] = x1 y1 + x2 y2 + ... + xn yn此时我们就把[x,y]叫做向量的内积。

  • 1603802766445

    • 对称性:[x, y] = [y, x]
    • 线性性质:[λx, y] = λ[x, y], [x + y, z] = [x, z] + [y, z]

SVD矩阵分解

WHAT:为了让数据的呈现更好,且不破坏数据的原始表达

数据行列可能很大如电商行业100万客户有1万的商品特征用一组数据表达就是

客户ID 商品1 商品2 ... 商品1万
xxx1 1表示买过一次 0 ... 5
xxx2 0 1 ... 0
... 5 10 ... 0
xxx100万 ... ... ... ...

那么来一个客户就是直接多1万列表示这样的数据是非常稀疏的我们可以分解成A表100万客户100个特征而这100个特征对应这那B表的1万个商品也就是一个表变成A表和B表且两者关联。

这就需要用到SVD矩阵。

随机变量

离散和连续型数据

1603623698138

离散型是有限多个的比如10个台阶只可能是其中的一个台阶一个确定的结果。

连续型则可能是任意的值,没办法确定是哪个台阶。

离散型随机变量概率分布

  • 找到离散型随机变量X的所有可能取值

  • 得到离散型随机变量取这些值的概率

    1603767423885

    1603790123695为离散型随机变量的概率函数

连续型随机变量概率分布

  • 密度:一个物体,如果问其中一个点的质量是多少?这该怎么求?

    由于这个点实在太小了那么质量就为0了但是其中的一大块是由

    很多个点组成的,这时我们就可以根据密度来求其质量了

  • X为连续随机变量X在任意区间(a,b]上的概率可以表示为:

    1603790041924其中f(x)就叫做X的概率密度函数也可以简单叫做密度

还有一种方法是把每个值划分在不同区间,变成离散型,但如果有新数据进来就要再划分区间导致区间越来越多。

简单随机抽样

抽取的样本满足两点

  1. 样本X1X2...Xn是相互独立的随机变量。

  2. 样本X1X2...Xn与总体X同分布。

    1603790015180

极大似然估计

WHAT:找到最有可能的结果

  1. 构造似然函数L(θ)

  2. 对似然函数取对数lnL(θ)

    做log后logAB = logA + logB加法更好求

  3. 求偏导1603801570385

  4. 求解得到 θ 值

    1603768031523

第一步构造函数;第二步取对数,对数后的值容易取且极值点还是那个位置;第三步求偏导;得到θ

求一个具体的值

设 X 服从参数 λ(λ>0) 的泊松分布x1,x2,...,xn 是来自 X 的一个样本值,求λ的极大似然估计值

  • 因为X的分布律为1603802012244
  • 所以 λ 的似然函数为1603802070909
  • 1603802228693
  • 1603802263577
  • 解得 λ 的极大似然估计值为 1603802356318

概率论基础

概率与频率

  • 抛硬币和王者游戏击杀数,这些都是随机的
  • 其特点:可以在相同条件下重复执行、事先知道可能出现的结果、开始前并不知道这一次的结果
  • 随机试验E的所有结果构成的集合称为E的样本空间 S = {e}
    • 抛硬币S = {正面,反面}
    • 击杀数S = {0,1,2,...,n}

频率与概率

  • A在这N次试验中发生的频率1604149872208,其中1604149927547发生的次数(频数)n—总试验次数。

  • 1604150013285的稳定值P定义为A的概率P(A) = p

  • 次数越多则结果越稳定

古典概型

  • 定义试验E中样本点是有限的出现每一样本点的概率是相同。

    P(A) = A所包含的样本点数 / S中的样本点数

  • 一袋中有8个球编号为1 - 8其中1 - 3号为红球4 - 8 为黄球设摸到每一球的可能性相等从中随机摸一球记A={摸到红球}求P(A)。

    • S={1,2,...,8}
    • A={1,2,3} => P(A) = 3/8

条件概率

WHAT:在一定条件下的某个事件发生的概率

  • 有个不放回的抽奖一共三种可能性两个不中奖一个中奖也就是3个人抽奖必有一个中奖所有可能为{YNN, NYN, NNY}N表示不中间Y表示中间
  • 第一名没中则A = {NYN, NNY},第三中的概率1604157828202
  • 样本空间变了,概率也变了

独立性

WHAT:两个或多个随机事件的发生概率不相互影响。

例题:

甲、乙两人同时向一个目标射击甲击中率为0.8乙击中率为0.7,求目标被击中的概率。

设A={甲击中}B={乙击中}C={目标被击中}

C = A BP(C) = P(A) + P(B) - P(AB)1604327284928

∵ 甲、乙同时射击,其结果互不影响,

∴ A, B相互独立

P(C) = 0.7+0.8-0.56 = 0.94

二维随机变量

WHAT:关心两个指标并了解其相互关系

为了了解学生的身体状况观察学生的身高X和体重Y及两者的相互关系

  • 有二维离散型随机变量
  • 有二维连续型随机变量

期望

WHAT:期望达到什么,反映了随机变量的取值水平

  • 离散型随机变量X的分布律为1604328684174

    若级数1604328741718绝对收敛则称其为随机变量X的数学期望1604328798712

    Xk是每种情况Pk是每种情况对应的概率

    • 投骰子的期望则是1 / (1/6) + 2 / (1/6) + ... + 6 / (1/6) = 21 / 6 = 3.5
  • 连续型随机变量X的概率密度为f(x),若积分1604329061894绝对收敛,则称积分的值1604329099005为随机变量X的数学期望。1604329148959

    • 随机变量X满足于均匀分布求其期望。

      1604329225421=>1604329263954

      1604329379855

方差

衡量随机变量相对于数学期望的分散程度

贝叶斯拼写纠错

问题:我们看到用户输入了一个不在字典中的单词,我们需要去猜测用户到底想输入的是什么

  • P(猜测想输入的单词|用户实际输入的单词)
  • 用户实际输入的单词记为DD代表Data即观测数据
  • 猜测1P(h1|D)猜测2P(h2|D)猜测3P(h3|D) ...
  • P(h|D) = P(h) * P(D|h) / P(D)

p(h) 在字典里某个词出现的次数占总体的比(先验概率)

P(D|h)指输入一个词,输错的概率多大;

P(D)客户输入的值D可以约掉

贝叶斯方法计算P(h|D) = P(h) * P(D|h) P(h)是特定猜测的先验概率。

比如用户输入tlp到底是top还是tip当最大似然不能作出决定性判断时可能两边都是一半可能性这是先验概率就可以插手给出指示告诉我们一般来说top出现的程度要高许多所以他更可能想打的是top。

垃圾邮件过滤

模型比较理论

  • 最大似然最符合观测数据的即P(D|h)最大的)最有优势
  • 奥卡姆剃刀P(h)较大的模型有较大的优势
  • 抛一枚硬币观察到的是“字”根据最大似然估计的理念我们应该猜测这枚硬币抛出“字”的概率是1因为这个才能最大化P(D|h)的猜测

实例:

  • 问题:给定一封邮件,判定它是否属于垃圾邮件

    D来表示这封邮件注意D是由N个单词组成。

    我们用h+表示垃圾邮件h-表示正常邮件

  • P(h+|D) = P(h+) * P(D|h+) / P(D)

    P(h-|D) = P(h-) * P(D|h-) / P(D)

    P(h+)是先验概率,只需要计算一个邮件库垃圾邮件和正常邮件的比例;

    P(D|h+) 垃圾邮件中目前这封邮件里面的词有多少个相似。D里面含有N个单词d1d2d3P(D|h+) =P(d1,d2,...,dn|h+)扩展P(d1|h+) * P(d2|d1,h+) * P(d3|d2,d1, h+)* ...垃圾邮件第一个词是d1的概率 * 垃圾邮件第一个词是d1 第二个词是d2的概率 * 垃圾邮件第一个词是d1第二个词是d2第三个词是d3的概率...

  • 上面的公式太麻烦了例用朴素贝叶斯简化朴素贝叶斯假设特征之间是独立互不影响的。这么假设完d1d2d3完全没关系了

    简化为P(d1|h+) * P(d2|h+) * P(d3|h+) * ...

  • 对于P(d1|h+) * P(d2|h+) * P(d3|h+) * ... 只要统计di这个词在垃圾邮件中出现的概率。如全部100封邮件中di个词出现的概率

  • 再回到最上面 P(h+|D) = P(h+) * P(D|h+) / P(D)P(D)正常异常相同一起省略P(h+)是先验概率P(D|h+) 是该封信的每个词在垃圾邮件中出现的概率,这样就可以得到结果了

数据科学的几种分布

正态分布

代表宇宙中大多数的运转状态,大量的随机变量被证明是正态分布的。

若随机变量X服从一个数学期望为μ、方差为σ^2的正态分布记为N(μ, σ^2)。其概率密度函数为正态分布的期望值μ决定了其位置,其标准差σ决定了分别的幅度。当μ = 0σ = 1时的正态分布是标准正态分布。

  • 公式1604500626232

    μ是均值

    σ是标准差

正态分布图

二项式分布

结果只有两个

投篮只有进球或者不进球进球概率可能是0.5也可能不是,而不进球概率 = 1 - 进球概率。

二项式得属性包括:

  • 每个试验都是独立的。
  • 试验中的结果只有两种可能:进球和不进球。
  • 总共进行了n次相同得试验。
  • 所有试验进球和不进球的概率是相同的。

公式1604501372142

N * p表示分布的均值

泊松分布

适用于在随机时间和空间上发生事件的情况,其中,我们只关注事件发生的次数,如:

  • 医院在一天内录制的紧急电话的数量
  • 某个地区在一天内报告的失窃的数量
  • 在特定城市上报自杀的人数

当以下假设有效时,则称为泊松分布

  • 任何一个成功的事件都不应该影响另一个成功的事件
  • 在短时间内成功的概率必须等于在更长时间内成功的概率
  • 时间间隔很小时,在给间隔时间内成功的概率趋向于零

泊松分布中使用的符号

  • λ是事件发生的速率
  • t是时间间隔的长
  • X是该时间间隔内的事件数
  • 其中X称为泊松随机变量X的概率分布称为泊松分布
  • 令μ表示长度为t的间隔中的平均事件数。μ = λ * t

公式1604502244229

求一个具体的值

  • 已知平均每小时出生3个婴儿请问接下来的两小时一个婴儿都不出生的概率

    描述某段时间内,事件具体的发生概率

    1604502577809

  • P表示概率N表示某种函数关系t表示时间n表示数量1小时内出生3个婴儿的概率就表示为P(N(1)=3),λ是事件的频率。

    1604502507252

均匀分布

对于骰子来说结果是1到6得到任何一个结果的概率是相等的这就是均匀分布的基础。与伯努利分布不同均匀分布的所有看你结果的n个数都是相等的。

如果变量X是均匀分布的则密度曲线可以表示为1604580275940 1604580295860

均匀分布的曲线:

1604580312335

均与分布曲线是一个矩形,又称为矩形分布。

求一个具体的值

花店每天销售的花束数量是均匀分布的最多40最少为10求日销量在15到30之间的概率。

日销量在15到30之间的概率为(30-15)*(1/(40-10)) = 0.5

也可求日销量大于20的概率为 0.667

卡方分布

通过小数量的样本容量取预估总体容量的分布情况

卡方验证统计样本的实际观测值与理论推断值之间的偏离程度

公式1604582754737

where 1604582794426

Beta分布

一个概率的概率分布,当不知道一个东西的具体概率时,可以给出所有概率的可能性大小

举一个简单的例子,熟悉棒球运动的都知道有一个指标就是棒球击球率(batting average)就是用一个运动员击中的球数除以击球的总数我们一般认为0.266是正常水平的击球率而如果击球率高达0.3就被认为是非常优秀的。

现在有一个棒球运动员我们希望能够预测他在这一赛季中的棒球击球率是多少。你可能就会直接计算棒球击球率用击中的数除以击球数但是如果这个棒球运动员只打了一次而且还命中了那么他就击球率就是100%了这显然是不合理的因为根据棒球的历史信息我们知道这个击球率应该是0.215到0.36之间才对。

最好的方法来表示这些经验在统计中称为先验信息就是用beta分布这表示在我们没有看到这个运动员打球之前我们就有了一个大概的范围。beta分布的定义域是(0,1)这就跟概率的范围是一样的。

接下来我们将这些先验信息转换为beta分布的参数我们知道一个击球率应该是平均0.27左右而他的范围是0.21到0.35,那么根据这个信息,我们可以取α=81,β=219。

之所以取这两个参数是因为:

  • beta分布的均值是从图中可以看到分布主要落在(0.2,0.35)间,这是经验中得出的合理范围
  • 在这个例子中x轴就表示各个击球率的取值x对应的y值就是这个击球率对应的概率。也就是beta分布可以看作一个概率的概率分布

1604584217722

  • α和β是一开始的参数在这里是81和219。当α增加了1击中一次。β没有增加没有漏球。这就是我们新的beta分布Beta(81+1,219)。
  • 当得到了更多的数据假设一共打了300次其中击中100200次没击中那么新的分布就是Beta(81+100,219+200)

1604584439405

根据公式 α / (α+β) = (82+100) / (82+100+219+200) = 0.303,命中率提升了,蓝色曲线右移。

核函数

核函数的目的

最基本的出发点是升维,使得数据更好一些,更多一些

核函数是SVM支持向量机当中最重要的函数

出发点

  • 如果数据有足够多的可利用的信息,那么可以直接做想要的事情。但是现在没有那么多的信息,我们可不可以在数学上进行一些投机呢?

  • 低维(比如我只知道一个人的年龄,性别,那我们能对他有更多了解吗)

    高维(比如我知道从他出生开始,做过哪些事,赚过哪些钱等)

  • 如果我们对数据更好的了解,得到的结果也会更好(机器也是一样)

1604585252689

上图中,我们很难说画一个圈来区分红点和绿点,一般画直线或者曲线,如果我们把二维转换成三维,我们只需要一个面就可以切分开了,低维很难解决的问题,高维能很容易解决。核函数就是解决这么一个问题

低维的数据变成高维后,数据量和计算量也会有所增加,引出下面的解决方法。

线性核函数

  • Linear核函数对数据不做任何变换。1604671995246

  • 何时用,特征已经比较丰富,样本数据量巨大,需要进行实时得出结果的问题

    • 越复杂的模型,针对的数据集越窄,泛化能力越差,且处理速度很慢,当然越复杂也代表着越强大。
  • 不需要设置任何参数,直接就可以用

多项式核函数

  • 需要给定3个参数1604673235564

    Q越大越复杂

  • 一般情况下2次的更常见1604673291749

  • γ(gama)对内积进行缩放,ζ(zeta)控制常数项Q控制高次项。

    其特例就是线性核函数

核函数实例

还是先从一个小例子来阐述问题。假设我们有俩个数据,x=(x1,x2,x3);y=(y1,y2,y3)此时在3D空间已经不能对其进行线性划分那么我们通过一个函数将数据映射到更高维的空间比如9维的话那么(x)=(x1x2,x1x2,x1x3,x2x1,X2x2,x2x3,x3x1,x3x2,x3x3),由于需要计算内积,所以在新的数据在9维空间需要计算<fx),f(y)>的内积,需要花费O(n^2)。

再具体点令x = (1,2,3); y = (4,5,6), 那么f(x) = (1,2,3,2,4,6,3,6,9)计算方式如上的x1x2内积相乘f(y) = (16,20,24,20,25,36,24,30,36)(此时<f(x),fy)>=16+40+72+40+100+180+72+180+324=1024。

似乎还能计算,但是如果将维数扩大到一个非常大数时候,计算起来可就不是一丁点问题了。

但是发现,K(x,y)=(<x,y>)^2

K(x, y) = (4+10+18)^2 = 32^2 = 1024

俩者相等,K(x,y)=(<x,y>)^2=<f(x),f(y)>但是K(x,y)计算起来却比<f(x),f(y)>简单的多

也就是说只要用K(x,y)来计算,,效果和<f(x),f(y)>是一样的,但是计算效率却大幅度提高了,如:K(x,y)是O(n),而<f(x),f(y)>是0(n^2)。

所以使用核函数的好处就是,可以在一个低维空间去完成高维度(或者无限维度)样本内积的计算比如K(xy)=(4+10+18)^2的3D空间对比<f(x),f(y)> = 16+40+72+40+100+180+72+180+324的9D空间。

高斯核函数

最常用的,最好用的核函数

一维的高斯1604673996642

1604674036293

二维的高斯1604674075933

1604674100250

公式:1604674144599

  • 看起来像两个样本点之间的距离的度量如果X和Y很相似那么结果也就是1如果不相似那就是0。

  • 这样做的好处,特征多了无穷个,得到无穷维。

    1604674300763

参数的影响

高斯核函数看起来不错,但是它对参数是极其敏感的,效果差异也很大

σ^2 = 0.51604674774921

σ越小,顶部越尖,我们计算的是样本到样本点的距离,也就是尖尖到底部的距离,底部到顶部变化越快,层次更分明,那么特征也就越明显,识别的越容易,风险也会比较高

σ^2 = 31604674941094

σ越大,层次越平衡,也就是大家的特征都差不多,那么识别也越不容易,但是风险也相对低

决策边界如下图,σ越小,切分越厉害,越容易过拟合

160467511973616046751197361604675249968

原σ在下面,注意上面的公式||x - x'||^2 / 2σ^2这里移上去了所以前面加上负号第一个是负1第二个是负10第三个是负100

熵和激活函数

熵的概念

  • 物体内部的混乱程度。(一件事发生的不确定性)

  • 1604729221090

  • 所有的概率值都在0-1之间那么最终H(X)必然也是一个正数

熵的大小意味着

  • 假如有100个商品那么选到某个商品的概率非常低而如果商品只有几个那么选到某个商品的概率非常高
  • 如公式商品越多所有log后的值就越高且公式是求和那么值就更大

想象一个分类任务,我们希望得到如下的那种结果

  • A[1,1,1,1,1,1,1,1,1,1,1]
  • B[1,2,3,4,5,3,4,2,2,1,1]

显然A集合才是我们希望得到的结果它的熵值表现是非常小的。

比如我们手上有一份数据,有两个指标性别和资产,判断是否给该用户贷款,性别和资产分组完后,如果资产熵值小,那么我们可以认为资产对是否可以贷款的影响更重要。

激活函数Sigmoid函数

  • Sigmoid是常用的非线性激活函数
  • 能够把连续值压缩到0-1区间不断的下降
  • 缺点:杀死梯度,非原点中心对称

1604731377718

解决当正负样本不好分类的时候无法用线性分割那么用一个概率值去定义一个样本是否是正负比如大于0.5定义为正,否则是负。

又如5分类任务时我们可以输出成以下形式

样本 类别1 类别2 类别3 类别4 类别5
A 0.1 0.9 0.3 0.6 0.1
B 0.9 0.1 0.1 0.1 0.1
C 0.1 0.1 0.1 0.1 0.6

如上所示我们可以认为A是类别2和类别4的B是类别1的C是类别5的。

激活函数的问题

杀死梯度

之前我们计算梯度下降时当值无限接近于边缘如X轴那么梯度就为0也就没办法应用特别是神经网络是串行的结果是累乘的求梯度这样其中一个为0时那么乘以0就全部结果为0

非原点中心对称

原点对称是0的位置

Sigmoid没有负数都是大于0的当梯度更新的时候要么全为负要么全为正不会有正有负也就是一根筋的往一个方向跑优化更新会产生阶梯式

1604732378732

那么更新就会慢,收敛效果一般

Tanh函数

  • 原点中心对称
  • 输出在-1到1直接
  • 梯度消失现象依然存在,会贴近边缘

1604732534318

ReLU函数

  • 公司简单使用
  • 解决梯度消失现象,计算速度更快

1604732635344

没有了梯度为0的地方

1604732590962

会直接把小于0的杀死

1604732707768

虚线是其它函数实现是relu可以看到relu函数收敛的非常快

但是上面还存在一个问题就是杀死小于0的神经元那么这些神经元就不会再更新它可能会存在作用所以改进后

Leaky ReLU

  • 解决了Rulu会杀死一部分神经元的情况

1604732878237

可以看到max里面最小值是0.01x,也就是不会直接杀死

回归分析

概述

相关分析是研究两个或多个以上的变量之间相关程度及大小的一种统计方法。

回归分析是寻找存在相关关系的变量间的数学表达式,并进行统计推断的一种统计方法。

在对回归分析进行分类时,主要有两种分析方式:

  • 根据变量的数目,可以分类一元回归、多元回归
  • 根据自变量与因变量的表现形式,分为线性和非线性

所以回归分析包括四个方向:一元线性回归分析、多元线性回归分析、一元非线性回归分析、多元非线性回归分析

1604746129638

曲线上的点,叫估计值(预测值),观测值也是真实值,观测值和估计值之间的差异叫残差。我们希望这个残差越小越好

回归分析的一般步骤:

  • 确认回归方程中解释变量和被解释变量
  • 确定回归模型建立回归方程
  • 对回归方程进行各种校验
  • 利用回归方程进行预测

回归方程的定义

  • 因变量被预测或被解释的变量用y表示
  • 自变量预测或解释因变量的一个或多个变量用x表示
  • 对于具有线性关系的两个变量,可以用一个方程来表示它们之间的线性关系
  • 描述因变量y如何以来自变量x和误差项ε的方程称为回归模型。

对于只涉及一个变量的一元线性回归模型可表示为:

1604758792278

  • y因变量
  • x自变量
  • β0表示截距
  • β1表示斜率
  • ε表示误差项反映除x和y之间的线性关系外的随机因素对y的影响

如何求出β0和β1

一元例子:

  • 人均收入是否会影响人均食品消费支出
  • 贷款余额是否影响到不良贷款
  • 航班正点率是否对顾客投诉次数有显著影响

回归方程

描述因变量y的期望值入喝依赖于自变量x的方程称为回归方程。根据一元线性回归模型的假设可以得到它的回归方程为

1604760128188

  • 如果回归方程中的参数已知对于一个给定的x值利用回归方程就能计算出y的期望值
  • 用样本统计量代替回归方程中的未知参数,就得到估计的回归方程,简称回归直线

误差项的定义

  • 误差ε是独立且具有相同的分布并服从均值为0方差为θ^2的高斯分布
  • 独立:张三和李四一起来贷款,他俩没关系
  • 同分布:他俩都是来同一银行,即我们假定的银行
  • 高斯分布:银行可能会多给,也可能会少给,但是绝大多数情况下浮动不会太大,极小情况下浮动大,符合正常情况

最小二乘法推导与求解

  • 预测值与误差1604821754843

  • 由于误差服从高斯分布1604821811796

  • 1式代入21604821879046

    什么样的θ和x相乘后得到最相近或者相同的y

  • 似然函数:1604821982496

    解释:什么样的参数和我们的数据组合后恰好是真实值

  • 对数似然:1604822042028

    解释:乘法难解,加法就容易了,对数里乘法可以转换成加法

  • 展开化简:1604822227025

    1604822258878

  • 目标:让似然函数越大越好

    1604822356847

    最小二乘法

参数的最小二乘法估计

对于回归直线关键在于求解参数常用高斯提出的最小二乘法它使因变量的观察值y与估计值之间的离差平方和达到最小来求解。

1604822532101

1604822559643

展开得:

1604822595998

求偏导可得:

1604822649659

求解:

1604822675575

回归方程求解小例子

实例70年代世界制造业总产量与世界制成品总出口量的变化关系如表

年度 总产量年增长率(%) x 总出口量年增长率(%) y
1970 4.0 8.5
1971 4.0 8.0
1972 8.5 10.5
1973 9.5 15.5
1974 3.0 8.5
1975 -1.0 -4.5
1976 8.0 13.5
1977 5.0 5.0
1978 5.0 6.0
1979 4.0 7.0

1604831603005

利用回归直线进行估计和预测:

  • 点估计利用估计的回归方程对于x的某一特定的值求出y的一个估计值就是点估计
  • 区间估计利用估计的回归方程对于x的一个特定值求出y的一个估计值的区间就是区间估计

估计标准误差的计算

为了度量回归方程的可靠性,通常计算估计标准误差。它度量观察值回绕着回归直线的变化程度或分散程度。

估计平均误差:

1604839042933

  • 公式中根号内的分母是n-2而不是n这是由于自由度为n-2。
  • 估计标准误差越大,则数据点围绕回归直线的分散程度就越大,回归方程的代表性越小。
  • 估计标准误差越小,则数据点围绕回归直线的分散程度越小,回归方程的代表愈大,其可靠性越高。

置信区间估计

1604839165325

在1—a置信水平下预测区间为

1604839285325

求一个具体的值

某企业从有关资料中发现广告投入和产品销售有密切的关系。近年该企业广告费和销售额资料如下表若2003年广告费为120万请用医院线性回归求2003年产品销售额的置信区间和预测区间α=0.05

年份 广告费x万元 销售额y百万元
1994 35 18
1995 52 25
1996 60 30
1997 72 38
1998 85 41
1999 80 44
2000 95 49
2001 100 52
2002 105 60

求解如下

  • 1604839519431
  • 1604839547186=-3.65 + 0.57 ×120 = 64.75
  • 1604839593386
  • 1604839622739=64.75±2.365 × 2.43 × 0.743=64.75 ± 4.2699
  • 1604839693312=64.72 ± 2.365 × 2.43 ×1.2459 = 64.75 ± 4.3516

结果图

1604839812051

影响区间宽度的因素:

  • 置信水平(1-a),区间宽度随置信水平的增大而增大
  • 数据的离散程度Se区间宽度随离程度的增大而增大样本容量
  • 区间宽度随样本容量的增大而减小
  • X0与X均值之间的差异随着差异程度的增大而增大

回归直线拟合优度

回归直线与各观测点的接近程度称为回归直线对数据的拟合优度

  • 总平方和SST:

    1604845380041

  • 回归平方和SSR

    1604845414040

  • 残差平方和SSE

    1604845448704

总平方和可以分解为回归平方和、残差平方和两部分SST = SSR + SSE

  • 总平方和SST反映因变量的 n 个观察值与其均值的总离差
  • 回归平方和SSR反映了y的总变差中由于x与y之间的线性关系引起的y的变化部分
  • 残差平方和SSE反映了除了x对y的线性影响之外的其他因素对y变差的作用是不能由回归直线来解释的y的变差部分

判定系数

回归平方和占总平方和的比例用R^2表示其值在0到1之间

  • R^2 == 0说明y的变好与x无关x完全无助于解释y的变差
  • R^2 == 1说明残差平方和为0拟合是完全的y的变化只与x有关

1604845790717

1604845818876

显著性校验

著性检验的主要目的是根据所建立的估计方程用自变量x来估计或预测因变量y的取值。当建立了估计方程后,还不能马上进行估计或预测,因为该估计方程是根据样本数据得到的它是否真实的反映了变量x和y之间的关系则需要通过检验后才能证实根。

据样本数据拟合回归方程时实际上就已经假定变量x与y之间存在着线性关系并假定误差项是一个服从正态分布的随机变量且具有相同的方差。但这些假设是否成立需要检验

显著性检验包括两方面:

  • 线性关系检验
  • 回归系数检验

线性关系检验

线性关系检验是检验自变量x和因变量y之间的线性关系是否显著或者说它们之间能否用一个线性模型来表示。

将均方回归(MsR)同均方残差(MsE)加以比较应用F检验来分析二者之间的差别是否显著。

  • 均方回归回归平方和SSR除以相应的自由度(自变量的个数K)
  • 均方残差残差平方和SSE除以相应的自由度(n-k-1)

H0β1 = 0所有回归系数与零无显著差异y与全体x的线性关系不显著

计算检验统计量F:

1604846120803

回归系数的显著性检验

回归系数显著性检验的目的是通过检验回归系数β的值与0是否有显著性差异来判断Y与X之间是否有显著的线性关系若β=0则总体回归方程中不含X项(即Y不随X变动而变动)因此变量Y与X之间并不存在线性关系若β≠0说明变量Y与X之间存在显著的线性关系

1604846273414是根据最小二乘法求出的样本统计量,服从正态分布;1604846356404

1604846273414的分布具有如下性质数学期望E(1604846273414)=1604846273414

标准差:1604846346057

由于δ未知需用其估计量Se来代替得到1604846273414的估计标准差

1604846442945

计算检验的统计量:1604846499957

线性关系检验与回归系数检验的区别

线性关系的检验是检验自变量与因变量是否可以用线性来表达而回归系数的检验是对样本数据计算的回归系数检验总体中回归系数是否为0

  • 在一元线性回归中,自变量只有一个,线性关系检验与回归系数检验是等价的
  • 多元回归分析中,这两种检验的意义是不同的。线性关系检验只能用来检验总体回归关系的显著性,而回归系数检验可以对各个回归系数分别进行检验

多元与曲线回归问题

经常会遇到某一现象的发展和变化取决于几个影响因素的情况,也就是一个因变量和几个自变量有依存关系的情况,这时需用多元线性回归分析。

  • 多远线性回归分析预测法,是指通过对两上或两个以上的自变量与变量的相关分析,建立预测模型进行预测和控制的方法

  • 多元线性回归预测模型一般式为

1604846770738

调整的多重判定系数

用样本容量n和自变量的个数k去修正R^2得到

1604925566590

  • 避免增加自变量而高估R^2

曲线回归分析

直线关系是两变量间最简单的一种关系曲线回归分析的基本任务是通过两个相关变量x与y的实际观测数据建立曲线回归方程以揭示x与y间的曲线联系的形式。

曲线回归分析最困难和首要的工作是确定自变量与因变量间的曲线关系的类型,曲线回归分析的基本过程:

  • 先将x或y进行变量转换
  • 对新变量进行直线回归分析、建立直线回归方程并进行显著性检验和区间估计
  • 将新变量还原为原变量,由新变量的直线回归方程和置信区间得出原变量的曲线回归方程和置信区

由于曲线回归模型种类繁多,所以没有通用的回归方程可直接使用。但是对于某些特殊的回归模型,可以通过变量代换、取对数等方法将其线性化,然后使用标准方程求解参数,再将参数带回原方程就是所求。

实例某商店各个时期的商品流通费率和商品零售额资料

商品零售额x万元 9.5 11.5 13.5 15.5 17.5 19.5 21.5 23.5 25.5 27.5
商品流通费率y% 6 4.6 4 3.2 2.8 2.5 2.4 2.3 2.2 2.1

散点图如下:

1604925978609

散点图显示出x与y的变动关系为一条递减的双曲线。

1604926073407

1604926082102

这样转换后,公式和线性公式是一样的

标准方程为1604926406229

将计算数据代入1604926439380

解得1604926455663

1604926463864= -0.4377 + 60.4x'

x' = 1/x 代入

1604926496771=-0.4377+1604926508213

多重共线性

回归模型中两个或两个以上的自变量彼此相关的现象

举例 x1={10,8,6,4}x2={5,4,3,2}那么x1是两倍的x2

多重共线性带来的问题有:

  • 回归系数估计值的不稳定性增强
  • 回归系数假设检验的结果不显著等

多重共线性检验的主要方法

  • 容忍度
  • 方差膨胀因子VIF

容忍度:

1604926618861

  • Ri是解释变量xi与方程中其它解释变量间的复相关系数
  • 容忍度在0~1之间越接近于0表示多重共线性越强越接近于1表示多重共线性越弱

方差膨胀因子

方差膨胀因子是容忍度的倒数

1604926821269

  • VIFi越大,特别是大于等于10说明解释变呈xi与方程中其他解释变量之间有严重的多重共线性
  • VIFi越接近1表明解释变量xi和其他解释变量之间的多重共线性越弱

Python工具包

统计分析库https://www.statsmodels.org/stable/index

anaconda自带

专门机器学习的包https://scikit-learn.org/stable/

anaconda自带含大量模型和分析工具等

https://scikit-learn.org/stable/auto_examples/

在这里,你可以随意选择你想要的图,复制代码换成自己的即可,无需再自己写代码

还有pandas和numpy是必不可少的

statsmodels回归分析

请跳转至notebook

高阶与分类变量实例

请跳转至notebook