没有合适的资源?快使用搜索试试~ 我知道了~
史上最直白的logistic regression教程整理稿
4星 · 超过85%的资源 需积分: 9 115 下载量 102 浏览量
2015-11-22
15:54:43
上传
评论 2
收藏 575KB PDF 举报
温馨提示
试读
12页
史上最直白的logistic regression教程整理稿。讲4篇博文整理成一个完整的pdf文档。且修改成学术语境。
资源推荐
资源详情
资源评论
Logistic Regression
November 22, 2015
1 LR是是是什什什么么么
LR是Logistic Regession的缩写,Logistic Regression是Logistic回归。 它从
样本集中学习拟合参数,将目标值拟合到(0,1)之间。
LR的Logistic,是因为它使用了Logisitic函数,也就是:
f(z) =
e
z
e
z
+ 1
=
1
1 + e
−z
(1)
2 线线线性性性回回回归归归
先从线性回归开始。
假如有n个样本,形如:
{x
1
, y
1
}, {x
2
, y
2
}, ..., {x
i
, y
i
}, ...{x
n
, y
n
} (2)
x
i
的值决定y
i
的值,也就是说x
i
是自变量,y
i
是因变量。
x
i
是列向量:
x
i
= [x
i,1
, x
i,2
, ..., x
i,j
, ..., x
i,k
]
T
(3)
k表示x
i
的第k维, x
i
∈ R
k×1
。x
i
表示成列向量或者行向量不重要,也可以
写成行向量:
x
i
= [x
i,1
, x
i,2
, ..., x
i,j
, ...x
i,k
] (4)
这只对推导过程的中间结果形式有一些影响,不影响最终结果。
拟合x
i
和y
i
的线性关系,就可以根据x
i
计算y
i
。线性拟合形如:
y
i
= w
0
+ w
1
x
i,1
+ w
2
x
i,2
+ ... + w
k
x
i,k
(5)
w
0
看起来不够和谐,跟其 他元素不太一样,为推导流畅,对x
i
做一点修
改,也就是将所有的x
i
重新表示成:
x
i
= [1, x
i,1
, x
i,2
, ..., x
i,j
, ..., x
i,k
]
T
(6)
这样,就得到:
y
i
= w
0
1 + w
1
x
i,1
+ w
2
x
i,2
+ ... + w
k
x
i,k
(7)
1
上式用向量的形式表示成:
y
i
= Wx
i
(8)
也就是说:
W = [w
0
, w
1
, ..., w
k
] (9)
注意, 此时的x
i
不再是k 维了, 而是k + 1维, 同样W 也是k + 1维,x
i
∈
R
(k+1)×1
,W ∈ R
1×(k+1)
。
如果在样本集上做拟合,就要让拟合误差 最小。 通常选择的 误差形式是
平方和误差,因为它求导方便,误差形式如下:
Loss =
1
2
n
X
i=1
(y
i
− W x
i
)
2
(10)
式(10)是二次函数,有最小值,当它取最小值时的W 就是最优拟合参数。
式(10)有精确解,但当样本量很大的时候,精确解的求解是有问题的,
比如矩阵是奇异阵不能求逆,所以通常由梯度下降法求解。
梯度下降法求解方式:先随机给W 赋值,然后沿着式(10)一阶偏导的反
方向计算下降量值,多次重复,最终(10)收敛到一个最小值。
W 更新公式就是:
W = W + 4W = W −
∂Loss
∂W
(11)
式(11)有些复杂,可以先写成求解元素w
j
的方式:
w
j
= w
j
+ 4w
j
= w
j
−
∂Loss
∂w
j
(12)
为便于理解,先推导
∂Loss
∂w
j
的求解,然后再将它向量化,最后转化成求
解W 。
2
∂Loss
∂w
j
= ∂
1
2
[(y
1
− (w
0
1 + w
1
x
1,1
+ ... + w
k
x
1,k
))
2
+
(y
2
− (w
0
1 + w
1
x
2,1
+ ... + w
k
x
2,k
))
2
+
... + ...
(y
n
− (w
0
1 + w
1
x
n,1
+ ... + w
k
x
n,k
))
2
]/∂w
i
= −[(y
1
− (w
0
1 + w
1
x
1,1
+ ... + w
k
x
1,k
))x
1,j
+
(y
2
− (w
0
1 + w
1
x
2,1
+ ... + w
k
x
2,k
))x
2,j
+
... + ...
(y
n
− (w
0
1 + w
1
x
n,1
+ ... + w
k
x
n,k
))x
n,j
]
= −
n
X
i=1
(y
i
− (w
0
1 + w
1
x
i,1
+ ... + w
k
x
i,k
))x
i,j
= −
n
X
i=1
(y
i
x
i,j
) +
n
X
i=1
W x
i
x
i,j
(13)
要把式(13)改写成矩阵形式。 令
Y = [y
1
, y
2
, ..., y
n
] (14)
X =
1 x
1,1
x
1,2
... x
1,j
... x
1,k
1 x
2,1
x
2,2
... x
2,j
... x
2,k
... ... ... ... ... ...
1 x
n,1
x
n,2
... x
n,j
... x
n,k
(15)
显然,X ∈ R
n×(k+1)
。
式(13)的最后一个等式中的
n
X
i=1
y
i
x
i,j
就可以写成
n
X
i=1
y
i
x
i,j
= Y
x
1,j
x
2,j
...
x
n,j
(16)
同理,该式中的
n
X
i=1
W x
i
x
i,j
3
剩余11页未读,继续阅读
资源评论
- dofaster2018-05-09不值这么多积分,都是博客上可以看到的东西未济20192018-12-18系统设定的积分。不是我设置的。
- zqxN2017-12-19貌似不值这么多积分啊未济20192018-12-18这个是系统设定的积分。不是我设置的。
- baibl_gmail2017-12-15焕然大明白
- 寄居之蟹2017-10-27讲的非常清楚 推导有理有据!!!
- 赫连玄卮2016-06-11讲解清楚,简单明了
未济2019
- 粉丝: 690
- 资源: 6
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功