加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

机器学习物语(2):大数定理军团

发布时间:2021-01-26 05:29:09 所属栏目:大数据 来源:网络整理
导读:机器学习理论帝国崛起,大数定理军团功不可没,称之为军团毫不夸张,在前军先锋强大数定理和副将弱大数定理后面,是铠甲上刻着“Concentration of Measure”的古老印记的战士们,不妨暂且忽略他们之间乱七八糟的“血缘”关系,而罗列一些名字:Chebyshev 不

这为我们的 estimation error 提供了一个上界,如果我们能保证这个上界很小的话,自然就能保证 estimation error 小了。不直接去算 estimation error 而迂回一下搞一个上界的原因很明显:estimation error 太难算,而这个上界形式优良,容易估计:因为它和大数定理联系起来了!?

:)

如果你觉得看得不太清楚的话,我们不妨来整理一下记号。首先固定一个? f∈F ?,记? Z=?f(X,Y) ?,这是? X×Y ?上的一个随机变量,根据 Risk 和 Empirical Risk 的定义:

R(f)Rn(f)=E[?f(X,Y)]=EZ=1n∑i=1n?f(Xi,Yi)=1n∑i=1nZi?Z?n

也就是说, Z ?的期望就是? f ?的 Risk ,而 sample? Sn ?估计出来的均值? Z?n ?对应? f ?的 Empirical Risk 。根据大数定理,随着? n→∞ ?, Z?n ?将会趋向于? EZ ?,于是将刚才推出的 estimation error 的上界限制住的希望出现了。需要注意的是,传统的大数定理在这里还不能直接用,因为注意到我们得到的上界里有一个针对所有? f∈F ?的上确界,因此需要对大数定理进行改造,使得收敛必须对于所有? f∈F ?是一致的。不过在讨论这个问题之前,我们先来看一下大数定理的不等式形式,因为仅仅是极限情况下看起来太遥远了,在实际问题中,我们希望的是,对于某个(有限的)? n ?,估计出误差的一个具体的界。下面不妨就挑Hoeffding 不等式来讨论好了。

定理 2(Hoeffding 不等式):设随机变量? Z ?满足? Z∈[a,b] ?,则

P(∣∣∣1n∑i=1nZi–EZ∣>?)≤2exp(?2n?2(b?a)2)

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读