没有合适的资源?快使用搜索试试~ 我知道了~
概念学习状态的极小极大下界,例如,对于每个样本大小 n 和学习规则 gn ,存在观察 X 的分布和要学习的概念 C,使得 gn 的预期误差至少为常数倍V=n,其中 V 是概念类的 vc 维度。 然而,这些界限并不能说明固定分布概念对的误差减少率。 在本文中,我们在这种“更强”的意义上研究了极大极小下界。 我们证明了对于几个自然 k 参数概念类,包括线性半空间类、球类、具有一定数量面的多面体类和神经网络类,对于任何学习规则序列 fgn g ,存在 X 和轴概念 C 的固定分布,使得对于无限多的 n,预期误差大于常数倍 k=n。 我们还为错误概率的尾部分布获得了如此强的极小极大下界,从而扩展了相应的极小极大下界。
资源推荐
资源评论
资源评论
weixin_38633475
- 粉丝: 3
- 资源: 946
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功