没有合适的资源?快使用搜索试试~ 我知道了~
基于随机森林误分类处理的3D人体姿态估计.docx
1.该资源内容由用户上传,如若侵权请联系客服进行举报
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
版权申诉
0 下载量 126 浏览量
2023-02-23
20:16:23
上传
评论
收藏 278KB DOCX 举报
温馨提示
试读
19页
基于随机森林误分类处理的3D人体姿态估计.docx
资源推荐
资源详情
资源评论
基于图像的人体姿态估计是指获得给定图像中人体各部位在图像中的位置及方向等信
息的过程
[1]
, 是计算机视觉领域的重要研究方向, 可应用于视频监控、行为识别
[2-3]
和人机交
互
[4]
等领域.截至目前, 针对此任务已经有众多的研究算法被提出, 大致可分为两类:基于模
型和基于无模型的人体姿态估计算法.前者利用人体先验知识对人体进行姿态估计, 通过预
先构建人体模型, 将模型和图像中的人体轮廓、梯度等特征对应起来, 求解人体模型参数,
此方法虽然具有较高的识别效率, 但容易受到复杂模型的限制, 只适用于特定的姿态估计环
境, 不利推广应用.而基于无模型的方法, 是通过学习的方式来构建人体特征与人体姿态之
间的复杂映射关系
[4-8]
, 由于不需要事先构建复杂人体模型, 使得该方法不受复杂模型的限
制, 简化了姿态估计的计算复杂度, 因此近年来, 基于无模型的姿态估计算法得到广泛研究.
其中在基于 RGB 彩色图像的人体姿态估计上, 单人姿态估计或多人姿态估计中均取
得了一定成果
[9-12]
, 但由于彩色图像的姿态估计算法受人体的体型、着装、肤色和光照等限
制, 算法鲁棒性较弱.与彩色图像相比, 深度图像记录的是距离信息, 具有颜色无关性, 可在
一定程度上应对在彩色图像上遇到的挑战, 故而许多研究者围绕基于单一深度图像的人体
姿态估计算法展开.在深度图像上, 基于无模型的人体姿态估计算法, 针对学习方法的不同,
可分为基于深度学习的方法和基于传统随机森林的方法.
在基于深度学习的姿态估计方法中, 文献[12]利用卷积神经网络(Convolutional neural
network, CNN)搭建了用于关节坐标回归的网络框架, 并通过级联回归器的方式取得较好的
姿态估计结果, 虽然此方法主要从整体的人体部件进行推理, 并未考虑到相邻部件间的局部
上下文信息, 但也引起了后续研究者
[9-11, 13-14]
的关注.其中, 在深度图像上, 文献[14]采用长短
期记忆网络架构(Long short-term memory, LSTM), 学习局部视点不变特征, 并利用自顶向下
的错误反馈机制, 纠正姿态位置; 文献[13]则采用了 MatchNet
[15]
计算全卷积网络(Fully
neural network, FCN)预测的关节区域和模板之间的相似度的方法, 并通过相邻关节之间的
配置关系, 来达到优化关节点位置的目的.
在对优化姿态的研究方面, 文献[16-17]针对人体图像遮挡问题, 提出采用基于范例的
方法来纠正最初估计的姿态, 此方法虽能有效降低姿态错误估计, 但不能保证所纠正姿态的
规范性, 因此文献[18]针对此问题, 将姿态纠正任务视为一种姿态优化问题, 在文献[16-17]
的纠正结果上, 通过姿态先验模型来优化姿态效果, 保证姿态规范性.
而对于基于随机森林的姿态估计方法, 采用将深度图像像素逐一部位分类的思想, 此
方法将姿态估计任务转为了对像素分类的问题, 降低了姿态估计的困难程度
[5]
.其中文献[8]
提出了使用随机森林训练部位模型, 并利用 Mean-shift 方法确定相应部位中关节点位置, 从
而完成基于单一深度图像的 3D 人体姿态估计的任务; 文献[6]则根据 Mean-shift 方法对识
别的身体部位聚类情况以及人体目标尺寸依赖较高等问题, 提出主方向分析算法(Principal
direction analysis, PDA)来分析识别的身体部位, 通过求取部位主方向向量来估计出图像中
的 3D 人体姿态.
综上, 针对深度图像的无模型人体姿态估计算法均取得了大量的研究成果.其中基于深
度学习方法的人体姿态估计需要大量训练数据和训练时间, 才可达到较高的估计精度.而基
于随机森林的方法, 与之相对来说, 可在较少训练样本的情况下, 取得不错的估计效果.因此
本文从实验条件和方法性能两方面考虑, 针对随机森林方法进行研究和改进, 提出新的 3D
人体姿态估计算法.
在以往使用随机森林方法进行 3D 人体姿态估计的算法中, 由于部位分类模型分类准
确率限制, 容易出现部位像素误分类的现象, 使得在识别的部位中引入误分干扰点, 这些部
位干扰点对后续关节点的准确定位有一定的负面影响, 从而降低姿态估计的准确性.为此,
本文首先通过特征提取阶段的改进算法, 改善特征的表达性能, 提高部位分类准确率; 随后,
针对此估计算法中存在的像素误分类问题, 分别从识别部位误分点聚集情况和迭代整合思
想出发, 提出误分类处理机制来去除识别部位中的干扰点, 以降低对姿态估计的影响; 最终
通过改进的 PDA 算法得到更为准确的姿态估计结果.
1. 相关工作
为提高基于随机森林的 3D 人体姿态估计结果, 文献[4, 6-7, 19]分别提出了改善算法.其
中, 文献[19]提出能综合利用深度图像的距离信息和像素部位尺寸信息的改进型特征提取办
法, 来改善部位分类准确率, 但由于此特征提取方法利用的部位尺寸信息与训练时抽取的各
部位像素样本量有关, 使得所提特征并未充分表达出图像的部位尺寸信息; 文献[7]则针对
随机森林部位分类时, 容易在相邻部位上出现误分点的情况, 提出了部位融合的思想来改善
部位识别结果, 但此方法并未提出能有效去除出现在识别部位其他位置误分点的误分类处
理算法; 文献[6]则提出了利用 PDA 算法来分析识别的身体部位, 并求取出部位主方向向量,
即部位主轴, 从而利用部位主轴估计出图像中的人体姿态, 但此方法主方向向量的确定对部
位识别准确度要求较高, 同时此方法对部位误分点的去除效果也并不明显.
从以往针对随机森林的 3D 姿态估计的改善算法的研究来看, 算法改进主要着手于改
善特征提取方法或关节点定位方面, 并未提出有效的误分类处理算法来解决由于部位分类
器的误分类问题给部位识别和关节点定位或姿态估计造成的负面问题.为此, 本文基于合成
深度图像数据库, 以上述研究现状为基础, 针对现有算法的局限性
[6-7, 19]
, 提出优化算法:首
先, 通过提出自适应深度融合特征提取办法来改善分类器的分类准确率; 随后, 通过提出的
误分类处理机制和改进 PDA 算法的位置权重阈值处理办法, 可极大降低部位识别结果中的
误分点, 改善部位的主方向向量, 从而获得更为准确的姿态估计结果.
2. 本文方法
本文采用基于随机森林方法完成对单一深度图像的 3D 人体姿态估计.考虑到现有深度
图像数据库, 缺乏本文实验所需的基于部位的颜色标签, 不适用于训练随机森林部位分类
器, 为此本文创建了合成深度图像数据库来完成训练任务.延用目前文献[4, 6-8, 19-20]中普
遍采用的图像合成思想, 引用 CMU 运动捕获数据库的运动信息, 并基于 Maya 平台
[7]
, 渲染
出带部位颜色标签的深度图像数据库.其中图像分辨率为 450××600, 人体动作包括有打招
呼、跳舞、打篮球、洗窗户等共 14 组.同时考虑到在实际环境拍摄的深度图像, 存在人体离
镜头远近不同的情况, 因此本文合成数据库中的人体图像在整幅图像中的占比约为
0.7∼0.950.7∼0.95 之间.
使用合成数据库可避免人工逐个对部位标注的大量精力, 也可避免人为标注误差造成
的分类不准确的问题.为使算法具有更好的鲁棒性, 考虑到在实际环境下, 不同人体的高矮
胖瘦、着装差异等因素, 本文对模型及部位标注进行以下操作: 1)调整模型参数来构造不同
体型的人体模型, 共构建出 6 个不同的人体模型; 2)细化模型人工标注部位等方法, 以尽可
能地减小由于不同人体各部位深度不同, 或人为因素造成的部位分界误差的影响, 本文将人
体分割成 15 个关键部位:左/右头部、脖子、左/右肩膀、左/右上臂、左/右小臂、左/右手、
左/右躯干上部分、左/右躯干下部分.合成图像如图 1 所示, 其中第一行为深度图像, 第二
行为相应身体部位标签图像.
图 1 合成深度图像数据库
Fig. 1 Synthetic depth image dataset
下载: 全尺寸图片 幻灯片
由于实际拍摄的深度图像包含各种复杂背景, 故而本文首先利用背景减除法将图像中
的背景移除
[21]
, 只保留深度人体信息, 随后针对深度人体信息进行接下来的特征提取(具体
可见 2.1 节)以及姿态估计任务.为估计出更为准确的人体姿态, 针对部位识别误分类问题,
本文通过提出误分类处理机制, 即 Kmeans 分级聚类算法和多级随机森林整合算法(具体可
见第 2.2 节)以及改进 PDA 算法(具体可见第 2.3 节)来完成.算法整体流程图如图 2 所示.
剩余18页未读,继续阅读
资源评论
罗伯特之技术屋
- 粉丝: 3837
- 资源: 1万+
下载权益
C知道特权
VIP文章
课程特权
开通VIP
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功