论文研究-基于OpenGL驱动的三维场景重构.pdf

所需积分/C币:18 2019-07-22 21:50:42 1.51MB .PDF
收藏 收藏
举报

基于OpenGL环境,提出利用场景渲染结果即帧缓存数据(主要包括颜色缓存及深度缓存)进行局部三维场景重构的方法。根据投影变换原理和深度缓存特点研究了逆投影变换,得到了三维点元的重构方法。在此基础上,利用帧缓存数据重构每像素对应的三维点元,从而构成相机坐标系下的三维点云模型,即原始三维场景在当前相机视角下的离散采样,被定义为虚拟视模型。根据透视投影和帧缓存的特点,分析了虚拟视模型的点位精度,实验表明虚拟视模型具有较高的相对精度。提出的场景重构方法具有天然的多分辨特性,支持场景简化与流式传输以及独立于场景的具体表示形式,可采用拦截方式从一般三维软件中实时重构虚拟视模型,从而提供了一种获取三维数据的
1278· 计算机应用研究 第32卷 Ne (12) NF(-F+N) (F-N) F+z;(-F+N) (F+x(-F+N) NA F(2-1) (16) 由式(2)可得到齐次除法前的像元P=mP,然后反解出相机 由式(16)可知,深度值误差Δz与深度值平方近似成比 系下的对应三维点元P=MP。显然,投影矩阵M必须是已例,表明离开柑机越远,深度值误差将迅速增加,反映了透视投 知的。事实上,在图形管线的特定AP调用中可以截获M,比如影的非线性特征。原维模型数据未知时,深度误差将无法进 拦截 OpenGL的API: ulFruslruIm(*)或 gluPerspecLive(*) 行补偿,通常视为随机误差。 综合上述分析,从帧缓存数据重构虛拟视模型在原理上是 表1虚拟视模型重构实例 可行的。给定帧缓存中的像元P[xy1],则重构得到 相机巫标系下的三维点元可表示为 FCx(R-L)+Luo, F(r(T-B)+Bh,) h(x(-F+N)+F)= (a-1)当前相机视角 (h-1)当前相机视角 (原三维CAD表面模型;size= 原三维模型:在 Google earth服务器 (-F+N+A 3370.52×283.28×786842南纬为24221806,西绎为77521449 相机距离模型屮心=9017.59mm) 视点高度为5011.79km) (sr(-f+N)+F) F(y h,+Bh) (3 h(x(-F+N)+F)= (13) I4 NF 灰度映射视模的观察视角从度块射(a5传统虚拟视 (a-2)本文视炎度 嗅的观察视角 在实际应用当中,帧缓存本身代表一个离散阵列,其分辨 率可表小为xb,则上式中的w、h应替换为-1、-1; 为便于区别,将z1=Z(P)定义为视深度(相机看到的深度,准 确的称谓应当是虚拟视深度);将与对应的称做归一化深(2)本文视深度《3本文虚拟视(4)视深度的(5)传统虚拟视 n的灰度映射模理的观察视角 灰度映射 度;而将深度缓存中的值称做编码深度,表示为x,通常为整 数。给定编码位深n和编码深度值,则刈应的归化深度x2.2摄影光线误差 在Open(L中的表示为26 由式(13)可知,重构点兀P,的精度与帧缓存像元P[x x=1(2-1)≈zn/2 (14 y,x,1表示精度存在密切关系。x、y事实上是像素坐标,并 其中:编码深度值zn可通过读取Orn的深度缓存得到,然与原模型几何元素的光栅化行为存在密切关系。原三维模型 后由式(14)得到x,再代入式(13)则得到重构三维点元〃。的每个顶点在光楫化时可认为存在不超过0.5个像素的截断 作为算例,表1给出了特定视角下虚拟视模型的重构结误差,则对应的重构点元P也存在一定误差。为∫估计误差 果。其中(a1)(b1)为原三维场景的渲染结果,(a2)(b2)为大小,将式(13)的X、Y分量分别关于x微分,并以差分 视深度z(按式(12)进行计算)的灰度映射效果,(a3)(b3)形式表示,则得到 为虚拟祝模型的重构效果(从另一选定视角观察)。表1中 21 ( (l-1)的数据是通过拦截 Google客户端程序的帧缓存数据得 N 到的。作为对比,根据将文献[21」中的z计算方法有:z,= h,(g h, Bh N-(F-N)×x,即一种线性重构方法,其实验效果如表1 Wh -yr- (a4)及(b4)所示。容易看出,两种方法对应的视深度灰度映 出上述分析可知,Δx、△y存在小于0.5个像素的误差,并 射效果比较接近,但从另一个三维视角观察,则发现传统方法考虑到式(16),则式(17)可写做: 所重构的视模型被“压扇”,存在严重误差,而本文方法的重构 a, ue,(xnu, +Lap)(F-1)22 结果则与原三维模型很好地保持一致。因此,下文进一步对本 NF(2-1 文方法进行点位精度分析。 lp (y hp Bh,(F-N)z Nh NF(2" 2虚拟视模型精度分析 (F-N) "NF(22-1) 2.1深度值的重构误差 (F-M) 根据深度缓存实现机制,面片内每个像素的深度值般被 hr NF(2-1) 量化为整犁值,因此在深度方向上存在量化误差,其大小一般 F-N) 不超过0.5个单位。对于式(14)取差分,得到 2N 小y (18) (F-N) 2N h, △2=Aa/(2-1)≤0.5/(2-1) (15) h,F(2"-1) 对式(12)关于△x进行微分,并表示为差分形式,然后代式中,“≈”在N<F时成立(通常情形下图形管线的设置满 入式(15)得到 足这个条件)。式(18)中的误差由两项组成,前项即vo/c 第4期 廖明,等:基于 OpenCl驱动的三维场景重构 1279 或b/b表示成像平面上的误差随深度增加而线性放大;后一从起点[0,0,-100沿矢量[6,5,-15方向等间隔分布,深 项则表示深度方向的误差随点位在视平面(平行于成像平面)度方向分布范围是-100~-435m。渲染场景、获取深度缓 上散布而非线性放大。囚此,联合式(16)(18)可以给出虚拟存、重构虚拟视模型、排除背景无关点元后得到的重构结果记 视模型上点位误差的一种估计。 为P。点位绝对误差实验值表示为D="P-"P,其理论估 2.3虚拟视模型精度实验及结果 计值表示为D,可根据式(16)(18)进行计算;点位相对误差 在上述误差分析的基础上,下文就虐拟视模犁卜点元的误表示为D=(P-P‖)‖P‖×100%。部分实验数据 差进行实验。为便于观察误差分布趋势首先采用简单的三维结果如表2所示,从误差结果容易看出,深度方向(3分量)的 点序列进行实验。准备工作如下:相机投影参数为fowy-45°,精度较高,但随深度增加而迅速降低;水平方向的误差较大,主 N=1,F=1000,0=1.017,h=0.8284,=784,b=642。要由于投影平面上的误差随深度而放大,与式(16)(18)描述 在相机坐标系下建立三维点序列,记为P,数目为mum=30,基木相符,如图2所示。 表2简单三维点序列的斥拟视模型构糈度部分观测数据 P(x,y,2) 118.0-15.0100.018.02385315.056430999620.05960.0238530.0564300.000380.0647090.0647090.00l1y2 2120-10.0115.011.969410.0321y114995500.04360.0390510.032190.0004500.0743740.0743810.001576 36.05.0130.05.9627064956322129994050.044100372940.0436780.0005950.0840290.0840450.002014 145.00.0936710.093700144.9993900.09140.0936710.0937D.006100.0936720.0936990.002506 160.060983415.066158-1599986110.07400.0983410.0661580.0013890.1034200.1034400.003051 612.010.0175.012.09658110.064487174998910.06610.0965810.0644870.00l10990.1131780.l131890.003650 718.0150190.01804302815.1014971899977870.05760.0430280.101490.0022130.1229470.1229480.004303 824.020.0205.02397022220.0029112049981540.01450.0297780.0029110.00l8460.1327270.1327150.0050y 930.025.0-220.02998796325.162891 9991300.07310.0120370.1628910.0008700.1425170.1424920.005769 1036.030.0-235.03597915329915176 9952240.03650.0208470.0848240.0047760.1523180.1522770.00658 1142.035 42.15230235.056076-2499984130.06340.1523020.0560760.0015870.1621300.1620710.007450 1248.040.0-265.048.10529739899296-2649982600.05350.1052970.1007040.0017400.1719530.1718750.008371 1354.045.0-280.05408325245.051960-2799935610.03410.0832520.0519600.0064390.1817860.1816870.09345 1460.050.0-295.060.03065950.135002-2949979550.04540.0306590.1350020.0020450.1916300.1915080010373 1566.055.0-310.06588656655.087925-3099969480.04460.1134340.0879250.0030520.2014850.2013380.011455 1672.060.0-325.072.01379460.273472-3249960020.080900137940.2734720.00399802113500.2111770.012590 1778.0 40.07797369465252769-3399978640.07160.0263060.2527690.0021360.2212260.2210250.013779 1884.0 0.0 55.084.16355969964958-354988 0.04510.1635590.0350420.0113530.2311130.2308820.015022 1990.0750-370.090.11155775313431-369994 0.08570.1115570.3134310.0052190.2410110.2407480.016318 096.080.0-385.09625221380.357239-384.959720.1080.2522130.3572390.0040280.2509190.2506220.017668 a-dxrl 0.35 →dy018 001 0.0 0.05 1234567891011121314151617181920 1234567891011121314151617181920 1234567891011121314151617181920 (a)误差X分量的实验值dxc与估计值dxr (b)误筹】分量的实验值dyc与计值dyr c)误差Z分量的实验值dzc与估计值dzr 图2点位坐标重构误差分布趋势 上面实验结果表明,该简单三维点序列的虚拟祧模型具有先通过于工拾取部分点元并计算其误差,得到部分误差数据及 珓高精度,其点位平均相对误差在0.06%左右。在实际应用统计结果如表3所示;然后对整个虚拟视模型逐点元计算误 当中,表面模型是更为常用的三维表示形式,但其虚拟视模型差,为便于观察而将误差映射为灰度图,亮度越高对应的误差 中的单个点元难以准确地在原∵维模型上找到与之对应的越大,如图3(c)所示。容易看出,距离越远则误差戒大,面片 维点,因此不能直接采用上述实验方法检验重构误差。对此,朝向越倾斜则误差也越大(因为深度榜度越大则投影误差被 可采用随机拾取的方式确定条摄影光线,共从相机原点出放大得越厉害),其与式(16)(18)的误差估计相符,也与日常 发通过光标[i,所对应的虚拟视模型点元P,摄影光线记经验相符。在该实验中,点位相对精度在0.04%左右,因此重 录为Ray,ij分别为光标的行坐标和列坐标,则Rao与原构精度较高。 维表面模型的交点即可认为是与P对应的三维点“P。点 元P2的绝对误差和相对误差可分别表示为 D,=‖ D;=4D/‖mPi×100% (19 其中:=0,…,rw-1;j=0,…,col-1。以表1(a-1)的原模型 (a)原表面模型(b)虚拟视模型(灰度映射)(c)逐元误差分布 图3表而模型及其虚拟视模型上的点位误差拾取实验 及其虛拟视模型为实验数据,并按照式(19)进行差计算。首 (owy=60°,N=1,F=10000,0=14101,bh=11547,my=784b=642) 1280 计算机应用研究 第32卷 表3手工拾取的点元及其相对于原三维模型的误差 /mm graphies[M]. Berlin: Springer, 2006: 292-301 Plx, y, a [8]明镜.三维圯质建模技木硏究[J].地理与地理信息科学,201l l-11646241-15590221-39053958-116.1599-1557.1770-:902.58944.47630.1026 27(4):14-18 2-8428001-16077395-37909705-8426908-1603667-37889602100502 [9]张维忠,赵志刚,油世明,等.绕光轴旋转拍摄LCD平面靶标实现 相机标定[J.仪器仪表学报,20 g4388-20854042759141-921460-9199185-42736522.8450063610」胡建材,刘先勇,邱志强.基于因子分解和光束法平差的摄像机自 70.6584-10552181-41997534-570.7182-1054.8040-4197456|231520.053 标定[J.光二程,2011,38(3):63-6 -l973810292359-4m80449-119ff6-1028593-400698171.24640030l L 11 IIERBORT S, WOIILER C An introduction to image-based 3D sur 6598739538.5816-3960.6909-659.6175-5385428-395969601.02810.0254 face reconstruction and a survey of photometric stereo methods[ J1.3D 8-285.0576-532.1110-810.2556-284.7146-5318463-380954390.83320.0216 Research,201l,2(3):1-17 9-485995|87.i904-4l88.3276-48zz9l867l64-4ls5.9360249580.059 [Ⅰ2]李续武.基于三维扫描工程建模的面部簦形点云数据处理方法硏 0-1520.3044-16272988-3605.7517-1619.0731-16260221-3603.35743.82980.0896 究[D].重庆:重庆大学,2013 l1-12093298-1715.6703-3471.6965-1209.1868-17158430-14699548175610.043 13] GALVEZ A, IGLESIAS A. Particle swarm optimization for non-uniform 12-956.0284-1741.2341-33750742-956.7173-1740.8066-337298582.13350054 rational B-spline surface reconstruction from clouds of 3d data points 13-1544286-767.849-893.5623-1854.5352-:68.0143-38935525U.3J89.0086 [J. Information Sciences: an International Journal, 2012, 192 1415159935891.18493944.70951516.7407891.82583944.7993098850.0229 (6):174-192 15922.2386-1024.0989-378202C0-922.6963-1025.1296-378121071.02470.0255 L14」夏拖华,白世伟.三维底层建模钻孔数据预处理研究LJ.岩土力 15-406.7067-109!2/9-615.6240-41.894-1UJ.2865-61500371.6i080.0429 17475.37101145.88983158.8628475.11711146.8647315955401.22180.0360 学,2012,33(4):1223-1226 8757.3840-1207.7133-3014.4995757.3869-1208.3606-5014.77660.70420.0211 [15 WAN S J. PRUSINKIFWIC7. P, WONG S K M. Variance-based cole image quantization for frame buffer display J. Color Research 199140508-10188751-3222.4546914.2577-1019.0327-3223.29150.87640.0250 20282.2727636.5910-3865.1777281.3862-6370346-3864.83111.46960.0374 Application,1990,15(1):52-58 1.73370.04 [16 KARABASSI E A, PAPAIOANNOU G, THEOHARIS T A fast depth- buffer-based voxelization algorithm[J]. Journal of Graphics Tools 3结束语 [17 YANG Lei, SANDER P V, LAWRENCE J. Geometry-aware frame 根据 OpengL屮的透视投影原理及三维图形的光栅化行 buffer level of detail[ J_ Eurographics Symposium on Rendering 为特性,通过遊向分忻得出了基于帧缓存数据重构相机视角下 200827(4):1183-1188 三维模型即虚拟视模型的方法。重构实验去明,虚拟视模型相L18 JIA\G Yi-e,uYi-u, BAN Donε-ug,"a, Frame buffer compres 对于原三维模型在相同的视角下是极为相似的,验证了理论上 sion without color information loss[ C//Proc of the 12 th International 关丁重构虚拟视模型的可行性。依据屏幕分辦率和深度缓存 Conference on Computer and Information Technology. [S 1.]: IEEE 位深等影响因素,分析了虚拟视模型重构精度,其中基于一∵维 Press,2012:l2-17 点序列的重构实验结果与误差分析基本一致;表面模型的点位191 KRIVOKUCA M, WUNSCHE B C, ABDULLA W, A new error metre for geometric shape distortion using depth values from orthographic 误差拾取实验进一步表明,虚拟视模型具有较高重构精度,在 projections[ C //Proc of the 27 th Conference on Image and Vision 本文实验条件下达到0.04%的相对精度。研究结果表明,通 Computing. New York: ACM Press, 2012: 388-393 过木文方法所重构的虚拟视模型与原三维模型在几何上具有 [20 VAJRAMLSHTI N, KAKADIARIS I A, THEOHARIS T, et al. Effi 很高的一致性,可作为基丁Wcb环境或其他三维软件中实时 cient 3D object retrieval using depth images[ C ]//Proc of the 6th 获取三维数据的一种可行手段。下一步工作重点将实现多个 ACM SIGMM International Workshop on Multimedia Information Re 视角下的虛拟视模型拼接,从而得到·个亢整的重构场景。 trieval. New York. ACM Press, 2004: 189-196 参考文献 [21 ZHOU Tian-shu, CHEN JX, SMITH P Scene depth reconstruction on [1 JAN K, OLA F, MARKUS H, et al. Technical section: visual compu- the GPU: a pusl processing techrique for layered foy[ M. Berlin ting for medical diagnosis and treatment J]. Computers and springer,2007:165174 Graphics,2009,33(4):554-565 22 HIDE.MI Y, YASUYUKI S, YASUSHI K, el (/ Evaluat ion of a lech- [2]侯鹏高.虛拟人体研究进展[J].齐齐哈尔医学院学报,2013,34 nique for collision and object detection with the Z-buffer in cyber (15):2280-2284 space[ C]//Proe of International Conference on Cyberworlds. 2011 [3]万鹏,姜辶军,陈学东,等.基于图像处理的外螺纹三维糢型重 112-120 [冂].工程图学学报,2012,3(1):68-72. 23 CANT R, LANGENSIEOEN C. Creating depth of field effects without [4 BERGER M, LEVINE J A, NONATO L G, et aL. A benchmark for sur- multiple samples [C//Proc of the 14th International Conference on face reconstruction[ J. ACM Trans on Graphics, 2013, 32(2 ) 20 Computer Modelling and Simulation. [S. 1.]: IEEE Press, 2012: 159 [5 SIBLEY G, MEI C, HEID l, et al. Vast-scale outdoor navigation using 164 adaptive relative bundle adjustment[J]. The International journal「241米志纸,摄影测量与急「M1·北京:煤炭工业出版社,2008:45 of Robotics Research, 2010, 29(8): 958-980 4 [6 INDELMAN V, GURFIL. P, RIVLIN F, et al. Distributed vision-aided [25] GORTLER S J. Foundationg of 3D computer graphics M]. Cam cooperative localization and navigation based on three-view geometry trige. mit Press .2012.21-26 LJ」. Robotics and Autonomous Systems,2012,60(6):822-840.[26] SHREINER D.Opcn(L编栏指南[M].李军,等译,7版.北京:机 [7 IGNATOV A, KIM M Multi-view video composition with computer 械工业出版社,2010:93-96

...展开详情
试读 5P 论文研究-基于OpenGL驱动的三维场景重构.pdf
立即下载 低至0.43元/次 身份认证VIP会员低至7折
    抢沙发
    一个资源只可评论一次,评论内容不能少于5个字
    • 至尊王者

      成功上传501个资源即可获取
    关注 私信 TA的资源
    上传资源赚积分,得勋章
    最新推荐
    论文研究-基于OpenGL驱动的三维场景重构.pdf 18积分/C币 立即下载
    1/5
    论文研究-基于OpenGL驱动的三维场景重构.pdf第1页
    论文研究-基于OpenGL驱动的三维场景重构.pdf第2页

    试读已结束,剩余3页未读...

    18积分/C币 立即下载 >