【AR实验室】mulberryAR : ORBSLAM2+VVSION

  • 时间:
  • 浏览:0
  • 来源:大发pk10_pk10在线注册平台_大发pk10在线注册平台

本文转载请注明出处 —— polobymulberry-博客园

0x00 - 前言


mulberryAR是我业余时间弄的一三个白 AR引擎,目前主要支持单目视觉SLAM+3D渲染,然后 支持iOS端,然后 该引擎不还可不还可否很方便地移植到Android端。slam模块使用的是ORB-SLAM2,3d渲染模块使用的是VVSION渲染引擎。该引擎目前实现的功能为简单的3D模型摆放,用户可不必还可不还可否对3D模型进行平移、旋转和缩放。

先放两张mulberryAR的效果图。

0x01 - 单目视觉SLAM模块


单目视觉SLAM模块采用的是ORB-SLAM2。ORB-SLAM2是目前比较优秀的视觉SLAM系统,其输入为图像视频流,通过SLAM计算出每帧图像对应的相机位姿以及你是什么特征点对应的3D位置。不过mulberryAR目前只用到了每帧对应的相机位姿。

目前mulberryAR对ORB-SLAM2如此了做过多的修改,然后 为了集成进mulberryAR中,不还可不还可否 对ORB-SLAM2的接口做出你是什么修改以适应iOS系统的移动设备。你是什么部分主要参考两份资料:

  • ORB_SLAM_iOS ORB-SLAM在iOS上的移植,作者去除了ORB-SLAM对ROS的依赖,并使用了iOS的Metal和Scene Kit进行渲染。相比ORB-SLAM2,还不还可不还可否 依赖boost库。
  • ORB-SLAM2注释版 作者对ORB-SLAM2进行了完整版地注释,上加了BoW(Bag of Word)的二进制文件加载办法。

修改1:ORB-SLAM2上面使用了BoW(Bag of Word)进行特征匹配。其中的BoW是通过加载ORB-SLAM2原始文件中的ORBvoc.txt获取的,不过移动端直接加载ORBVoc.txt文本文件来构建BoW非常耗时,在苹果554 5s上要几分钟时间。使用ORB-SLAM2注释版中Vocabulary/bin_vocabulary.cpp可不必还可不还可否将ORBVoc.txt转换为ORBVoc.bin。然后 使用该版本DBoW2和g2o替换ORB-SLAM2中的DBoW2和g2o,ORB-SLAM2注释版上面的/Thirdparty/DBoW2/DBoW2/TemplatedVocabulary.h上加了loadFromBinaryFile函数,可不必还可不还可否直接加载ORBVoc.bin,在苹果554 5s上加载的时间也降到小于3秒钟。

修改2:ORB-SLAM2源码中的示例获取图像视频流的办法是通过解析预先处理好的视频文件,而mulberryAR不还可不还可否 通过苹果554 设备实时捕捉图像视频。这里不还可不还可否 使用iOS的视频捕捉模块。一开始 捕捉办法参考了我然后 的博客【AR实验室】OpenGL ES绘制相机(OpenGL ES 1.0版本)中的0x02 - AVCaptureSession获取拍摄内容小节。获取到了图像就可不必还可不还可否调用ORB-SLAM2中的System::TrackMonocular函数求解位姿。注意TrackMonocular很耗时,什么都有亲戚亲戚亲戚亲戚朋友构建一三个白 DISPATCH_QUEUE_SERIAL类型的应用程序,并将TrackMonocular抛给它。另外在主应用程序dispatch_get_main_queue()中利用TrackMonocular得到的相机位姿进行绘制。

修改3:图形学中绘制有一三个白 有点痛 要的矩阵:模型视图矩阵ModelView,什么都有我将3D模型从模型局部坐标系转化到相机坐标系的一三个白 转化矩阵。注意TrackMonocular函数返回的Tcw不还可不还可否 一定的转化不还可不还可否作为模型视图矩阵,你是什么步完整版参考了ORB_SLAM_iOS中的处理办法,将会我什么都有我是很清楚为什要如此了处理,尤其是两处取负号的部分,什么都有此处将代码列出供亲戚亲戚亲戚亲戚朋友参考。

// poseR = mCurrentFrame.mTcw.rowRange(0,3).colRange(0,3);
// 当前帧变化矩阵的旋转部分
cv::Mat R = _slam->getCurrentPose_R();
// poseT = mCurrentFrame.mTcw.rowRange(0,3).col(3);
// 当前帧变化矩阵的平移部分
cv::Mat T = _slam->getCurrentPose_T();

// 将旋转矩阵转化为四元数,注意qy和qz的取了负号。
float qx,qy,qz,qw;
qw = sqrt(1.0 + R.at<float>(0,0) + R.at<float>(1,1) + R.at<float>(2,2)) / 2.0;
qx = (R.at<float>(2,1) - R.at<float>(1,2)) / (4*qw);
qy = -(R.at<float>(0,2) - R.at<float>(2,0)) / (4*qw);
qz = -(R.at<float>(1,0) - R.at<float>(0,1)) / (4*qw);
// 将四元数转化为旋转矩阵,即r1、r2、r3。然后

将平移矩阵填充到r4。
// 注意其中T.at<float>(1)和T.at<float>(2)取了负号。
vec4f r1(1 - 2*qy*qy - 2*qz*qz, 2*qx*qy + 2*qz*qw, 2*qx*qz - 2*qy*qw, 0);
vec4f r2(2*qx*qy - 2*qz*qw, 1 - 2*qx*qx - 2*qz*qz, 2*qy*qz + 2*qx*qw, 0);
vec4f r3(2*qx*qz + 2*qy*qw, 2*qy*qz - 2*qx*qw, 1 - 2*qx*qx - 2*qy*qy, 0);
vec4f r4(T.at<float>(0), -T.at<float>(1), -T.at<float>(2), 1);

0x02 – 3D渲染引擎模块


3D渲染引擎模块使用的是VVSION渲染引擎。选者这款渲染引擎也是尝试过什么都有你是什么渲染办法才决定的,主要代表为cocos2d-x、vvsion和原生opengl es。下面对着你是什么办法的优缺点进行对比。

  cocos2d-x vvsion 原生opengl es
优点 1.支持的渲染组件很丰富,基本不必还可不还可否 后期上加新的功能 1.相对于cocos2d-x整体轻巧,易于集成和二次修改。

2.可不必还可不还可否直接传递模型视图矩阵,并不进行转化。
1.完整版可不必还可不还可否根据自己的需求开发出相应的模块,不必困于已有的功能模块。
缺点 1.体积较大

2.亲戚亲戚亲戚亲戚朋友此处获取到的为原生的模型视图矩阵,如可直接把模型视图矩阵传递给cocos2d-x的绘制模块就成为了一三个白 疑问。我尝试了什么都有办法如此了了成功,将会将会你是什么对cocos2d-x就有有点痛 熟悉,什么都有放弃。
1.如此了cocos2d-x的功能多 1.工作量巨大!

vvsion你是什么支持你是什么简单的渲染功能,比如模型的导入和渲染,使用的是opengl es 2.0。不过还所处有有几个不足,mulberryAR对此进行了优化。

修改1:它你是什么提供的模型渲染过于简单,什么都有我简单的贴图,此处mulberryAR在原始shader中上加了diffuse功能,主什么都有我将模型的法向传入,做光照处理。

// vertex shader
attribute vec4 position;
attribute vec2 texCoord0;
attribute vec4 normal;

varying vec2 v_texCoord;
varying vec4 v_normal;

uniform mat4 matProjViewModel;
// ModelView.inverse().transpose()
uniform mat4 matNormal;

void main()
{
    v_texCoord = texCoord0;
    v_normal = matNormal * normal;
    gl_Position = matProjViewModel * position;
}

// fragment shader
precision highp float;

uniform sampler2D texture0;
varying vec2 v_texCoord;
varying vec4 v_normal;

void main()
{
    gl_FragColor =  texture2D( texture0, v_texCoord);
    vec3 lightDir = vec3(0.0, 0.0, 1.0); // 假设光照方向
    // 求解diffuse
    float dotRes = dot(normalize(v_normal.xyz), normalize(lightDir));
    float diffuse = min(max(dotRes, 0.0), 1.0);
    gl_FragColor.rgb = vec3(diffuse * gl_FragColor.rgb);
}

修改2:获取到的相机图像不还可不还可否 进行显示,此处,mulberryAR使用了贴纹理的办法进行渲染。亲戚亲戚亲戚亲戚朋友使用了一三个白 camera.obj的平面模型作为相机图像的展示平面,只需每次将camera.obj的纹理更新为相机图像即可。此处不还可不还可否 注意一下两点:

  • camera.obj的显示使用的是正投影,然后 注意其角度值设置大你是什么,处理遮挡住了前面的模型。
  • NPOT(No Power of Two)纹理的设置选项,其中Wrap办法要设置为GL_CLAMP_TO_EDGE,Mag/Min Filter办法设置为GL_LINEAR,然后 并不产生MinMap。然后 纹理会显示为黑色。

修改3:为了提高模型的真实感,增加了fake shadow的效果,什么都有我在模型底部上加一块圆形的阴影。什么都有我在模型底部上加了一三个白 fakeshadow.obj的模型,然后 贴上透明的圆形阴影纹理。优点是简单,节省计算资源,然后 还不必还可不还可否 考虑真实的光照方向。

0x03 - mulberryAR性能效果分析


视频效果展示(腾讯视频链接):

mulberryAR Demo:https://v.qq.com/x/page/c03635umclb.html

mulberryAR在苹果554 5s上Release版本测试为6FPS。可见其帧率还无法令人满意,主什么都有我提取ORB特征你是什么步耗时比较多,后期会再此基础上做一定优化。下表中ExtractORB表示每帧ORB特征提取的耗时,TrackMonocular为每帧的整个SLAM系统的耗时。

另外,ORB-SLAM2的初始化放慢,丢失后不还可不还可否快速找回。整体来说,有无目前最好的单目视觉SLAM了。

0x04 - 参考资料


  • ORB-SLAM2
  • ORB_SLAM_iOS
  • ORB-SLAM2注释版
  • VVSION渲染引擎
  • 【AR实验室】OpenGL ES绘制相机(OpenGL ES 1.0版本)
  • https://zhuanlan.zhihu.com/computercoil