文件名称:FLVRPlayer:用于学习iOS-VR开发
文件大小:14.62MB
文件格式:ZIP
更新时间:2024-05-31 18:39:51
Objective-C
VR视频开发分享 为了让大家更好的阅读Demo代码,以下简单介绍相关知识及实现思路。 预览Demo效果图: Step 0. 0.1 渲染VR场景视频的大致思路: 逐帧读取VR视频的逐帧数据,之后通过着色器渲染到球体模型上,获取球体中心的作为视觉取镜点,通过重力感应接受头部移动向量方向,更新手机的映射取镜点。 Step 1. 1.1 获取模型 首先,需要创建一个球体。在OpenGL中创建模型,需要顶点和纹理坐标,通过3D MAX等工具制作的obj模型在iOS中识别不了,所以需要进行转换为OpenGL使用的顶点数组。 有位大神写了一个模型转换为顶点数组的工具: 产物是一套球体模型的顶点数据+顶点索引; 1.2 模型数据描述 为了更好理解顶点数据和定点索引的旨意,我们来分析一个正方形模型的建模数据。 GLfloat squareVertexData[] = { 0.5, -0.5, 0.
【文件预览】:
FLVRPlayer-master
----GVRDemo()
--------VRVideoPlayerViewController.h(241B)
--------MyOpenGLView.h(387B)
--------Info.plist(1KB)
--------MyOpenGLView.m(22KB)
--------main.m(336B)
--------Shader.vsh(1KB)
--------VRVideoPickerController.m(4KB)
--------Shader.fsh(1KB)
--------VRPlayerViewController.m(2KB)
--------DrawABallViewController.m(6KB)
--------VRVideoPlayerViewController.m(5KB)
--------VRPlayerViewController.h(284B)
--------Base.lproj()
--------DrawABallViewController.h(234B)
--------VRVideoPickerController.h(238B)
--------earth-diffuse.jpg(59KB)
--------AppDelegate.h(279B)
--------Assets.xcassets()
--------sphere.h(349KB)
--------AppDelegate.m(2KB)
----pic.gif(5.68MB)
----Pods()
--------Manifest.lock(77B)
--------Target Support Files()
--------Pods.xcodeproj()
----Podfile.lock(77B)
----LICENSE(1KB)
----GVRDemo.xcodeproj()
--------project.xcworkspace()
--------project.pbxproj(19KB)
----podfile(47B)
----README.md(9KB)
----earth-diffuse.jpg(59KB)
----.gitignore(1KB)
----GVRDemo.xcworkspace()
--------xcshareddata()
--------contents.xcworkspacedata(225B)
----Resource()
--------雪地.mp4(8.79MB)