ARKit的學習

概述

ARKit.png

iOS 11 引入了 ARKit,這是一個全新的框架,允許開發者輕松地為 iPhone 和 iPad 創建無與倫比的增強現實體驗。通過將虛擬對象和虛擬信息同用戶周圍的環境相互融合,ARKit 使得應用跳出屏幕的限制,讓它們能夠以全新的方式與現實世界進行交互。

視覺慣性測距【全局追蹤】

ARKit 使用視覺慣性測距 (Visual Inertial Odometry, VIO) 來精準追蹤周圍的世界。VIO 將攝像頭的傳感器數據同 Core Motion 數據進行融合。這兩種數據允許設備能夠高精度地感測設備在房間內的動作,而且無需額外校準。

場景識別與光亮估量【場景理解】

借助 ARKit,iPhone 和 iPad 可以分析相機界面中所呈現的場景,并在房間當中尋找水平面。ARKit 不僅可以檢測諸如桌子和地板之類的水平面,還可以在較小特征點 (feature points) 上追蹤和放置對象。ARKit 還利用攝像頭傳感器來估算場景當中的可見光總亮度,并為虛擬對象添加符合環境照明量的光量。

高性能硬件與渲染優化【渲染】

ARKit 運行在 Apple A9 和 A10 處理器上。這些處理器能夠為 ARKit 提供突破性的性能,從而可以實現快速場景識別,并且還可以讓您基于現實世界場景,來構建詳細并引人注目的虛擬內容。您可以利用 Metal、ScenekitSpritekit 以及諸如Unity、UNREAL ENGINE之類的第三方工具,來對 ARKit 進行優化。


ARKit與SceneKit

  • ARKit:相機捕捉真實世界
  • Scenekit:制作3D模型
<ARKit>與<SceneKit>框架關系圖.jpg
  • 大家可以看到圖中的 ARSession 類,配置 ARSession,然后使用 SceneKit 或者 SpriteKit 來展示 AR 內容。ARSCNViewARSKView 類都是包含在 ARSession 當中的,而 ARSession 對象則用來管理設備動作追蹤和進行圖像處理的,也就是創建 AR 場景的必需品。但是,要運行 Session,您首先必須選擇一種 Session 配置。

    • ARWorldTrackingConfiguration:提供高品質的AR體驗,可精確跟蹤設備的位置和方向,并允許平面檢測和命中測試。
      f76d63a3-7620-40d1-9e52-0d9ad6329678.png
    • AROrientationTrackingConfiguration:提供僅跟蹤設備方向的基本AR體驗。
      ba51d1f9-896b-4b97-a87a-a3db9032eb00.png

      然后,我們在這個配置上調用run()函數。該會話還具有同時運行的AVCaptureSession和CMMotionManager對象,以獲取用于跟蹤的圖像和運動數據。最后,會話將當前幀輸出到ARFrame對象。
  • SCNScene:節點【萬物皆Scene】,每一個Scene都有個根節點RootNode。如圖所示節點類似于NSObject,節點就可以看做是3D物件。


跟蹤設備方向的基本配置

ARFrame:捕獲和位置追蹤、視頻圖像信息。
ARFrame
ARAnchor:一個真實的位置和方向,可用于將對象放置在一個基于“增大化現實”技術的游戲場景。
ARAnchor
Tracking:如圖x、y、z三個軸組成,z軸負數的情況下說明顯示在相機前面的位置,正數的時候顯示在相機后面的位置。
Tracking

AR應用程序

app結構.png

如圖:

  • ARKit負責采集場景;
  • SceneKit、SpriteKit、Metal負責渲染;
    • SpriteKit:在很久以前做平面、立體大家都要依靠OpenCV、OpenGL,由于比較難用,后來有人封裝成cocos2d。蘋果后來在cocos2d基礎上又封裝一層,也就是現在的SpriteKit。效果不錯后iOS8又推出了SceneKit;
    • Metal:用來操作GPU;【GPU處理事情的時候是同步處理】

開發環境和適配設備

  • Xcode:Xcode9以上版本,最新已更新到到 【Xcode9-beta 6】。
  • 設備:需要具有A9或更高版本處理器的iOS設備。
  • 系統:當然是iOS11嘍,最新已更新到 【iOS 11 beta 9】,然后下載描述文件。安裝描述文件,重新啟動。檢查軟件更新就可以了。

項目創建

項目創建

選擇SceneKit3D模型

選擇SceneKit

工程創建后初始代碼

   override func viewDidLoad() {
        super.viewDidLoad()
        
        // Set the view's delegate
        sceneView.delegate = self
        
        // Show statistics such as fps and timing information
        sceneView.showsStatistics = true
        
        // SCNScene:場景里面包含一個模型,然后把場景放到ARSCNView上,然后就可以展示。
        let scene = SCNScene(named: "art.scnassets/ship.scn")!
        
        // Set the scene to the view
        sceneView.scene = scene
   }

   override func viewWillAppear(_ animated: Bool) {
        super.viewWillAppear(animated)
        
        // Create a session configuration
        let configuration = ARWorldTrackingConfiguration()

        // 通過`run()`啟動追蹤
        sceneView.session.run(configuration)
        
    }
    
   override func viewWillDisappear(_ animated: Bool) {
        super.viewWillDisappear(animated)
        //通過`pause()`暫停
        sceneView.session.pause()
    }

真機直接運行

真機運行第一次會提示相機權限,開啟后顯示出一個3D飛機在相機前。

運行.gif

下面我們創建一張相機截圖顯示在手機屏幕前

通過添加手勢,點擊后生成截屏圖片顯示在手機前。

 @objc func handtap(gestureRecognizer:UITapGestureRecognizer){
        
        guard let currentFrame = sceneView.session.currentFrame else {
            return
        }
        /// 創建圖片
        let imagePlane = SCNPlane(width: sceneView.bounds.width / 6000, height: sceneView.bounds.height / 6000)
        /// 渲染圖片
        imagePlane.firstMaterial?.diffuse.contents = sceneView.snapshot() //截屏
        imagePlane.firstMaterial?.lightingModel = .constant
        /// 創建節點并添加到sceneView上
        let planNode = SCNNode(geometry: imagePlane)
        sceneView.scene.rootNode.addChildNode(planNode)
        /// 追蹤相機位置
        var translate = matrix_identity_float4x4
        translate.columns.3.z = -0.1
        ///取相機里面的數據,放到simdTransform
        planNode.simdTransform = matrix_multiply(currentFrame.camera.transform, translate)
    }

firstMaterial:渲染
sceneView.snapshot():sceneView全部內容展示出來【截屏】
matrix_identity_float4x4:【4x4矩陣,x、y、z、高度的部分】
translate.columns.3.z = -0.1:追蹤的位置是在3軸的z軸-0.1的位置

運行結果

下面我們不用程序默認的模型,我們來創建自己的模型,直接代碼走起

1. 創建一個盒子模型,并進行渲染。

        let scene = SCNScene()
        /// 我們創建幾何模型:盒子
        /// chamferRadius:圓角,等于0時,說明是沒有圓角
        let box = SCNBox(width: 0.1, height: 0.1, length: 0.1, chamferRadius: 0)
        /// 創建節點,傳入幾何
        let boxNode = SCNNode(geometry: box)
        /// 對盒子進行渲染
        /// 創建渲染器
        /// material 渲染器
        let material = SCNMaterial()
        /// 渲染成紅色
        //material.diffuse.contents = UIColor.red
        /// 渲染一張照片
        material.diffuse.contents = UIImage(named: "brick.png")
        /// 渲染盒子
        box.materials = [material]
        /// 設置節點位置
        /// SCNVector3:三維【x,y.z]
        boxNode.position = SCNVector3(0,0,-0.2)
        /// 把結點放到根節點上
        scene.rootNode.addChildNode(boxNode)

        sceneView.scene = scene

運行效果


2. 創建球體模型,再點擊球體后,進行不同圖片的渲染。

@IBOutlet var sceneView: ARSCNView!
    
    let textures = ["earth.jpg","jupiter.jpg","mars.jpg","venus.jpg","IMG_0008.jpg"]
    private var index = 1
    
    override func viewDidLoad() {
        super.viewDidLoad()
        
        // Set the view's delegate
        sceneView.delegate = self
        
        // Show statistics such as fps and timing information
        sceneView.showsStatistics = true
        
        let scene = SCNScene()
        /// 我們創建幾何模型:球體
        let sphere = SCNSphere(radius: 0.1)
        /// 渲染
        let material = SCNMaterial()
        material.diffuse.contents = UIImage(named: "earth.jpg")
        sphere.materials = [material]
        /// 創建節點
        let sphereNode = SCNNode(geometry: sphere)
        sphereNode.position = SCNVector3(0,0,-0.5)
        scene.rootNode.addChildNode(sphereNode)
        
        sceneView.scene = scene
         /// 創建手勢
        registerGestureRecognizers()
    }
    
    func registerGestureRecognizers(){
        let tapGestureRecognizer = UITapGestureRecognizer(target: self, action: #selector(tapped))
        self.sceneView.addGestureRecognizer(tapGestureRecognizer)
    }
    
    @objc func tapped (recognizer: UIGestureRecognizer){
        /// 獲取ARSCNView
        let sceneView = recognizer.view as! ARSCNView
       /// 手勢點擊的位置
        let touchLoaction = recognizer.location(in: sceneView)
       /// 獲取點擊之后的結果
        let hitRersults = sceneView.hitTest(touchLoaction, options: [:])

        if  !hitRersults.isEmpty {
            if index == self.textures.count {
                index = 0
            }
            guard let hitRersult = hitRersults.first else {
                return
            }
          /// 更改渲染的圖片
            let node = hitRersult.node
            node.geometry?.firstMaterial?.diffuse.contents = UIImage(named: textures[index])
            
            index += 1
        }
    }

運行效果


最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容

  • Introducing ARKit iOS 11 引入 ARKit,這是 個全新的框架,允許開發者輕松地為 iP...
    沒八阿哥的程序閱讀 2,485評論 1 9
  • ARkit Introducing ARKit iOS 11引入ARKit,這是 個全新的框架,允許開發者輕松地為...
    坤哥愛卿閱讀 1,397評論 0 1
  • ARKit ARKit框架通過集成iOS設備攝像頭和運動功能,在您的應用程序或游戲中產生增強現實體驗。 概述 增強...
    暗夜夜夜行路閱讀 5,845評論 0 17
  • 從小喜愛繪畫,之前家里有多余的彩色鉛筆,本著不浪費的原則開始了手繪彩鉛,順手書店活動價買了本手繪書,不過也就是過程...
    鯉迷心竅閱讀 1,044評論 1 1
  • ——讀《追風箏的人》有感 我其實很反感讀國外的小說,那拗口的名字和不一樣的文化背景,很難讓人有入境感。不過,《偷影...
    愛君如初閱讀 302評論 0 0