|
-- 會員 / 註冊 --
|
|
|
|
AR開發權威指南 基于AR Foundation ( 簡體 字) |
作者:汪祥春 | 類別:1. -> 程式設計 -> VR+AR |
譯者: |
出版社:人民郵電出版社 | 3dWoo書號: 53507 詢問書籍請說出此書號!【缺書】 NT售價: 445 元 |
出版日:10/1/2020 |
頁數:297 |
光碟數:0 |
|
站長推薦: |
印刷:黑白印刷 | 語系: ( 簡體 版 ) |
|
加入購物車 │加到我的最愛 (請先登入會員) |
ISBN:9787115544797 |
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 序 |
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證) |
作者序: |
譯者序: |
前言: |
內容簡介:本書第1章介紹AR技術原理和AR Foundation概況,講述用Unity開發AR應用的環境配置及調試方法,第2章對AR Foundation體系架構及關鍵組件、核心功能技術進行深入探討,第3章講述平面檢測識別及參考點相關知識,第4章介紹2D圖像與3D物體的檢測識別跟蹤知識,第5章介紹人臉檢測、人臉表情捕捉、人臉特效實現的相關技術,第6章介紹光照估計、環境光反射、AR陰影生成的相關知識,第7章討論云錨點、持久化存儲、AR多人體驗共享的相關知識,第8章介紹攝像頭圖像獲取及自定義渲染管線的相關知識,第9章討論2D、3D人體姿態估計及人形遮擋的相關知識,第10章講述攝像機及手勢操作的相關知識,第11章討論在AR應用中使用3D音、視頻的相關知識,第12章講述開發AR應用的設計原則與設計指南,第13章討論AR開發時的性能問題排查及優化技術。 本書適合AR Foundation初學者、Unity開發人員閱讀,也可以作為大專院校相關專業師生的學習用書以及培訓學校的教材。 |
目錄:第 1章 AR Foundation入門 1 1.1 增強現實技術概述 1 1.1.1 AR概述 1 1.1.2 AR技術 2 1.1.3 AR技術應用 4 1.2 AR技術原理 4 1.2.1 位置追蹤 4 1.2.2 視覺校準 6 1.2.3 慣性校準 7 1.2.4 3D重建 7 1.3 AR Foundation概述 8 1.3.1 AR Foundation與ARCore/ARKit 8 1.3.2 AR Foundation 支持的功能 9 1.3.3 AR Foundation 功能概述 10 1.3.4 AR Foundation體系 架構概述 11 1.3.5 基本術語 11 1.4 開發環境準備 13 1.5 Android開發環境配置 16 1.5.1 插件導入 16 1.5.2 設置開發環境 17 1.5.3 搭建基礎框架 19 1.5.4 AppController 21 1.5.5 運行Helloworld 22 1.6 連接設備調試應用 24 1.6.1 打開手機USB調試 24 1.6.2 設置手機Wi-Fi調試 25 1.6.3 調試AR應用 26 1.7 iOS開發環境配置 27 1.7.1 插件導入 27 1.7.2 設置開發環境 29 1.7.3 搭建基礎框架 30 1.7.4 AppController 32 1.7.5 生成并配置XCode工程 34 1.7.6 運行Helloworld 36 第 2章 AR Foundation基礎 39 2.1 AR Foundation體系架構 39 2.1.1 AR子系統概念 40 2.1.2 AR子系統使用 40 2.1.3 跟蹤子系統 41 2.2 AR Session & AR Session Origin 42 2.2.1 AR Session 42 2.2.2 AR Session Origin 44 2.3 可跟蹤對象 46 2.3.1 可跟蹤對象管理器 47 2.3.2 可跟蹤對象事件 47 2.3.3 管理可跟蹤對象 48 2.4 Session管理 49 第3章 平面檢測與參考點管理 51 3.1 平面管理 51 3.1.1 平面檢測 51 3.1.2 可視化平面 52 3.1.3 個性化渲染平面 52 3.1.4 開啟與關閉平面檢測 55 3.1.5 顯示與隱藏已檢測平面 57 3.2 射線檢測 58 3.2.1 射線檢測概念 59 3.2.2 射線檢測詳解 60 3.3 點云與參考點 61 3.3.1 點云 61 3.3.2 參考點 63 3.4 平面分類 66 第4章 圖像與物體檢測跟蹤 69 4.1 2D圖像檢測跟蹤 69 4.1.1 圖像跟蹤基本操作 69 4.1.2 圖像跟蹤啟用與禁用 71 4.1.3 多圖像跟蹤 72 4.1.4 運行時創建參考圖像庫 76 4.1.5 運行時切換參考圖像庫 76 4.1.6 運行時添加參考圖像 78 4.2 3D物體檢測跟蹤 80 4.2.1 獲取參考物體空間 特征信息 81 4.2.2 掃描獲取物體空間特征 信息的注意事項 83 4.2.3 AR Tracked Object Manager 84 4.2.4 3D物體識別跟蹤基本操作 85 4.2.5 3D物體跟蹤啟用與禁用 86 4.2.6 多物體識別跟蹤 87 第5章 人臉檢測跟蹤 90 5.1 人臉檢測基礎 90 5.1.1 人臉檢測概念 90 5.1.2 人臉檢測技術基礎 91 5.2 人臉姿態與網格 92 5.2.1 人臉姿態 92 5.2.2 人臉網格 94 5.3 人臉區域與多人臉檢測 97 5.3.1 人臉區域 97 5.3.2 多人臉檢測 100 5.4 BlendShapes 101 5.4.1 BlendShapes基礎 102 5.4.2 BlendShapes技術原理 103 5.4.3 BlendShapes的使用 105 第6章 光影效果 108 6.1 光照基礎 108 6.1.1 光源 108 6.1.2 光與材質的交互 109 6.1.3 3D渲染 110 6.2 光照估計 111 6.2.1 3D光照 111 6.2.2 光照一致性 112 6.2.3 光照估計操作 112 6.3 環境光反射 115 6.3.1 Cubemap 115 6.3.2 PBR渲染 116 6.3.3 Reflection Probe 117 6.3.4 紋理采樣過濾 118 6.3.5 使用Environment Probe 119 6.3.6 AR Environment Probe Manager 121 6.3.7 性能優化 123 6.4 使用內置實時陰影 124 6.4.1 ShadowMap技術原理 124 6.4.2 使用實時陰影 125 6.4.3 陰影參數詳解 129 6.5 Projector陰影 130 6.5.1 ProjectorShadow 131 6.5.2 BlobShadow 133 6.5.3 參數詳解 134 6.6 Planar陰影 134 6.6.1 數學原理 135 6.6.2 代碼實現 136 6.7 偽陰影 140 6.7.1 預先制作陰影 141 6.7.2 一種精確放置物體的方法 142 第7章 持久化存儲與多人共享 145 7.1 錨點 145 7.1.1 錨點概述 145 7.1.2 使用錨點 146 7.1.3 云錨點 146 7.2 ARWorldMap 148 7.2.1 ARWorldMap概述 148 7.2.2 ARWorldMap實例 149 7.3 協作Session 152 7.3.1 協作Session概述 153 7.3.2 協作Session實例 156 7.3.3 使用協作Session的 注意事項 160 第8章 攝像機圖像獲取與 自定義渲染管線 162 8.1 獲取GPU圖像 162 8.1.1 獲取攝像頭原始圖像 162 8.1.2 獲取屏幕顯示圖像 163 8.2 獲取CPU圖像 165 8.2.1 AR攝像機圖像數據流 166 8.2.2 從CPU中獲取攝像頭圖像 166 8.3 邊緣檢測原理 173 8.3.1 卷積 173 8.3.2 Sobel算子 174 8.4 CPU圖像邊緣檢測實例 175 8.5 可編程渲染管線 178 第9章 肢體動捕與遮擋 181 9.1 2D人體姿態估計 181 9.1.1 人體骨骼關鍵點檢測 181 9.1.2 使用2D人體姿態估計 182 9.2 3D人體姿態估計 185 9.2.1 使用3D人體姿態 估計的方法 185 9.2.2 使用3D人體姿態 估計實例 194 9.3 人形遮擋 195 9.3.1 人形遮擋原理 196 9.3.2 人形遮擋實現 198 第 10章 攝像機與手勢操作 202 10.1 場景操作 202 10.1.1 場景操作方法 202 10.1.2 場景操作實例 203 10.2 同時開啟前后攝像頭 204 10.3 環境交互 207 10.3.1 射線檢測 207 10.3.2 手勢檢測 208 10.4 手勢控制 210 10.4.1 單物體操控 210 10.4.2 多物體場景操控單 物體對象 212 10.4.3 多物體操控 215 10.4.4 物體操控模塊 218 第 11章 3D音視頻 220 11.1 3D音頻 220 11.1.1 3D聲場原理 221 11.1.2 聲波與雙耳間的互動 222 11.1.3 頭部關聯傳導函數 223 11.1.4 頭部轉動與聲音位置 223 11.1.5 早期反射和混音 223 11.1.6 聲音遮擋 224 11.1.7 指向性 225 11.1.8 Ambisonics 225 11.1.9 下載Resonance Audio SDK 226 11.1.10 導入SDK 226 11.1.11 Resonance Audio components 226 11.1.12 使用共振音頻 227 11.1.13 Room effects 230 11.1.14 Resonance Audio API 231 11.2 3D視頻 232 11.2.1 Video Player組件 232 11.2.2 3D視頻播放實現 234 第 12章 設計原則 238 12.1 移動AR帶來的挑戰 238 12.1.1 用戶必須移動 238 12.1.2 要求手持設備 239 12.1.3 要求必須將手機 放在臉前 239 12.1.4 操作手勢 239 12.1.5 用戶必須打開App 240 12.2 移動AR設計準則 240 12.2.1 有用或有趣 240 12.2.2 虛擬和真實的混合 必須有意義 240 12.2.3 移動限制 241 12.2.4 心理預期與維度轉換 241 12.2.5 環境影響 241 12.2.6 視覺效果 242 12.2.7 UI設計 242 12.2.8 沉浸式交互 243 12.3 移動AR設計指南 243 12.3.1 環境 244 12.3.2 用戶細節 245 12.3.3 虛擬內容 247 12.3.4 交互 252 12.3.5 視覺設計 256 12.3.6 真實感 260 第 13章 性能優化 264 13.1 移動平臺性能優化基礎 264 13.1.1 影響性能的主要因素 264 13.1.2 AR常用調試方法 265 13.1.3 Unity Profiler 266 13.1.4 Frame Debugger 270 13.2 Unity Profiler使用 271 13.2.1 CPU使用情況分析器 272 13.2.2 渲染情況分析器 274 13.2.3 內存使用情況分析器 274 13.2.4 物理分析器 275 13.2.5 音視頻分析器 276 13.2.6 UI分析器 277 13.2.7 全局光照分析器 277 13.3 性能優化的一般步驟 278 13.3.1 收集運行數據 278 13.3.2 分析運行數據 279 13.3.3 確定問題原因 281 13.4 移動設備性能優化 283 13.5 渲染優化 284 13.5.1 渲染流程 284 13.5.2 CPU瓶頸 285 13.5.3 GPU瓶頸 288 13.6 代碼優化 289 13.6.1 內存管理 289 13.6.2 垃圾回收 290 13.6.3 對象池 293 13.7 UI優化 294 13.7.1 UI Drawcall優化 295 13.7.2 動靜分離 295 13.7.3 圖片優化 296 參考文獻 298 |
序: |
|