|
-- 會員 / 註冊 --
|
|
|
|
低速無人駕駛技術實戰 ( 簡體 字) |
作者:劉元盛 | 類別:1. -> 電子工程 -> 無人機 |
譯者: |
出版社:電子工業出版社 | 3dWoo書號: 55848 詢問書籍請說出此書號!【有庫存】 NT售價: 330 元 |
出版日:5/1/2022 |
頁數:304 |
光碟數:0 |
|
站長推薦: |
印刷:黑白印刷 | 語系: ( 簡體 版 ) |
|
加入購物車 │加到我的最愛 (請先登入會員) |
ISBN:9787121433672 |
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 序 |
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證) |
作者序: |
譯者序: |
前言:進入20世紀90年代后,無人駕駛技術在國內外得到了快速的發展,但是無人駕駛技術涉及面廣,相關技術人才緊缺,也缺乏完備的人才培養體系及相關教材。隨著國家高等學校“新工科”和“雙高計劃”建設的全面實施,以無人駕駛技術為切入點,對接科技發展趨勢,以技術積累為紐帶,建設集人才培養、團隊建設、技術服務于一體,資源共享、機制靈活、產出高效的人才培養與技術創新平臺,打造高水平的專業教學資源顯得尤為重要。
北京聯合大學“旋風智能車”團隊成立于2014年,是在人工智能專家、中國工程院院士李德毅的指導下,由北京聯合大學機器人學院劉元盛教授帶領,專注于特定環境下低速無人駕駛應用的科研、教學一體化團隊。團隊以“科學研究帶動人才培養”為核心理念,自2017年起推出一系列無人駕駛技術人才培養建設方案,其內容涵蓋無人駕駛技術的基礎理論課程和實踐教學平臺,并已在全國近30所高校得到初步應用。
2019年,團隊出版的專著《低速無人駕駛原理及應用》已經成為整個培養方案的核心理論教材,而本書的內容則側重于無人駕駛的實踐教學環節。本書以北京聯合大學“旋風智能車”團隊的無人駕駛實驗平臺為例,基于Ubuntu系統和ROS框架,針對無人駕駛的感知層、認知決策層和車輛控制層的核心技術開展相關實驗教學。本所設計的實驗內容均基于科研團隊多年的技術積累,并根據高等學校的教學特點進行了優化,書中實驗案例均提供較為完整的示例代碼和部分教學視頻,使初學者更容易理解和掌握。本書的配套資源可在華信教育資源網免費下載.
本書主編劉元盛負責制定本書的編寫大綱和全書的統稿工作。劉元盛編寫了第1、5章,第2章的2.1、2.8、2.9、2.13、2.14節,第3章的3.1、3.2節及第4章的4.4、4.5節;張軍編寫了第2章的2.5、2.6、2.7節及第4章的4.2、4.3節;楊建鎖編寫了第2章的2.12節,第3章的3.3、3.4、3.5節及第4章的4.6節;郭笑笑編寫了第2章的2.10、2.11節和第4章的4.1節;婁海濤編寫了第2章的2.2、2.3、2.4節。
在本書的編寫和出版過程中,得到了中國工程院院士李德毅的大力支持與指正,在此深表感謝。北京聯合大學無人駕駛科研團隊的馬楠教授、韓璽老師、路銘老師、徐志軍教授和北京交通大學的李維敏老師對本書提出了寶貴建議,在此一并感謝。同時還要感謝參與本書實驗驗證的李中道、常飛翔、張鑫辰、任麗軍、鐘科娣、謝龍洋、寧強、王程、劉子建和宋慶鵬。
本書的編寫和出版得到了北京市科學技術委員會“科技創新基地培育與發展工程第二部分”項目和“北京聯合大學人才強校優選計劃”項目經費的資助。無人駕駛技術在飛速的發展中,由于作者水平有限,書中難免存在錯誤及不足之處,敬請廣大讀者批評指正。
作者的電子信箱。
劉元盛
于北京聯合大學 |
內容簡介:本書是基于北京聯合大學"旋風智能車”團隊多年來在無人駕駛技術領域的積累而編寫的面向本科層次的無人駕駛技術實踐類教材。 全書共5章,第1章介紹無人駕駛技術及本書所用的無人駕駛教學系統與實驗平臺的基本情況和使用規范。第2章主要介紹無人駕駛技術感知層中各種傳感器的基本應用實驗,包括單目相機、雙目相機、毫米波雷達、多維激光雷達、超聲波雷達、差分導航基準站等常用設備的安裝、標定和常用算法的實現。第3章 介紹通過CAN總線控制線控車輛底盤完成自動轉向、自動速度控制和自動輔助信號控制的基本方法。第4章為無人車綜合應用實驗,包含軌跡跟蹤、多傳感器融合、定速巡航、自適應巡航和激光雷達SLAM建圖等核心實驗。第5章是基于深度學習的圖像檢測方法綜合實驗,以YOLOv3算法為例,完成了基于計算機視覺的交通信號燈檢測與識別。 本書中的實驗基于Ubuntu系統和ROS框架完成,配有示例代碼和部分教學視頻。本書適合從事無人駕駛技術研發工作的工程技術人員閱讀,可作為高等學校無人駕駛實踐課程的教材。 |
目錄:第1章 無人駕駛技術及教學系統與
實驗平臺 1
1.1 無人駕駛技術 1
1.1.1 感知層 1
1.1.2 認知決策層 1
1.1.3 車輛控制層 2
1.2 無人駕駛教學系統說明 2
1.2.1 無人駕駛教學系統的需求 2
1.2.2 無人駕駛教學系統的構成 2
1.2.3 課程資源 3
1.3 無人駕駛實驗平臺介紹 4
1.3.1 旋風4座智能車 5
1.3.2 旋風小AI智能車 5
1.4 無人駕駛實驗平臺安全使用
說明 6
1.4.1 安全警示 6
1.4.2 對使用人員的要求 7
1.4.3 使用前的檢查 7
1.4.4 使用中的要求 7
1.4.5 使用后的要求 7
1.4.6 車輛充電的要求 7
第2章 無人車傳感器基本實驗 8
2.1 實驗軟件環境概述 8
2.1.1 ROS環境安裝及相關配置 8
2.1.2 工程開發示例簡介 19
2.2 單目相機的安裝與標定 26
2.2.1 實驗背景與原理 26
2.2.2 實驗目的 27
2.2.3 實驗環境 27
2.2.4 實驗內容 28
2.2.5 實驗步驟 28
2.3 單目相機的應用 32
2.3.1 基本背景與原理 32
2.3.2 實驗目的 32
2.3.3 實驗環境 32
2.3.4 實驗內容 33
2.3.5 實驗步驟 33
2.3.6 實驗結果與分析 39
2.4 雙目相機的標定 42
2.4.1 實驗背景與原理 42
2.4.2 實驗目的 44
2.4.3 實驗環境 44
2.4.4 實驗內容 44
2.4.5 實驗步驟 45
2.5 毫米波雷達的數據解析與測試 50
2.5.1 實驗背景與原理 50
2.5.2 實驗目的 52
2.5.3 實驗環境 52
2.5.4 實驗內容 52
2.5.5 實驗步驟 53
2.5.6 實驗結果與分析 58
2.6 多維激光雷達的安裝、標定與
數據解析 63
2.6.1 實驗背景與原理 63
2.6.2 實驗目的 71
2.6.3 實驗環境 71
2.6.4 實驗內容 72
2.6.5 實驗步驟 72
2.6.6 實驗結果與分析 76
2.7 多維激光雷達點云聚類 77
2.7.1 實驗背景與原理 77
2.7.2 實驗目的 79
2.7.3 實驗環境 79
2.7.4 實驗內容 79
2.7.5 實驗步驟 79
2.7.6 實驗結果與分析 82
2.8 超聲波雷達的數據解析 84
2.8.1 實驗背景與原理 84
2.8.2 實驗目的 86
2.8.3 實驗環境 86
2.8.4 實驗內容 86
2.8.5 實驗步驟 86
2.8.6 實驗結果與分析 87
2.9 差分導航基準站的架設與
配置 89
2.9.1 實驗背景與原理 89
2.9.2 實驗目的 90
2.9.3 實驗環境 91
2.9.4 實驗內容 91
2.9.5 實驗步驟 91
2.9.6 實驗結果與分析 96
2.9.7 實驗內容擴展 96
2.10 差分定位系統解析 96
2.10.1 實驗背景與原理 96
2.10.2 實驗目的 100
2.10.3 實驗環境 100
2.10.4 實驗內容 100
2.10.5 實驗步驟 101
2.10.6 實驗結果與分析 109
2.11 差分導航規劃 111
2.11.1 實驗背景與原理 111
2.11.2 實驗目的 115
2.11.3 實驗環境 115
2.11.4 實驗內容 115
2.11.5 實驗步驟 116
2.11.6 實驗結果與分析 120
2.12 IMU的安裝與標定 123
2.12.1 實驗背景與原理 123
2.12.2 實驗目的 124
2.12.3 實驗環境 124
2.12.4 實驗內容 124
2.12.5 實驗步驟 125
2.13 UWB的安裝與測試 131
2.13.1 實驗背景與原理 131
2.13.2 實驗目的 136
2.13.3 實驗環境 136
2.13.4 實驗內容 136
2.13.5 實驗步驟 136
2.13.6 實驗內容擴展 138
2.14 UWB的數據解析及定位 140
2.14.1 實驗背景與原理 140
2.14.2 實驗目的 141
2.14.3 實驗環境 141
2.14.4 實驗內容 141
2.14.5 實驗步驟 142
2.14.6 實驗結果與分析 147
第3章 線控車輛控制應用實驗 150
3.1 線控車輛技術概述 150
3.1.1 線控車輛的基本結構 150
3.1.2 CAN總線通信基本知識 151
3.1.3 CAN總線通信協議實例 153
3.1.4 CAN模塊的選擇和使用
方法 155
3.1.5 CAN模塊的安裝方法 156
3.1.6 UDP通信協議 156
3.1.7 線控底盤實驗平臺介紹 156
3.2 CAN總線調試實驗 157
3.2.1 實驗背景與原理 157
3.2.2 實驗目的 160
3.2.3 實驗環境 161
3.2.4 實驗內容 161
3.2.5 實驗步驟 161
3.2.6 實驗結果與分析 167
3.3 線控轉向實驗 170
3.3.1 實驗背景與原理 170
3.3.2 實驗目的 171
3.3.3 實驗環境 171
3.3.4 實驗內容 171
3.3.5 實驗步驟 171
3.3.6 實驗結果與分析 176
3.4 線控擋位與速度實驗 179
3.4.1 實驗背景與原理 179
3.4.2 實驗目的 179
3.4.3 實驗環境 179
3.4.4 實驗內容 180
3.4.5 實驗步驟 180
3.4.6 實驗結果與分析 185
3.5 線控輔助信號實驗 187
3.5.1 實驗背景與原理 187
3.5.2 實驗目的 190
3.5.3 實驗環境 190
3.5.4 實驗內容 190
3.5.5 實驗步驟 190
3.5.6 實驗結果與分析 196
第4章 無人車綜合應用實驗 198
4.1 基于GNSS導航的軌跡跟蹤
實驗 198
4.1.1 實驗背景與原理 198
4.1.2 實驗目的 198
4.1.3 實驗環境 198
4.1.4 實驗內容 199
4.1.5 實驗步驟 199
4.1.6 實驗結果與分析 212
4.2 毫米波與激光雷達的數據融合
實驗 214
4.2.1 實驗背景與原理 214
4.2.2 實驗目的 216
4.2.3 實驗環境 216
4.2.4 實驗內容 217
4.2.5 實驗步驟 217
4.2.6 實驗結果與分析 227
4.3 視覺與激光雷達的聯合標定
實驗 229
4.3.1 實驗背景與原理 229
4.3.2 實驗目的 230
4.3.3 實驗環境 230
4.3.4 實驗內容 231
4.3.5 實驗步驟 231
4.3.6 實驗結果與分析 237
4.4 車輛定速巡航實驗 238
4.4.1 實驗背景與原理 238
4.4.2 實驗目的 239
4.4.3 實驗環境 239
4.4.4 實驗內容 239
4.4.5 實驗步驟 239
4.4.6 實驗結果與分析 244
4.5 車輛自適應巡航仿真實驗 246
4.5.1 實驗背景與原理 246
4.5.2 實驗目的 247
4.5.3 實驗環境 247
4.5.4 實驗內容 247
4.5.5 實驗步驟 247
4.5.6 實驗結果與分析 250
4.6 激光雷達SLAM建圖實驗 252
4.6.1 實驗背景與原理 252
4.6.2 實驗目的 255
4.6.3 實驗環境 255
4.6.4 實驗內容 255
4.6.5 實驗步驟 255
4.6.6 實驗結果與分析 258
第5章 基于深度學習的圖像檢測方法
綜合實驗 263
5.1 原理概述 263
5.1.1 基于圖像的目標檢測方法 263
5.1.2 交通信號燈檢測與識別
方法 264
5.1.3 YOLOv3算法介紹 264
5.2 實驗內容 268
5.2.1 基本流程 268
5.2.2 實驗目的 269
5.2.3 實驗環境 269
5.3 實驗步驟 270
5.3.1 數據樣本采集與預處理 270
5.3.2 數據樣本標注 275
5.3.3 數據集劃分 277
5.3.4 搭建深度學習環境 280
5.3.5 深度學習模型的應用 285
5.3.6 深度學習實驗結果檢測 289
5.4 實驗結果與分析 290
5.4.1 檢測結果 290
5.4.2 檢測結果分析 292
5.5 實驗內容擴展 293 |
序: |
|