-- 會員 / 註冊 --  
 帳號:
 密碼:
  | 註冊 | 忘記密碼
6/20 新書到! 5/31 新書到! 5/24 新書到! 5/18 新書到!
購書流程Q & A站務留言版客服信箱
3ds MaxMayaRhinoAfter EffectsSketchUpZBrushPainterUnity
PhotoShopAutoCadMasterCamSolidWorksCreoUGRevitNuke
C#CC++Java遊戲程式Linux嵌入式PLCFPGAMatlab
駭客資料庫搜索引擎影像處理FluentVR+ARANSYS深度學習
單晶片AVROpenGLArduinoRaspberry Pi電路設計CadenceProtel
HadoopPythonStm32CortexLabview手機程式AndroidiPhone
可查書名,作者,ISBN,3dwoo書號
詳細書籍分類

計算機視覺中的深度學習

( 簡體 字)
作者:姜竹青,門愛東,王海嬰類別:1. -> 教材 -> 數位影像處理
   2. -> 程式設計 -> 深度學習
譯者:
出版社:電子工業出版社計算機視覺中的深度學習 3dWoo書號: 54749
詢問書籍請說出此書號!

有庫存
NT售價: 490

出版日:6/1/2021
頁數:328
光碟數:0
站長推薦:
印刷:黑白印刷語系: ( 簡體 版 )
加入購物車 加到我的最愛
(請先登入會員)
ISBN:9787121411922
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證)
作者序:

譯者序:

前言:

計算機視覺,顧名思義,是指利用計算機進行圖像和視頻中信息的獲取、分析和處理,使其具有接近人類視覺系統能力的學科。從學術研究的角度,計算機視覺從現實世界中提取高層次的信息,產生特征和語義信息,可理解為人腦將圖像(視網膜的輸入)轉換為可以與其他個體交互并產生影響的信息,也可以看作利用幾何學、物理學、統計學習理論構建模型,并從視覺數據中提煉符號信息的過程。研究人員希望計算機可以像人類一樣,將外界輸入的光信號轉換為對外界的理解與認知,這將會促進人類科技與社會的發展,創造更高的科研價值。
深度學習作為機器學習的一個分支,以人工神經網絡為基本框架,通過數據驅動的方式提取大量的數據規律和特征,它的出現大大提高了諸多機器學習任務的效果。應用在計算機視覺領域外,深度學習在語音識別、自然語言處理、控制工程領域中都被廣泛應用。
我們利用深度學習這一新工具,結合計算機視覺的具體任務編寫此書。我們的研究團隊一線教師,專注圖像編碼、解碼技術30余年,擁有多項課題和研究成果,部分成果曾獲國家科技進步二等獎。2013年之后,我們結合自身優勢,順應人工智能研究復興的趨勢,計算機視覺領域深度耕耘,并針對深度學習的新外延——圖神經網絡進行了研究,本團隊相繼有成果發表在IJCAI、ICME和VCIP等人工智能和多媒體領域的學術會議相關文獻上。本書的部分成果,也來自于本團隊的研究成果。
本書借助圖像處理技術和深度學習方法雙主線結構,針對不同的計算機視覺任務,針對該領域近年的熱點問題和主要解決方案,進行了細致的講解和深入分析,其內容既可以幫助研究生等科研人員快速熟悉該領域發展脈絡和現狀,又可以引發資深從業人員的思考,提供新的研究思路。
本書第1章到第4章介紹計算機視覺的發展和基礎理論;第5章到第11章介紹計算機視覺具體任務,讓讀者進一步理解前文介紹的理論知識,并討論相關任務的經典工作。本書主要作者為姜竹青、門愛東、王海嬰,參加本書編寫的人員及主要分工如下:第1章介紹計算機視覺的基本概念、發展脈絡和主要任務,由梁濤負責編寫;第2章介紹圖像的手工特征等基本知識,由周兆京負責編寫;第3章介紹深度學習的原型——神經網絡的基礎理論與基本概念,由潘婷負責編寫;第4章列舉并介紹主要的深度學習模型,由李凱負責編寫;第5章介紹計算機視覺中的目標分割任務,第6章介紹計算機視覺中的目標檢測任務,和第8章介紹計算機視覺中的行人再識別任務,由姜竹青老師負責編寫;第7章介紹計算機視覺中的目標跟蹤任務,由隗立闊負責編寫;第9章介紹計算機視覺中的圖像壓縮任務,由王小菘王雅楠和劉超見負責編寫;第10章介紹計算機視覺中的超分辨率重建任務,由岑桂彬和汪千淞負責編寫;第11章介紹計算機視覺中的圖像去噪任務,由崔?負責編寫。劉暢和李昊天負責整理全書的參考文獻。全書由姜竹青老師負責統稿,門愛東老師和王海嬰老師參與研討修訂過程,并提出了很多寶貴的意見,彌補了書中的缺漏。
附錄A提供了本書相關術語的單詞縮寫、英文原文及中文解釋。
本書的完成要感謝研究團隊成員的傾力參與。感謝本團隊業已畢業的同學們——崔圓圓、宋輝、趙懷瑾、婁英欣、郭亞靖、黃守志、韓卓、聶凡杰、何珂、莫博瑞、李寧寧、郭天生、鄭蘇桐、胡瀟,于百忙之中抽出時間為本書的編纂給予了大力支持。
最后,由于作者水平有限,本書難免出現紕漏,歡迎各位讀者批評指正。再加之圖像處理本身具有一定主觀特性,深度學習的可解釋性弱等弱點,其中一些觀點未必全面,歡迎各位讀者進行探討。祝大家閱讀愉快!
內容簡介:

人工智能相比于人力而言具有低成本、高效率和全天候等巨大優勢,但其發展往往不能全面滿足實際場景的旺盛需求。近年來人工智能與計算機視覺的結合日益緊密,基于深度學習研究計算機視覺成為一個新方向。深度學習的特點是層次化的特征提取、規模更大、數據更多、計算更復雜。本書從介紹計算機視覺的任務入手,總結從傳統手工提取特征方法到深度學習的發展歷程。然后,針對不同層次的計算機視覺任務,結合作者團隊近年來的研究成果,以及部分學界公認的里程碑式成果,從理論層面論述深度學習在具體計算機視覺任務中的應用。本書作者來自北京郵電大學長期從事多媒體技術教學和研究的一線教師。本書適合從事圖像和視頻的處理和理解的研究人員、相關領域軟件開發人員或研究生閱讀。
目錄:

第1章 計算機視覺及其任務 1
1.1 計算機視覺的定義 1
1.2 計算機視覺的發展沿革 1
1.3 計算機視覺的主要任務及其應用 2
1.3.1 圖像恢復 2
1.3.2 圖像識別 3
1.3.3 動作分析 4
1.3.4 場景重建 5
1.3.5 行人再識別 6
1.4 本章小結 7
本章參考文獻 7
第2章 手工特征 8
2.1 初級圖像特征 8
2.1.1 顏色特征 8
2.1.2 紋理特征 11
2.1.3 形狀特征 12
2.2 中級圖像特征 13
2.2.1 Haar-like特征 14
2.2.2 SIFT特征 16
2.2.3 SURF特征 19
2.3 本章小結 21
本章參考文獻 21
第3章 神經網絡基礎理論 23
3.1 神經元概述 23
3.1.1 感知器 23
3.1.2 激活函數 24
3.1.3 神經元模型 28
3.2 神經網絡基礎結構 28
3.2.1 兩層神經網絡模型 28
3.2.2 前饋神經網絡和循環神經網絡 29
3.2.3 神經網絡中的參數 30
3.3 神經網絡訓練 31
3.3.1 權重初始化 31
3.3.2 偏置初始化 32
3.3.3 前向傳播 32
3.3.4 損失函數 32
3.3.5 反向傳播 33
3.3.6 參數更新 35
3.3.7 批歸一化 37
3.3.8 正則化 38
3.4 常見的神經元模型 40
3.4.1 空間信息處理單元 40
3.4.2 時間信息處理單元 41
3.5 本章小結 43
本章參考文獻 44
第4章 神經網絡結構 46
4.1 LENET5 46
4.2 ALEXNET 48
4.3 VGGNET 50
4.4 INCEPTION 53
4.5 RESNET 55
4.6 DENSENET 57
4.7 MOBILENET 60
4.8 FCN 63
4.9 本章小結 71
本章參考文獻 71
第5章 目標分割 73
5.1 目標分割技術概述 73
5.1.1 目標分割技術基本理論與模型 73
5.1.2 目標分割技術概述 74
5.1.3 評價標準 77
5.2 基于深度學習多路徑特征融合的圖像語義分割 79
5.2.1 特點 79
5.2.2 基于VGGNet的多路徑特征融合算法 80
5.2.3 基于ResNet的多路徑特征融合算法 85
5.3 基于模糊邏輯的多特征視頻運動目標分割 88
5.3.1 特點 88
5.3.2 算法 88
5.3.3 實驗 96
5.4 目標分割未來趨勢 98
本章參考文獻 99
第6章 目標檢測 102
6.1 目標檢測算法概述 102
6.1.1 算法概述 102
6.1.2 評價指標 104
6.2 傳統目標檢測方法 106
6.2.1 區域選擇算法 106
6.2.2 典型人工圖像特征 106
6.2.3 分類器類型及訓練 106
6.3 基于候選區域的目標檢測方法 110
6.3.1 R-CNN的實現 110
6.3.2 SPP-net的實現 111
6.3.3 Fast R-CNN的實現 112
6.3.4 Faster R-CNN的實現 113
6.4 基于回歸的目標檢測 115
6.4.1 YOLO的實現 115
6.4.2 SSD的實現 117
6.4.3 YOLOv2的改進 119
6.5 改進算法拾萃 122
6.5.1 困難樣本挖掘 122
6.5.2 YOLOv2損失函數 123
6.5.3 基于上下文信息的SSD改進 124
6.5.4 多特征多尺度融合 126
6.6 目標檢測未來趨勢 129
本章參考文獻 130
第7章 目標跟蹤 132
7.1 目標跟蹤技術概述 132
7.1.1 目標跟蹤算法基本理論與模型 132
7.1.2 目標跟蹤算法概述 133
7.1.3 評價標準 135
7.2 平衡正負樣本權重的多示例學習跟蹤算法 136
7.2.1 MIL跟蹤算法 136
7.2.2 平衡正負樣本權重 138
7.3 基于核化相關濾波器的視覺目標跟蹤算法研究與改進 143
7.3.1 基于相關濾波器的目標跟蹤算法 143
7.3.2 自適應模板更新的目標跟蹤算法 150
7.3.3 CNN和相關濾波結合的跟蹤算法 158
7.4 基于中心對比CNN的目標跟蹤算法研究 169
7.4.1 逐任務驅動的CNN目標跟蹤算法 169
7.4.2 中心對比CNN目標跟蹤算法 170
7.4.3 小運動優先的視覺目標跟蹤算法 175
7.5 目標跟蹤未來趨勢 180
本章參考文獻 180
第8章 行人再識別 183
8.1 行人再識別技術概述 183
8.1.1 行人再識別技術基本理論與模型 183
8.1.2 行人再識別技術簡介 184
8.1.3 評價標準 186
8.2 基于ADARANK進行特征集成的行人再識別算法 188
8.2.1 算法特點 188
8.2.2 算法細節 188
8.2.3 實驗結果 200
8.3 基于增強深度特征的行人再識別算法 206
8.3.1 算法特點 206
8.3.2 引入注意力機制的網絡模型 207
8.3.3 引入手工特征:LOMO特征融合到多級注意力識別—驗證網絡 215
8.4 基于屬性和身份特征融合的行人再識別算法 221
8.4.1 特點 221
8.4.2 算法 222
8.4.3 實驗 230
8.5 行人再識別未來趨勢 236
本章參考文獻 237
第9章 圖像壓縮 242
9.1 有損壓縮和無損壓縮 242
9.1.1 無損壓縮 242
9.1.2 有損壓縮 243
9.2 經典的有損圖像壓縮方法 243
9.2.1 JPEG 243
9.2.2 JPEG 2000 243
9.2.3 BPG 244
9.3 基于深度學習的圖像壓縮技術 244
9.4 基于空間能量壓縮的圖像壓縮 244
9.4.1 算法特點 244
9.4.2 算法細節 245
9.4.3 實驗結果 249
9.5 利用卷積神經網絡進行內容加權的圖像壓縮 249
9.5.1 算法特點 249
9.5.2 算法細節 250
9.5.3 實驗結果 254
9.6 基于生成式對抗網絡的圖像壓縮 255
9.6.1 算法特點 255
9.6.2 算法細節 255
9.6.3 實驗結果 257
9.7 圖像壓縮未來趨勢 257
本章參考文獻 258
第10章 超分辨率重建 259
10.1 超分辨率技術概述 259
10.1.1 超分辨率技術的基本理論與模型 259
10.1.2 超分辨率技術概述 261
10.2 基于深度殘差網絡注意力機制的圖像超分辨率重建 263
10.2.1 存在的問題 263
10.2.2 提出的解決方案 264
10.2.3 具體實現細節 264
10.2.4 實驗結果比較分析 267
10.3 基于增強的可變形卷積網絡的視頻超分辨率 271
10.3.1 視頻超分辨率 271
10.3.2 存在的問題 272
10.3.3 針對存在的問題提出的解決方案 272
10.3.4 具體實現 274
10.3.5 實驗對比 277
10.4 真實原始傳感器數據的超分辨率重建 278
10.4.1 存在的問題 278
10.4.2 針對問題提出的解決方案 279
10.4.3 具體實現細節 279
10.4.4 實驗對比 281
10.5 超分辨率重建未來趨勢 283
本章參考文獻 284
第11章 圖像去噪技術 287
11.1 圖像去噪技術概述 287
11.1.1 圖像去噪基本理論與模型 287
11.1.2 圖像去噪算法 287
11.1.3 評價標準 292
11.2 去噪卷積神經網絡 293
11.2.1 算法特點 293
11.2.2 存在問題 294
11.2.3 算法細節 294
11.2.4 實驗結果 295
11.3 盲去噪卷積神經網絡 299
11.3.1 算法特點 299
11.3.2 存在問題 299
11.3.3 算法細節 299
11.3.4 實驗 302
11.4 真實圖像去噪神經網絡 307
11.4.1 特點 307
11.4.2 存在問題 307
11.4.3 算法細節 307
11.4.4 實驗 310
11.4.5 總結 312
11.5 圖像去噪未來趨勢 312
本章參考文獻 312
附錄A 術語與縮略詞表 313
序: