-- 會員 / 註冊 --  
 帳號:
 密碼:
  | 註冊 | 忘記密碼
3/26 新書到! 3/19 新書到! 3/14 新書到! 12/12 新書到!
購書流程Q & A站務留言版客服信箱
3ds MaxMayaRhinoAfter EffectsSketchUpZBrushPainterUnity
PhotoShopAutoCadMasterCamSolidWorksCreoUGRevitNuke
C#CC++Java遊戲程式Linux嵌入式PLCFPGAMatlab
駭客資料庫搜索引擎影像處理FluentVR+ARANSYS深度學習
單晶片AVROpenGLArduinoRaspberry Pi電路設計CadenceProtel
HadoopPythonStm32CortexLabview手機程式AndroidiPhone
可查書名,作者,ISBN,3dwoo書號
詳細書籍分類

深度學習圖解

( 簡體 字)
作者:[美]安德魯·特拉斯克(Andrew W. Trask)著 類別:1. -> 程式設計 -> 深度學習
譯者:王曉雷 嚴烈 譯
出版社:清華大學出版社深度學習圖解 3dWoo書號: 52265
詢問書籍請說出此書號!

缺書
NT售價: 495

出版日:1/1/2020
頁數:270
光碟數:0
站長推薦:
印刷:黑白印刷語系: ( 簡體 版 )
加入購物車 加到我的最愛
(請先登入會員)
ISBN:9787302540991
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證)
作者序:

譯者序:

前言:

這本《深度學習圖解》是我三年艱苦努力的成果。為了完成你手中所握的這本書,我實際撰寫的篇幅至少是你現在看到的兩倍。在《深度學習圖解》準備出版之前,有六個章節被從頭重寫了三到四次,同時,在這個過程中,一些計劃之外的重要章節也被添加進來。
更重要的是,我很早就做出了兩個決定,這兩個決定使這本《深度學習圖解》具有獨特的價值。首先,除了基礎的算術之外,這《深度學習圖解》不需要讀者具有任何數學背景,其次,它不依賴于那些可能隱藏著運行細節的高級庫。換句話說,任何人都可以讀懂《深度學習圖解》,了解深度學習真正的工作方式。為達到這個目的,我必須尋找一些新的方法來描述和講授書中的核心思想和技術,而不是依賴于別人編寫的高等數學或復雜代碼。
寫作這本《深度學習圖解》的目的是為深度學習的入門實踐盡可能掃除障礙。在《深度學習圖解》中,你不只需要閱讀理論,更要靠自己發現深度學習的真諦。為了幫助你實現這一點,我編寫了大量代碼,并盡我所能以正確的順序解釋它——使得書中演示的每一段代碼都容易理解。
深入淺出的知識,加上你將在《深度學習圖解》中探索的所有理論、代碼和示例,將使你以最快的速度完成各種實驗。你可以更快地獲得成功,得到更好的工作機會,甚至能夠更快地掌握更先進的深度學習概念。
在過去的三年里,我不僅寫了這本書,還收到了牛津大學的博士錄取通知書,加入了谷歌的團隊,進行了前沿研究——開發了一個去中心化的公司人工智能平臺,名為OpenMined。《深度學習圖解》是我多年思考、學習和教學的結晶。
當然,深度學習還有其他很多資源。我很高興你能選擇閱讀《深度學習圖解》。
內容簡介:

深度學習的基礎科學原理,自行設計和訓練神經網絡,隱私保護的知識,包括聯邦學習,幫助你繼續深度學習之旅的建議。
目錄:

第1章深度學習簡介:為什么應該學習深度學習1
1.1 歡迎閱讀《深度學習圖解》1
1.2 為什么要學習深度學習2
1.3 這很難學嗎?3
1.4 為什么要閱讀本書3
1.5 準備工作4
1.6 你可能需要掌握一部分Python知識5
1.7 本章小結6
第2章基本概念:機器該如何學習?7
2.1 什么是深度學習?7
2.2 什么是機器學習?8
2.3 監督機器學習9
2.4 無監督機器學習10
2.5 參數學習和非參數學習10
2.6 監督參數學習11
2.7 無監督參數學習13
2.8 非參數學習14
2.9 本章小結15
第3章神經網絡預測導論:前向傳播17
3.1 什么是預測17
3.2 能夠進行預測的簡單神經網絡19
3.3 什么是神經網絡?20
3.4 這個神經網絡做了什么?21
3.5 使用多個輸入進行預測23
3.6 多個輸入:這個神經網絡做了什么?24
3.7 多個輸入:完整的可運行代碼29
3.8 預測多個輸出30
3.9 使用多個輸入和輸出進行預測32
3.10 多輸入多輸出神經網絡的工作原理33
3.11 用預測結果進一步預測35
3.12 NumPy快速入門37
3.13 本章小結40
第4章神經網絡學習導論:梯度下降41
4.1 預測、比較和學習41
4.2 什么是比較42
4.3 學習42
4.4 比較:你的神經網絡是否做出了好的預測?43
4.5 為什么需要測量誤差?44
4.6 最簡單的神經學習形式是什么?45
4.7 冷熱學習46
4.8 冷熱學習的特點47
4.9 基于誤差調節權重48
4.10 梯度下降的一次迭代50
4.11 學習就是減少誤差52
4.12 回顧學習的步驟54
4.13 權重增量到底是什么?55
4.14 狹隘的觀點57
4.15 插著小棍的盒子58
4.16 導數:兩種方式59
4.17 你真正需要知道的60
4.18 你不需要知道的60
4.19 如何使用導數來學習61
4.20 看起來熟悉嗎?62
4.21 破壞梯度下降63
4.22 過度修正的可視化64
4.23 發散65
4.24 引入α66
4.25 在代碼中實現α66
4.26 記憶背誦67
第5章通用梯度下降:一次學習多個權重69
5.1 多輸入梯度下降學習69
5.2 多輸入梯度下降詳解71
5.3 回顧學習的步驟75
5.4 單項權重凍結:它有什么作用?77
5.5 具有多個輸出的梯度下降學習79
5.6 具有多個輸入和輸出的梯度下降81
5.7 這些權重學到了什么?83
5.8 權重可視化85
5.9 點積(加權和)可視化86
5.10 本章小結87
第6章建立你的第一個深度神經網絡:反向傳播89
6.1 交通信號燈問題89
6.2 準備數據91
6.3 矩陣和矩陣關系92
6.4 使用Python創建矩陣95
6.5 建立神經網絡96
6.6 學習整個數據集97
6.7 完全、批量和隨機梯度下降97
6.8 神經網絡對相關性的學習98
6.9 向上與向下的壓力99
6.10 邊界情況:過擬合101
6.11 邊界情況:壓力沖突101
6.12 學習間接相關性103
6.13 創建關聯104
6.14 堆疊神經網絡:回顧105
6.15 反向傳播:遠程錯誤歸因106
6.16 反向傳播:為什么有效?107
6.17 線性與非線性107
6.18 為什么神經網絡仍然不起作用109
6.19 選擇性相關的秘密110
6.20 快速沖刺111
6.21 你的第一個深度神經網絡111
6.22 反向傳播的代碼112
6.23 反向傳播的一次迭代114
6.24 整合代碼116
6.25 為什么深度網絡這么重要?117
第7章如何描繪神經網絡:在腦海里,在白紙上119
7.1 到了簡化的時候了119
7.2 關聯抽象120
7.3 舊的可視化方法過于復雜121
7.4 簡化版可視化122
7.5 進一步簡化123
7.6 觀察神經網絡是如何進行預測的124
7.7 用字母而不是圖片來進行可視化125
7.8 連接變量126
7.9 信息整合127
7.10 可視化工具的重要性127
第8章學習信號,忽略噪聲:正則化和批處理介紹129
8.1 用在MNIST上的三層網絡129
8.2 好吧,這很簡單131
8.3 記憶與泛化132
8.4 神經網絡中的過擬合133
8.5 過擬合從何而來134
8.6 最簡單的正則化:提前停止135
8.7 行業標準正則化:dropout136
8.8 為什么dropout有效:整合是有效的137
8.9 dropout的代碼137
8.10 在MNIST數據集上對dropout進行測試139
8.11 批量梯度下降140
8.12 本章小結143
第9章概率和非線性建模:激活函數145
9.1 什么是激活函數?145
9.2 標準隱藏層激活函數148
9.3 標準輸出層激活函數149
9.4 核心問題:輸入具有
相似性151
9.5 計算softmax152
9.6 激活函數使用說明153
9.7 將增量與斜率相乘156
9.8 將輸出轉換為斜率(導數)157
9.9 升級MNIST網絡157
第10章卷積神經網絡概論:關于邊與角的神經學習161
10.1 在多個位置復用權重161
10.2 卷積層162
10.3 基于NumPy的簡單實現164
10.4 本章小結167
第11章能夠理解自然語言的神經網絡:國王-男人+女人=?169
11.1 理解語言究竟是指什么?170
11.2 自然語言處理(NLP)170
11.3 監督NLP學習171
11.4 IMDB電影評論數據集172
11.5 在輸入數據中提取單詞相關性173
11.6 對影評進行預測174
11.7 引入嵌入層175
11.8 解釋輸出177
11.9 神經網絡結構178
11.10 單詞嵌入表達的對比180
11.11 神經元是什么意思?181
11.12 完形填空182
11.13 損失函數的意義183
11.14 國王-男人+女人~=女王186
11.15 單詞類比187
11.16 本章小結188
第12章像莎士比亞一樣寫作的神經網絡:變長數據的遞歸層189
12.1 任意長度的挑戰189
12.2 做比較真的重要嗎?190
12.3 平均詞向量的神奇力量191
12.4 信息是如何存儲在這些向量嵌入中的?192
12.5 神經網絡是如何使用嵌入的?193
12.6 詞袋向量的局限194
12.7 用單位向量求詞嵌入之和195
12.8 不改變任何東西的矩陣196
12.9 學習轉移矩陣197
12.10 學習創建有用的句子向量198
12.11 Python下的前向傳播199
12.12 如何反向傳播?200
12.13 讓我們訓練它!201
12.14 進行設置201
12.15 任意長度的前向傳播202
12.16 任意長度的反向傳播203
12.17 任意長度的權重更新204
12.18 運行代碼,并分析輸出205
12.19 本章小結207
第13章介紹自動優化:搭建深度學習框架209
13.1 深度學習框架是什么?209
13.2 張量介紹210
13.3 自動梯度計算(autograd)介紹211
13.4 快速檢查213
13.5 多次使用的張量214
13.6 升級autograd以支持多次使用的張量215
13.7 加法的反向傳播如何工作?217
13.8 增加取負值操作的支持218
13.9 添加更多函數的支持219
13.10 使用autograd訓練神經網絡222
13.11 增加自動優化224
13.12 添加神經元層類型的支持225
13.13 包含神經元層的神經元層226
13.14 損失函數層227
13.15 如何學習一個框架228
13.16 非線性層228
13.17 嵌入層230
13.18 將下標操作添加到
autograd231
13.19 再看嵌入層232
13.20 交叉熵層233
13.21 遞歸神經網絡層235
13.22 本章小結238
第14章像莎士比亞一樣寫作:長短期記憶網絡239
14.1 字符語言建模239
14.2 截斷式反向傳播的必要性240
14.3 截斷式反向傳播241
14.4 輸出樣例244
14.5 梯度消失與梯度激增245
14.6 RNN反向傳播的小例子246
14.7 長短期記憶(LSTM)元胞247
14.8 關于LSTM門限的直觀理解248
14.9 長短期記憶層249
14.10 升級字符語言模型250
14.11 訓練LSTM字符語言模型251
14.12 調優LSTM字符語言模型252
14.13 本章小結253
第15章在看不見的數據上做深度學習:聯邦學習導論255
15.1 深度學習的隱私問題255
15.2 聯邦學習256
15.3 學習檢測垃圾郵件257
15.4 讓我們把它聯邦化259
15.5 深入聯邦學習260
15.6 安全聚合261
15.7 同態加密262
15.8 同態加密聯邦學習263
15.9 本章小結264
第16章往哪里去:簡要指引265
序: