TensorFlow深度學習-數學原理與Python實戰進階( 簡體 字) | |
作者:(印)桑塔努·帕塔納雅克 | 類別:1. -> 程式設計 -> 深度學習 2. -> 程式設計 -> Python |
譯者:閭洪慶//林楨|譯 | |
出版社:機械工業 | 3dWoo書號: 52822 詢問書籍請說出此書號! 有庫存 NT售價: 495 元 |
出版日:4/1/2020 | |
頁數:308 | |
光碟數:0 | |
站長推薦: | |
印刷:黑白印刷 | 語系: ( 簡體 字 ) |
ISBN:9787111645849 | 加入購物車 │加到我的最愛 (請先登入會員) |
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證, 繁體書的下載亦請直接連絡出版社) | |
原書前言
第1章 數學基礎//1 1.1 線性代數//2 1.1.1 向量//2 1.1.2 標量//2 1.1.3 矩陣//3 1.1.4 張量//3 1.1.5 矩陣的運算和操作//4 1.1.6 向量的線性獨立//6 1.1.7 矩陣的秩//8 1.1.8 單位矩陣或恒等運算符//8 1.1.9 矩陣的行列式//9 1.1.10 逆矩陣//10 1.1.11 向量的范數(模)//11 1.1.12 偽逆矩陣//12 1.1.13 以特定向量為方向的單位向量//12 1.1.14 一個向量在另一個向量方向上的投影(或射影)//12 1.1.15 特征向量//12 1.2 微積分//17 1.2.1 微分//17 1.2.2 函數的梯度//17 1.2.3 連續偏導數//18 1.2.4 海森矩陣//18 1.2.5 函數的極大值和極小值//18 1.2.6 局部極小值和全局*小值//20 1.2.7 半正定以及正定矩陣//21 1.2.8 凸集//21 1.2.9 凸函數//22 1.2.10 非凸函數//22 1.2.11 多變量凸函數以及非凸函數范例//23 1.2.12 泰勒級數//24 1.3 概率//24 1.3.1 并集、交集和條件概率//25 1.3.2 事件交集概率的鏈式法則//26 1.3.3 互斥事件//26 1.3.4 事件獨立性//27 1.3.5 事件條件獨立性//27 1.3.6 貝葉斯定理(公式)//27 1.3.7 概率質量函數//28 1.3.8 概率密度函數//28 1.3.9 隨機變量的數學期望//28 1.3.10 隨機變量的方差//28 1.3.11 偏度和峰度//29 1.3.12 協方差//30 1.3.13 相關性系數//31 1.3.14 一些常見的概率分布//31 1.3.15 似然函數//34 1.3.16 *大似然估計//35 1.3.17 假設檢驗和p值//36 1.4 機器學習算法的制定與優化算法//38 1.4.1 監督學習//38 1.4.2 無監督學習//45 1.4.3 機器學習的優化算法//45 1.4.4 約束優化問題//53 1.5 機器學習中的幾個重要主題//54 1.5.1 降維方法//54 1.5.2 正則化//5 1.5.3 約束優化問題中的正則化//59 1.6 總結//60 第2章 深度學習概念和TensorFlow介紹//61 2.1 深度學習及其發展//61 2.2 感知機和感知機學習算法//63 2.2.1 感知機學習的幾何解釋//65 2.2.2 感知機學習的局限性//66 2.2.3 非線性需求//68 2.2.4 隱藏層感知機的非線性激活函數//69 2.2.5 神經元或感知機的不同激活函數//70 2.2.6 多層感知機網絡的學習規則//74 2.2.7 梯度計算的反向傳播//75 2.2.8 反向傳播方法推廣到梯度計算//76 2.3 TensorFlow //82 2.3.1 常見的深度學**//82 2.3.2 TensorFlow的安裝//83 2.3.3 TensorFlow的開發基礎//83 2.3.4 深度學習視角下的梯度下降優化方法//86 2.3.5 隨機梯度下降的小批量方法中的學習率//90 2.3.6 TensorFlow中的優化器//90 2.3.7 TensorFlow實現XOR//96 2.3.8 TensorFlow中的線性回歸//100 2.3.9 使用全批量梯度下降的SoftMax函數多分類//103 2.3.10 使用隨機梯度下降的SoftMax函數多分類//105 2.4 GPU //107 2.5 總結//108 第3章 卷積神經網絡//109 3.1 卷積操作//109 3.1.1 線性時不變和線性移不變系統//109 3.1.2 一維信號的卷積//111 3.2 模擬信號和數字信號//112 3.2.1 二維和三維信號//113 3.3 二維卷積//114 3.3.1 二維單位階躍函數//114 3.3.2 LSI系統中單位階躍響應信號的二維卷積//115 3.3.3 不同的LSI系統中圖像的二維卷積//117 3.4 常見的圖像處理濾波器//120 3.4.1 均值濾波器//120 3.4.2 中值濾波器//122 3.4.3 高斯濾波器//122 3.4.4 梯度濾波器//123 3.4.5 Sobel邊緣檢測濾波器//125 3.4.6 恒等變換//127 3.5 卷積神經網絡//128 3.6 卷積神經網絡的組成部分//128 3.6.1 輸入層//129 3.6.2 卷積層//129 3.6.3 池化層//131 3.7 卷積層中的反向傳播//131 3.8 池化層中的反向傳播//134 3.9 卷積中的權值共享及其優點//136 3.10 平移同變性//136 3.11 池化的平移不變性//137 3.12 舍棄層和正則化//138 3.13 MNIST數據集上進行手寫數字識別的卷積神經網絡//140 3.14 用來解決現實問題的卷積神經網絡//144 3.15 批規范化//151 3.16 卷積神經網絡中的幾種不同的網絡架構//153 3.16.1 LeNet//153 3.16.2 AlexNet//154 3.16.3 VGG16//155 3.16.4 ResNet//156 3.17 遷移學習//157 3.17.1 遷移學習的使用指導//158 3.17.2 使用谷歌InceptionV3網絡進行遷移學習//159 3.17.3 使用預訓練的VGG16網絡遷移學習//162 3.18 總結//166 第4章 基于循環神經網絡的自然語言處理//167 4.1 向量空間模型//167 4.2 單詞的向量表示//170 4.3 Word2Vec//170 4.3.1 CBOW //171 4.3.2 CBOW 在TensorFlow中的實現//173 4.3.3 詞向量嵌入的Skip-gram模型//176 4.3.4 Skip-gram在TensorFlow中的實現//178 4.3.5 基于全局共現方法的詞向量//181 4.3.6 GloVe//186 4.3.7 詞向量類比法//188 4.4 循環神經網絡的介紹//191 4.4.1 語言建模//193 4.4.2 用循環神經網絡與傳統方法預測句子中的下一個詞的對比//193 4.4.3 基于時間的反向傳播//194 4.4.4 循環神經網絡中的梯度消失與**問題//196 4.4.5 循環神經網絡中的梯度消失與**問題的解決方法//198 4.4.6 LSTM//199 4.4.7 LSTM在減少梯度**和梯度消失問題中的應用//200 4.4.8 在TensorFlow中使用循環神經網絡進行MNIST數字識別//201 4.4.9 門控循環單元//210 4.4.10 雙向循環神經網絡//211 4.5 總結//212 第5章 用受限玻爾茲曼機和自編碼器進行無監督學習//214 5.1 玻爾茲曼分布//214 5.2 貝葉斯推斷:似然、先驗和后驗概率分布//215 5.3 MCMC采樣方法//219 5.3.11 Metropolis算法//222 5.4 受限玻爾茲曼機//226 5.4.1 訓練受限玻爾茲曼機//229 5.4.2 吉布斯采樣//233 5.4.3 塊吉布斯采樣//234 5.4.4 Burn-in階段和吉布斯采樣中的樣本生成//235 5.4.5 基于吉布斯采樣的受限玻爾茲曼機//235 5.4.6 對比散度//236 5.4.7 受限玻爾茲曼機的TensorFlow實現//237 5.4.8 基于受限玻爾茲曼機的協同過濾//239 5.4.9 深度置信網絡//244 5.5 自編碼器//248 5.5.1 基于自編碼器的監督式特征學習//250 5.5.2 KL散度//251 5.5.3 稀疏自編碼器//251 5.5.4 稀疏自編碼器的TensorFlow實現//253 5.5.5 去噪自編碼器//255 5.5.6 去噪自編碼器的TensorFlow實現//256 5.6 PCA和ZCA白化//262 5.7 總結//264 第6章 **神經網絡//265 6.1 圖像分割//265 6.1.1 基于像素強度直方圖的二元閾值分割方法//265 6.1.2 大津法//266 6.1.3 用于圖像分割的分水嶺算法//268 6.1.4 使用K-means聚類進行圖像分割//272 6.1.5 語義分割//274 6.1.6 滑動窗口方法//274 6.1.7 全卷積網絡//275 6.1.8 全卷積網絡的下采樣和上采樣//277 6.1.9 U-Net//281 6.1.10 在TensorFlow中使用全卷積神經網絡進行語義分割//283 6.2 圖像分類和定位網絡//290 6.3 物體檢測//292 6.3.1 R-CNN//293 6.3.2 Fast和Faster-CNN//294 6.4 生成式對抗網絡//295 6.4.1 極大極小和極小極大問題//295 6.4.2 零和博弈//297 6.4.3 極小極大和鞍點//298 6.4.4 生成式對抗網絡的損失函數和訓練//300 6.4.5 生成器的梯度消弭//302 6.4.6 生成式對抗網絡的TensorFlow實現//302 6.5 生成環境下的TensorFlow模型應用//305 6.6 總結//308 在幫你掌握深度學習所要求的數學原理和編程實戰經驗,使你能快速使用TensorFlow輕松部署產品中的深度學習解決方案,并形成開發深度學習架構和解決方案時所需的數學理解和直覺。
本書提供了豐富的理論和實戰動手經驗,使你可以從零開始掌握深度學習,并能快速部署有價值的深度學習解決方案。本書重點講解了與多個行業相關的深度學習實踐方面的專業知識。通過這些實戰經驗,你將能夠使用原型來構建新的深度學習應用程序。
本書適合誰
正在研究深度學習解決方案以解決復雜業務問題的數據科學家和機器學習專業人員。
通過TensorFlow開發深度學習解決方案的軟件開發人員。
渴望不斷學習的師生和人工智能愛好者。
|