【缺書】NT售價: 345 元
作為最主流的深度學習框架,在TensorFlow發布至今的三年里,引領了深度學習和人工智能領域的全面發展和成長壯大。她它的出現使得深度學習的學習門檻被大大降低,不僅是數據專家,就連普通的程序設計人員,甚至于相關專業的學生都可以用它其來開發新的AI程序而不需要深厚的編程功底。本書是一本主要講述使用TensorFlow 2.0學習卷積神經網絡和開發對應的深度學習應用的圖書,是一本面向初級和中級讀者的優秀教程。通過本書的學習,讀者能夠掌握使用卷積神經網絡的基本內容和TensorFlow框架下深度學習的知識要點,以及從模型的構建到應用程序的編寫一整套的應用技巧。本書特色1. 版本新,易入門本書詳細介紹了從TensorFlow 2.0的安裝到和使用,以及使用TensorFlow 2.0官方所推薦的Keras編程方法與技巧等。2. 作者經驗豐富,代碼編寫細膩作者是長期奮戰在科研和工業界的一線算法設計和程序編寫人員,實戰經驗豐富,對代碼中可能會出現的各種問題和“坑”有著豐富的處理經驗,使得讀者能夠少走很多彎路。3. 理論扎實,深入淺出在代碼設計的基礎上,本書還深入淺出地介紹了深度學習需要掌握的一些基本理論知識,作者通過大量的公式與圖示結合的方式對深度學習理論做了介紹,是一本難得的好書。4. 對比多種應用方案,實戰案例豐富本書采用了大量的實例,同時也提供了一些實現同類功能的其他解決方案,覆蓋了卷積神經網絡使用TensorFlow進行深度學習開發中常用的知識。本書內容及知識體系本書就是基于TensorFlow 2.0的新架構模式和框架,完整介紹TensorFlow 2.0使用方法和一些進階用法教程,主要內容如下:第1章詳細介紹了TensorFlow 2.0的安裝方法以及對應的運行環境的安裝,并且通過一個簡單的例子驗證了TensorFlow 2.0的安裝效果。在本章還介紹了TensorFlow 2.0硬件的采購。,請記住,一塊能夠運行TensorFlow 2.0 GPU版本的顯卡能讓你的學習事半功倍。第2章是本書的重點,從Eager的引入開始,介紹了TensorFlow 2.0的編程方法和步驟,包括結合Keras進行TensorFlow 2.0模型設計的完整步驟,以及自定義層的方法。第二本章的內容看起來很簡單,但卻是本書的基礎內容和核心精華,讀者一定要反復閱讀,認真掌握所有內容和代碼的編寫。第3章是TensorFlow 2.0的理論部分,介紹了反饋神經網絡的實現和及其最核心的兩個算法,作者通過圖示并結合理論公式的方式認真詳細介紹了反饋神經網絡理論和原理,并全手動實現了一個反饋神經網絡。第4章詳細介紹了卷積神經網絡的原理和及其各個模型的使用和自定義內容,講解了借助卷積神經網絡(CNN) 算法構建一個簡單的CNN模型進行MNIST數字識別。使用卷積神經網絡來去識別物體是深度學習的一個經典內容,本章和第2章同為本書的重點內容,能夠極大地幫協助讀者對掌握TensorFlow 2.0框架的使用和程序的編寫。第5章是TensorFlow 2.0數據讀寫部分介紹,詳細介紹了使用TensorFlow 2.0自帶的Dataset API對數據的序列化存儲,并通過簡明單的想法將講解數據重新讀取和調用的程序編寫方法。第6章介紹了ResNet的基本思想和內容,ResNet是一個具有里程碑性質的框架,標志著粗獷的卷積神經網絡設計向著精確化和模塊化的方向轉化,。ResNet本身的程序編寫非常簡單,但是其中蘊含的設計思想卻是跨越性的。第7章講解的內容是未來的發展方向,具有“注意力”的多種新型網絡模型,。在不同的維度和方向面上加上“注意力”,這是需要讀者在學習中加上所有注意力的地方。:)實際上,除了傳統的圖像處理之外,使用卷積神經網絡還能夠對文本進行分類,這一般采用的是循環神經網絡。在第8章中作者我們介紹了和使用了經典的卷積神經網絡去來解決文本分類的問題,同時讀者也可以將其引申到更多的序列化問題,這也是未來深度學習研究的方向。示例源碼下載本書示例源碼下載地址請掃描右邊二維碼獲得。如果有問題、建議或者疑問,請聯系booksaga@163.com,郵件主題為“TensorFlow 2.0卷積神經網絡實戰”。適合閱讀本書的讀者? 人工智能、深度學習、機器學習初學者? 高等院校和培訓學校人工智能相關專業的師生? 其他對智能化、自動化感興趣的開發者著 者2020年1月
卷積神經網絡是現代神經網絡的核心內容,TensorFlow又是現在最為流行的深度學習框架。本書使用TensorFlow 2.0作為卷積神經網絡實現的基本工具,引導深度學習初學者,從搭建環境開始,逐步深入到理論、代碼和應用實踐中去。本書分為8章,第1章從搭建環境開始,包含Anaconda、Python、PyCharm、TensorFlow CPU 版本和GPU版本的安裝;第2章是Keras+ TensorFlow 2.0的使用基礎;第3章是TensorFlow 2.0語法;第4章是MNIST實戰;第5章是Dataset API;第6章是ResNet理論和實踐;第7章是注意力模型;第8章是通過卷積實現的一個項目案例:識文斷字。本書內容詳盡、示例豐富,是機器學習和深度學習初學者必備的參考書,同時非常適合高等院校人工智能相關專業的師生閱讀,也可作為培訓學校相關專業的教材使用。
第1章Python和TensorFlow2.0的安裝 11.1Python基本安裝和用法 11.1.1Anaconda的下載與安裝 21.1.2Python編譯器PyCharm的安裝 51.1.3使用Python計算softmax函數 81.2TensorFlow2.0GPU版本的安裝 91.2.1檢測Anaconda中的TensorFlow版本 91.2.2TensorFlow2.0GPU版本基礎顯卡推薦和前置軟件安裝 101.3HelloTensorFlow 131.4本章小結 14第2章簡化代碼的復雜性:TensorFlow2.0基礎與進階 152.1配角轉成主角——從TensorFlowEagerExecution轉正談起 162.1.1Eager簡介與調用 162.1.2讀取數據 182.1.3使用TensorFlow2.0模式進行線性回歸的一個簡單的例子 202.2HelloTensorFlow&Keras 222.2.1MODEL!MODEL!MODEL!還是MODEL 232.2.2使用KerasAPI實現鳶尾花分類的例子(順序模式) 242.2.3使用Keras函數式編程實現鳶尾花分類的例子(重點) 272.2.4使用保存的Keras模式對模型進行復用 302.2.5使用TensorFlow2.0標準化編譯對Iris模型進行擬合 312.2.6多輸入單一輸出TensorFlow2.0編譯方法(選學) 352.2.7多輸入多輸出TensorFlow2.0編譯方法(選學) 392.3全連接層詳解 412.3.1全連接層的定義與實現 412.3.2使用TensorFlow2.0自帶的API實現全連接層 432.3.3打印顯示TensorFlow2.0設計的Model結構和參數 462.4本章小結 48第3章TensorFlow2.0語法基礎 493.1BP神經網絡簡介 493.2BP神經網絡兩個基礎算法詳解 533.2.1最小二乘法(LS算法)詳解 533.2.2道士下山的故事——梯度下降算法 563.3反饋神經網絡反向傳播算法介紹 593.3.1深度學習基礎 593.3.2鏈式求導法則 613.3.3反饋神經網絡原理與公式推導 623.3.4反饋神經網絡原理的激活函數 683.3.5反饋神經網絡原理的Python實現 703.4本章小結 74第4章卷積層詳解與MNIST實戰 754.1卷積運算基本概念 754.1.1卷積運算 764.1.2TensorFlow2.0中卷積函數實現詳解 784.1.3池化運算 804.1.4softmax激活函數 814.1.5卷積神經網絡原理 834.2TensorFlow2.0編程實戰—MNIST手寫體識別 864.2.1MNIST數據集 864.2.2MNIST數據集特征和標簽介紹 884.2.3TensorFlow2.0編程實戰MNIST數據集 904.2.4使用自定義的卷積層實現MNIST識別 954.3本章小結 98第5章TensorFlow2.0Dataset使用詳解 995.1DatasetAPI基本結構和內容 995.1.1DatasetAPI數據種類 1005.1.2DatasetAPI基礎使用 1015.2DatasetAPI高級用法 1025.2.1DatasetAPI數據轉換方法 1045.2.2一個讀取圖片數據集的例子 1085.3使用TFRecordAPI創建和使用數據集 1085.3.1TFRecord詳解 1095.3.2TFRecord的創建 1115.3.3TFRecord的讀取 1155.4TFRecord實戰——帶有處理模型的完整例子 1215.4.1創建數據集 1215.4.2創建解析函數 1225.4.3創建數據模型 1235.4本章小結 124第6章從冠軍開始:ResNet 1256.1ResNet基礎原理與程序設計基礎 1256.1.1ResNet誕生的背景 1266.1.2模塊工具的TensorFlow實現——不要重復造輪子 1296.1.3TensorFlow高級模塊layers用法簡介 1296.2ResNet實戰CIFAR-100數據集分類 1376.2.1CIFAR-100數據集簡介 1376.2.2ResNet殘差模塊的實現 1406.2.3ResNet網絡的實現 1426.2.4使用ResNet對CIFAR-100進行分類 1456.3ResNet的兄弟——ResNeXt 1476.3.1ResNeXt誕生的背景 1476.3.2ResNeXt殘差模塊的實現 1496.3.3ResNeXt網絡的實現 1506.3.4ResNeXt和ResNet的比較 1516.4其他的卷積神經模型簡介 1526.4.1SqueezeNet模型簡介 1536.4.2Xception模型簡介 1556.5本章小結 156第7章Attentionisallweneed! 1577.1簡單的理解注意力機制 1587.1.1何為“注意力” 1587.1.2“hardorsoft?”—注意力機制的兩種常見形式 1597.1.3“SpatialandChannel!”—注意力機制的兩種實現形式 1607.2SENet和CBAM注意力機制的經典模型 1637.2.1最后的冠軍—SENet 1637.2.2結合了Spatial和Channel的CBAM模型 1667.2.3注意力的前沿研究—基于細粒度的圖像注意力機制 1717.3本章小結 173第8章卷積神經網絡實戰:識文斷字我也可以 1748.1文本數據處理 1758.1.1數據集介紹和數據清洗 1758.1.2停用詞的使用 1778.1.3詞向量訓練模型word2vec使用介紹 1808.1.4文本主題的提取—基于TF-IDF(選學) 1838.1.5文本主題的提取—基于TextRank(選學) 1878.2針對文本的卷積神經網絡模型簡介—字符卷積 1908.2.1字符(非單詞)文本的處理 1918.2.2卷積神經網絡文本分類模型的實現—Conv1D(一維卷積) 1998.3針對文本的卷積神經網絡模型簡介—詞卷積 2018.3.1單詞的文本處理 2018.3.2卷積神經網絡文本分類模型的實現—Conv2D(二維卷積) 2038.4使用卷積對文本分類的補充內容 2078.4.1漢字的文本處理 2078.4.2其他的一些細節 2108.5本章小結 211