-- 會員 / 註冊 --  
 帳號:
 密碼:
  | 註冊 | 忘記密碼
10/8 新書到! 10/1 新書到! 9/24 新書到! 9/18 新書到!
購書流程Q & A站務留言版客服信箱
3ds MaxMayaRhinoAfter EffectsSketchUpZBrushPainterUnity
PhotoShopAutoCadMasterCamSolidWorksCreoUGRevitNuke
C#CC++Java遊戲程式Linux嵌入式PLCFPGAMatlab
駭客資料庫搜索引擎影像處理FluentVR+ARANSYS深度學習
單晶片AVROpenGLArduinoRaspberry Pi電路設計CadenceProtel
HadoopPythonStm32CortexLabview手機程式AndroidiPhone
可查書名,作者,ISBN,3dwoo書號
詳細書籍分類

TensorFlow+Keras自然語言處理實戰

( 簡體 字)
作者:王曉華類別:1. -> 程式設計 -> 機器學習
   2. -> 程式設計 -> 自然語言
譯者:
出版社:清華大學出版社TensorFlow+Keras自然語言處理實戰 3dWoo書號: 53959
詢問書籍請說出此書號!

缺書
NT售價: 345

出版日:2/1/2021
頁數:
光碟數:0
站長推薦:
印刷:語系: ( 簡體 版 )
加入購物車 加到我的最愛
(請先登入會員)
ISBN:9787302570431
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證)
作者序:

譯者序:

前言:

TensorFlow從誕生之初即作為全球人工智能領域最受使用者歡迎的人工智能開源框架,榮獲了太多的贊譽與光環,見證了人工智能在全球范圍的興起并引領了全行業的研究方向,改變了固有的人類處理問題和解決問題的方法和認知,引領了深度學習和人工智能領域的全面發展和成長壯大。它的出現使得深度學習的學習門檻被大大降低,不僅是數據專家,就連普通的程序設計人員甚至于相關專業的學生都可以用其來開發新的AI程序,而不需要深厚的算法理論和編程功底。
可以說,TensorFlow是現代社會人類一項最有前途和意義的發明,并且將繼續發揚光大。
如同人類的孩子一樣,TensorFlow自2016年誕生以來,在不斷發展和前行的這3年里,在承受榮譽的同時,TensorFlow也遭到了大量的批評,遇到了很多對手。但是TensorFlow的創造者和用戶并沒有因此而懊惱,而是不斷學習,吸收大量使用者的建議,以及競爭對手中好的易用的特性與方法,從而不斷充實和壯大自己。
終于在TensorFlow年滿3歲之際,TensorFlow迎來了一項革命性的變化,TensorFlow 2橫空出世,作為一個重要的里程碑,其理解和目標由注重自身框架結構的完整和邏輯性轉向為偏重于“易用性”,使得初學者和使用者能夠在極低的門檻上掌握和使用,TensorFlow 2的目標就是讓每個人都能使用人工智能技術幫助自己的學習和生活的提高。
本書以TensorFlow 2.1版本為基礎進行編寫,從TensorFlow 2.1的基礎語法開始,到使用TensorFlow 2.1進行深度學習程序的設計和實戰編寫,全面介紹TensorFlow 2.1核心內容和各方面涉及的相關知識。
本書對TensorFlow 2.1核心內容進行深入分析,重要內容均結合代碼進行實戰講解,圍繞深度學習原理介紹大量實戰案例,讀者通過這些案例可以深入地了解和掌握TensorFlow 2.1的內容,并對深度學習有進一步的了解。
本書是一本面向初級和中級讀者的優秀教程。通過本書的學習,讀者能夠掌握使用深度學習的基本內容和在TensorFlow框架下進行神經網絡使用的知識要點,以及從模型的構建到應用程序的編寫一整套應用技巧。
本書特色
1. 版本新,易入門
本書詳細地介紹從TensorFlow 2.1的安裝到使用、TensorFlow默認API,以及使用官方所推薦的Keras的編程方法與技巧等。
2. 作者經驗豐富,代碼編寫細膩
作者是長期奮戰在科研和工業界的一線算法設計和程序編寫人員,實戰經驗豐富,對代碼中可能會出現的各種問題和“坑”有豐富的處理經驗,使得讀者能夠少走很多彎路。
3. 理論扎實,深入淺出
在代碼設計的基礎上,本書還深入淺出地介紹深度學習需要掌握的一些基本理論知識,通過大量的公式與圖示結合的方式對理論做介紹,是一本難得的好書。
4. 對比多種應用方案,實戰案例豐富
本書采用了大量的實例,同時也提供了一些實現同類功能的其他解決方案,覆蓋了使用TensorFlow進行深度學習開發中常用的知識。
本書內容及知識體系
本書基于TensorFlow 2.1版本的新架構模式和框架,完整介紹TensorFlow 2.1使用方法和一些進階教程,主要內容如下:
第1章詳細介紹TensorFlow 2.1版本的安裝方法以及對應的運行環境的安裝,并且通過一個簡單的例子驗證TensorFlow 2.1的安裝效果,并將其作為貫穿全書學習的主線。在本章還介紹了TensorFlow硬件的采購。請記住,一塊能夠運行TensorFlow 2.0 GPU版本的顯卡能讓你的學習事半功倍。
第2章是本書的重點,從模型的設計開始,循序漸進地介紹TensorFlow 2.1的編程方法和步驟,包括結合Keras進行TensorFlow 2.1模型設計的完整步驟,以及自定義層的方法。第2章的內容看起來很簡單,卻是本書的基礎內容和核心精華,讀者一定要反復閱讀,認真掌握所有內容和代碼的編寫。
第3章是TensorFlow 2.1的理論部分,介紹反饋神經網絡的實現和最核心的兩個算法,作者通過圖示并結合理論公式的方式認真詳細地介紹理論和原理并且手動實現一個反饋神經網絡。
使用卷積神經網絡去識別物體是深度學習一個經典內容,第4章詳細介紹卷積神經網絡的原理、各個模型的使用和自定義內容,借助卷積神經網絡(CNN)算法構建一個簡單的CNN模型進行MNIST數字識別。此章和第2章同為本書的重點內容,能夠極大地協助讀者對TensorFlow框架的使用和程序的編寫。
第5章是TensorFlow新版本的數據讀寫部分,詳細介紹使用TensorFlow 2.1自帶的Dataset API對數據的序列化存儲,并通過簡單的方法使用TensorFlow Dataset對數據進行讀取和調用。
第6章介紹ResNet的基本思想和內容。ResNet是一個具有里程碑性質的框架,標志著粗獷的卷積神經網絡設計向著精確化和模塊化的方向轉化。ResNet本身的程序編寫非常簡單,其中蘊含的設計思想卻是跨越性的。
第7章主要介紹自然語言處理最基本的詞嵌入的訓練和使用,從一個有趣的問題引導讀者從文本清洗開始,到詞嵌入的計算以及利用文本的不同維度和角度對文本進行拆分。
第8章開始進行了更為細化的自然語言處理部分,即復習本書前面章節學習和掌握的自然語言處理手段,練習使用不同的技巧實戰前面部分的文本分類,扎扎實實地解決一個事實中存在的問題。
第9、10章向讀者展示目前自然語言處理研究的最先進手段,即利用編碼器和解碼器對數據進行處理。本書分別使用編碼器模型和解碼器模型去解決一個實際問題,并通過對其細節的不同做出對比,向讀者更加完整詳細地介紹編碼器與解碼器的應用場景和不同,為后續的學習打下基礎。這也是自然語言處理研究的方向。
源碼下載與技術支持郵箱
本書配套的示例源碼,請用微信掃描清華網盤二維碼獲取。如果學習過程中發現問題,請聯系booksaga@163.com,郵件主題為“TensorFlow+Keras自然語言處理實戰”。
適合閱讀本書的讀者
? 人工智能入門讀者;
? 深度學習入門讀者
? 機器學習入門讀者;
? 自然語言處理入門讀者;
? 各級人工智能院校的學生;
? 專業培訓機構的學員;
? 其他對智能化、自動化感興趣的開發者。
勘誤和支持
限于作者水平,加上編寫時間跨度較長、TensorFlow的演進較快,書中的內容難免會出現欠妥之處,懇請讀者來信批評指正。
感謝所有編輯們,在本書編寫中提供無私的幫助和寶貴的建議,正是他們耐心地鼓勵和支持才讓本書得以出版。感謝家人對我的支持和理解,這些都給了我莫大的動力,讓自己的努力更加有意義。


王曉華
2021年1月
內容簡介:

神經網絡是深度學習的核心內容,TensorFlow是現在最為流行的深度學習框架之一。本書使用TensorFlow 2.1作為自然語言處理實現的基本工具,引導深度學習的入門讀者,從搭建環境開始,逐步深入到理論、代碼、應用實踐中去。
本書分為10章,內容包括搭建環境、TensorFlow基本和高級API的使用、MNIST手寫體分辨實戰、Dataset API、ResNet模型、詞嵌入(word embedding)模型的實現,最后給出3個實戰案例:文本分類、基于編碼器的拼音漢字轉化模型,以及基于編碼器、解碼器的拼音漢字翻譯模型。
本書內容詳盡、示例豐富,是機器學習和深度學習讀者必備的參考書,非常適合開設人工智能相關專業的大中專院校師生閱讀,也可作為高等院校計算機及相關專業教材使用。
目錄:

第1章自然語言之道 1
1.1何謂自然語言處理 1
1.1.1自然語言處理是門技術 1
1.1.2傳統自然語言處理 2
1.2自然語言處理為什么難——以最簡單的情感分析為例 3
1.3自然語言處理的展望 5
1.3.1自然語言處理對于人工智能的意義 6
1.3.2自然語言在金融、法律、醫療健康等方面的應用 6
1.4搭建環境1:安裝Python 7
1.4.1Anaconda的下載與安裝 7
1.4.2Python編譯器PyCharm的安裝 10
1.4.3使用Python計算softmax函數 14
1.5搭建環境2:安裝TensorFlow2.1 15
1.5.1安裝TensorFlow2.1的CPU版本 15
1.5.2安裝TensorFlow2.1的GPU版本 15
1.5.3練習——HelloTensorFlow 18
1.6實戰——酒店評論的情感分類 19
1.6.1第一步:數據的準備 19
1.6.2第二步:數據的處理 20
1.6.3第三步:模型的設計 20
1.6.4第四步:模型的訓練 21
1.6.5第五步:模型的結果和展示 22
1.7本章小結 22
第2章HelloTensorFlow&Keras 23
2.1TensorFlow&Keras 23
2.1.1模型!模型!還是模型! 24
2.1.2使用KerasAPI實現鳶尾花分類的例子(順序模式) 24
2.1.3使用Keras函數式編程實現鳶尾花分類的例子(重點) 27
2.1.4使用保存的Keras模式對模型進行復用 30
2.1.5使用TensorFlow標準化編譯對iris模型進行擬合 31
2.1.6多輸入單一輸出TensorFlow編譯方法(選學) 35
2.1.7多輸入多輸出TensorFlow編譯方法(選學) 38
2.2全連接層詳解 40
2.2.1全連接層的定義與實現 40
2.2.2使用TensorFlow自帶的API實現全連接層 42
2.2.3打印顯示已設計的model結構和參數 45
2.3懶人的福音——Keras模型庫 47
2.3.1ResNet50模型和參數的載入 47
2.3.2使用ResNet50作為特征提取層建立模型 49
2.4本章小結 51
第3章深度學習的理論基礎 52
3.1BP神經網絡簡介 53
3.2BP神經網絡兩個基礎算法詳解 56
3.2.1最小二乘法(LS算法)詳解 56
3.2.2道士下山的故事——梯度下降算法 58
3.3反饋神經網絡反向傳播算法介紹 61
3.3.1深度學習基礎 61
3.3.2鏈式求導法則 62
3.3.3反饋神經網絡原理與公式推導 64
3.3.4反饋神經網絡原理的激活函數 69
3.3.5反饋神經網絡原理的Python實現 70
3.4本章小結 74
第4章卷積層與MNIST實戰 75
4.1卷積運算基本概念 75
4.1.1卷積運算 76
4.1.2TensorFlow中卷積函數實現詳解 78
4.1.3池化運算 80
4.1.4softmax激活函數 81
4.1.5卷積神經網絡原理 82
4.2編程實戰:MNIST手寫體識別 85
4.2.1MNIST數據集 85
4.2.2MNIST數據集特征和標簽介紹 87
4.2.3TensorFlow2.X編程實戰:MNIST數據集 89
4.2.4使用自定義的卷積層實現MNIST識別 93
4.3本章小結 96
第5章TensorFlowDatasets和TensorBoard詳解 97
5.1TensorFlowDatasets簡介 97
5.1.1Datasets數據集的安裝 99
5.1.2Datasets數據集的使用 99
5.2Datasets數據集的使用——FashionMNIST 101
5.2.1FashionMNIST數據集下載與展示 102
5.2.2模型的建立與訓練 104
5.3使用Keras對FashionMNIST數據集進行處理 106
5.3.1獲取數據集 106
5.3.2數據集的調整 107
5.3.3使用Python類函數建立模型 107
5.3.4Model的查看和參數打印 108
5.3.5模型的訓練和評估 110
5.4使用TensorBoard可視化訓練過程 112
5.4.1TensorBoard文件夾的設置 113
5.4.2TensorBoard的顯式調用 114
5.4.3TensorBoard的使用 116
5.5本章小結 119
第6章從冠軍開始:ResNet 120
6.1ResNet基礎原理與程序設計基礎 121
6.1.1ResNet誕生的背景 121
6.1.2模塊工具的TensorFlow實現——不要重復造輪子 124
6.1.3TensorFlow高級模塊layers用法簡介 125
6.2ResNet實戰:CIFAR100數據集分類 132
6.2.1CIFAR100數據集簡介 132
6.2.2ResNet殘差模塊的實現 135
6.2.3ResNet網絡的實現 137
6.2.4使用ResNet對CIFAR100數據集進行分類 140
6.3ResNet的兄弟——ResNeXt 141
6.3.1ResNeXt誕生的背景 141
6.3.2ResNeXt殘差模塊的實現 143
6.3.3ResNeXt網絡的實現 145
6.3.4ResNeXt和ResNet的比較 146
6.4本章小結 147
第7章有趣的wordembedding 148
7.1文本數據處理 148
7.1.1數據集介紹和數據清洗 149
7.1.2停用詞的使用 151
7.1.3詞向量訓練模型word2vec使用介紹 154
7.1.4文本主題的提取:基于TF-IDF(選學) 157
7.1.5文本主題的提取:基于TextRank(選學) 161
7.2更多的wordembedding方法——fastText和預訓練詞向量 164
7.2.1fastText的原理與基礎算法 164
7.2.2fastText訓練以及與TensorFlow2.X的協同使用 166
7.2.3使用其他預訓練參數做TensorFlow詞嵌入矩陣(中文) 172
7.3針對文本的卷積神經網絡模型簡介——字符卷積 173
7.3.1字符(非單詞)文本的處理 173
7.3.2卷積神經網絡文本分類模型的實現——conv1d(一維卷積) 180
7.4針對文本的卷積神經網絡模型簡介——詞卷積 182
7.4.1單詞的文本處理 183
7.4.2卷積神經網絡文本分類模型的實現——conv2d(二維卷積) 184
7.5使用卷積對文本分類的補充內容 188
7.5.1漢字的文本處理 188
7.5.2其他細節 191
7.6本章小結 191
第8章實戰——站在冠軍肩膀上的情感分類實戰 193
8.1GRU與情感分類 193
8.1.1什么是GRU 193
8.1.2使用GRU的情感分類 195
8.1.3TensorFlow中的GRU層詳解 196
8.1.4單向不行就雙向 197
8.2站在巨人肩膀上的情感分類 198
8.2.1使用TensorFlow自帶的模型做文本分類 199
8.2.2使用自定義的DPCNN做模型分類 203
8.3本章小結 207
第9章從0起步——自然語言處理的編碼器 208
9.1編碼器的核心——注意力模型 209
9.1.1輸入層——初始詞向量層和位置編碼器層 210
9.1.2自注意力層(本書重點) 211
9.1.3ticks和LayerNormalization 216
9.1.4多頭自注意力 217
9.2編碼器的實現 221
9.2.1前饋層的實現 221
9.2.2構建編碼器架構 223
9.3實戰編碼器——漢字拼音轉化模型 226
9.3.1漢字拼音數據集處理 227
9.3.2漢字拼音轉化模型的確定 229
9.3.3模型訓練部分的編寫 232
9.3.4推斷函數的編寫 233
9.4本章小結 234
第10章從1起步——自然語言處理的解碼器 236
10.1解碼器的核心——注意力模型 236
10.1.1解碼器的輸入和交互注意力層的掩碼 237
10.1.2為什么通過掩碼操作能夠減少干擾 242
10.1.3解碼器的輸出(移位訓練方法) 243
10.1.4解碼器的實現 244
10.2解碼器實戰——拼音漢字翻譯模型 246
10.2.1翻譯模型 246
10.2.2拼音漢字模型的訓練(注意訓練過程的錯位數據輸入) 252
10.2.3拼音漢字模型的使用(循環輸出的問題) 254
10.3本章小結 256
序: