-- 會員 / 註冊 --  
 帳號:
 密碼:
  | 註冊 | 忘記密碼
3/26 新書到! 3/19 新書到! 3/14 新書到! 12/12 新書到!
購書流程Q & A站務留言版客服信箱
3ds MaxMayaRhinoAfter EffectsSketchUpZBrushPainterUnity
PhotoShopAutoCadMasterCamSolidWorksCreoUGRevitNuke
C#CC++Java遊戲程式Linux嵌入式PLCFPGAMatlab
駭客資料庫搜索引擎影像處理FluentVR+ARANSYS深度學習
單晶片AVROpenGLArduinoRaspberry Pi電路設計CadenceProtel
HadoopPythonStm32CortexLabview手機程式AndroidiPhone
可查書名,作者,ISBN,3dwoo書號
詳細書籍分類

TensorFlow自然語言處理

( 簡體 字)
作者:〔澳〕 圖珊·加內格達拉(Thushan Ganegedara) 著類別:1. -> 程式設計 -> 自然語言
譯者:
出版社:機械工業出版社TensorFlow自然語言處理 3dWoo書號: 51352
詢問書籍請說出此書號!

缺書
NT售價: 495

出版日:6/1/2019
頁數:
光碟數:0
站長推薦:
印刷:語系: ( 簡體 版 )
加入購物車 加到我的最愛
(請先登入會員)
ISBN:9787111629146
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證)
作者序:

譯者序:

前言:

在我們所處的數字信息時代,數據量呈指數級增長,在我們閱讀本書時,它也正以前所未有的速度增長。此類數據大多數是與語言相關的數據(文本或語言),例如電子郵件、社交媒體帖子、電話和網絡文章。自然語言處理(NLP)有效地利用這些數據來幫助人們開展業務或日常工作。NLP已經徹底改變了我們使用數據改善業務和生活的方式,并且這種改變將在未來一直持續。

NLP最普遍的應用案例之一是虛擬助手(VA),例如Apple的Siri、Google的Assistant和Amazon的Alexa。當你向VA詢問“瑞士最便宜的酒店價格”時,就會觸發一系列復雜的NLP任務。首先,VA需要了解(解析)你的請求(例如,它需要知道你要檢索酒店價格,而不是尋找附近的公園)。VA需要做出的另一個決定是“哪家酒店便宜?”接下來,VA需要對瑞士的城市進行排名(可能基于你過去的旅行歷史)。然后,VA可能會訪問Booking.com和Agoda.com等網站,獲取瑞士的酒店價格,并通過分析每家酒店的價格和評論對其進行排名。因此,你在幾秒鐘內看到的是執行了一系列非常復雜的NLP任務的結果。

那么,是什么使得這些NLP任務在處理我們的日常任務時如此聰明和準確?其底層方法是深度學習算法。深度學習算法本質上是復雜的神經網絡,它可以將原始數據映射到所需的輸出,而無須針對特定任務執行任何特征工程。這意味著只需提供客戶的酒店評論,算法就可以直接回答“客戶對這家酒店的評價如何?”這樣的問題。此外,深度學習已經在一系列NLP任務(例如,語音識別和機器翻譯)中達到甚至超過了人類的表現。

通過閱讀本書,你可以學習如何使用深度學習去解決許多有趣的NLP問題。如果你想成為一個改變世界的人,那么研究NLP是至關重要的。這些任務包括學習單詞的語義,生成全新的故事,以及通過研究雙語句對進行語言翻譯。所有技術章節都附有練習,這些練習會指導讀者逐步實現這些系統。對于本書中的所有練習,我們都使用基于Python的TensorFlow庫,TensorFlow是一種流行的分布式計算庫,可以非常方便地實現深度神經網絡。

本書讀者

本書適用于那些有志于利用語言數據改造世界的初學者。本書將為你提供解決NLP任務的堅實基礎。在本書中,我們將涵蓋NLP的各個方面,更多地關注實際應用而不是理論基礎。等到學習這些方法的更高級理論時,擁有解決各種NLP任務的良好實踐知識將幫助你實現更平穩的過渡。此外,扎實的實踐知識可以幫助你最大限度地將算法從一個特定領域遷移到更多領域。

本書內容

第1章是對NLP的簡單介紹。該章將首先討論我們需要NLP的原因。接下來,將討論NLP中一些常見的子任務。之后,將討論NLP的兩個主要階段,即傳統階段和深度學習階段。通過研究如何使用傳統算法解決語言建模任務,我們將了解傳統階段NLP的特點。然后,將討論深度學習階段,在這一階段中深度學習算法被大量用于NLP。我們還將討論深度學習算法的主要系列。最后,將討論一種最基本的深度學習算法:全連接神經網絡。該章結束時會提供一份路線圖,簡要介紹后面的內容。

第2章介紹Python TensorFlow庫,這是我們實現解決方案的主要平臺。首先在TensorFlow中編寫一段代碼,執行一個簡單的計算,并討論從運行代碼到得到結果這一過程中到底發生了什么。我們將詳細介紹TensorFlow的基礎組件。把Tensorflow比作豐富的餐廳,了解如何完成訂單,以便進一步加強對TensorFlow的理解。稍后,將討論TensorFlow的更多技術細節,例如數據結構和操作(主要與神經網絡相關)。最后,我們將實現一個全連接的神經網絡來識別手寫數字。這將幫助我們了解如何使用TensorFlow來實現端到端解決方案。

第3章首先討論如何用TensorFlow解決NLP任務。在該章中,我們將討論如何用神經網絡學習單詞向量或單詞表示。單詞向量也稱為詞嵌入。單詞向量是單詞的數字表示,相似單詞有相似值,不同單詞有不同值。首先,將討論實現這一目標的幾種傳統方法,包括使用稱為WordNet的大型人工構建知識庫。然后,將討論基于現代神經網絡的方法,稱為Word2vec,它在沒有任何人為干預的情況下學習單詞向量。我們將通過一個實例來了解Word2vec的機制。接著,將討論用于實現此目的的兩種算法變體:skip-gram和連續詞袋(CBOW)模型。我們將討論算法的細節,以及如何在TensorFlow中實現它們。

第4章介紹與單詞向量相關的更高級方法。首先,會比較skip-gram和CBOW,討論其中哪一種有明顯優勢。接下來,將討論可用于提高Word2vec算法性能的幾項改進。然后,將討論一種更新、更強大的詞嵌入學習算法:GloVe(全局向量)算法。最后,將在文檔分類任務中實際觀察單詞向量。在該練習中,我們將看到單詞向量十分強大,足以表示文檔所屬的主題(例如,娛樂和運動)。

第5章討論卷積神經網絡(CNN),它是擅長處理諸如圖像或句子這樣的空間數據的神經網絡家族。首先,討論如何處理數據以及處理數據時涉及哪種操作,以便對CNN有較深的理解。接下來,深入研究CNN計算中涉及的每個操作,以了解CNN背后的數學原理。最后,介紹兩個練習。第一個練習使用CNN對手寫數字圖像進行分類,我們將看到CNN能夠在此任務上很快達到較高的準確率。接下來,我們將探討如何使用CNN對句子進行分類。特別地,我們要求CNN預測一個句子是否與對象、人物、位置等相關。

第6章介紹遞歸神經網絡。遞歸神經網絡(RNN)是一個可以模擬數據序列的強大的神經網絡家族。首先討論RNN背后的數學原理以及在學習期間隨時間更新RNN的更新規則。然后,討論RNN的不同變體及其應用(例如,一對一RNN和一對多RNN)。最后,用RNN執行文本生成任務的練習。我們用童話故事訓練RNN,然后要求RNN生成一個新故事。我們將看到在持久的長期記憶方面RNN表現不佳。最后,討論更高級的RNN變體,即RNN-CF,它能夠保持更長時間的記憶。

第7章介紹長短期記憶網絡。RNN在保持長期記憶方面效果較差,這使我們需要探索能在更長時間內記住信息的更強大技術。我們將在該章討論一種這樣的技術:長短期記憶網絡(LSTM)。LSTM功能更強大,并且在許多時間序列任務中表現得優于其他序列模型。首先通過一個例子,研究潛在的數學原理和LSTM的更新規則,以說明每個計算的重要性。然后,將了解為什么LSTM能夠更長時間地保持記憶。接下來,將討論如何進一步提高LSTM預測能力。最后,將討論具有更復雜結構的幾種LSTM變體(具有窺孔連接的LSTM),以及簡化LSTM門控循環單元(GRU)的方法。

第8章介紹LSTM的應用:文本生成。該章廣泛評估LSTM在文本生成任務中的表現。我們將定性和定量地衡量LSTM產生的文本的好壞程度,還將比較LSTM、窺孔連接LSTM和GRU。最后,將介紹如何將詞嵌入應用到模型中來改進LSTM生成的文本。

第9章轉到對多模態數據(即圖像和文本)的處理。在該章中,我們將研究如何自動生成給定圖像的描述。這涉及將前饋模型(即CNN)與詞嵌入層及順序模型(即LSTM)組合,形成一個端到端的機器學習流程。

第10章介紹有關神經機器翻譯(NMT)模型的應用。機器翻譯指的是將句子或短語從源語言翻譯成目標語言。首先討論機器翻譯是什么并簡單介紹機器翻譯歷史。然后,將詳細討論現代神經機器翻譯模型的體系結構,包括訓練和預測的流程。接下來,將了解如何從頭開始實現NMT系統。最后,會探索改進標準NMT系統的方法。

第11章重點介紹NLP的現狀和未來趨勢。我們將討論前面提到的系統的相關最新發現。該章將涵蓋大部分令人興奮的創新,并讓你直觀地感受其中的一些技術。

附錄向讀者介紹各種數學數據結構(例如,矩陣)和操作(例如,矩陣的逆),還將討論概率中的幾個重要概念。然后將介紹Keras,它是在底層使用TensorFlow的高級庫。Keras通過隱藏TensorFlow中的一些有難度的細節使得神經網絡的實現更簡單。具體而言,通過使用Keras實現CNN來介紹如何使用Keras。接下來,將討論如何使用TensorFlow中的seq2seq庫來實現一個神經機器翻譯系統,所使用的代碼比在第11章中使用的代碼少得多。最后,將向你介紹如何使用TensorBoard可視化詞嵌入的指南。TensorBoard是TensorFlow附帶的便捷可視化工具,可用于可視化和監視TensorFlow客戶端中的各種變量。

如何充分利用本書

為了充分利用本書,讀者需要具備以下能力:

有強烈的意愿和堅定的意志學習NLP的先進技術。

熟悉Python的基本語法和數據結構(例如,列表和字典)。

理解基本的數學原理(例如,矩陣或向量的乘法)?。

(可選)對于一些小節,需要高級的數學知識(例如,微分計算)來理解特定模型是如何在訓練時克服潛在的實際問題的。

(可選)對超出本書的內容,可以閱讀相關論文以獲取最新進展或細節。

下載示例代碼及彩色圖像

本書的示例代碼及所有截圖和樣圖,可以從http://www.packtpub.com通過個人賬號下載,也可以訪問華章圖書官網http://www.hzbook.com,通過注冊并登錄個人賬號下載。

這些代碼還可在GitHub上獲取,網址是:https://github.com/PacktPublishing/Natural-Language-Processing-with-TensorFlow。
內容簡介:

本書是一本使用深度學習算法和TensorFlow來編寫現代自然語言處理應用程序的實踐指南,內容涉及詞嵌入的各種方法、CNN/RNN/LSTM的TensorFlow實現及應用、LSTM在文本生成及圖像標題生成的應用、從統計機器翻譯到神經網絡翻譯以及自然語言處理的未來。通過閱讀本書,你將深入認識NLP(自然語言處理),并學習如何在深度學習NLP任務中應用TensorFlow,以及如何執行特定的NLP任務。

全書共11章,第1章簡要介紹NLP;第2章介紹如何編寫客戶端程序并在TensorFlow中運行它們;第3章介紹如何用神經網絡學習單詞向量或單詞表示;第4章介紹與單詞向量相關的更高級方法;第5章討論卷積神經網絡(CNN);第6章介紹遞歸神經網絡;第7章介紹長短期記憶網絡;第8章介紹LSTM的應用:文本生成;第9章介紹LSTM的應用:圖像標題生成;第10章介紹有關神經機器翻譯(NMT)模型的應用;第11章重點介紹NLP的現狀和未來趨勢。



深度學習應用所使用的大部分數據是由自然語言處理(NLP)提供的,而TensorFlow是目前比較重要的深度學習框架。面對當今巨量數據流中眾多的非結構化數據,本書詳細講解如何將TensorFlow與NLP二者結合以提供有效的工具,以及如何將這些工具應用于具體的NLP任務。

本書首先介紹NLP和TensorFlow的基礎知識,之后講解如何使用Word2vec及其高級擴展,以便通過創建詞嵌入將詞序列轉換為深度學習算法可用的向量。本書還介紹如何通過卷積神經網絡(CNN)和遞歸神經網絡(RNN)等經典深度學習算法執行句子分類和語言生成等重要的NLP任務。你將學習如何在NLP任務中應用高性能的RNN模型(比如長短期記憶單元),還將認識神經機器翻譯,并實現一個神經機器翻譯器。

通過閱讀本書,你將學到:

NLP的核心概念和各種自然語言處理方法

使用TensorFlow函數創建神經網絡以完成NLP任務

將海量數據處理成可用于深度學習應用的單詞表示

使用CNN和RNN執行句子分類和語言生成

使用最先進的RNN(如長短期記憶)執行復雜的文本生成任務

從頭開始編寫一個真正的神經機器翻譯器

未來的NLP趨勢和創新
目錄:

譯者序

前言

關于作者

關于審閱者

第1章 自然語言處理簡介 1

1.1 什么是自然語言處理 1

1.2 自然語言處理的任務 2

1.3 傳統的自然語言處理方法 3

1.3.1 理解傳統方法 4

1.3.2 傳統方法的缺點 7

1.4 自然語言處理的深度學習方法? 8

1.4.1 深度學習的歷史 8

1.4.2 深度學習和NLP的當前狀況 9

1.4.3 理解一個簡單的深層模型—全連接神經網絡 10

1.5 本章之外的學習路線 12

1.6 技術工具簡介 14

1.6.1 工具說明 15

1.6.2 安裝Python和scikit-learn 15

1.6.3 安裝Jupyter Notebook 15

1.6.4 安裝TensorFlow 16

1.7 總結 17

第2章 理解TensorFlow 18

2.1 TensorFlow是什么 18

2.1.1 TensorFlow入門 19

2.1.2 TensorFlow客戶端詳細介紹 21

2.1.3 TensorFlow架構:當你執行客戶端時發生了什么 21

2.1.4 Cafe Le TensorFlow:使用類比理解TensorFlow 23

2.2 輸入、變量、輸出和操作 24

2.2.1 在TensorFlow中定義輸入 25

2.2.2 在TensorFlow中定義變量 30

2.2.3 定義TensorFlow輸出 31

2.2.4 定義TensorFlow操作 31

2.3 使用作用域重用變量 40

2.4 實現我們的第一個神經網絡 42

2.4.1 準備數據 43

2.4.2 定義TensorFLow圖 43

2.4.3 運行神經網絡 45

2.5 總結 46

第3章 Word2vec——學習詞嵌入 48

3.1 單詞的表示或含義是什么 49

3.2 學習單詞表示的經典方法 49

3.2.1 WordNet—使用外部詞匯知識庫來學習單詞表示 50

3.2.2 獨熱編碼表示方式 53

3.2.3 TF-IDF方法 53

3.2.4 共現矩陣 54

3.3 Word2vec—基于神經網絡學習單詞表示 55

3.3.1 練習:queen = king – he + she嗎 56

3.3.2 為學習詞嵌入定義損失函數 58

3.4 skip-gram算法 59

3.4.1 從原始文本到結構化的數據 59

3.4.2 使用神經網絡學習詞嵌入 60

3.4.3 使用TensorFlow實現skip-gram 67

3.5 連續詞袋算法 69

3.6 總結 71

第4章 高級Word2vec 72

4.1 原始skip-gram算法 72

4.1.1 實現原始skip-gram算法 73

4.1.2 比較原始skip-gram算法和改進的skip-gram算法 75

4.2 比較skip-gram算法和CBOW算法 75

4.2.1 性能比較 77

4.2.2 哪個更勝一籌:skip-gram還是CBOW 79

4.3 詞嵌入算法的擴展 81

4.3.1 使用unigram分布進行負采樣 81

4.3.2 實現基于unigram的負采樣 81

4.3.3 降采樣:從概率上忽視常用詞 83

4.3.4 實現降采樣 84

4.3.5 比較CBOW及其擴展算法 84

4.4 最近的skip-gram和CBOW的擴展算法 85

4.4.1 skip-gram算法的限制 85

4.4.2 結構化skip-gram算法 85

4.4.3 損失函數 86

4.4.4 連續窗口模型 87

4.5 GloVe:全局向量表示 88

4.5.1 理解GloVe 88

4.5.2 實現GloVe 89

4.6 使用Word2vec進行文檔分類 90

4.6.1 數據集 91

4.6.2 用詞向量進行文檔分類 91

4.6.3 實現:學習詞嵌入 92

4.6.4 實現:詞嵌入到文檔嵌入 92

4.6.5 文本聚類以及用t-SNE可視化文檔嵌入 93

4.6.6 查看一些特異點 94

4.6.7 實現:用K-means對文檔進行分類/聚類 95

4.7 總結 96

第5章 用卷積神經網絡進行句子分類 97

5.1 介紹卷積神經網絡 97

5.1.1 CNN基礎 97

5.1.2 卷積神經網絡的力量 100

5.2 理解卷積神經網絡 100

5.2.1 卷積操作 100

5.2.2 池化操作 103

5.2.3 全連接層 104

5.2.4 組合成完整的CNN 105

5.3 練習:在MNIST數據集上用CNN進行圖片分類 105

5.3.1 關于數據 106

5.3.2 實現CNN 106

5.3.3 分析CNN產生的預測結果 108

5.4 用CNN進行句子分類 109

5.4.1 CNN結構 110

5.4.2 隨時間池化 112

5.4.3 實現:用CNN進行句子分類 112

5.5 總結 115

第6章 遞歸神經網絡 116

6.1 理解遞歸神經網絡 116

6.1.1 前饋神經網絡的問題 117

6.1.2 用遞歸神經網絡進行建模 118

6.1.3 遞歸神經網絡的技術描述 119

6.2 基于時間的反向傳播 119

6.2.1 反向傳播的工作原理 120

6.2.2 為什么RNN不能直接使用反向傳播 120

6.2.3 基于時間的反向傳播:訓練RNN 121

6.2.4 截斷的BPTT:更有效地訓練RNN 121

6.2.5 BPTT的限制:梯度消失和梯度爆炸 122

6.3 RNN的應用 123

6.3.1 一對一RNN 123

6.3.2 一對多RNN 123

6.3.3 多對一RNN 124

6.3.4 多對多RNN 124

6.4 用RNN產生文本 125

6.4.1 定義超參數 125

6.4.2 將輸入隨時間展開用于截斷的BPTT 125

6.4.3 定義驗證數據集 126

6.4.4 定義權重和偏置 126

6.4.5 定義狀態持續變量 127

6.4.6 用展開的輸入計算隱藏狀態和輸出 127

6.4.7 計算損失 128

6.4.8 在新文本片段的開頭重置狀態 128

6.4.9 計算驗證輸出 128

6.4.10 計算梯度和優化 129

6.4.11 輸出新生成的文本塊 129

6.5 評估RNN的文本結果輸出 130

6.6 困惑度:衡量文本結果的質量 131

6.7 有上下文特征的遞歸神經網絡:更長記憶的RNN 132

6.7.1 RNN-CF的技術描述 132

6.7.2 實現RNN-CF 133

6.7.3 RNN-CF產生的文本 138

6.8 總結 140

第7章 長短期記憶網絡 142

7.1 理解長短期記憶網絡 142

7.1.1 LSTM是什么 143

7.1.2 更詳細的LSTM 144

7.1.3 LSTM與標準RNN的區別 149

7.2 LSTM如何解決梯度消失問題 150

7.2.1 改進LSTM 152

7.2.2 貪婪采樣 153

7.2.3 集束搜索 153

7.2.4 使用詞向量 154

7.2.5 雙向LSTM(BiLSTM) 155

7.3 其他LSTM的變體 156

7.3.1 窺孔連接 156

7.3.2 門循環單元 157

7.4 總結 159

第8章 LSTM應用:文本生成 160

8.1 數據集 160

8.1.1 關于數據集 160

8.1.2 數據預處理 162

8.2 實現LSTM 162

8.2.1 定義超參數 163

8.2.2 定義參數 163

8.2.3 定義LSTM單元及操作 165

8.2.4 定義輸入和標簽 165

8.2.5 定義處理序列數據所需的序列計算 166

8.2.6 定義優化器 167

8.2.7 隨時間衰減學習率 167

8.2.8 做預測 168

8.2.9 計算困惑度(損失) 168

8.2.10 重置狀態 169

8.2.11 貪婪采樣避免單峰 169

8.2.12 生成新文本 169

8.2.13 生成的文本樣例 170

8.3 LSTM與窺孔LSTM和GRU對比 171

8.3.1 標準LSTM 171

8.3.2 門控循環單元(GRU) 172

8.3.3 窺孔LSTM 174

8.3.4 訓練和驗證隨時間的困惑度 175

8.4 改進LSTM:集束搜索 176

8.4.1 實現集束搜索 177

8.4.2 集束搜索生成文本的示例 179

8.5 LSTM改進:用單詞替代n-gram生成文本 179

8.5.1 維度災難 179

8.5.2 Word2vec補救 180

8.5.3 使用Word2vec生成文本 180

8.5.4 使用LSTM-Word2vec和集束搜索生成的文本示例 181

8.5.5 隨時間困惑度 182

8.6 使用TensorFlow RNN API 183

8.7 總結 186

第9章 LSTM應用:圖像標題生成 188

9.1 了解數據 188

9.1.1 ILSVRC ImageNet數據集 189

9.1.2 MS-COCO數據集 189

9.2 圖像標題生成實現路徑 191

9.3 使用CNN提取圖像特征 193

9.4 實現:使用VGG-16加載權重和推理 193

9.4.1 構建和更新變量 194

9.4.2 預處理輸入 195

9.4.3 VGG-16推斷 196

9.4.4 提取圖像的向量化表達 197

9.4.5 使用VGG-16預測類別概率 197

9.5 學習詞嵌入 198

9.6 準備輸入LSTM的標題 198

9.7 生成LSTM的數據 199

9.8 定義LSTM 201

9.9 定量評估結果 203

9.9.1 BLEU 203

9.9.2 ROUGE 204

9.9.3 METEOR 204

9.9.4 CIDEr 206

9.9.5 模型隨著時間變化的BLEU-4 206

9.10 為測試圖像生成標題 207

9.11 使用TensorFlow RNN API和預訓練的GloVe詞向量 210

9.11.1 加載GloVe詞向量 210

9.11.2 清洗數據 212

9.11.3 使用TensorFlow RNN API和預訓練的詞嵌入 213

9.12 總結 218

第10章 序列到序列學習:神經機器翻譯 220

10.1 機器翻譯 220

10.2 機器翻譯簡史 221

10.2.1 基于規則的翻譯 221

10.2.2 統計機器翻譯(SMT) 222

10.2.3 神經機器翻譯(NMT) 223

10.3 理解神經機器翻譯 225

10.3.1 NMT原理 225

10.3.2 NMT架構 226

10.4 為NMT系統準備數據 228

10.4.1 訓練階段 229

10.4.2 反轉源句 229

10.4.3 測試階段 230

10.5 訓練NMT 230

10.6 NMT推理 231

10.7 BLEU評分:評估機器翻譯系統 232

10.7.1 修正的精確度 232

10.7.2 簡短懲罰項 233

10.7.3 最終BLEU得分 233

10.8 從頭開始實現NMT:德語到英語的翻譯 233

10.8.1 數據介紹 234

10.8.2 處理數據 234

10.8.3 學習詞嵌入 235

10.8.4 定義編碼器和解碼器 236

10.8.5 定義端到端輸出計算 238

10.8.6 翻譯結果 239

10.9 結合詞嵌入訓練NMT 241

10.9.1 最大化數據集詞匯表和預訓練詞嵌入之間的匹配 241

10.9.2 將嵌入層定義為TensorFlow變量 243

10.10 改進NMT 245

10.10.1 教師強迫 246

10.10.2 深度LSTM 247

10.11 注意力 247

10.11.1 突破上下文向量瓶頸 247

10.11.2 注意力機制細節 248

10.11.3 注意力NMT的翻譯結果 253

10.11.4 源句子和目標句子注意力可視化 254

10.12 序列到序列模型的其他應用:聊天機器人 256

10.12.1 訓練聊天機器人 256

10.12.2 評估聊天機器人:圖靈測試 257

10.13 總結 258

第11章 自然語言處理的現狀與未來 259

11.1 NLP現狀 259

11.1.1 詞嵌入 260

11.1.2 神經機器翻譯 264

11.2 其他領域的滲透 266

11.2.1 NLP與計算機視覺結合 266

11.2.2 強化學習 268

11.2.3 NLP生成式對抗網絡 269

11.3 走向通用人工智能 270

11.3.1 一個模型學習全部 271

11.3.2 聯合多任務模型:為多個NLP任務生成神經網絡 272

11.4 社交媒體NLP 273

11.4.1 社交媒體中的謠言檢測 274

11.4.2 社交媒體中的情緒檢測 274

11.4.3 分析推特中的政治框架 274

11.5 涌現的新任務 275

11.5.1 諷刺檢測 275

11.5.2 語言基礎 276

11.5.3 使用LSTM略讀文本 276

11.6 新興的機器學習模型 277

11.6.1 階段LSTM 277

11.6.2 擴張RNN(DRNN) 278

11.7 總結 278

11.8 參考文獻 279

附錄 數學基礎與高級TensorFlow 282
序: