-- 會員 / 註冊 --  
 帳號:
 密碼:
  | 註冊 | 忘記密碼
3/26 新書到! 3/19 新書到! 3/14 新書到! 12/12 新書到!
購書流程Q & A站務留言版客服信箱
3ds MaxMayaRhinoAfter EffectsSketchUpZBrushPainterUnity
PhotoShopAutoCadMasterCamSolidWorksCreoUGRevitNuke
C#CC++Java遊戲程式Linux嵌入式PLCFPGAMatlab
駭客資料庫搜索引擎影像處理FluentVR+ARANSYS深度學習
單晶片AVROpenGLArduinoRaspberry Pi電路設計CadenceProtel
HadoopPythonStm32CortexLabview手機程式AndroidiPhone
可查書名,作者,ISBN,3dwoo書號
詳細書籍分類

機器閱讀理解:算法與實踐

( 簡體 字)
作者:朱晨光類別:1. -> 程式設計 -> 綜合
譯者:
出版社:機械工業出版社機器閱讀理解:算法與實踐 3dWoo書號: 52538
詢問書籍請說出此書號!

缺書
NT售價: 395

出版日:4/1/2020
頁數:230
光碟數:0
站長推薦:
印刷:黑白印刷語系: ( 簡體 版 )
加入購物車 加到我的最愛
(請先登入會員)
ISBN:9787111649502
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證)
作者序:

譯者序:

前言:

內容簡介:

三個部分,共計10章內容。第壹部分為基礎篇,介紹機器閱讀理解的基礎知識。其中包括機器閱讀理解任務的定義,閱讀理解模型中常用的自然語言處理技術和深度學習網絡模塊等。 第二部分為架構篇,對機器閱讀理解任務進行分類,然后介紹解決各類任務的基本模型架構和前沿算法,并剖析對機器閱讀理解研究有著革命性影響的預訓練模型(如BERT和GPT)。 第三部分為實戰篇,包括筆者在2018年獲得CoQA閱讀理解競賽第一名的模型SDNet的代碼解讀,機器閱讀理解在各種工業界應用中的具體落地過程和挑戰,以及筆者對于機器閱讀理解未來發展方向的思考。
目錄:

序一
序二
前言
**篇 基礎篇
第1章 機器閱讀理解與關鍵支撐技術 2
1.1 機器閱讀理解任務 2
1.1.1 機器閱讀理解模型 3
1.1.2 機器閱讀理解的應用 4
1.2 自然語言處理 5
1.2.1 研究現狀 5
1.2.2 仍需解決的問題 6
1.3 深度學習 7
1.3.1 深度學習的特點 7
1.3.2 深度學習的成果 10
1.4 機器閱讀理解任務的測評方式 11
1.4.1 機器閱讀理解的答案形式 11
1.4.2 自由回答式答案評分標準ROUGE 12
1.5 機器閱讀理解數據集 14
1.5.1 單段落式數據集 14
1.5.2 多段落式數據集 19
1.5.3 文本庫式數據集 22
1.6 機器閱讀理解數據的生成 23
1.6.1 數據集的生成 23
1.6.2 標準答案的生成 24
1.6.3 如何設計高質量的數據集 26
1.7 本章小結 30
第2章 自然語言處理基礎 31
2.1 文本分詞 31
2.1.1 中文分詞 32
2.1.2 英文分詞 33
2.1.3 字節對編碼BPE 35
2.2 語言處理的基石:詞向量 37
2.2.1 詞的向量化 37
2.2.2 Word2vec詞向量 39
2.3 命名實體和詞性標注 42
2.3.1 命名實體識別 42
2.3.2 詞性標注 44
2.4 語言模型 48
2.4.1 N元模型 49
2.4.2 語言模型的評測 52
2.5 本章小結 53
第3章 自然語言處理中的深度學習 54
3.1 從詞向量到文本向量 54
3.1.1 利用RNN的*終狀態 55
3.1.2 利用CNN和池化 55
3.1.3 利用含參加權和 58
3.2 讓計算機做選擇題:自然語言理解 59
3.2.1 網絡模型 59
3.2.2 實戰:文本分類 60
3.3 讓計算機寫文章:自然語言生成 62
3.3.1 網絡模型 62
3.3.2 實戰:生成文本 63
3.3.3 集束搜索 65
3.4 讓計算機專心致志:注意力機制 67
3.4.1 注意力機制的計算 68
3.4.2 實戰:利用內積函數計算注意力 69
3.4.3 序列到序列模型 69
3.5 本章小結 70
第二篇 架構篇
第4章 機器閱讀理解模型架構 72
4.1 總體架構 72
4.2 編碼層 74
4.2.1 詞表的建立和初始化 74
4.2.2 字符編碼 75
4.2.3 上下文編碼 77
4.3 交互層 79
4.3.1 互注意力 79
4.3.2 自注意力 81
4.3.3 上下文編碼 82
4.4 輸出層 83
4.4.1 構造問題的向量表示 83
4.4.2 多項選擇式答案生成 84
4.4.3 區間式答案生成 85
4.4.4 自由式答案生成 87
4.5 本章小結 93
第5章 常見機器閱讀理解模型 94
5.1 雙向注意力流模型 94
5.1.1 編碼層 94
5.1.2 交互層 95
5.1.3 輸出層 98
5.2 R-net 99
5.2.1 基于注意力的門控循環神經網絡 100
5.2.2 網絡架構 101
5.3 融合網絡 104
5.3.1 單詞歷史 104
5.3.2 全關注注意力 105
5.3.3 總體架構 106
5.4 關鍵詞檢索與閱讀模型 109
5.4.1 檢索器 110
5.4.2 閱讀器 112
5.5 本章小結 115
第6章 預訓練模型 116
6.1 預訓練模型和遷移學習 116
6.2 基于翻譯的預訓練模型CoVe 118
6.2.1 機器翻譯模型 119
6.2.2 上下文編碼 120
6.3 基于語言模型的預訓練模型ELMo 121
6.3.1 雙向語言模型 122
6.3.2 ELMo的使用 123
6.4 生成式預訓練模型GPT 125
6.4.1 Transformer 125
6.4.2 GPT模型架構 129
6.4.3 GPT使用方法 129
6.5 劃時代的預訓練模型BERT 131
6.5.1 雙向語言模型 131
6.5.2 判斷下一段文本 132
6.5.3 BERT預訓練細節 133
6.5.4 BERT在目標任務中的使用 133
6.5.5 實戰:在區間答案型機器閱讀理解任務中微調BERT 137
6.6 本章小結 138
第三篇 實戰篇
第7章 機器閱讀理解模型SDNet代碼解析 140
7.1 多輪對話式閱讀理解模型SDNet 140
7.1.1 編碼層 141
7.1.2 交互層與輸出層 142
7.2 SDNet代碼介紹與運行指南 143
7.2.1 代碼介紹 143
7.2.2 運行指南 143
7.2.3 配置文件 145
7.3 預處理程序 147
7.3.1 初始化函數 148
7.3.2 預處理函數 149
7.4 訓練程序 154
7.4.1 訓練基類 154
7.4.2 訓練子類 155
7.5 批次數據產生器 159
7.5.1 掩碼 160
7.5.2 準備BERT數據 164
7.6 SDNet模型 166
7.6.1 網絡模型類 166
7.6.2 計算層 171
7.6.3 生成BERT編碼 177
7.7 本章小結 178
第8章 機器閱讀理解的應用與未來 179
8.1 智能客服 179
8.1.1 建立產品客服知識庫 180
8.1.2 理解用戶意圖 181
8.1.3 答案生成 183
8.1.4 智能客服中的其他模塊 183
8.2 搜索引擎 184
8.2.1 搜索引擎技術 185
8.2.2 搜索引擎中的機器閱讀理解 187
8.2.3 未來與挑戰 188
8.3 醫療衛生 189
8.4 法律 190
8.4.1 智能審判 191
8.4.2 確定適用條款 192
8.5 金融 193
8.5.1 股價預測 193
8.5.2 新聞摘要 195
8.6 教育 196
8.7 機器閱讀理解的未來 196
8.7.1 機器閱讀理解研究面臨的挑戰 197
8.7.2 機器閱讀理解的產業化 202
8.8 本章小結 203
附錄A 機器學習基礎 205
附錄B 深度學習基礎 208
序: