|
-- 會員 / 註冊 --
|
|
|
|
機器學習 ( 簡體 字) |
作者:周志華 | 類別:1. -> 程式設計 -> 機器學習 |
譯者: |
出版社:清華大學出版社 | 3dWoo書號: 46872 詢問書籍請說出此書號!【缺書】 NT售價: 440 元 |
出版日:1/1/2016 |
頁數:423 |
光碟數:0 |
|
站長推薦: |
印刷:黑白印刷 | 語系: ( 簡體 版 ) |
|
加入購物車 │加到我的最愛 (請先登入會員) |
ISBN:9787302423287 |
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 序 |
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證) |
作者序: |
譯者序: |
前言: |
內容簡介:機器學習是計算機科學與人工智能的重要分支領域. 本書作為該領域的入門教材,在內容上盡可能涵蓋機器學習基礎知識的各方面. 全書共16 章,大致分為3 個部分:第1 部分(第1∼3 章)介紹機器學習的基礎知識;第2 部分(第4∼10 章)討論一些經典而常用的機器學習方法(決策樹、神經網絡、支持向量機、貝葉斯分類器、集成學習、聚類、降維與度量學習);第3 部分(第11∼16 章)為進階知識,內容涉及特征選擇與稀疏學習、計算學習理論、半監督學習、概率圖模型、規則學習以及強化學習等. 每章都附有習題并介紹了相關閱讀材料,以便有興趣的讀者進一步鉆研探索。 本書可作為高等院校計算機、自動化及相關專業的本科生或研究生教材,也可供對機器學習感興趣的研究人員和工程技術人員閱讀參考。 |
目錄:第1章 1
1.1 引言 1
1.2 基本術 2
1.3 假設空間 4
1.4 歸納偏好 6
1.5 發展歷程 10
1.6 應用現狀 13
1.7 閱讀材料 16
習題 19
參考文獻 20
休息一會兒 22
第2章 模型評估與選擇 23
2.1 經驗誤差與過擬合 23
2.2 評估方法 24
2.2.1 留出法 25
2.2.2 交叉驗證法 26
2.2.3 自助法 27
2.2.4 調參與最終模型 28
2.3 性能度量 28
2.3.1 錯誤率與精度 29
2.3.2 查準率、查全率與F1 30
2.3.3 ROC與AUC 33
2.3.4 代價敏感錯誤率與代價曲線 35
2.4 比較檢驗 37
2.4.1 假設檢驗 37
2.4.2 交叉驗證t檢驗 40
2.4.3 McNemar檢驗 41
2.4.4 Friedman檢驗與後續檢驗 42
2.5 偏差與方差 44
2.6 閱讀材料 46
習題 48
參考文獻 49
休息一會兒 51
第3章 線性模型 53
3.1 基本形式 53
3.2 線性回歸 53
3.3 對數幾率回歸 57
3.4 線性判別分析 60
3.5 多分類學習 63
3.6 類別不平衡問題 66
3.7 閱讀材料 67
習題 69
參考文獻 70
休息一會兒 72
第4章 決策樹 73
4.1 基本流程 73
4.2 劃分選擇 75
4.2.1 信息增益 75
4.2.2 增益率 77
4.2.3 基尼指數 79
4.3 剪枝處理 79
4.3.1 預剪枝 80
4.3.2 後剪枝 82
4.4 連續與缺失值 83
4.4.1 連續值處理 83
4.4.2 缺失值處理 85
4.5 多變量決策樹 88
4.6 閱讀材料 92
習題 93
參考文獻 94
休息一會兒 95
第5章 神經網絡 97
5.1 神經元模型 97
5.2 感知機與多層網絡 98
5.3 誤差逆傳播算法 101
5.4 全局最小與局部極小 106
5.5 其他常見神經網絡 108
5.5.1 RBF網絡 108
5.5.2 ART網絡 108
5.5.3 SOM網絡 109
5.5.4 級聯相關網絡 110
5.5.5 Elman網絡 111
5.5.6 Boltzmann機 111
5.6 深度學習 113
5.7 閱讀材料 115
習題 116
參考文獻 117
休息一會兒 120
第6章 支持向量機 121
6.1 間隔與支持向量 121
6.2 對偶問題 123
6.3 核函數 126
6.4 軟間隔與正則化 129
6.5 支持向量回歸 133
6.6 核方法 137
6.7 閱讀材料 139
習題 141
參考文獻 142
休息一會兒 145
第7章 貝葉斯分類器 147
7.1 貝葉斯決策論 147
7.2 極大似然估計 149
7.3 樸素貝葉斯分類器 150
7.4 半樸素貝葉斯分類器 154
7.5 貝葉斯網 156
7.5.1 結構 157
7.5.2 學習 159
7.5.3 推斷 161
7.6 EM算法 162
7.7 閱讀材料 164
習題 166
參考文獻 167
休息一會兒 169
第8章 集成學習 171
8.1 個體與集成 171
8.2 Boosting 173
8.3 Bagging與隨機森林 178
8.3.1 Bagging 178
8.3.2 隨機森林 179
8.4 結合策略 181
8.4.1 平均法 181
8.4.2 投票法 182
8.4.3 學習法 183
8.5 多樣性 185
8.5.1 誤差--分歧分解 185
8.5.2 多樣性度量 186
8.5.3 多樣性增強 188
8.6 閱讀材料 190
習題 192
參考文獻 193
休息一會兒 196
第9章 聚類 197
9.1 聚類任務 197
9.2 性能度量 197
9.3 距離計算 199
9.4 原型聚類 202
9.4.1 k均值算法 202
9.4.2 學習向量量化 204
9.4.3 高斯混合聚類 206
9.5 密度聚類 211
9.6 層次聚類 214
9.7 閱讀材料 217
習題 220
參考文獻 221
休息一會兒 224
第10章 降維與度量學習 225
10.1 k近鄰學習 225
10.2 低維嵌入 226
10.3 主成分分析 229
10.4 核化線性降維 232
10.5 流形學習 234
10.5.1 等度量映射 234
10.5.2 局部線性嵌入 235
10.6 度量學習 237
10.7 閱讀材料 240
習題 242
參考文獻 243
休息一會兒 246
第11章 特徵選擇與稀疏學習 247
11.1 子集搜索與評價 247
11.2 過濾式選擇 249
11.3 包裹式選擇 250
11.4 嵌入式選擇與L$_1$正則化 252
11.5 稀疏表示與字典學習 254
11.6 壓縮感知 257
11.7 閱讀材料 260
習題 262
參考文獻 263
休息一會兒 266
第12章 計算學習理論 267
12.1 基礎知識 267
12.2 PAC學習 268
12.3 有限假設空間 270
12.3.1 可分情形 270
12.3.2 不可分情形 272
12.4 VC維 273
12.5 Rademacher複雜度 279
12.6 穩定性 284
12.7 閱讀材料 287
習題 289
參考文獻 290
休息一會兒 292
第13章 半監督學習 293
13.1 未標記樣本 293
13.2 生成式方法 295
13.3 半監督SVM 298
13.4 圖半監督學習 300
13.5 基於分歧的方法 304
13.6 半監督聚類 307
13.7 閱讀材料 311
習題 313
參考文獻 314
休息一會兒 317
第14章 概率圖模型 319
14.1 隱馬爾可夫模型 319
14.2 馬爾可夫隨機場 322
14.3 條件隨機場 325
14.4 學習與推斷 328
14.4.1 變量消去 328
14.4.2 信念傳播 330
14.5 近似推斷 331
14.5.1 MCMC采樣 331
14.5.2 變分推斷 334
14.6 話題模型 337
14.7 閱讀材料 339
習題 341
參考文獻 342
休息一會兒 345
第15章 規則學習 347
15.1 基本概念 347
15.2 序貫覆蓋 349
15.3 剪枝優化 352
15.4 一階規則學習 354
15.5 歸納邏輯程序設計 357
15.5.1 最小一般泛化 358
15.5.2 逆歸結 359
15.6 閱讀材料 363
習題 365
參考文獻 366
休息一會兒 369
第16章 強化學習 371
16.1 任務與獎賞 371
16.2 $K$-搖臂賭博機 373
16.2.1 探索與利用 373
16.2.2 $\epsilon $-貪心 374
16.2.3 Softmax 375
16.3 有模型學習 377
16.3.1 策略評估 377
16.3.2 策略改進 379
16.3.3 策略迭代與值迭代 381
16.4 免模型學習 382
16.4.1 蒙特卡羅強化學習 383
16.4.2 時序差分學習 386
16.5 值函數近似 388
16.6 模仿學習 390
16.6.1 直接模仿學習 391
16.6.2 逆強化學習 391
16.7 閱讀材料 393
習題 394
參考文獻 395
休息一會兒 397
附錄 399
A 矩陣 399
B 優化 403
C 概率分布 409
後記 417
索引 419 |
序: |
|