機器學習入門( 簡體 字) | |
作者:[日]須山敦志 著杉山 將 監修 | 類別:1. -> 程式設計 -> 機器學習 |
譯者:王衛兵 楊秋香 等譯 | |
出版社:機械工業出版社 | 3dWoo書號: 53725 詢問書籍請說出此書號! 有庫存 NT售價: 345 元 |
出版日:10/1/2020 | |
頁數:180 | |
光碟數:0 | |
站長推薦: | |
印刷:黑白印刷 | 語系: ( 簡體 字 ) |
ISBN:9787111663607 | 加入購物車 │加到我的最愛 (請先登入會員) |
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證, 繁體書的下載亦請直接連絡出版社) | |
第1章 機器學習與貝葉斯學習 1
1.1 什麼是機器學習? 1 1.2 機器學習的典型任務 2 1.2.1 回歸 2 1.2.2 分類 3 1.2.3 聚類 4 1.2.4 降維 4 1.2.5 其他典型任務 6 1.3 機器學習的兩類方法 6 1.3.1 基於工具箱的機器學習 6 1.3.2 基於建模的機器學習 7 1.4 概率的基本計算 8 1.4.1 概率分佈 8 1.4.2 概率分佈的推定 9 1.4.3 紅球和白球問題 11 1.4.4 多個觀測資料 13 1.4.5 逐次推論 15 1.4.6 參數未知的情況 15 1.5 圖模型 16 1.5.1 有向圖 17 1.5.2 節點的附加條件 18 1.5.3 瑪律可夫覆蓋 20 1.6 貝葉斯學習方法 20 1.6.1 模型的構建和推論 20 1.6.2 各類任務中的貝葉斯推論 21 1.6.3 複雜後驗分佈的近似 24 1.6.4 基於不確定性的決策 25 1.6.5 貝葉斯學習的優點與缺點 26 第2章 基本的概率分佈 30 2.1 期望值30 2.1.1 期望值的定義 30 2.1.2 基本的期望值 30 2.1.3 熵 31 2.1.4 KL散度 32 2.1.5 抽樣的期望值近似計算 32 2.2 離散概率分佈33 2.2.1 伯努利分佈 33 2.2.2 二項分佈 35 2.2.3 類分佈 36 2.2.4 多項分佈 37 2.2.5 泊松分佈 38 2.3 連續概率分佈40 2.3.1 Beta分佈 40 2.3.2 Dirichlet分佈 41 2.3.3 Gamma分佈 43 2.3.4 一維高斯分佈 44 2.3.5 多維高斯分佈 45 2.3.6 Wishart分佈 48 第3章 基於貝葉斯推論的學習和預測 51 3.1 學習和預測51 3.1.1 參數的後驗分佈 51 3.1.2 預測分佈 523.1.3 共軛先驗分佈 53 3.1.4 非共軛先驗分佈的運用 54 3.2 離散概率分佈的學習和預測55 3.2.1 伯努利分佈的學習和預測 55 3.2.2 類分佈的學習和預測 59 3.2.3 泊松分佈的學習和預測 61 3.3 一維高斯分佈的學習和預測63 3.3.1 均值未知的情況 63 3.3.2 精度未知的情況 66 3.3.3 均值和精度均未知的情況 68 3.4 多維高斯分佈的學習和預測71 3.4.1 均值未知的情況 71 3.4.2 精度未知的情況 73 3.4.3 均值和精度均未知的情況 75 3.5 線性回歸的例子77 3.5.1 模型的構建 77 3.5.2 後驗分佈和預測分佈的計算 78 3.5.3 模型的比較 80 第4章 混合模型和近似推論 84 4.1 混合模型和後驗分佈的推論84 4.1.1 使用混合模型的理由 84 4.1.2 混合模型的資料生成過程 85 4.1.3 混合模型的後驗分佈 87 4.2 概率分佈的近似方法88 4.2.1 吉布斯採樣 88 4.2.2 變分推論 90 4.3 泊松混合模型的推論93 4.3.1 泊松混合模型 93 4.3.2 吉布斯採樣 94 4.3.3 變分推論 97 4.3.4 折疊式吉布斯採樣 100 4.3.5 簡易實驗 105 4.4 高斯混合模型中的推論106 4.4.1 高斯混合模型 106 4.4.2 吉布斯採樣 107 4.4.3 變分推論 110 4.4.4 折疊式吉布斯採樣 113 4.4.5 簡易實驗 115 第5章 應用模型的構建和推論 119 5.1 線性降維119 5.1.1 模型 120 5.1.2 變分推論 120 5.1.3 資料的不可逆壓縮 123 5.1.4 缺失值內插 124 5.2 非負值矩陣因數分解126 5.2.1 模型 127 5.2.2 變分推論 129 5.3 隱瑪律可夫模型132 5.3.1 模型 133 5.3.2 完全分解變分推論 135 5.3.3 結構化變分推論 139 5.4 主題模型143 5.4.1 模型 143 5.4.2 變分推論 146 5.4.3 折疊式吉布斯採樣 148 5.4.4LDA模型的應用與擴展 151 5.5 張量分解151 5.5.1 協同過濾 1525.5.2 模型 154 5.5.3 變分推論 155 5.5.4 缺失值的內插 160 5.6 logistic回歸161 5.6.1 模型 161 5.6.2 變分推論 162 5.6.3 離散值的預測 165 5.7 神經網路166 5.7.1 模型 167 5.7.2 變分推論 168 5.7.3 連續值的預測 169 附錄A 相關計算的補充 171 A.1 基本的矩陣計算171 A.1.1 轉置 171 A.1.2 逆矩陣 171 A.1.3 矩陣的跡 172 A.1.4 方陣的行列式 172 A.1.5 正定值矩陣 172 A.2 特殊函數173 A.2.1gamma函數和digamma函數 173 A.2.2sigmoid函數和softmax函數 173 A.3 梯度法174 A.3.1 函數的梯度 174 A.3.2 最速下降法 175 A.3.3 座標下降法 175 A.4 邊緣似然度下限176 A.4.1 邊緣似然度和ELBO 176 A.4.2 泊松混合分佈的例子 177 參考文獻 178 作為機器學習的核心,《機器學入門》介紹了基於貝葉斯推論的機器學習,其基本思想是將資料及資料產生的過程視為隨機事件,從資料的固有特徵開始,通過一系列假設來進行資料的描述,進而構建出與機器學習任務相適應的隨機模型,然後通過模型的解析求解或近似求解得出未知事件的預測模型。通過貝葉斯學習,我們可以瞭解到更多關於資料的資訊,進而可以大致清楚進行學習的神經網路的規模和複雜程度。更重要的是,當神經網路學習中出現問題時,通過貝葉斯學習可以找到解決問題的方向和途徑。因此,可以說貝葉斯學習是深度神經網路學習的理論基礎,也是進行神經網路學習的必修課。本書在內容安排上,盡可能對概率統計和隨機過程的基礎進行了較為完整的介紹,並對常用的概率分佈進行了詳盡的分析。在此基礎上重點介紹了單一模型及混合模型的貝葉斯推論方法,並結合具體應用進行了擴展和分析。在注重理論介紹的同時也考慮到了實際的應用擴展,從而保證了讀者學習的完整性。其所給出的隨機模型分析、構建及求解方法力圖詳盡,對讀者進行貝葉斯方法的學習和實際應用具有較高的指導和參考價值。
|