|
-- 會員 / 註冊 --
|
|
|
|
機器學習導論(原書第2版) ( 簡體 字) |
作者:米羅斯拉夫.庫巴特 | 類別:1. -> 程式設計 -> 機器學習 |
譯者: |
出版社:機械工業出版社 | 3dWoo書號: 49924 詢問書籍請說出此書號!【有庫存】 NT售價: 395 元 |
出版日:9/17/2018 |
頁數:251 |
光碟數:0 |
|
站長推薦: |
印刷:黑白印刷 | 語系: ( 簡體 版 ) |
|
加入購物車 │加到我的最愛 (請先登入會員) |
ISBN:9787111605812 |
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 序 |
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證) |
作者序: |
譯者序: |
前言: |
內容簡介:本書是一本淺顯易懂的機器學習入門教材,它以理論與實際相結合的方式全面地涵蓋了主流的機器學習理論與技術。全書共17章,介紹了貝葉斯分類器、近鄰分類器、線性與多項式分類器、人工神經網絡、決策樹、基于規則集的分類器、遺傳算法等經典的機器學習方法,對計算學習理論、性能評估、統計顯著性等進行了討論。講解了集成學習、多標簽學習、無監督學習和強化學習等重要的機器學習領域。本書還通過大量的應用實例,闡述了機器學習技術的許多應用技巧。每章結尾對相關機器學習工作都進行了歷史簡評,并附有練習、思考題和上機實驗。 |
目錄:譯者序 原書前言 第 1章 一個簡單的機器學習任務 //1 1.1 訓練集和分類器 //1 1.2 題外話:爬山搜索 //4 1.3 機器學習中的爬山法 //6 1.4 分類器的性能 //8 1.5 可用數據的困難 //9 1.6 小結和歷史簡評 //11 1.7 鞏固知識 //11 第 2章 概率:貝葉斯分類器 //14 2.1 單屬性的情況 //14 2.2 離散屬性值的向量 //17 2.3 稀少事件的概率:利用專家的直覺 //20 2.4 如何處理連續屬性 //23 2.5 高斯鐘形函數:一個標準的 pdf //24 2.6 用高斯函數的集合近似 pdf //26 2.7 小結和歷史簡評 //30 2.8 鞏固知識 //30 第 3章 相似性:最近鄰分類器 //32 3.1 k近鄰法則 //32 3.2 度量相似性 //34 3.3 不相關屬性與尺度縮放問題 //36 3.4 性能方面的考慮 //39 3.5 加權最近鄰 //41 3.6 移除危險的樣例 //42 3.7 移除多余的樣例 //44 3.8 小結和歷史簡評 //46 3.9 鞏固知識 //46 第 4章 類間邊界:線性和多項式分類器 //49 4.1 本質 //49 4.2 加法規則:感知機學習 //51 4.3 乘法規則: WINNOW //55 4.4 多于兩個類的域 //58 4.5 多項式分類器 //60 4.6 多項式分類器的特殊方面 //62 4.7 數值域和 SVM //63 4.8 小結和歷史簡評 //65 4.9 鞏固知識 //66 第 5章 人工神經網絡 //69 5.1 作為分類器的多層感知機 //69 5.2 神經網絡的誤差 //72 5.3 誤差的反向傳播 //73 5.4 多層感知機的特殊方面 //77 5.5 結構問題 //79 5.6 RBF網絡 //81 5.7 小結和歷史簡評 //83 5.8 鞏固知識 //84 第 6章 決策樹 //86 6.1 作為分類器的決策樹 //86 6.2 決策樹的歸納學習 //89 6.3 一個屬性承載的信息 //91 6.4 數值屬性的二元劃分 //94 6.5 剪枝 //96 6.6 將決策樹轉換為規則 //99 6.7 小結和歷史簡評 //101 6.8 鞏固知識 //101 第 7章 計算學習理論 //104 7.1 PAC學習 //104 7.2 PAC可學習性的實例 //106 7.3 一些實踐和理論結果 //108 7.4 VC維與可學習性 //110 7.5 小結和歷史簡評 //112 7.6 鞏固知識 //112 第 8章 典型案例 //114 8.1 字符識別 //114 8.2 溢油檢測 //117 8.3 睡眠分類 //119 8.4 腦機界面 //121 8.5 醫療診斷 //124 8.6 文本分類 //126 8.7 小結和歷史簡評 //127 8.8 鞏固知識 //128 第 9章 投票組合簡介 //130 9.1 “Bagging”方法 //130 9.2 “Schapire’s Boosting”方法 //132 9.3 “Adaboost”方法: “Boosting”方法的實用版本 //134 9.4 “Boosting”方法的變種 //138 9.5 該方法的計算優勢 //139 9.6 小結和歷史簡評 //141 9.7 鞏固知識 //141 第 10章 了解一些實踐知識 //143 10.1 學習器的偏好 //143 10.2 不平衡訓練集 //145 10.3 語境相關域 //148 10.4 未知屬性值 //150 10.5 屬性選擇 //152 10.6 雜項 //154 10.7 小結和歷史簡評 //155 10.8 鞏固知識 //156 第 11章 性能評估 //158 11.1 基本性能標準 //158 11.2 精度和查全率 //160 11.3 測量性能的其他方法 //163 11.4 學習曲線和計算開銷 //166 11.5 實驗評估的方法 //167 11.6 小結和歷史簡評 //169 11.7 鞏固知識 //170 第 12章 統計顯著性 //173 12.1 總體抽樣 //173 12.2 從正態分布中獲益 //176 12.3 置信區間 //178 12.4 一個分類器的統計評價 //180 12.5 另外一種統計評價 //182 12.6 機器學習技術的比較 //182 12.7 小結和歷史簡評 //184 12.8 鞏固知識 //185 第 13章 多標簽學習 //186 13.1 經典機器學習框架下的多標簽 問題 //186 13.2 單獨處理每類數據的方法:二元相關法 //188 13.3 分類器鏈 //190 13.4 另一種方法:層疊算法 //191 13.5 層次有序類的簡介 //192 13.6 類聚合 //194 13.7 分類器性能的評價標準 //196 13.8 小結和歷史簡評 //198 13.9 鞏固知識 //199 第 14章 無監督學習 //202 14.1 聚類分析 //202 14.2 簡單算法: k均值 //204 14.3 k均值的高級版 //207 14.4 分層聚集 //209 14.5 自組織特征映射:簡介 //211 14.6 一些重要的細節 //213 14.7 為什么要特征映射 //214 14.8 小結和歷史簡評 //215 14.9 鞏固知識 //216 第 15章 規則集形式的分類器 //218 15.1 由規則描述的類別 //218 15.2 通過序列覆蓋歸納規則集 //220 15.3 謂詞與循環 //222 15.4 更多高級的搜索算子 //224 15.5 小結和歷史簡評 //225 15.6 鞏固知識 //225 第 16章 遺傳算法 //227 16.1 基本遺傳算法 //227 16.2 個體模塊的實現 //229 16.3 為什么能起作用 //231 16.4 過早退化的危險 //233 16.5 其他遺傳算子 //234 16.6 高級版本 //235 16.7 kNN分類器的選擇 //237 16.8 小結和歷史簡評 //239 16.9 鞏固知識 //240 第 17章 強化學習 //241 17.1 如何選出最高獎勵的動作 //241 17.2 游戲的狀態和動作 //243 17.3 SARSA方法 //245 17.4 小結和歷史簡評 //245 17.5 鞏固知識 //246 參考文獻 //247 |
序: |
|