-- 會員 / 註冊 --  
 帳號:
 密碼:
  | 註冊 | 忘記密碼
3/26 新書到! 3/19 新書到! 3/14 新書到! 12/12 新書到!
購書流程Q & A站務留言版客服信箱
3ds MaxMayaRhinoAfter EffectsSketchUpZBrushPainterUnity
PhotoShopAutoCadMasterCamSolidWorksCreoUGRevitNuke
C#CC++Java遊戲程式Linux嵌入式PLCFPGAMatlab
駭客資料庫搜索引擎影像處理FluentVR+ARANSYS深度學習
單晶片AVROpenGLArduinoRaspberry Pi電路設計CadenceProtel
HadoopPythonStm32CortexLabview手機程式AndroidiPhone
可查書名,作者,ISBN,3dwoo書號
詳細書籍分類

scikit-learn機器學習:常用算法原理及編程實戰

( 簡體 字)
作者:黃永昌類別:1. -> 程式設計 -> 機器學習
譯者:
出版社:機械工業出版社scikit-learn機器學習:常用算法原理及編程實戰 3dWoo書號: 48485
詢問書籍請說出此書號!

缺書
NT售價: 295

出版日:2/7/2018
頁數:207
光碟數:0
站長推薦:
印刷:黑白印刷語系: ( 簡體 版 )
加入購物車 加到我的最愛
(請先登入會員)
ISBN:9787111590248
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證)
作者序:

譯者序:

前言:

內容簡介:

本書通過通俗易懂的語言、豐富的圖示和生動的實例,撥開了籠罩在機器學習上方復雜的數學“烏云”,讓讀者以較低的代價和門檻入門機器學習。本書共分為11章,介紹了在Python環境下學習scikit—learn機器學習框架的相關知識,涵蓋的主要內容有機器學習概述、Python機器學習軟件包、機器學習理論基礎、k—近鄰算法、線性回歸算法、邏輯回歸算法、決策樹、支持向量機、樸素貝葉斯算法、PCA算法和k—均值算法等。本書適合有一定編程基礎的讀者閱讀,尤其適合想從事機器學習、人工智能、深度學習及機器人相關技術的程序員和愛好者閱讀。另外,相關院校和培訓機構也可以將本書作為教材使用。
目錄:

第1章 機器學習介紹1
1.1 什么是機器學習1
  1.2 機器學習有什么用2
  1.3 機器學習的分類3
  1.4 機器學習應用開發的典型步驟4
1.4.1 數據采集和標記4
1.4.2 數據清洗5
1.4.3 特征選擇5
1.4.4 模型選擇5
1.4.5 模型訓練和測試5
1.4.6 模型性能評估和優化5
1.4.7 模型使用6
  1.5 復習題6
第2章 Python機器學習軟件包7
  2.1 開發環境搭建7
  2.2 IPython簡介8
2.2.1 IPython基礎8
2.2.2 IPython圖形界面13
  2.3 Numpy簡介15
2.3.1 Numpy數組15
2.3.2 Numpy運算19
  2.4 Pandas簡介32
2.4.1 基本數據結構32
2.4.2 數據排序34
2.4.3 數據訪問34
2.4.4 時間序列36
2.4.5 數據可視化36
2.4.6 文件讀寫38
  2.5 Matplotlib簡介38
2.5.1 圖形樣式38
2.5.2 圖形對象40
2.5.3 畫圖操作46
  2.6 scikit-learn簡介51
2.6.1 scikit-learn示例51
2.6.2 scikit-learn一般性原理和通用規則55
  2.7 復習題56
  2.8 拓展學習資源57
第3章 機器學習理論基礎58
  3.1 過擬合和欠擬合58
  3.2 成本函數59
  3.3 模型準確性60
3.3.1 模型性能的不同表述方式61
3.3.2 交叉驗證數據集61
  3.4 學習曲線62
3.4.1 實例:畫出學習曲線62
3.4.2 過擬合和欠擬合的特征65
  3.5 算法模型性能優化65
  3.6 查準率和召回率66
  3.7 F1 Score67
  3.8 復習題67
第4章 k-近鄰算法69
  4.1 算法原理69
4.1.1 算法優缺點69
4.1.2 算法參數70
4.1.3 算法的變種70
  4.2 示例:使用k-近鄰算法進行分類70
  4.3 示例:使用k-近鄰算法進行回歸擬合72
  4.4 實例:糖尿病預測74
4.4.1 加載數據74
4.4.2 模型比較75
4.4.3 模型訓練及分析77
4.4.4 特征選擇及數據可視化78
  4.5 拓展閱讀80
4.5.1 如何提高k-近鄰算法的運算效率80
4.5.2 相關性測試80
  4.6 復習題81
第5章 線性回歸算法83
  5.1 算法原理83
5.1.1 預測函數83
5.1.2 成本函數84
5.1.3 梯度下降算法84
  5.2 多變量線性回歸算法86
5.2.1 預測函數86
5.2.2 成本函數87
5.2.3 梯度下降算法88
  5.3 模型優化89
5.3.1 多項式與線性回歸89
5.3.2 數據歸一化89
  5.4 示例:使用線性回歸算法擬合正弦函數90
  5.5 示例:測算房價92
5.5.1 輸入特征92
5.5.2 模型訓練93
5.5.3 模型優化94
5.5.4 學習曲線95
  5.6 拓展閱讀96
5.6.1 梯度下降迭代公式推導96
5.6.2 隨機梯度下降算法96
5.6.3 標準方程97
  5.7 復習題97
第6章 邏輯回歸算法98
  6.1 算法原理98
6.1.1 預測函數98
6.1.2 判定邊界99
6.1.3 成本函數100
6.1.4 梯度下降算法102
  6.2 多元分類102
  6.3 正則化103
6.3.1 線性回歸模型正則化103
6.3.2 邏輯回歸模型正則化104
  6.4 算法參數104
  6.5 實例:乳腺癌檢測106
6.5.1 數據采集及特征提取106
6.5.2 模型訓練108
6.5.3 模型優化110
6.5.4 學習曲線111
  6.6 拓展閱讀113
  6.7 復習題114
第7章 決策樹115
  7.1 算法原理115
7.1.1 信息增益116
7.1.2 決策樹的創建119
7.1.3 剪枝算法120
  7.2 算法參數121
  7.3 實例:預測泰坦尼克號幸存者122
7.3.1 數據分析122
7.3.2 模型訓練123
7.3.3 優化模型參數124
7.3.4 模型參數選擇工具包127
  7.4 拓展閱讀130
7.4.1 熵和條件熵130
7.4.2 決策樹的構建算法130
  7.5 集合算法131
7.5.1 自助聚合算法Bagging131
7.5.2 正向激勵算法boosting131
7.5.3 隨機森林132
7.5.4 ExtraTrees算法133
  7.6 復習題133
第8章 支持向量機134
  8.1 算法原理134
8.1.1 大間距分類算法134
8.1.2 松弛系數136
  8.2 核函數138
8.2.1 最簡單的核函數138
8.2.2 相似性函數140
8.2.3 常用的核函數141
8.2.4 核函數的對比142
  8.3 scikit-learn里的SVM144
  8.4 實例:乳腺癌檢測146
  8.5 復習題149
第9章 樸素貝葉斯算法151
  9.1 算法原理151
9.1.1 貝葉斯定理151
9.1.2 樸素貝葉斯分類法152
  9.2 一個簡單的例子153
  9.3 概率分布154
9.3.1 概率統計的基本概念154
9.3.2 多項式分布155
9.3.3 高斯分布158
  9.4 連續值的處理159
  9.5 實例:文檔分類160
9.5.1 獲取數據集160
9.5.2 文檔的數學表達161
9.5.3 模型訓練163
9.5.4 模型評價165
  9.6 復習題167
第10章 PCA算法168
  10.1 算法原理168
10.1.1 數據歸一化和縮放169
10.1.2 計算協方差矩陣的特征向量169
10.1.3 數據降維和恢復170
  10.2 PCA 算法示例171
10.2.1 使用Numpy模擬PCA計算過程171
10.2.2 使用sklearn進行PCA降維運算173
10.2.3 PCA的物理含義174
  10.3 PCA 的數據還原率及應用175
10.3.1 數據還原率175
10.3.2 加快監督機器學習算法的運算速度176
  10.4 實例:人臉識別176
10.4.1 加載數據集176
10.4.2 一次失敗的嘗試179
10.4.3 使用PCA來處理數據集182
10.4.4 最終結果185
  10.5 拓展閱讀189
  10.6 復習題189
第11章 k-均值算法190
  11.1 算法原理190
11.1.1 k-均值算法成本函數191
11.1.2 隨機初始化聚類中心點191
11.1.3 選擇聚類的個數192
  11.2 scikit-learn里的k-均值算法192
  11.3 使用k-均值對文檔進行聚類分析195
11.3.1 準備數據集195
11.3.2 加載數據集196
11.3.3 文本聚類分析197
  11.4 聚類算法性能評估200
11.4.1 Adjust Rand Index200
11.4.2 齊次性和完整性201
11.4.3 輪廓系數203
  11.5 復習題204
  后記205
序: