-- 會員 / 註冊 --  
 帳號:
 密碼:
  | 註冊 | 忘記密碼
3/26 新書到! 3/19 新書到! 3/14 新書到! 12/12 新書到!
購書流程Q & A站務留言版客服信箱
3ds MaxMayaRhinoAfter EffectsSketchUpZBrushPainterUnity
PhotoShopAutoCadMasterCamSolidWorksCreoUGRevitNuke
C#CC++Java遊戲程式Linux嵌入式PLCFPGAMatlab
駭客資料庫搜索引擎影像處理FluentVR+ARANSYS深度學習
單晶片AVROpenGLArduinoRaspberry Pi電路設計CadenceProtel
HadoopPythonStm32CortexLabview手機程式AndroidiPhone
可查書名,作者,ISBN,3dwoo書號
詳細書籍分類

Python機器學習核心算法編程實例

( 簡體 字)
作者:丁偉雄類別:1. -> 程式設計 -> Python
   2. -> 程式設計 -> 機器學習
譯者:
出版社:電子工業出版社Python機器學習核心算法編程實例 3dWoo書號: 52409
詢問書籍請說出此書號!

缺書
NT售價: 390

出版日:1/1/2020
頁數:364
光碟數:0
站長推薦:
印刷:黑白印刷語系: ( 簡體 版 )
加入購物車 加到我的最愛
(請先登入會員)
ISBN:9787121382475
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證)
作者序:

譯者序:

前言:

前 言

“大家還沒搞清PC的時候,移動互聯網時代來了,還沒有搞清移動互聯網的時候,大數據時代來了。”馬云的這句話,仿佛一下拉開了大數據時代的序幕。而2016年,著名的計算機科學家——吳軍博士攜帶他的全新力作《智能時代:大數據與智能革命重新定義未來》,宣告智能時代到來了!
新的時代,需要新的技術;新的技術,需要新的人才。為滿足時代的需要,深度學習、機器學習應運而來。那么什么是大數據、什么是機器學習、什么是深度學習呢?
(1)什么是大數據
大數據(Big Data),指無法在一定時間范圍內用常規軟件工具進行捕捉、管理和處理的數據集合,是需要使用新處理模式才能具有更強的決策力、洞察發現力和流程優化能力的海量、高增長率和多樣化的信息資產。
在維克托·邁爾-舍恩伯格及肯尼斯·庫克耶編寫的《大數據時代》中,大數據指不用隨機分析法(抽樣調查)這樣的捷徑,而采用所有數據進行分析處理。大數據的5V特點(IBM提出):Volume(大量)、Velocity(高速)、Variety(多樣)、Value(低價值密度)、Veracity(真實性)。
(2)什么是機器學習
機器學習(Machine Learning,ML)是一門多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、算法復雜度理論等多門學科。專門研究計算機怎樣模擬或實現人類的學習行為,以獲取新的知識或技能,重新組織已有的知識結構使之不斷改善自身的性能。它是人工智能的核心,是使計算機具有智能的根本途徑。它的應用已遍及人工智能的各個分支,如專家系統、自動推理、自然語言理解、模式識別、計算機視覺、智能機器人等領域。其中尤其典型的是專家系統中的知識獲取瓶頸問題,人們一直在努力試圖采用機器學習的方法加以克服。
(3)什么是深度學習
深度學習是指多層的人工神經網絡和訓練它的方法。一層神經網絡會把大量矩陣數字作為輸入,通過非線性激活方法取權重,再產生另一個數據集合作為輸出。這就像生物神經大腦的工作機理一樣,通過合適的矩陣數量,多層組織鏈接一起,形成神經網絡“大腦”,進行精準復雜的處理,就像人們識別物體標注圖片一樣。
深度學習是從機器學習中的人工神經網絡發展出來的新領域。早期所謂的“深度”是指超過一層的神經網絡。但隨著深度學習的快速發展,其內涵已經超出了傳統的多層神經網絡,甚至機器學習的范疇,逐漸朝著人工智能的方向快速發展。
在數據科學家必備的技能中,機器學習和Python應該是位列前五的兩項。機器學習灸手可熱,在互聯網、金融保險、電商、電信、制造業、零售業、醫療等領域發揮了越來越大的作用,關注度也越來越高。Python是全球前四大流行語言之一,它具有簡單易學、應用幾乎無限制等特性,因此在開發從業者眼中是全棧開發的。
針對機器學習與Python軟件的特點,我們將兩者相結合編寫了本書,其主要內容包括:
第1章 介紹機器學習緒論,主要包括機器學習的定義、學習算法、Python的安裝與使用、Python基礎知識等內容。
第2章,介紹線性模型,主要包括一般線性回歸、局部加權線性回歸、廣義線性模型、邏輯回歸分析、牛頓法等內容。
第3章,介紹樹回歸,主要包括決策樹的構建、決策樹的繪制、決策樹的存儲、CART回歸樹等內容。
第4章,介紹K-means聚類算法,主要包括相似性的度量、相似性的度量、K-近鄰算法及各種聚類算法等內容。
第5章,介紹樸素貝葉斯,主要包括樸素貝葉斯理論、樸素貝葉斯算法等內容。
第6章,介紹數據降維,主要包括維度災難與降維、高維數據的降維方法等內容。
第7章,介紹支持向量機,主要包括分類間隔、拉格朗日乘子、核函數、 SOM算法等內容。
第8章,介紹隨機森林,主要包括集成學習、 Stacking、隨機森林算法、隨機森林算法實踐等內容。
第9章,介紹人工神經網絡,主要包括感知機模型、從感知機到神經網絡、多層前饋神經網絡等內容。
第10章,介紹協同過濾算法,主要包括協同過濾的核心、協同過濾的分類、相似度的度量方法等內容。
第11章,介紹基于矩陣分解的推薦算法,主要包括矩陣分解、利用矩陣分解進行預測、非負矩陣分解、基于矩陣分解的推薦方法等內容。
第12章,介紹集成學習,主要包括集成學習的原理及誤差、集成學習方法等內容。
第13章,介紹數據預處理,主要包括數據預處理的概述、去除唯一屬性、處理缺失值等內容。
本書主要由丁偉雄編寫,此外參加編寫的還有王宇華、吳茂、辛煥平、李曉東、李丹、李炳輝、顧艷春、方清城、鄧奮發、周品、趙書蘭、楊文茵、李偉平、宋曉光、李婭、張德豐、張彩霞、左軍。
本書適合Python初學者,也適合研究Python的廣大科研人員、學者、工程技術人員。
由于時間倉促,加之作者水平有限,所以錯誤和疏漏之處在所難免。在此,誠懇地期望得到各領域的專家和廣大讀者的批評指正。

編 著 者
內容簡介:

在大數據時代背景下,機器學習是人工智能研究領域中一個極其重要的方向,本書是一本機器學習方面的入門讀物,注重理論與實踐相結合,書中以Python 3.6.5為編寫平臺,共分13章,主要包括機器學習緒論、線性模型、樹回歸、K-means聚類算法、樸素貝葉斯、數據降維、支持向量機、隨機森林、人工神經網絡、協同過濾算法、基于矩陣分解的推薦算法、集成學習、數據預處理等內容。通過本書的學習,除使讀者輕松掌握Python外,還能利用Python簡單、快捷地解決各種機器學習問題。本書適合Python初學者,也適合研究Python的廣大科研人員、學者、工程技術人員。


目錄:

第1章 機器學習緒論 1
1.1 機器學習的定義 1
1.1.1 緒論 1
1.1.2 機器學習發展歷程 2
1.1.3 機器學習算法的分類 3
1.2 學習算法 4
1.2.1 監督學習 4
1.2.2 無監督學習 5
1.3 機器學習應用程序的步驟 6
1.4 Python語言 7
1.4.1 Python的風格 7
1.4.2 Python的優勢 7
1.4.3 Python語言的缺點 8
1.5 Python的環境搭建 9
1.5.1 安裝 10
1.5.2 使用pip安裝第三方庫 13
1.6 NumPy函數庫基礎 14
1.7 Python的基礎知識 16
1.7.1 數和表達式 16
1.7.2 Python的標識符 18
1.7.3 Python的保留字符 19
1.7.4 行和縮進 19
1.7.5 多行語句 20
1.7.6 Python引號 20
1.7.7 Python空行 20
1.7.8 同一行顯示多條語句 20
1.7.9 Print輸出 21
第2章 線性模型 22
2.1 一般線性回歸 23
2.1.1 線性回歸公式表示法 23
2.1.2 線性回歸的Python實現 25
2.2 局部加權線性回歸 27
2.3 廣義線性模型 30
2.4 邏輯回歸分析 36
2.5 牛頓法 40
2.5.1 基本牛頓法的原理 40
2.5.2 基本牛頓法的流程 40
2.5.3 全局牛頓法 40
2.5.4 Armijo搜索 42
2.5.5 全局牛頓法求解線性回歸模型 42
2.6 縮減法 43
2.6.1 嶺回歸 44
2.6.2 lasso回歸 46
2.7 利用線性回歸進行預測 47
2.7.1 訓練線性回歸模型 47
2.7.2 對新數據的預測 49
第3章 樹回歸 51
3.1 構建決策樹的準備工作 52
3.1.1 特征選擇 52
3.1.2 決策樹的生成和修剪 60
3.2 Matplotlib注釋繪制樹形圖 60
3.3 使用決策樹執行分類 67
3.4 決策樹的存儲 71
3.5 Sklearn使用決策樹預測隱形眼鏡類型 73
3.5.1 實戰背景 73
3.5.2 使用Sklearn構建決策樹 73
3.6 復雜數據的局部性建模 80
3.7 連續型和離散型特征的樹構建 81
3.8 分類回歸樹 82
3.8.1 構建樹 83
3.8.2 剪枝 85
3.8.3 模型樹 87
3.8.4 分類回歸的Python實現 88
第4章 K-means聚類算法 92
4.1 K-means聚類算法的概述 92
4.2 相似性的度量 93
4.2.1 閔可夫斯基距離 93
4.2.2 曼哈頓距離 93
4.2.3 歐氏距離 93
4.3 K-means聚類算法的原理 94
4.3.1 K-means聚類算法的步驟 94
4.3.2 K-means算法與矩陣分解 95
4.3.3 K-means聚類算法的實現 96
4.4 K-近鄰算法 104
4.5 各種聚類算法 107
4.5.1 劃分聚類法 107
4.5.2 層次聚類法 108
4.5.3 密度聚類法 111
4.5.4 譜聚類法 116
4.5.5 Birch聚類 119
4.5.6 混合高斯模型 121
4.6 K-means++算法 122
4.6.1 K-means算法存在的問題 122
4.6.2 K-means++算法的思路 123
第5章 樸素貝葉斯 127
5.1 樸素貝葉斯理論 127
5.1.1 貝葉斯決策理論 127
5.1.2 條件概率 128
5.1.3 全概率公式 128
5.1.4 貝葉斯推斷 129
5.1.5 樸素貝葉斯推斷 130
5.2 樸素貝葉斯算法 131
5.3 樸素貝葉斯算法的優缺點 140
第6章 數據降維 141
6.1 維度災難與降維 141
6.2 高維數據降維的方法 141
6.2.1 線性降維 142
6.2.2 非線性降維 146
6.2.3 SVD降維 153
6.2.4 流形學習降維 159
6.2.5 多維縮放降維 166
第7章 支持向量機 170
7.1 支持向量機概述 170
7.2 分類間隔 171
7.2.1 函數間距 172
7.2.2 幾何間距 173
7.3 拉格朗日乘子 175
7.3.1 拉格朗日對偶性 175
7.3.2 優化間隔分類器 176
7.4 核函數 178
7.4.1 核函數的選擇 180
7.4.2 松弛向量與軟間隔最大化 180
7.5 SOM算法 181
7.5.1 坐標上升算法 182
7.5.2 SOM 182
7.6 SVM的優缺點 185
7.7 SVM的Python實現 185
第8章 隨機森林 192
8.1 什么是隨機森林 192
8.2 集成學習 192
8.2.1 集成學習的思想 193
8.2.2 集成學習中的典型方法 193
8.3 Stacking 194
8.3.1 Stacking的基本思想 194
8.3.2 Stacking的實現 195
8.4 隨機森林算法 198
8.4.1 隨機森林的特點 198
8.4.2 隨機森林算法流程 199
8.5 隨機森林算法實踐 201
8.6 美國人口普查年收入50k分類 207
8.6.1 數據預處理 208
8.6.2 模型訓練及驗證 212
第9章 人工神經網絡 217
9.1 感知機模型 217
9.1.1 感知機的定義 217
9.1.2 感知機的學習策略 218
9.1.3 感知機學習算法 218
9.1.4 感知機的Python實現 226
9.2 從感知機到神經網絡 236
9.3 多層前饋神經網絡 238
9.3.1 BP網絡算法 241
9.3.2 BP神經網絡的學習過程 244
9.3.3 BP神經網絡中參數的設置 249
9.4 神經網絡的Python實現 253
第10章 協同過濾算法 272
10.1 協同過濾的核心 272
10.2 協同過濾的分類 272
10.3 相似性的度量方法 273
10.3.1 歐氏距離 273
10.3.2 皮爾遜相關系數 273
10.3.3 余弦相似度 274
10.3.4 用Python實現余弦相似度的計算 274
10.4 基于用戶的協同過濾算法 275
10.4.1 基于物品的協同過濾算法 275
10.4.2 基于矩陣分解的協同過濾算法 276
10.4.3 Python實現 276
10.5 基于項的協同過濾算法 280
10.6 利用協同過濾算法進行推薦 281
10.6.1 導入用戶-商品數據 281
10.6.2 利用基于用戶的協同過濾算法進行推薦 282
10.6.3 利用基于項的協同過濾算法進行推薦 283
第11章 基于矩陣分解的推薦算法 285
11.1 矩陣分解 285
11.2 利用矩陣分解進行預測 286
11.2.1 損失函數 286
11.2.2 損失函數的求解 286
11.2.3 加入正則項的損失函數即求解方法 286
11.2.4 預測 288
11.2.5 程序實現 289
11.3 非負矩陣分解 291
11.3.1 非負矩陣分解的形式定義 291
11.3.2 損失函數 291
11.3.3 優化問題的求解 292
11.3.4 利用乘法規則進行分解和預測 294
11.4 基于矩陣分解的推薦方法 295
11.4.1 LFM法 295
11.4.2 SVD法 298
11.4.3 SVD++法 300
第12章 集成學習 304
12.1 集成學習的原理及誤差 304
12.2 集成學習方法 305
12.2.1 Boosting算法 305
12.2.2 AdaBoost算法 305
12.2.3 AdaBoost與加法模型 309
12.2.4 提升樹 310
12.2.5 Bagging算法 313
12.2.6 誤差-分歧分解 314
12.2.7 多樣性增強 315
12.2.8 Stacking算法 316
12.3 Python實現 317
第13章 數據預處理 322
13.1 數據預處理概述 322
13.1.1 為什么要對數據進行預處理 322
13.1.2 數據預處理的主要任務 323
13.2 去除唯一屬性 323
13.3 處理缺失值 324
13.3.1 直接使用 324
13.3.2 刪除特征 324
13.3.3 缺失值補全 324
13.3.4 數據清理 328
13.3.5 特征編碼 330
13.3.6 數據標準化 331
13.3.7 正則化 332
13.3.8 特征選擇 333
13.3.9 稀疏表示和字典學習 335
13.4 Python實現 337
參考文獻 352
序: