 |
-- 會員 / 註冊 --
|
|
|
|
機器學習實戰:基于Scikit-Learn和TensorFlow ( 簡體 字) |
作者:(法)奧雷利安·杰龍(Aurelien Geron) | 類別:1. -> 程式設計 -> 機器學習 |
譯者: |
出版社:機械工業出版社 | 3dWoo書號: 49770 詢問書籍請說出此書號!【缺書】 NT售價: 595 元 |
出版日:8/21/2018 |
頁數:476 |
光碟數:0 |
|
站長推薦:  |
印刷:黑白印刷 | 語系: ( 簡體 版 ) |
|
加入購物車 │加到我的最愛 (請先登入會員) |
ISBN:9787111603023 |
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 序 |
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證) |
作者序: |
譯者序: |
前言: |
內容簡介:本書主要分為兩個部分。第一部分為第1章到第8章,涵蓋機器學習的基礎理論知識和基本算法——從線性回歸到隨機森林等,幫助讀者掌握Scikit-Learn的常用方法;第二部分為第9章到第16章,探討深度學習和常用框架TensorFlow,一步一個腳印地帶領讀者使用TensorFlow搭建和訓練深度神經網絡,以及卷積神經網絡。 |
目錄:前言1 第一部分 機器學習基礎 第1章 機器學習概覽11 什么是機器學習12 為什么要使用機器學習12 機器學習系統的種類15 監督式/無監督式學習16 批量學習和在線學習21 基于實例與基于模型的學習24 機器學習的主要挑戰29 訓練數據的數量不足29 訓練數據不具代表性30 質量差的數據32 無關特征32 訓練數據過度擬合33 訓練數據擬合不足34 退后一步35 測試與驗證35 練習37 第2章 端到端的機器學習項目39 使用真實數據39 觀察大局40 框架問題41 選擇性能指標42 檢查假設45 獲取數據45 創建工作區45 下載數據48 快速查看數據結構49 創建測試集52 從數據探索和可視化中獲得洞見56 將地理數據可視化57 尋找相關性59 試驗不同屬性的組合61 機器學習算法的數據準備62 數據清理63 處理文本和分類屬性65 自定義轉換器67 特征縮放68 轉換流水線68 選擇和訓練模型70 培訓和評估訓練集70 使用交叉驗證來更好地進行評估72 微調模型74 網格搜索74 隨機搜索76 集成方法76 分析最佳模型及其錯誤76 通過測試集評估系統77 啟動、監控和維護系統78 試試看79 練習79 第3章 分類80 MNIST80 訓練一個二元分類器82 性能考核83 使用交叉驗證測量精度83 混淆矩陣84 精度和召回率86 精度/召回率權衡87 ROC曲線90 多類別分類器93 錯誤分析95 多標簽分類98 多輸出分類99 練習100 第4章 訓練模型102 線性回歸103 標準方程104 計算復雜度106 梯度下降107 批量梯度下降110 隨機梯度下降112 小批量梯度下降114 多項式回歸115 學習曲線117 正則線性模型121 嶺回歸121 套索回歸123 彈性網絡125 早期停止法126 邏輯回歸127 概率估算127 訓練和成本函數128 決策邊界129 Softmax回歸131 練習134 第5章 支持向量機136 線性SVM分類136 軟間隔分類137 非線性SVM分類139 多項式核140 添加相似特征141 高斯RBF核函數142 計算復雜度143 SVM回歸144 工作原理145 決策函數和預測146 訓練目標146 二次規劃148 對偶問題149 核化SVM149 在線SVM151 練習152 第6章 決策樹154 決策樹訓練和可視化154 做出預測155 估算類別概率157 CART訓練算法158 計算復雜度158 基尼不純度還是信息熵159 正則化超參數159 回歸161 不穩定性162 練習163 第7章 集成學習和隨機森林165 投票分類器165 bagging和pasting168 Scikit-Learn的bagging和pasting169 包外評估170 Random Patches和隨機子空間171 隨機森林172 極端隨機樹173 特征重要性173 提升法174 AdaBoost175 梯度提升177 堆疊法181 練習184 第8章 降維185 維度的詛咒186 數據降維的主要方法187 投影187 流形學習189 PCA190 保留差異性190 主成分191 低維度投影192 使用Scikit-Learn192 方差解釋率193 選擇正確數量的維度193 PCA壓縮194 增量PCA195 隨機PCA195 核主成分分析196 選擇核函數和調整超參數197 局部線性嵌入199 其他降維技巧200 練習201 第二部分 神經網絡和深度學習 第9章 運行TensorFlow205 安裝207 創建一個計算圖并在會話中執行208 管理圖209 節點值的生命周期210 TensorFlow中的線性回歸211 實現梯度下降211 手工計算梯度212 使用自動微分212 使用優化器214 給訓練算法提供數據214 保存和恢復模型215 用TensorBoard來可視化圖和訓練曲線216 命名作用域219 模塊化220 共享變量222 練習225 第10章 人工神經網絡簡介227 從生物神經元到人工神經元227 生物神經元228 具有神經元的邏輯計算229 感知器230 多層感知器和反向傳播233 用TensorFlow的高級API來訓練MLP236 使用純TensorFlow訓練DNN237 構建階段237 執行階段240 使用神經網絡241 微調神經網絡的超參數242 隱藏層的個數242 每個隱藏層中的神經元數243 激活函數243 練習244 第11章 訓練深度神經網絡245 梯度消失/爆炸問題245 Xavier初始化和He初始化246 非飽和激活函數248 批量歸一化250 梯度剪裁254 重用預訓練圖層255 重用TensorFlow模型255 重用其他框架的模型256 凍結低層257 緩存凍結層257 調整、丟棄或替換高層258 模型動物園258 無監督的預訓練259 輔助任務中的預訓練260 快速優化器261 Momentum優化261 Nesterov梯度加速262 AdaGrad263 RMSProp265 Adam優化265 學習速率調度267 通過正則化避免過度擬合269 提前停止269 1和2正則化269 dropout270 最大范數正則化273 數據擴充274 實用指南275 練習276 第12章 跨設備和服務器的分布式TensorFlow279 一臺機器上的多個運算資源280 安裝280 管理GPU RAM282 在設備上操作284 并行執行287 控制依賴288 多設備跨多服務器288 開啟一個會話290 master和worker服務290 分配跨任務操作291 跨多參數服務器分片變量291 用資源容器跨會話共享狀態292 使用TensorFlow隊列進行異步通信294 直接從圖中加載數據299 在TensorFlow集群上并行化神經網絡305 一臺設備一個神經網絡305 圖內與圖間復制306 模型并行化308 數據并行化309 練習314 第13章 卷積神經網絡315 視覺皮層的組織結構315 卷積層317 過濾器318 多個特征圖的疊加319 TensorFlow實現321 內存需求323 池化層323 CNN架構325 LeNet-5326 AlexNet327 GoogLeNet328 ResNet331 練習334 第14章 循環神經網絡337 循環神經元337 記憶單元339 輸入和輸出序列340 TensorFlow中的基本RNN341 通過時間靜態展開342 通過時間動態展開344 處理長度可變輸入序列344 處理長度可變輸出序列345 訓練RNN346 訓練序列分類器346 訓練預測時間序列348 創造性的RNN352 深層RNN353 在多個GPU中分配一個深層RNN354 應用丟棄機制355 多個時間迭代訓練的難點356 LSTM單元357 窺視孔連接359 GRU單元359 自然語言處理361 單詞嵌入361 用于機器翻譯的編碼器-解碼器網絡362 練習364 第15章 自動編碼器366 高效的數據表示366 使用不完整的線性自動編碼器實現PCA368 棧式自動編碼器369 TensorFlow實現370 權重綁定371 一次訓練一個自動編碼器372 重建可視化374 特征可視化375 使用堆疊的自動編碼器進行無監控的預訓練376 去噪自動編碼器377 TensorFlow 實現378 稀疏自動編碼器379 TensorFlow 實現380 變分自動編碼器381 生成數字384 其他自動編碼器385 練習386 第16章 強化學習388 學習獎勵最優化389 策略搜索390 OpenAI gym 介紹391 神經網絡策略394 評估行為:信用分配問題396 策略梯度397 馬爾可夫決策過程401 時間差分學習與Q學習405 探索策略406 逼近Q學習407 使用深度Q學習玩吃豆人游戲407 練習414 致謝415 附錄A 練習答案416 附錄B 機器學習項目清單438 附錄C SVM對偶問題444 附錄D 自動微分447 附錄E 其他流行的ANN架構453 |
序: |
|