-- 會員 / 註冊 --  
 帳號:
 密碼:
  | 註冊 | 忘記密碼
3/26 新書到! 3/19 新書到! 3/14 新書到! 12/12 新書到!
購書流程Q & A站務留言版客服信箱
3ds MaxMayaRhinoAfter EffectsSketchUpZBrushPainterUnity
PhotoShopAutoCadMasterCamSolidWorksCreoUGRevitNuke
C#CC++Java遊戲程式Linux嵌入式PLCFPGAMatlab
駭客資料庫搜索引擎影像處理FluentVR+ARANSYS深度學習
單晶片AVROpenGLArduinoRaspberry Pi電路設計CadenceProtel
HadoopPythonStm32CortexLabview手機程式AndroidiPhone
可查書名,作者,ISBN,3dwoo書號
詳細書籍分類

統計強化學習:現代機器學習方法

( 簡體 字)
作者:〔日〕 杉山將(Masashi Sugiyama)  著類別:1. -> 程式設計 -> 機器學習
譯者:
出版社:機械工業出版社統計強化學習:現代機器學習方法 3dWoo書號: 51134
詢問書籍請說出此書號!

缺書
NT售價: 395

出版日:5/1/2019
頁數:188
光碟數:0
站長推薦:
印刷:黑白印刷語系: ( 簡體 版 )
加入購物車 加到我的最愛
(請先登入會員)
ISBN:9787111622451
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證)
作者序:

譯者序:

前言:

在即將到來的大數據時代,統計學與機器學習正成為數據挖掘不可或缺的工具。根據數據分析的類型,機器學習方法分為三類:

●監督學習:給定輸入和輸出的數據,監督學習的目標是分析輸入、輸出數據之間的關系。監督學習典型的任務包括回歸(預測真實取值)、分類(預測類別)以及排序(預測順序)。監督學習是最常用的數據分析工具,并且已經在統計學領域被研究了很長時間。監督學習在機器學習中近期的趨勢是利用輸入、輸出數據的輔助信息來進一步改善預測的精度。例如,半監督學習利用額外的輸入數據,遷移學習借用來自其他相似學習任務的數據,多任務學習同時解決多個相關學習任務。

●無監督學習:僅給定輸入數據,無監督學習的目標是在數據中找到有用的東西。由于這種模糊的定義,無監督學習研究往往比監督學習更具特色。然而,由于其自動化以及廉價的特性,無監督學習被認為是數據挖掘中最重要的工具之一。無監督學習典型的任務包括聚類(根據數據的相似性進行數據分組)、密度估計(估計數據背后的概率分布)、異常檢測(從數據中刪除異常值)、數據可視化(將數據的維度降到1~3維)和盲源分離(從混合數據中提取原始源信號)。此外,無監督學習方法有時被用作監督學習中數據預處理的工具。

●強化學習:監督學習是一種合理的方法,但收集輸入、輸出數據通常過于昂貴。無監督學習的執行成本低廉,但往往是臨時性的。強化學習介于監督學習和無監督學習之間——沒有提供明確的監督(輸出數據),但我們仍然想學習數據背后的輸入、輸出關系。強化學習不是輸出數據,而是利用獎賞來評估所預測的輸出的有效性。提供諸如獎賞之類的隱性監督通常比提供明確監督更容易,成本更低,因此強化學習可以成為現代數據分析的重要方法。在強化學習的框架中也使用各種監督和無監督學習技術。

本書致力于從現代機器學習的角度介紹統計強化學習的基本概念和實用算法。還提供了各種圖解說明示例——這些示例主要來自機器人領域,幫助讀者理解強化學習技術的直觀性和實用性。目標讀者是計算機科學和應用統計學的研究生以及相關領域的研究人員和工程師。假設讀者具備概率和統計學、線性代數以及初等微積分的基礎知識。

機器學習是一個快速發展的科學領域,希望本書能夠幫助讀者了解強化學習中的各種激動人心的話題,激發讀者對機器學習的興趣。請瀏覽我們的網站:http://www.ms.k.u-tokyo.ac.jp。

致謝

感謝合作者Hirotaka Hachiya、Sethu Vijayakumar、Jan Peters、Jun Morimoto、Zhao Tingting、Ning Xie、Voot Tangkaratt、Tetsuro Morimura和Norikazu Sugimoto激動人心的創意討論。感謝MEXT KAKENHI (17700142、18300057、20680007、23120004、23300069、25700022和26280054)、大川基金會、歐盟Erasmus Mundus獎學金、AOARD、SCAT、JST PRESTO計劃以及FIRST計劃的支持。



Masashi Sugiyama

日本東京大學
內容簡介:

強化學習技術是人工智能從感知智能向決策智能發展的關鍵技術之一;是基于控制論、心理學、生理學、認知科學、計算機科學等多學科交叉的新興機器學習技術。

本書是學習和研究強化學習技術的重要參考書籍,作者是日本人工智能領域知名學者、東京大學杉山將教授,譯者為南京大學計算機科學與技術系高陽教授。

全書將統計學習和強化學習結合,從模型無關策略迭代、模型無關策略搜索、模型相關強化學習三個技術路線角度,對強化學習函數估計中的基函數設計、樣本重用以及策略搜索、模型估計等做了深入淺出的介紹。本書適合于從事人工智能和機器學習研究和應用的專家學者、技術人員、研究生閱讀。



本書特色:

從現代機器學習的角度介紹了統計強化學習的基本概念和實用算法,為該領域提供了最新介紹。

涵蓋了各種類型的強化學習方法,包括基于模型和無模型的方法、策略迭代和策略搜索方法。

涵蓋了最近在數據挖掘和機器學習領域引入的方法,以便在強化學習和數據挖掘/機器學習研究人員之間提供系統橋梁。

呈現了最新的結果,包括強化學習的維數降低和風險敏感強化學習;介紹了許多示例來幫助讀者理解強化學習技術的直觀性和實用性。
目錄:

譯者序

前言
作者簡介
第一部分 簡介
第1章 強化學習介紹3
 1.1 強化學習3
 1.2 數學形式化8
 1.3 本書結構11
  1.3.1 模型無關策略迭代11
  1.3.2 模型無關策略搜索12
  1.3.3 基于模型的強化學習13
第二部分 模型無關策略迭代
第2章 基于值函數近似的策略迭代17
 2.1 值函數17
  2.1.1 狀態值函數17
  2.1.2 狀態-動作值函數18
 2.2 最小二乘策略迭代19
  2.2.1 瞬時獎賞回歸20
  2.2.2 算法21
  2.2.3 正則化23
  2.2.4 模型選擇25
 2.3 本章小結26
第3章 值函數近似中的基函數設計27
 3.1 圖中的高斯核27
  3.1.1 MDP-誘導圖27
  3.1.2 通用高斯核28
  3.1.3 測地線高斯核29
  3.1.4 擴展到連續狀態空間30
 3.2 圖解說明30
  3.2.1 配置30
  3.2.2 測地線高斯核31
  3.2.3 通用高斯核33
  3.2.4 圖拉普拉斯特征基33
  3.2.5 擴散小波35
 3.3 數值示例35
  3.3.1 機器人手臂控制35
  3.3.2 機器人導航39
 3.4 本章小結46
第4章 策略迭代中的樣本重用47
 4.1 形式化47
 4.2 離策略值函數近似48
  4.2.1 片段重要性加權49
  4.2.2 每次決策的重要性加權50
  4.2.3 自適應的每次決策重要性加權50
  4.2.4 圖解說明51
 4.3 展平參數的自動選擇54
  4.3.1 重要性加權交叉驗證54
  4.3.2 圖解說明55
 4.4 樣本重用策略迭代56
  4.4.1 算法56
  4.4.2 圖解說明56
 4.5 數值示例58
  4.5.1 倒立擺58
  4.5.2 小車爬山61
 4.6 本章小結64
第5章 策略迭代中的主動學習65
 5.1 主動學習的高效探索65
  5.1.1 問題配置65
  5.1.2 泛化誤差的分解66
  5.1.3 估計泛化誤差67
  5.1.4 設計采樣策略68
  5.1.5 圖解說明69
 5.2 主動策略迭代72
  5.2.1 具有主動學習的樣本重用策略迭代72
  5.2.2 圖解說明73
 5.3 數值示例74
 5.4 本章小結76
第6章 魯棒策略迭代79
 6.1 策略迭代中的魯棒性和可靠性79
  6.1.1 魯棒性79
  6.1.2 可靠性80
 6.2 最小絕對策略迭代81
  6.2.1 算法81
  6.2.2 圖解說明81
  6.2.3 性質82
 6.3 數值示例83
 6.4 可能的拓展88
  6.4.1 Huber損失88
  6.4.2 pinball損失89
  6.4.3 deadzone-linear損失90
  6.4.4 切比雪夫逼近90
  6.4.5 條件風險值91
 6.5 本章小結92
第三部分 模型無關策略搜索
第7章 梯度上升的直接策略搜索95
 7.1 形式化95
 7.2 梯度方法96
  7.2.1 梯度上升96
  7.2.2 方差約簡的基線減法98
  7.2.3 梯度估計量的方差分析99
 7.3 自然梯度法101
  7.3.1 自然梯度上升101
  7.3.2 圖解說明103
 7.4 計算機圖形中的應用:藝術家智能體104
  7.4.1 東方山水畫繪畫104
  7.4.2 狀態、動作和瞬時獎賞的設計106
  7.4.3 實驗結果111
 7.5 本章小結113
第8章 期望最大化的直接策略搜索117
 8.1 期望最大化方法117
 8.2 樣本重用119
  8.2.1 片段重要性加權119
  8.2.2 每次決策的重要性加權122
  8.2.3 自適應的每次決策重要性加權123
  8.2.4 展平參數的自動選擇123
  8.2.5 樣本重用的加權獎賞回歸125
 8.3 數值示例125
 8.4 本章小結131
第9章 策略優先搜索133
 9.1 形式化133
 9.2 基于參數探索的策略梯度134
  9.2.1 策略優先的梯度上升134
  9.2.2 方差約簡的基線減法135
  9.2.3 梯度估計量的方差分析136
  9.2.4 數值示例138
 9.3 策略優先搜索中的樣本重用142
  9.3.1 重要性加權142
  9.3.2 基線減法的方差約簡144
  9.3.3 數值示例146
 9.4 本章小結153
第四部分 基于模型的強化學習
第10章 轉移模型估計157
 10.1 條件密度估計157
  10.1.1 基于回歸的方法157
  10.1.2 ε-鄰域核密度估計158
  10.1.3 最小二乘條件密度估計159
 10.2 基于模型的強化學習161
 10.3 數值示例162
  10.3.1 連續型鏈條游走162
  10.3.2 人形機器人控制167
 10.4 本章小結171
第11章 轉移模型估計的維度約簡173
 11.1 充分維度約簡173
 11.2 平方損失條件熵173
  11.2.1 條件獨立174
  11.2.2 利用SCE進行維度約簡175
  11.2.3 SCE與平方損失互信息的關系176
 11.3 數值示例176
  11.3.1 人工和標準數據集176
  11.3.2 人形機器人179
 11.4 本章小結182
參考文獻183
序: