強化式學習:打造最強 AlphaZero 通用演算法 ( 繁體 字) |
作者:布留川 英一 著,王心薇 譯,施威銘研究室 監修 | 類別:1. -> 程式設計 -> 深度學習 |
譯者: |
出版社:旗標出版 | 3dWoo書號: 53982 詢問書籍請說出此書號!【缺書】 NT定價: 780 元 折扣價: 616 元
|
出版日:1/25/2021 |
頁數: |
光碟數:0 |
|
站長推薦: |
印刷:黑白印刷 | 語系: ( 繁體 版 ) |
|
加入購物車 │加到我的最愛 (請先登入會員) |
ISBN:9789863126515 |
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 序 |
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證) |
作者序: |
譯者序: |
前言: 強化式學習有多強,用 Python 實作見真章!
AlphaZero 結合了深度學習、強化式學習和賽局樹演算法,背後涉及了許多相關技術,網路上雖然可以找到不少討論或教學文章,但內容多半只是原始論文的隻字片段,實作細節也交代不清楚,對於有心了解 AlphaZero 核心技術的讀者來說幫助很有限,往往只是越看越模糊,也不知道誰說得對。
本書以大量圖說、實例詳細說明 AlphaZero 各種相關的演算法,在實作的過程中,你可以親自與 AI 互動,實際體驗 AI 從零開始逐漸累積實力的過程,確實了解強化式學習跳脫人類思維所做的每一步決策,釐清演算法的每一個細節。全書內容經過施威銘研究室監修,只要遇到比較複雜的演算法或程式邏輯,小編都會額外補充,講不清楚就加上圖解,再不清楚就手算一遍,一頁一頁秀給你看,保證一定讓你看得懂、做得到。
● 以大量圖說、實例 、示意圖帶你高效學習書中的演算法 ,程式碼都有詳細的註解說明 ● 深度學習、強化式學習、賽局樹等各種相關演算法逐一解析、詳細說明 ● 活用 Google 免費的 Colab 雲端開發環境,並提供線上更新操作手冊 ,包括連線時間限制的處理以及 GPU/TPU 的使用說明 ● 從 AlphaGo、AlphaGo Zero 到 AlphaZero,原始演算法和模型架構剖析 ● 一步一步解說如何將遊戲規則轉換為程式邏輯,學習賽局資料的預處理程序 ● 提供預訓練好的現成模型,立即套用、馬上對戰 ,幫你節省動輒 20 小時以上的訓練時間 |
內容簡介:色彩:局彩 附件:書附檔案下載 (詳內文)
人工智慧的發展就是要讓電腦具備獨立思考的能力,而強化式學習(Reinforcement Learning)就是訓練 AI 如何決策的一套方法,是最具產業發展潛力的熱門技術,可以有效解決生活中許多難以突破的問題,包括產業自動化、自動駕駛、電玩競技遊戲以及機器人等。
Deepmind 將強化式學習應用於開發圍棋 AI 上,打造出 AlphaGo,並連續擊敗李世?、柯潔等世界第一流的圍棋高手,這段情節想必你並不陌生。而接續發展出來的 AlphaZero 不僅實力更強大,而且不侷限於單一棋類,可以從零開始訓練、不需要人類棋譜,被視為是 AGI 通用式人工智慧,震撼了整個 AI 產業界。
以強化式學習為主幹的 AlphaZero 雖然備受矚目,但對於多數讀者而言,要讀懂 AlphaZero 的論文並不容易,而且論文中並未公開程式碼,紙上談兵就要了解相關細節實在難如登天,本書將透過實作帶您揭開 AlphaZero 神秘的面紗。不用棋譜 (訓練資料) 怎麼進行訓練?強化式學習在 AlphaZero 扮演甚麼角色?為甚麼一套演算法可以適用不同規則的棋類或遊戲?論文沒有講清楚的都在這裡!
在這本書中,你將學到:
● 從深度學習開始,打下紮實基礎,包括 Artificial Neural Network、CNN、ResNet。 ● 各類強化式學習演算法的精髓,包括:?-Greedy、UCB1、Policy Gradient、Q-Learning、SARSA、Deep Q-Network (DQN)。 ● 理解人工智慧中做出最優決策的方法 - 賽局樹演算法,包括 Minimax Algorithm、Alpha-beta Pruning、Monte Carlo method、Monte Carlo tree search。 ● 用 Python 實作 AGI 通用演算法 - AlphaZero,只需修改規則就能稱霸井字遊戲、四子棋、黑白棋、動物棋等不同遊戲。 |
目錄:
第1章 AlphaZero 與機器學習概要 1-0 AlphaGo、AlphaGo Zero 與 AlphaZero 1-1 深度學習基礎 1-2 強化式學習基 1-3 賽局樹演算法基礎 第2章 準備 Python 開發環境 2-0 Google Colab 之概要 2-1 Google Colab 的使用方法 2-2 建構本地端的 Python 開發環境 第3章 深度學習 3-0 利用神經網路進行手寫數字辨識 3-1 利用神經網路預測住宅價格 3-2 利用卷積神經網路(CNN)進行影像辨識 3-3 利用殘差網路 (ResNet) 進行影像辨識 第4章 強化式學習 4-0 多臂拉霸機範例 4-1 利用策略梯度法 (Policy Gradient) 進行迷宮遊戲 4-2 利用 Sarsa 與 Q - Learning 進行迷宮遊戲 4-3 利用 Deep Q-Network 遊玩木棒平衡臺車 第5章 賽局樹演算法 5-0 利用 Minimax 演算法進行井字遊戲 5-1 利用 Alpha-beta 剪枝進行井字遊戲 5-2 利用蒙地卡羅法進行井字遊戲 5-3 利用蒙地卡羅樹搜尋法進行井字遊戲 第6章 AlphaZero 的機制 6-0 利用 Tic-tac-toe 進行井字遊戲 6-1 對偶網路 6-2 策略價值蒙地卡羅樹搜尋法 6-3 自我對弈模組 6-4 訓練模組 6-5 評估模組 6-6 評估最佳玩家 6-7 執行訓練循環 第7章 人類與 AI 的對戰 7-0 建立執行 UI 的本機端開發環境 7-1 利用 Tkinter 建立 GUI 7-2 人類與 AI 的對戰 第8章 將 AlphaZero 演算法套用到不同遊戲上 8-0 四子棋 8-1 黑白棋 8-2 動物棋 |
序: |