-- 會員 / 註冊 --  
 帳號:
 密碼:
  | 註冊 | 忘記密碼
12/13 新書到! 10/8 新書到! 10/1 新書到! 9/24 新書到!
購書流程Q & A站務留言版客服信箱
3ds MaxMayaRhinoAfter EffectsSketchUpZBrushPainterUnity
PhotoShopAutoCadMasterCamSolidWorksCreoUGRevitNuke
C#CC++Java遊戲程式Linux嵌入式PLCFPGAMatlab
駭客資料庫搜索引擎影像處理FluentVR+ARANSYS深度學習
單晶片AVROpenGLArduinoRaspberry Pi電路設計CadenceProtel
HadoopPythonStm32CortexLabview手機程式AndroidiPhone
可查書名,作者,ISBN,3dwoo書號
詳細書籍分類

AI圖像生成核心技術與實戰

( 簡體 字)
作者:南柯類別:1. -> 教材 -> 數位影像處理
   2. -> 程式設計 -> 人工智慧
譯者:
出版社:人民郵電出版社AI圖像生成核心技術與實戰 3dWoo書號: 56464
詢問書籍請說出此書號!

有庫存
NT售價: 350

出版日:10/1/2024
頁數:158
光碟數:0
站長推薦:
印刷:黑白印刷語系: ( 簡體 版 )
加入購物車 加到我的最愛
(請先登入會員)
ISBN:9787115650399
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證)
作者序:

譯者序:

前言:

內容簡介:

本書以AI圖像生成為主線,串聯講解了Stable Diffusion、DALL·E、Imagen、Midjourney等模型的技術方案,并帶著讀者訓練一個自己專屬的AI圖像生成模型。
本書共6章。第1章先介紹身邊的AIGC產品,再講解AI圖像生成相關的深度學習基礎知識,包括神經網絡和多模態模型的基礎知識。第2章講解AI圖像生成技術,從VAE到GAN到基于流的模型再到擴散模型的演化,并詳細介紹擴散模型的算法原理和組成模塊。第3章講解Stable Diffusion模型的核心技術。第4章講解DALL·E 2、Imagen、DeepFloyd和Stable Diffusion圖像變體模型的核心技術。第5章講解Midjourney、SDXL和DALL·E 3的核心技術。第6章是項目實戰,使用LoRA技術對Stable Diffusion模型進行微調,得到特定風格的AI圖像生成模型。
目錄:

第 1章 AIGC基礎 1
1.1 身邊的AIGC 1
1.1.1 圖像生成和編輯類工具 1
1.1.2 文字提效類工具 2
1.1.3 音頻創作類工具 4
1.2 神經網絡 4
1.2.1 人工神經元 5
1.2.2 激活函數 6
1.2.3 人工神經網絡 7
1.2.4 損失函數 9
1.2.5 優化器 9
1.2.6 卷積神經網絡 10
1.3 多模態模型 13
1.3.1 認識模態 14
1.3.2 典型多模態模型 15
1.3.3 參數量 16
1.3.4 計算量 17
1.4 小結 17
第 2章 圖像生成模型:GAN和擴散模型 19
2.1 圖像生成模型的技術演化 19
2.1.1 第 一代圖像生成模型:VAE 20
2.1.2 第二代圖像生成模型:GAN 20
2.1.3 第三代圖像生成模型:基于流的模型 21
2.1.4 第四代圖像生成模型:擴散模型 21
2.1.5 第五代圖像生成模型:自回歸模型 22
2.2 “舊畫師”GAN 22
2.2.1 生成對抗原理 22
2.2.2 生成能力的進化 24
2.2.3 GAN時代的“圖生圖” 28
2.2.4 GAN的技術應用 30
2.3 “新畫師”擴散模型 31
2.3.1 加噪過程:從原始圖像到噪聲圖 32
2.3.2 去噪過程:從噪聲圖到清晰圖像 33
2.3.3 訓練過程和推理過程 35
2.3.4 擴散模型與GAN 36
2.4 擴散模型的U-Net模型 37
2.4.1 巧妙的U形結構 37
2.4.2 損失函數設計 41
2.4.3 應用于擴散模型 43
2.5 擴散模型的采樣器 43
2.5.1 采樣器背后的原理 44
2.5.2 如何選擇采樣器 45
2.6 訓練一個擴散模型 46
2.6.1 初探擴散模型:輕松入門 46
2.6.2 深入擴散模型:定制藝術 50
2.7 小結 52
第3章 Stable Diffusion的核心技術 53
3.1 圖像的“壓縮器”VAE 53
3.1.1 從AE到VAE 54
3.1.2 圖像插值生成 58
3.1.3 訓練“餐廳評論機器人” 60
3.1.4 VAE和擴散模型 61
3.2 讓模型“聽話”的CLIP 62
3.2.1 連接兩種模態 62
3.2.2 跨模態檢索 64
3.2.3 其他CLIP模型 67
3.2.4 CLIP和擴散模型 68
3.3 交叉注意力機制 69
3.3.1 序列、詞符和詞嵌入 69
3.3.2 自注意力與交叉注意力 71
3.3.3 多頭注意力 72
3.4 Stable Diffusion是如何工作的 77
3.4.1 Stable Diffusion的演化之路 77
3.4.2 潛在擴散模型 78
3.4.3 文本描述引導原理 80
3.4.4 U-Net模型實現細節 82
3.4.5 反向描述詞與CLIP Skip 86
3.4.6 “圖生圖”實現原理 87
3.5 小結 90
第4章 DALL·E 2、Imagen、DeepFloyd和Stable Diffusion圖像變體的
核心技術 91
4.1 里程碑DALL·E 2 91
4.1.1 DALL·E 2的基本功能概覽 91
4.1.2 DALL·E 2背后的原理 94
4.1.3 unCLIP:圖像變體的魔法 97
4.1.4 DALL·E 2的算法局限性 97
4.2 Imagen和DeepFloyd 98
4.2.1 Imagen vs DALL·E 2 98
4.2.2 Imagen的算法原理 99
4.2.3 文本編碼器:T5 vs CLIP 100
4.2.4 動態閾值策略 103
4.2.5 開源模型DeepFloyd 104
4.2.6 升級版Imagen 2 107
4.3 Stable Diffusion圖像變體 107
4.3.1 “圖生圖”vs圖像變體 107
4.3.2 使用Stable Diffusion圖像變體 108
4.3.3 探秘Stable Diffusion圖像變體模型背后的算法原理 110
4.4 小結 112
第5章 Midjourney、SDXL和DALL·E 3的核心技術 113
5.1 推測Midjourney的技術方案 113
5.1.1 Midjourney的基本用法 113
5.1.2 各版本演化之路 114
5.1.3 技術方案推測 117
5.2 SDXL的技術方案與使用 120
5.2.1 驚艷的繪圖能力 120
5.2.2 使用級聯模型提升效果 122
5.2.3 更新基礎模塊 123
5.2.4 使用SDXL模型 124
5.3 更“聽話”的DALL·E 3 126
5.3.1 體驗DALL·E 3的功能 126
5.3.2 數據集重新描述 127
5.3.3 生成數據有效性 128
5.3.4 數據混合策略 129
5.3.5 基礎模塊升級 131
5.3.6 擴散模型解碼器 133
5.3.7 算法局限性 133
5.4 小結 134
第6章 訓練自己的Stable Diffusion 135
6.1 低成本訓練神器LoRA 135
6.1.1 LoRA的基本原理 135
6.1.2 LoRA的代碼實現 136
6.1.3 用于圖像生成任務 138
6.2 Stable Diffusion WebUI體驗圖像生成 139
6.2.1 本地AI圖像生成模型 140
6.2.2 開源社區中的模型 142
6.2.3 體驗AI圖像生成功能 143
6.2.4 將多個模型進行融合 144
6.2.5 靈活的LoRA模型 146
6.3 Stable Diffusion代碼實戰 150
6.3.1 訓練數據準備 151
6.3.2 基礎模型的選擇與使用 154
6.3.3 一次完整的訓練過程 155
6.4 小結 157
序: