-- 會員 / 註冊 --  
 帳號:
 密碼:
  | 註冊 | 忘記密碼
3/26 新書到! 3/19 新書到! 3/14 新書到! 12/12 新書到!
購書流程Q & A站務留言版客服信箱
3ds MaxMayaRhinoAfter EffectsSketchUpZBrushPainterUnity
PhotoShopAutoCadMasterCamSolidWorksCreoUGRevitNuke
C#CC++Java遊戲程式Linux嵌入式PLCFPGAMatlab
駭客資料庫搜索引擎影像處理FluentVR+ARANSYS深度學習
單晶片AVROpenGLArduinoRaspberry Pi電路設計CadenceProtel
HadoopPythonStm32CortexLabview手機程式AndroidiPhone
可查書名,作者,ISBN,3dwoo書號
詳細書籍分類

深度學習之美:AI時代的數據處理與最佳實踐

( 簡體 字)
作者:張玉宏類別:1. -> 程式設計 -> 深度學習
譯者:
出版社:電子工業出版社深度學習之美:AI時代的數據處理與最佳實踐 3dWoo書號: 49345
詢問書籍請說出此書號!

缺書
NT售價: 640

出版日:6/1/2018
頁數:680
光碟數:0
站長推薦:
印刷:黑白印刷語系: ( 簡體 版 )
加入購物車 加到我的最愛
(請先登入會員)
ISBN:9787121342462
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證)
作者序:

譯者序:

前言:

推薦序一
通俗也是一種美德

這是一個大數據時代。
這也是一個人工智能時代。
如果說大數據技術是還有待人們去研究、去挖掘、去洞察的問題,那么人工智能無疑是這個問題的解決方案,至少是方案之一。
人的智能,無疑是學習的產物。那么機器的智能呢,它何嘗不是學習的產物?只不過在當下,它被深深地打上了“深度學習”的烙印。通過深度學習,我們可以把大數據挖掘的技術問題轉換為可計算的問題。
有人說,深度學習不僅是一種算法的升級,更是一種思維模式的升級。其帶來的顛覆性在于,它把人類過去癡迷的算法問題演變成數據和計算問題。吳軍博士更是斷言,未來只有2%的人有能力在智能時代獨領風騷,成為時代的弄潮兒。所以,擁抱人工智能,攜手深度學習,不僅是一種時代的召喚,而且順應了當前科學技術對人才的緊迫需求。
深度學習矗立于人工智能的前沿。我們遠眺它容易,但近愛它卻不易。在信息過剩的時代,我們可能會悲哀地發現,知識鴻溝橫在我們面前。的確,大量有關深度學習的書籍占據著我們的書架,數不盡的博客充斥著我們的屏幕。然而,很多時候,我們依然對深度學習敬而遠之。
這個“敬”是真實的,這個“遠”通常是被迫的。因為找到一本通俗易懂的有關深度學習的讀物,并非易事。
張玉宏博士所著的《深度學習之美:AI時代的數據處理與最佳實踐》,正是在這種背景下以通俗易懂的姿態面世的書籍。如果用一句話來形容這本書,那就是“通俗易懂也是一種美德”。
在任何時代,能把復雜的事情解釋清楚,都是一項非常有用的本領。張玉宏博士是一名高校教師,加之他還是一名科技作家,因此,通俗易懂、行文流暢、幽默風趣,便成了這本書的特征。
這里有一個比喻:如果你愛好明史,且古文基礎深厚,去閱讀《明史》可能是你的不二選擇;但倘若你不太喜歡學究氣的著作,那就推薦你去讀讀當年明月所寫的《明朝那些事兒》。本書仿佛就是《明朝那些事兒》版的“深度學習”。巧妙的比喻、合理的推斷、趣味的故事,時不時地散落在書里,妙趣橫生。
當然,這本書也不是十全十美的,但瑕不掩瑜,如果你想零基礎入門深度學習,那么相信這本書一定能夠給你提供很多幫助。

黃文堅
墨寬投資創始人、《TensorFlow實戰》作者
2018年5月于北京




推薦序二
技術,也可以“美”到極致

和張玉宏博士認識是在2015年,那個時候我還在CSDN&《程序員》雜志做編輯。結緣的過程頗為巧合,僅僅是因為一次無意瀏覽,看到他在CSDN論壇義務回答網友的問題,被其認真、高水平和深入淺出的回答所吸引,傾慕之下,我策劃了一次采訪。而這次采訪奠定了我們的友誼,文章在CSDN作為頭條發布并獲得3萬多的閱讀量后,我們在論文翻譯、《程序員》雜志供稿上開始了合作。
僅僅牛刀小試,張博士翻譯的文章就篇篇閱讀量破萬。對于晦澀難懂的技術文章而言,閱讀量破萬是很高的數字,無異于如今朋友圈的10萬閱讀量。其中最值得一提的是《PayPal高級工程總監:讀完這100篇論文就能成大數據高手》這篇文章,在2015年閱讀量近6萬后,2017年又被某大數據公眾號轉載,在朋友圈刷屏。為此,我在微博上有感而發:“有價值的內容,是經得起時間沖刷的。”然而,文章被追捧的背后,則是張博士嘔心瀝血的付出,也許只有我知道——為了保障質量,那100篇論文張博士全部下載并看了一遍,獨立注解超過50%,前后花了整整一周時間,通宵達旦,聚沙成塔。
2016年我來到阿里巴巴做云棲社區的內容運營,和張博士的合作也來到了這里。云棲社區是阿里云運營、阿里技術協會和集團技術團隊支持的開放技術社區,是云計算、大數據和人工智能頂級社區之一。在這個階段,張博士在技術文章翻譯上又有了另外一種風格:局部放大翻譯,就某個點深度解讀,并加入自己的認識,這種類似“書評”式的寫作方式,讓原本枯燥的技術文章顯得很有趣,在閱讀量上也是立竿見影——他的文章的閱讀量比一般技術文章的閱讀量多好幾倍,這在彼時的社區是極為少見的。
后來,張博士和我說,他想發表系列文章,細致地講一講深度學習,我非常認同和支持他做這件事。
于是接下來的幾個月,張博士不斷受到以下贊譽:

“文章形象生動,耐人尋味,重燃深度學習的欲望。”
“這個系列寫得太棒了!!!謝謝您愿意分享。”
“大神,更新的頻率可以稍微快點嗎?萬分感謝!”
有人甚至用追劇來形容自己的感受,并評論:“期待好久了,終于更新了,作者辛苦了,感謝作者提供該優秀文章以供學習。”
“容易理解,害怕大神不更新。”
……

這些贊譽,說的是在社區篇篇10多萬閱讀量的文章:

一入侯門“深”似海,深度學習深幾許(深度學習入門系列之一)
人工“碳”索意猶盡,智能“硅”來未可知(深度學習入門系列之二)
神經網絡不勝語, M-P模型似可尋(深度學習入門系列之三)
“機器學習”三重門,“中庸之道”趨若人(深度學習入門系列之四)
Hello World感知機,懂你我心才安息(深度學習入門系列之五)
損失函數減肥用,神經網絡調權重(深度學習入門系列之六)
山重水復疑無路,最快下降問梯度(深度學習入門系列之七)
BP算法雙向傳,鏈式求導最纏綿(深度學習入門系列之八)
全面連接困何處,卷積網絡見解深(深度學習入門系列之九)
卷地風來忽吹散,積得飄零美如畫(深度學習入門系列之十)
局部連接來減參,權值共享肩并肩(深度學習入門系列之十一)
激活引入非線性,池化預防過擬合(深度學習入門系列之十二)
循環遞歸RNN,序列建模套路深(深度學習入門系列之十三)
LSTM長短記,長序依賴可追憶(深度學習入門系列之十四)

上面這些文章,光看標題就非同凡響,是的,能把技術文章的標題寫得這么文藝和生動,一看文學功力就十分深厚。內容更不用說,通俗易懂、圖文并茂、形象生動。“用這么幽默的語言,將那么高大上的技術講得一個過路人都能夠聽懂,這是真的好文章。”身邊的一位朋友如此述說。而更值得一提的是,在每篇博文后面,除了小結,還有“請你思考”,考察讀者對知識的掌握情況,鍛煉讀者的思辨能力,讓讀者能夠進一步主動學習,觸類旁通。
這樣出色的文章,也許只有張博士才能寫出來。為什么呢?我想,一方面得益于其讀博士時,在美國西北大學有過兩年訪學經歷,他在中美教育差異上有過深刻的思考;另一方面,也源自他豐富的教學經驗——是的,他在河南工業大學執教多年,懂得“教”與“授”的拿捏。對于張博士的教學,學生袁虎是這么談論自己的感受的:“他的課跟美國高校的課堂比較接近——開放、平等、互動性強,鼓勵學生去思考。上課的時候,他并不死守課本知識,而是特別注重教授給我們學習方法。”袁虎還特別指出,他們專業出來的幾個技術大神多多少少都算是張博士的門徒。
在云棲社區的連載,從2017年5月17日開始,到8月17日結束,一共14篇文章,很多讀者“追劇”至此,仍意猶未盡。有讀者說:“作為機器學習小白,樓主的文章真是贊。樓主,出書吧!!!看博客真擔心哪天突然就沒有了。”因為一些原因,社區的博客篇幅有限,內容淺嘗輒止……他覺得自己可以做得更多、更好。
因此,《深度學習之美:AI時代的數據處理與最佳實踐》在這里和大家見面了。可以說,拿到這本書的讀者是非常幸運的,因為你們不需要每天刷博客“追劇”,也不需要苦苦等待。你們可以邊捧書邊喝咖啡,在橘黃色的臺燈下、在安靜的深夜里看個盡興。
人工智能在當下非常火爆。不可否認,也許你可以從汗牛充棟的網上獲得深度學習的一些知識點或技巧,但網絡中的知識是碎片化的。尤其對于初學者,如果想走得更遠,需要一本書系統地進行指導,并從底層思考這些知識的來龍去脈,以及知識之間的關聯,本書正是這樣一本書。
結集成冊的《深度學習之美:AI時代的數據處理與最佳實踐》除了繼承之前博文趣味性、通俗易懂等諸多優點之外,篇幅更宏大(此前的連載只是一個起步),內容上還增加了實戰環節,讓大家能夠學以致用,在實踐中與理論印證。另外,相比此前連載的博文,書籍中增加了許多張老師親自繪制的趣圖,詼諧地說明了不同知識點或概念間的區別。在理論上,張博士也對公式的前因后果給出了詳細的推導過程,只有知道它是怎么來的,才能更好地運用它。學習知識不正是這樣嗎?
社會變化非常快,因此人們總愛反復核算事物的價值,喜歡性價比高的東西。如何衡量一本書的價值,除了看它是否能幫到你之外(技能價值),還要看它的社會價值。本書是張博士深度學習的思想隨筆,興之所至的內容,往往也是精彩至極、深度思考的結晶。
我非常佩服張博士,他不僅博覽群書,還能夠將不同類型的書籍內化,并結合生活案例,以一種非常有趣的形式將深奧的知識表達出來,比如用“求婚”“耳光”等例子講解“激活函數”和“卷積函數”。尤其是“中庸之道”的例子,讓大家在悟透一個很難弄懂的知識點的同時,自己的思想也從富有哲理的故事中變得不一樣。
這種技術領域的人文情懷,絕非一般高手能做到的。上述認識,相信手握此書的您,也會很快感受到。

——@我是主題曲哥哥,網易高級編輯
前阿里云資深內容運營、CSDN&《程序員》雜志編輯
2018年5月



自序
深度學習的淺度夢想


這是一本有關“深度學習”的圖書!
這是一本有關“深度學習”通俗易懂的圖書!
這是一本有關“深度學習”的、有些人文情懷的圖書!
我希望,我的讀者在讀這本書時,能給它這三種不同境界的漸進式的評價。第一個評價,說明它“有料”。第二個評價,說明它“有用”。第三個評價,說明它“有趣”。“有料、有用且有趣”是我對本書的定位,也是寫作本書的淺度夢想,不是有大咖說過嗎,“夢想還是要有的,萬一實現了呢?”
寫一本好書,真的很難!
但并非不能達成。竊以為,寫成一本好書,通常有兩條途徑。第一條我稱之為“自上而下大家傳道法”。也就是說,有些學術大家已在領域內功成名就,名聲斐然,他們俯下身段,抽出時間,高屋建瓴,精耕細作,必出精品。比如,卡耐基梅隆大學的Tom Mitchell教授編寫的《機器學習》、南京大學周志華老師編寫的《機器學習》,都是業內口碑極好的暢銷常青樹,實為我輩楷模。
但“大家寫好書”并不是充分條件,因為大家通常都非常忙,他們可能非常“有料、有錢(有經費)”,但卻未必“有閑”。要知道,寫作不僅僅是一項腦力活,它還是一項極花費時間的體力活。
好在還有寫成好書的第二條途徑,我且稱之為“自下而上小兵探道法”。也就是說,寫書的作者本身并非領域專家,而是來自科研實戰一線,他們的眼前也時常迷茫一片,不得不肉搏每一個理論困惑,手刃每一個技術難題,一路走來,且泣且歌,終于爬上一個小山丘。松了口氣,渴了口水,嗯,我要把自己趟過的河,踩過的坑,寫出來總結一下,除了自勉,也能讓尋路而來的同門或同道中人,不再這么辛苦。
很顯然,我把自己定位為第二類(至少夢想是)。
我是一個科技寫作愛好者,我在網絡上寫過很多有關于大數據主題的(主要發表在CSDN)文章,也有關于深度學習的(主要發表于阿里云-云棲社區)。出于愛好寫作的原因,有時我也關注寫作的技巧。直到有一天,一位知名人士的一席話,一下子“電著”我了。他說,“寫作的終極技巧,就是看你寫的東西對讀者有沒有用。”拿這個標準來衡量一下,什么辭藻華麗、什么文筆優美,都可能是綠葉與浮云。在這一瞬間,我也明白了,為什么我所在的城市,地鐵時刻表的變更通知,寥寥幾百字,短短沒幾天,閱讀量也可以輕易達到10萬。嗯,這樣的寫作,有干貨,對讀者有用。好作品的要素,它都有!
于是,“對讀者有用”,就成為指導我寫作這本書的宗旨。以用戶的思維度量,就可以比較清晰地知道,什么對讀者有用。
當前,人工智能非常火爆。自從AlphaGo點燃世人對人工智能的極大熱情后,學術界和產業界都積極投身于此,試圖分得一杯羹。而當前(至少是當前)人工智能的當紅主角就是“深度學習”,它不僅僅表現在AlphaGo一戰成名的技術上,還表現在圖像識別、語音識別、自然語言處理性能提升上,總總而生,林林而群。
當然,想投身于此并非易事,因為深度學習的門檻比較高。為了搞懂深度學習,我把國內市面上大部分與深度學習相關的書籍都買來拜讀了(在后記中,我會感謝支持的各種基金),受益匪淺,但至少于我而言,它們大部分的學習曲線都是陡峭的,或者說它們大多高估了初學者的接受程度,為了讀懂它們,讀者真的需要“深度學習”。
在深度學習領域,的確也有一批高水平的讀者,但他們可能并不需要通過相對滯后的書籍來提高自己的知識水平,新鮮出爐的arXiv論文,才是他們的“菜”。但高手畢竟有限,懵懵懂懂的初學者,數量還是相當龐大的。
于是,我想,寫一本零基礎入門的、通俗易懂的、圖文并茂的、理論結合實戰的深度學習書籍,對廣大的深度學習初學者來說,應該是有用的。
本書的寫作風格,也緊扣前面的四個修飾詞,章節的安排也是按照循序漸進的節奏展開的。為了降低門檻和強調實踐性,本書采用了雙主線寫作方式,一條主線是理論脈絡,從基礎的機器學習概念,到感知機、M-P模型、全連接網絡,再到深度學習網絡,深入淺出地講解相關的理論。另外一條主線是實戰脈絡,從Python零基礎入門說起,直到TensorFlow的高級應用。
全書共分16章,具體來說,第1章給出深度學習的大圖(Big Picture),讓讀者對其有一個宏觀認知。第2章和第3章,給出了機器學習的相關基礎理論。僅僅懂理論是不夠的,還需要動手實踐,用什么實踐呢?最熱門的機器學習語言非Python莫屬了。于是我們在第4章添加了Python基礎,以邊學邊用邊提高為基調,并在第5章講解了基于Python的機器學習實戰。
有了部分Python基礎,也有了部分機器學習基礎,接下來,我們該學習與神經網絡相關的理論了。于是在第6章至第10章,我們先后講解了M-P模型、感知機、多層神經網絡、BP神經網絡等知識。其中大部分的理論都配有Python實戰講解,就是讓讀者有“頂天(上接理論)立地(下接實戰)”的感覺。接下來的問題就是,如果所有神經網絡學習的項目都是Python手工編寫的,是不是效率太低了呢?
是的,是該考慮用高效率框架的時候了,于是在第11章,我們講解了被廣泛認可的深度學習框架TensorFlow。有了這個基礎,后面的深度學習理論就以此做實戰基礎。第12章詳細講解了卷積神經網絡。隨后,在第13章,我們站在實戰的基礎上,對卷積神經網絡的TensorFlow實踐進行了詳細介紹。
任何一項技術都有其不足。在第14章,我們講解了循環遞歸網絡(RNN)。在第15章,我們講解了長短期記憶(LSTM)網絡。以上兩章內容,并非都是高冷的理論,除了給出理論背后有意思的小故事,還結合TensorFlow進行了實戰演練。在第16章,我們順便“驚鴻一瞥”解讀了Hinton教授的新作“神經網絡膠囊(CapsNet)”,點出卷積神經網絡的不足,并給出了神經膠囊的詳細論述和實踐案例分析。
本書中的部分內容(共計14篇),先后發表在技術達人云集的云棲社區(https://yq.aliyun. com/topic/111),然后被很多熱心的網友轉載到CSDN、知乎、微信公眾號、百度百家等自媒體中,受到了很多讀者的認可。于吾心,有樂陶然。
當然,從我對自己的定位——“小兵探道”可知,我對深度學習的認知,仍處于一種探索階段,我仍是一個深度學習的學習者。在圖書中、在網絡中,我學習并參考了很多有價值的資料。這里,我對這些有價值的資料的提供者、生產者,表示深深的敬意和謝意。
有時候,我甚至把自己定位為一個“知識的搬運工”、深度學習知識的梳理者。即使如此,由于學術水平尚淺,我對一些理論或技術的理解,可能是膚淺的,甚至是錯誤的,所以,如果本書有誤,且如果讀者“有閑”,不妨給出您的寶貴建議和意見,我在此表示深深的感謝。同時,由于時間和精力有限,很多有用的深度學習理論和技術還沒有涉及,只待日后補上。

張玉宏
2018年3月
內容簡介:

深度學習是人工智能的前沿技術。本書深入淺出地介紹了深度學習的相關理論和實踐,全書共分16章,采用理論和實踐雙主線寫作方式。第1章給出深度學習的大圖。第2章和第3章,講解了機器學習的相關基礎理論。第4章和第5章,講解了Python基礎和基于Python的機器學習實戰。第6至10章,先后講解了M-P模型、感知機、多層神經網絡、BP神經網絡等知識。第11章講解了被廣泛認可的深度學習框架TensorFlow。第12章和第13章詳細講解了卷積神經網絡,并給出了相關的實戰項目。第14章和第15章,分別講解了循環遞歸網絡和長短期記憶(LSTM)網絡。第16章講解了神經膠囊網絡,并給出了神經膠囊網絡設計的詳細論述和實踐案例分析。

目錄:

目錄

第1章 一入侯門“深”似海,深度學習深幾許 ... 1
1.1 深度學習的巨大影響 ...... 2
1.2 什么是學習 . 4
1.3 什么是機器學習 ........ 4
1.4 機器學習的4個象限 ...... 5
1.5 什么是深度學習 ........ 6
1.6 “戀愛”中的深度學習 ...... 7
1.7 深度學習的方法論 ...... 9
1.8 有沒有淺層學習 ...... 13
1.9 本章小結 . 14
1.10 請你思考 . 14
參考資料 .. 14
第2章 人工“碳”索意猶盡,智能“硅”來未可知 . 16
2.1 信數據者得永生嗎 ...... 17
2.2 人工智能的“江湖定位”..... 18
2.3 深度學習的歸屬 ...... 19
2.4 機器學習的形式化定義 ...... 21
2.5 為什么要用神經網絡 ...... 24
2.6 人工神經網絡的特點 ...... 26
2.7 什么是通用近似定理 ...... 27
2.8 本章小結 . 31
2.9 請你思考 . 31
參考資料 .. 31
第3章 “機器學習”三重門,“中庸之道”趨若人 . 33
3.1 監督學習 . 34
3.1.1 感性認知監督學習 ...... 34
3.1.2 監督學習的形式化描述 .... 35
3.1.3 k-近鄰算法 ....... 37
3.2 非監督學習 . 39
3.2.1 感性認識非監督學習 .... 39
3.2.2 非監督學習的代表—K均值聚類 ... 41
3.3 半監督學習 . 45
3.4 從“中庸之道”看機器學習..... 47
3.5 強化學習 . 49
3.6 本章小結 . 52
3.7 請你思考 . 53
參考資料 .. 53
第4章 人生苦短對酒歌, 我用Python樂趣多 .. 55
4.1 Python概要 . 56
4.1.1 為什么要用Python ...... 56
4.1.2 Python中常用的庫 ...... 58
4.2 Python的版本之爭 ...... 61
4.3 Python環境配置 ...... 65
4.3.1 Windows下的安裝與配置 .... 65
4.3.2 Mac下的安裝與配置 .... 72
4.4 Python編程基礎 ...... 76
4.4.1 如何運行Python代碼 ..... 77
4.4.2 代碼縮進 ...... 79
4.4.3 注釋 . 80
4.4.4 Python中的數據結構 .... 81
4.4.5 函數的設計 ...... 93
4.4.6 模塊的導入與使用 .... 101
4.4.7 面向對象程序設計 .... 102
4.5 本章小結 . 112
4.6 請你思考 . 112
參考資料 .. 113
第5章 機器學習終覺淺,Python帶我來實踐 . 114
5.1 線性回歸 . 115
5.1.1 線性回歸的概念 ...... 115
5.1.2 簡易線性回歸的Python實現詳解 ... 119
5.2 k-近鄰算法 .. 139
5.2.1 k-近鄰算法的三個要素 ..... 140
5.2.2 k-近鄰算法實戰 ..... 143
5.2.3 使用scikit-learn實現k-近鄰算法 .. 155
5.3 本章小結 . 162
5.4 請你思考 . 162
參考資料 .. 162
第6章 神經網絡不勝語,M-P模型似可尋 ... 164
6.1 M-P神經元模型是什么 ...... 165
6.2 模型背后的那些人和事 ...... 167
6.3 激活函數是怎樣的一種存在..... 175
6.4 什么是卷積函數 ...... 176
6.5 本章小結 . 177
6.6 請你思考 . 178
參考資料 .. 178
第7章 Hello World感知機,懂你我心才安息 . 179
7.1 網之初,感知機 ...... 180
7.2 感知機名稱的由來 ...... 180
7.3 感性認識“感知機” ...... 183
7.4 感知機是如何學習的 ...... 185
7.5 感知機訓練法則 ...... 187
7.6 感知機的幾何意義 ...... 190
7.7 基于Python的感知機實戰 ..... 191
7.8 感知機的表征能力 ...... 196
7.9 本章小結 . 199
7.10 請你思考 . 199
參考資料 .. 199
第8章 損失函數減肥用,神經網絡調權重 .. 201
8.1 多層網絡解決“異或”問題..... 202
8.2 感性認識多層前饋神經網絡..... 205
8.3 是淺而“胖”好,還是深而“瘦”佳 ... 209
8.4 分布式特征表達 ...... 210
8.5 丟棄學習與集成學習 ...... 211
8.6 現實很豐滿,理想很骨感..... 212
8.7 損失函數的定義 ...... 213
8.8 熱力學定律與梯度彌散 ...... 215
8.9 本章小結 . 216
8.10 請你思考 . 216
參考資料 .. 217
第9章 山重水復疑無路,最快下降問梯度 .. 219
9.1 “鳥飛派”還飛不 ...... 220
9.2 1986年的那篇神作 ....... 221
9.3 多層感知機網絡遇到的大問題 ..... 222
9.4 神經網絡結構的設計 ...... 225
9.5 再議損失函數 ........ 227
9.6 什么是梯度 . 229
9.7 什么是梯度遞減 ...... 231
9.8 梯度遞減的線性回歸實戰..... 235
9.9 什么是隨機梯度遞減 ...... 238
9.10 利用SGD解決線性回歸實戰 ..... 240
9.11 本章小結 . 247
9.12 請你思考 . 248
參考資料 .. 248
第10章 BP算法雙向傳,鏈式求導最纏綿 ... 249
10.1 BP算法極簡史 ...... 250
10.2 正向傳播信息 ...... 251
10.3 求導中的鏈式法則 ...... 255
10.4 誤差反向傳播 ...... 264
10.4.1 基于隨機梯度下降的BP算法 .. 265
10.4.2 輸出層神經元的權值訓練 ... 267
10.4.3 隱含層神經元的權值訓練 ... 270
10.4.4 BP算法的感性認知 ..... 273
10.4.5 關于BP算法的補充說明 .... 278
10.5 BP算法實戰詳細解釋 ..... 280
10.5.1 初始化網絡 ..... 280
10.5.2 信息前向傳播 ..... 282
10.5.3 誤差反向傳播 ..... 285
10.5.4 訓練網絡(解決異或問題) ... 288
10.5.5 利用BP算法預測小麥品種的分類 .. 293
10.6 本章小結 . 301
10.7 請你思考 . 302
參考資料 .. 304
第11章 一騎紅塵江湖笑,TensorFlow谷歌造 . 305
11.1 TensorFlow概述 ...... 306
11.2 深度學習框架比較 ....... 309
11.2.1 Theano ....... 309
11.2.2 Keras ....... 310
11.2.3 Caffe ........ 311
11.2.4 PyTorch ....... 312
11.3 TensorFlow的安裝....... 313
11.3.1 Anaconda的安裝 .... 313
11.3.2 TensorFlow的CPU版本安裝 ... 315
11.3.3 TensorFlow的源碼編譯 ... 323
11.4 Jupyter Notebook的使用 ..... 331
11.4.1 Jupyter Notebook的由來 ... 331
11.4.2 Jupyter Notebook的安裝 ... 333
11.5 TensorFlow中的基礎語法 ..... 337
11.5.1 什么是數據流圖 ..... 338
11.5.2 構建第一個TensorFlow數據流圖 .. 339
11.5.3 可視化展現的TensorBoard ... 342
11.5.4 TensorFlow的張量思維 ... 346
11.5.5 TensorFlow中的數據類型 ... 348
11.5.6 TensorFlow中的操作類型 ... 353
11.5.7 TensorFlow中的Graph對象 ... 356
11.5.8 TensorFlow中的Session .... 358
11.5.9 TensorFlow中的placeholder ... 361
11.5.10 TensorFlow中的Variable對象 .. 363
11.5.11 TensorFlow中的名稱作用域 ... 365
11.5.12 張量的Reduce方向 ..... 367
11.6 手寫數字識別MNIST ..... 372
11.6.1 MNIST數據集簡介 ..... 373
11.6.2 MNIST數據的獲取與預處理 .. 375
11.6.3 分類模型的構建—Softmax Regression ........ 378
11.7 TensorFlow中的Eager執行模式 ... 394
11.7.1 Eager執行模式的背景 ... 394
11.7.2 Eager執行模式的安裝 ... 395
11.7.3 Eager執行模式的案例 ... 395
11.7.4 Eager執行模式的MNIST模型構建 .. 398
11.8 本章小結 . 401
11.9 請你思考 . 402
參考資料 .. 403
第12章 全面連接困何處,卷積網絡顯神威 .. 404
12.1 卷積神經網絡的歷史 ...... 405
12.1.1 眼在何方?路在何方? ... 405
12.1.2 卷積神經網絡的歷史脈絡 ... 406
12.1.3 那場著名的學術賭局 ..... 410
12.2 卷積神經網絡的概念 ...... 412
12.2.1 卷積的數學定義 ..... 412
12.2.2 生活中的卷積 ..... 413
12.3 圖像處理中的卷積 ...... 414
12.3.1 計算機“視界”中的圖像 ... 414
12.3.2 什么是卷積核 ..... 415
12.3.3 卷積在圖像處理中的應用 ... 418
12.4 卷積神經網絡的結構 ...... 420
12.5 卷積層要義 ........ 422
12.5.1 卷積層的設計動機 ..... 422
12.5.2 卷積層的局部連接 ..... 427
12.5.3 卷積層的3個核心概念 ... 428
12.6 細說激活層 ........ 434
12.6.1 兩個看似閑扯的問題 ..... 434
12.6.2 追尋問題的本質 ..... 435
12.6.3 ReLU的理論基礎 .... 437
12.6.4 ReLU的不足之處 .... 441
12.7 詳解池化層 ........ 442
12.8 勿忘全連接層 ...... 445
12.9 本章小結 . 446
12.10 請你思考 . 447
參考資料 .. 448
第13章 紙上談兵終覺淺,絕知卷積要編程 .. 450
13.1 TensorFlow的CNN架構 .... 451
13.2 卷積層的實現 ...... 452
13.2.1 TensorFlow中的卷積函數 ... 452
13.2.2 圖像處理中的常用卷積核 ... 456
13.3 激活函數的使用 ...... 460
13.3.1 Sigmoid函數 ...... 460
13.3.2 Tanh函數 ...... 461
13.3.3 修正線性單元——ReLU ... 462
13.3.4 Dropout函數 ...... 462
13.4 池化層的實現 ...... 466
13.5 規范化層 . 470
13.5.1 為什么需要規范化 ..... 470
13.5.2 局部響應規范化 ..... 472
13.5.3 批規范化 ....... 475
13.6 卷積神經網絡在MNIST分類器中的應用 .. 480
13.6.1 數據讀取 ....... 480
13.6.2 初始化權值和偏置 ..... 480
13.6.3 卷積和池化 ..... 482
13.6.4 構建第一個卷積層 ..... 482
13.6.5 構建第二個卷積層 ..... 483
13.6.6 實現全連接層 ..... 484
13.6.7 實現Dropout層 ..... 485
13.6.8 實現Readout層 ..... 485
13.6.9 參數訓練與模型評估 ..... 485
13.7 經典神經網絡——AlexNet的實現 .... 488
13.7.1 AlexNet的網絡架構 .... 488
13.7.2 數據讀取 ....... 490
13.7.3 初始化權值和偏置 ..... 491
13.7.4 卷積和池化 ..... 491
13.7.5 局部響應歸一化層 ..... 492
13.7.6 構建卷積層 ..... 492
13.7.7 實現全連接層和Dropout層.. 493
13.7.8 實現Readout層 ..... 494
13.7.9 參數訓練與模型評估 ..... 494
13.8 本章小結 . 495
13.9 請你思考 . 496
參考資料 .. 496
第14章 循環遞歸RNN,序列建模套路深 .. 498
14.1 你可能不具備的一種思維..... 499
14.2 標準神經網絡的缺陷所在..... 501
14.3 RNN簡史 .. 502
14.3.1 Hopfield網絡 ..... 503
14.3.2 Jordan遞歸神經網絡 ..... 504
14.3.3 Elman遞歸神經網絡 ..... 505
14.3.4 RNN的應用領域 ..... 506
14.4 RNN的理論基礎 ....... 506
14.4.1 Elman遞歸神經網絡 ..... 506
14.4.2 循環神經網絡的生物學機理 ... 508
14.5 RNN的結構 ....... 509
14.6 循環神經網絡的訓練 ...... 512
14.6.1 問題建模 ....... 512
14.6.2 確定優化目標函數 ..... 513
14.6.3 參數求解 ....... 513
14.7 基于RNN的TensorFlow實戰——正弦序列預測 ...... 514
14.7.1 生成數據 ....... 516
14.7.2 定義權值和偏置 ..... 517
14.7.3 前向傳播 ....... 519
14.7.4 定義損失函數 ..... 522
14.7.5 參數訓練與模型評估 ..... 522
14.8 本章小結 . 524
14.9 請你思考 . 524
參考資料 .. 525
第15章 LSTM長短記,長序依賴可追憶 .. 526
15.1 遺忘是好事還是壞事 ...... 527
15.2 施密德胡伯是何人 ...... 527
15.3 為什么需要LSTM ....... 529
15.4 拆解LSTM 530
15.4.1 傳統RNN的問題所在 .... 530
15.4.2 改造的神經元 ..... 531
15.5 LSTM的前向計算 ....... 533
15.5.1 遺忘門 ....... 534
15.5.2 輸入門 ....... 535
15.5.3 候選門 ....... 536
15.5.4 輸出門 ....... 537
15.6 LSTM的訓練流程 ....... 539
15.7 自然語言處理的一個假設..... 540
15.8 詞向量表示方法 ...... 542
15.8.1 獨熱編碼表示 ..... 543
15.8.2 分布式表示 ..... 545
15.8.3 詞嵌入表示 ..... 547
15.9 自然語言處理的統計模型..... 549
15.9.1 NGram模型 ...... 549
15.9.2 基于神經網絡的語言模型 ... 550
15.9.3 基于循環神經網絡的語言模型 ... 553
15.9.4 LSTM語言模型的正則化 ... 556
15.10 基于Penn Tree Bank的自然語言處理實戰 . 560
15.10.1 下載及準備PTB數據集.... 561
15.10.2 導入基本包 ..... 562
15.10.3 定義相關的參數 ..... 562
15.10.4 語言模型的實現 ..... 563
15.10.5 訓練并返回perplexity值 ... 573
15.10.6 定義主函數并運行 ..... 575
15.10.7 運行結果 ..... 578
15.11 本章小結 . 579
15.12 請你思考 . 580
參考資料 .. 580
第16章 卷積網絡雖動人,膠囊網絡更傳“神” . 583
16.1 從神經元到神經膠囊 ...... 584
16.2 卷積神經網絡面臨的挑戰..... 584
16.3 神經膠囊的提出 ...... 588
16.4 神經膠囊理論初探 ...... 591
16.4.1 神經膠囊的生物學基礎 ... 591
16.4.2 神經膠囊網絡的哲學基礎 ... 592
16.5 神經膠囊的實例化參數..... 594
16.6 神經膠囊的工作流程 ...... 598
16.6.1 神經膠囊向量的計算 ..... 598
16.6.2 動態路由的工作機理 ..... 600
16.6.3 判斷多數字存在性的邊緣損失函數 . 606
16.6.4 膠囊神經網絡的結構 ..... 607
16.7 CapsNet的驗證與實驗 ...... 614
16.7.1 重構和預測效果 ..... 614
16.7.2 膠囊輸出向量的維度表征意義 ... 616
16.7.3 重疊圖像的分割 ..... 617
16.8 神經膠囊網絡的TensorFlow實現 .... 618
16.8.1 導入基本包及讀取數據集 ... 619
16.8.2 圖像輸入 ....... 619
16.8.3 卷積層Conv1的實現 .... 619
16.8.4 PrimaryCaps層的實現 ... 620
16.8.5 全連接層 ....... 622
16.8.6 路由協議算法 ..... 628
16.8.7 估計實體出現的概率 ..... 630
16.8.8 損失函數的實現 ..... 631
16.8.9 額外設置 ....... 639
16.8.10 訓練和評估 ..... 640
16.8.11 運行結果 ....... 643
16.9 本章小結 . 644
16.10 請你思考 . 645
16.11 深度學習美在何處 ..... 646
參考資料 .. 647
后記 ... 648
索引 ... 651
序: