複製鏈接
請複製以下鏈接發送給好友

深度學習

(2019年機械工業出版社出版的圖書)

鎖定
《深度學習》是2019年機械工業出版社出版的圖書,作者是翁貝託·米凱盧奇。
中文名
深度學習
作    者
翁貝託·米凱盧奇
出版時間
2019年 [1] 
出版社
機械工業出版社
ISBN
9787111637103

深度學習內容簡介

本書探討深度學習中的高級主題,例如優化算法、超參數調整、Dropout和誤差分析,並討論如何解決在訓練深度神經網絡時遇到的典型問題。書中首先介紹單一神經元網絡的激活函數(ReLu、sigmoid和Swish),然後介紹如何使用TensorFlow進行線性和邏輯迴歸,以及如何選擇正確的代價函數,之後討論具有多個層和神經元的更復雜的神經網絡結構,並探討權重的隨機初始化問題。本書用一整章對神經網絡誤差分析進行全面概述,給出如何解決來自不同分佈的方差、偏差、過擬合和數據集問題的例子。
本書還討論在不使用任何Python庫(NumPy除外)的情況下,如何從零開始完全實現邏輯迴歸,以便用諸如TensorFlow這樣的庫進行快速和有效的實驗。本書包括每種方法的案例研究,以便將所有理論信息付諸實踐。你還將學到Python代碼的優化技巧(例如,使用NumPy對循環進行向量化)。 [2] 

深度學習圖書目錄

譯者序
前言
審校者簡介
致謝
第1章 計算圖和TensorFlow1
1.1 如何構建Python環境1
1.1.1 創建環境3
1.1.2 安裝TensorFlow7
1.1.3 Jupyter記事本8
1.2 TensorFlow基本介紹10
1.2.1 計算圖10
1.2.2 張量12
1.2.3 創建和運行計算圖13
1.2.4 包含tf.constant的計算圖13
1.2.5 包含tf.Variable的計算圖14
1.2.6 包含tf. placeholder的計算圖15
1.2.7 運行和計算的區別18
1.2.8 節點之間的依賴關係18
1.2.9 創建和關閉會話的技巧19
第2章 單一神經元21
2.1 神經元結構21
2.1.1 矩陣表示法23
2.1.2 Python實現技巧:循環和NumPy24
2.1.3 激活函數25
2.1.4 代價函數和梯度下降:學習率的特點32
2.1.5 學習率的應用示例34
2.1.6 TensorFlow中的線性迴歸示例38
2.2 邏輯迴歸示例47
2.2.1 代價函數47
2.2.2 激活函數48
2.2.3 數據集48
2.2.4 TensorFlow實現51
2.3 參考文獻54
第3章 前饋神經網絡56
3.1 網絡架構57
3.1.1 神經元的輸出59
3.1.2 矩陣維度小結59
3.1.3 示例:三層網絡的方程59
3.1.4 全連接網絡中的超參數60
3.2 用於多元分類的softmax函數60
3.3 過擬合簡要介紹61
3.3.1 過擬合示例61
3.3.2 基本誤差分析66
3.4 Zalando數據集68
3.5 使用TensorFlow構建模型71
3.5.1 網絡架構71
3.5.2 softmax函數的標籤轉換:獨熱編碼73
3.5.3 TensorFlow模型74
3.6 梯度下降變體77
3.6.1 批量梯度下降77
3.6.2 隨機梯度下降78
3.6.3 小批量梯度下降79
3.6.4 各種變體比較80
3.7 錯誤預測示例84
3.8 權重初始化84
3.9 有效添加多個層87
3.10 增加隱藏層的優點89
3.11 比較不同網絡89
3.12 選擇正確網絡的技巧92
第4章 訓練神經網絡93
4.1 動態學習率衰減93
4.1.1 迭代還是週期94
4.1.2 階梯式衰減95
4.1.3 步長衰減96
4.1.4 逆時衰減98
4.1.5 指數衰減100
4.1.6 自然指數衰減101
4.1.7 TensorFlow實現105
4.1.8 將方法應用於Zalando數據集108
4.2 常用優化器109
4.2.1 指數加權平均109
4.2.2 Momentum112
4.2.3 RMSProp115
4.2.4 Adam117
4.2.5 應該使用哪種優化器117
4.3 自己開發的優化器示例118
第5章 正則化123
5.1 複雜網絡和過擬合123
5.2 什麼是正則化127
5.3 ?p範數128
5.4 ?2正則化128
5.4.1 ?2正則化原理128
5.4.2 TensorFlow實現129
5.5 ?1正則化136
5.5.1 ?1正則化原理與TensorFlow實現137
5.5.2 權重真的趨於零嗎137
5.6 Dropout140
5.7 Early Stopping143
5.8 其他方法144
第6章 指標分析145
6.1 人工水平表現和貝葉斯誤差146
6.2 關於人工水平表現的故事148
6.3 MNIST中的人工水平表現149
6.4 偏差150
6.5 指標分析圖151
6.6 訓練集過擬合151
6.7 測試集152
6.8 如何拆分數據集153
6.9 不平衡類分佈:會發生什麼157
6.10 精確率、召回率和F1指標161
6.11 不同分佈的數據集164
6.12 k折交叉驗證170
6.13 手動指標分析示例177
第7章 超參數調優183
7.1 黑盒優化183
7.2 黑盒函數注意事項184
7.3 超參數調優問題185
7.4 黑盒問題示例186
7.5 網格搜索186
7.6 隨機搜索190
7.7 粗到細優化192
7.8 貝葉斯優化195
7.8.1 Nadaraya-Watson迴歸195
7.8.2 高斯過程195
7.8.3 平穩過程196
7.8.4 用高斯過程預測196
7.8.5 採集函數200
7.8.6 上置信界(UCB)201
7.8.7 示例201
7.9 對數尺度採樣207
7.10 使用Zalando數據集的超參數調優208
7.11 徑向基函數注意事項214
第8章 卷積神經網絡和循環神經網絡216
8.1 卷積核和過濾器216
8.2 卷積217
8.3 卷積運算示例223
8.4 池化227
8.5 構建CNN塊230
8.5.1 卷積層230
8.5.2 池化層231
8.5.3 各層的疊加231
8.5.4 CNN示例232
8.6 RNN介紹237
8.6.1 符號237
8.6.2 RNN的基本原理238
8.6.3 循環神經網絡名稱的由來239
8.6.4 學會統計239
第9章 研究項目244
9.1 問題描述244
9.2 數學模型246
9.3 迴歸問題246
9.4 數據準備250
9.5 模型訓練258
第10章 從零開始進行邏輯迴歸261
10.1 邏輯迴歸的數學背景262
10.2 Python實現264
10.3 模型測試266
10.3.1 數據集準備267
10.3.2 運行測試268
10.4 結論268 [2] 

深度學習作者簡介

翁貝託•米凱盧奇(Umberto Michelucci)
目前在瑞士領先的醫療保險公司從事創新和人工智能(AI)工作。他領導與人工智能、新技術、機器學習以及大學的研究合作相關的多項戰略計劃。此前,他曾擔任多個大型醫療保健項目的數據科學家和首席建模師,並在編程和算法設計方面擁有豐富的實踐經驗。他管理過商務智能和數據倉庫項目,使數據驅動的解決方案能夠在複雜的生產環境中實施。最近,Umberto 對神經網絡進行了廣泛的研究,並應用深度學習來解決與保險、客户行為(如客户流失)和傳感器科學相關的一些問題。他曾在意大利、美國和德國學習理論物理,並擔任研究員,還在英國接受過高等教育。他經常在會議上發表科學成果,並在同行評審的期刊上發表研究論文。 [2] 
參考資料