複製鏈接
請複製以下鏈接發送給好友

深度學習

(2019年科學出版社出版的圖書)

鎖定
《深度學習》由張憲超所著,科學出版社於2019年8月出版的圖書。
本書分為上下兩卷,共904頁,145萬字。本書不僅討論了機器學習概念、早期神經網絡、卷積神經網絡循環神經網絡、深度學習優化、深度學習正則化等內容,更包括注意力機制、記憶網絡、生成對抗網絡、深度聚類、可解釋性、對抗樣本攻擊與防禦等其他著作尚未涉及的內容,並有輔助網站在線提供大量論文、代碼、數據集和彩圖等學習資源供讀者邊實踐邊學習。本書可以作為人工智能相關領域的科研人員和工程師的參考用書,也可作為研究生和高年級本科生的教材或學習參考書。 [1-3] 
中文名
深度學習
作    者
張憲超
出版社
科學出版社
出版時間
2019年07月
定    價
168*2
開    本
787*1092 1/16
裝    幀
平裝
ISBN
9787030598349

深度學習內容簡介

《深度學習》對所有主要的深度學習方法和最新研究趨勢進行了深入探索。全書分為上下兩卷,五個部分。上捲包括兩個部分:第一部分是基礎算法,包括機器學習基礎算法、早期神經網絡算法、深度學習的正則化方法和深度學習的優化方法;第二部分是判別式模型,包括卷積神經網絡(CNN)、循環神經網絡(RNN)、長短期記憶模型(LSTM)、注意力機制和記憶網絡。下捲包括三個部分:第三部分是生成式模型,包括深度置信網絡/深度玻爾茲曼機、自編碼器(AE)/變分自編碼器(VAE)、生成對抗網絡(GAN)、像素級生成、深度聚類等;第四部分是前沿技術,討論深度強化學習;第五部分是安全保障,包括深度學習的可解釋性和對抗樣本的攻擊與防禦。《深度學習》注重學術前沿,對包括膠囊網絡在內的當前最新成果進行了細緻的討論。全書構建了一套明晰的深度學習體系,同時各章內容相對獨立,並有輔助網站在線提供大量論文、代碼、數據集和彩圖等學習資源供讀者邊實踐邊學習。 [2-3] 

深度學習圖書目錄

前言
1深度學習概述
2機器學習基礎
3早期神經網絡
4深度學習的優化
5正則化
6卷積神經網絡
7循環神經網絡
8注意力機制和記憶網絡 [7] 
上冊目錄
前言 [1]  [4] 
1 深度學習概述 1
1.1 人工智能與深度學習·· 1
1.2 深度學習的發展·· 2
1.2.1 深度學習的提出·· 2
1.2.2 深度學習的發展歷程·· 4
1.2.3 深度學習的知識體系·· 23
1.2.4 深度學習的數學基礎·· 25
1.2.5 深度學習的典型應用·· 27
1.2.6 深度學習當前面臨的挑戰·· 33
1.2.7 深度學習的未來·· 35
1.3 閲讀材料·· 36
參考文獻·· 37
2 機器學習基礎·· 44
2.1 機器學習基本概念·· 44
2.1.1 定義·· 44
2.1.2 數據·· 45
2.1.3 機器學習的三要素·· 45
2.1.4 歸納偏好·· 47
2.2 機器學習發展歷程·· 48
2.2.1 符號學派·· 48
2.2.2 聯結學派·· 50
2.2.3 進化學派·· 51
2.2.4 貝葉斯學派·· 52
2.2.5 類推學派·· 53
2.3 生成模型和判別模型·· 54
2.4 監督學習·· 55
2.4.1 任務描述·· 55
2.4.2 評價標準·· 59
2.4.3 常用方法·· 60
2.5 無監督學習·· 73
2.5.1 任務描述·· 73
2.5.2 評價標準·· 74
2.5.3 常用方法·· 75
2.6 強化學習·· 88
2.6.1 任務描述·· 88
2.6.2 評價標準·· 90
2.6.3 常用方法·· 91
2.7 閲讀材料·· 96
參考文獻·· 97
3 早期神經網絡·· 100
3.1 早期研究成果·· 100
3.1.1 神經網絡雛形·· 100
3.1.2 MCP神經元模型·· 101
3.1.3 Hebbian學習規則·· 103
3.2 感知機·· 104
3.3 多層感知機·· 108
3.3.1 多層感知機的結構·· 108
3.3.2 多層感知機的通用近似性·· 109
3.3.3 前向傳播過程·· 111
3.3.4 反向傳播過程·· 112
3.3.5 訓練過程實例·· 116
3.4 其他神經網絡模型·· 121
3.4.1 自組織映射·· 121
3.4.2 Hopfield網絡·· 123
3.5 神經網絡的激活函數·· 125
3.6 深度的必要性·· 129
3.7 閲讀材料·· 133
參考文獻·· 134
4 深度學習的優化·· 136
4.1 深度學習優化的困難和挑戰·· 136
4.1.1 局部極小值問題·· 137
4.1.2 鞍點問題·· 137
4.1.3 海森矩陣病態問題·· 138
4.1.4 梯度爆炸·· 139
4.1.5 梯度消失·· 140
4.2 梯度下降基本方法·· 141
4.2.1 批梯度下降·· 142
4.2.2 隨機梯度下降·· 143
4.2.3 小批量梯度下降·· 144
4.3 動量·· 145
4.3.1 動量法·· 145
4.3.2 Nesterov動量法·· 147
4.4 自適應學習率算法·· 148
4.4.1 Adagrad算法·· 149
4.4.2 RMSprop算法·· 151
4.4.3 AdaDelta算法·· 153
4.4.4 Adam算法·· 155
4.4.5 Adamax算法·· 161
4.4.6 Nadam算法·· 162
4.4.7 AMSgrad算法·· 163
4.5 二階近似法·· 165
4.5.1 牛頓法·· 165
4.5.2 DFP算法·· 166
4.5.3 BFGS算法·· 167
4.5.4 L-BFGS算法·· 168
4.5.5 共軛梯度算法·· 169
4.6 超參數調節方法·· 171
4.6.1 權值初始化·· 171
4.6.2 自動調節方法·· 171
4.6.3 手動調節方法·· 173
4.7 策略方法·· 174
4.7.1 批歸一化·· 175
4.7.2 預訓練·· 175
4.7.3 神經網絡的壓縮和加速·· 176
4.8 閲讀材料·· 179
參考文獻·· 180
5 正則化·· 184
5.1 理論框架·· 184
5.1.1 基本概念·· 184
5.1.2 過擬合與欠擬合·· 185
5.1.3 神經網絡領域的正則化框架·· 186
5.2 參數範數懲罰·· 187
5.2.1 正則化·· 187
5.2.2 正則化·· 188
5.3 基於數據的正則化·· 189
5.3.1 數據集擴增·· 189
5.3.2 Dropout 190
5.4 基於優化過程的正則化·· 195
5.5 基於函數模型的正則化·· 197
5.6 基於誤差函數的正則化·· 198
5.7 閲讀材料·· 199
參考文獻·· 199
6 卷積神經網絡·· 201
6.1 卷積神經網絡的神經科學基礎·· 201
6.2 卷積神經網絡的基本結構·· 202
6.3 卷積神經網絡的操作·· 205
6.3.1 卷積層操作·· 205
6.3.2 池化層操作·· 208
6.3.3 激活函數·· 211
6.4 設計卷積神經網絡的動機·· 215
6.4.1 局部連接·· 215
6.4.2 參數共享·· 218
6.4.3 理解卷積層·· 219
6.4.4 理解整流線性單元·· 223
6.4.5 理解池化層·· 225
6.4.6 卷積與池化作為強先驗分佈·· 229
6.5 卷積神經網絡訓練·· 230
6.5.1 卷積神經網絡訓練過程·· 230
6.5.2 輸入圖像預處理·· 237
6.5.3 卷積神經網絡訓練技巧·· 240
6.5.4 卷積神經網絡實例·· 241
6.6 CNN用於圖像分類·· 244
6.6.1 AlexNet 244
6.6.2 ZFNet 246
6.6.3 VGGNet 249
6.6.4 Inception 250
6.7 殘差神經網絡·· 258
6.7.1 ResNet 258
6.7.2 ResNet V2· 262
6.7.3 ResNeXt 267
6.7.4 DenseNet 268
6.7.5 MobileNet 270
6.7.6 ShuffleNet 271
6.7.7 Wide Residual Networks 272
6.7.8 Dual Path Network· 274
6.8 CNN用於目標檢測·· 275
6.8.1 R-CNN· 276
6.8.2 Fast R-CNN· 278
6.8.3 Faster R-CNN· 280
6.8.4 Mask R-CNN· 282
6.9 CNN用於像素級語義分割·· 285
6.10 CNN用於超高分辨率成像·· 288
6.11 球形卷積神經網絡·· 292
6.11.1 球形卷積神經網絡設計動機·· 292
6.11.2 球形空間與旋轉組之間的關係·· 293
6.11.3 應用G-FFT代替卷積操作·· 294
6.11.4 球形卷積神經網絡實驗·· 295
6.12 CNN用於文本處理·· 296
6.12.1 KimCNN· 296
6.12.2 DCNN· 298
6.13 膠囊網絡·· 301
6.13.1 動態路由膠囊網絡·· 301
6.13.2 EM路由矩陣膠囊網絡·· 308
6.13.3 膠囊與卷積神經網絡的區別·· 313
6.14 閲讀材料·· 314
參考文獻·· 315
7 循環神經網絡·· 323
7.1 簡單循環神經網絡·· 324
7.1.1 簡單循環神經網絡的結構·· 324
7.1.2 循環神經網絡的算法·· 328
7.2 循環神經網絡的訓練·· 330
7.2.1 損失函數和dropout 330
7.2.2 循環神經網絡的訓練技巧·· 331
7.3 長短期記憶神經網絡·· 332
7.3.1 長短期記憶神經網絡的起源·· 332
7.3.2 長短期記憶神經網絡的結構·· 334
7.3.3 長短期記憶神經網絡的算法·· 335
7.4 長短期記憶神經網絡的訓練·· 340
7.4.1 學習率·· 340
7.4.2 長短期記憶神經網絡的訓練技巧·· 340
7.5 RNN和LSTM的變體·· 343
7.5.1 RNN的簡單變體·· 343
7.5.2 增強RNN· 350
7.5.3 LSTM的變體·· 357
7.6 遞歸神經網絡·· 367
7.6.1 遞歸神經網絡的結構·· 367
7.6.2 遞歸神經網絡的前向計算·· 368
7.6.3 遞歸神經網絡的反向傳播·· 369
7.7 循環神經網絡的應用·· 370
7.7.1 詞向量·· 370
7.7.2 評價指標·· 372
7.7.3 機器翻譯·· 373
7.7.4 情感分析·· 377
7.7.5 對話模型·· 380
7.7.6 詩歌生成·· 383
7.7.7 圖片描述·· 384
7.7.8 語音識別·· 387
7.7.9 手寫識別·· 390
7.8 閲讀材料·· 392
參考文獻·· 393
8 注意力機制和記憶網絡·· 397
8.1 注意力機制的概念·· 397
8.2 注意力機制的分類·· 399
8.2.1 基於項的注意力和基於位置的注意力·· 400
8.2.2 全局注意力和局部注意力·· 402
8.2.3 自身注意力機制·· 404
8.3 注意力機制和RNN的結合·· 405
8.4 注意力機制的應用·· 406
8.4.1 目標檢測·· 406
8.4.2 圖片標註·· 407
8.4.3 機器翻譯·· 409
8.4.4 問答系統·· 413
8.5 注意力變體·· 418
8.5.1 結構化注意力機制·· 418
8.5.2 目標端注意力·· 420
8.5.3 單調對齊注意力·· 422
8.5.4 循環注意力·· 424
8.5.5 注意力之上的注意力·· 425
8.6 記憶網絡·· 427
8.6.1 記憶網絡基礎模型·· 427
8.6.2 分層記憶網絡·· 429
8.6.3 端到端記憶網絡·· 431
8.6.4 動態記憶網絡·· 433
8.6.5 神經圖靈機·· 434
8.6.6 記憶網絡的應用·· 438
8.7 閲讀材料·· 440
參考文獻·· 441
下冊目錄: [5-6] 
9 深度置信網絡和深度玻爾茲曼機·· 1
9.1 深度置信網絡和深度玻爾茲曼機的起源·· 1
9.1.1 玻爾茲曼機·· 1
9.1.2 受限玻爾茲曼機·· 2
9.2 模型參數學習·· 7
9.2.1 吉布斯採樣·· 7
9.2.2 對比散列算法·· 7
9.3 深度置信網絡·· 9
9.3.1 深度置信網絡模型·· 9
9.3.2 深度置信網絡訓練·· 10
9.4 深度玻爾茲曼機·· 11
9.4.1 深度玻爾茲曼機模型·· 11
9.4.2 深度玻爾茲曼機參數學習·· 13
9.5 深度置信網絡和深度玻爾茲曼機的應用·· 15
9.5.1 深度置信網絡的應用·· 15
9.5.2 深度玻爾茲曼機的應用·· 17
9.6 閲讀材料·· 28
參考文獻·· 29
10 自編碼器·· 31
10.1 自編碼器介紹·· 31
10.1.1 自編碼器的結構·· 31
10.1.2 自編碼器的訓練·· 33
10.2 深度自編碼器·· 34
10.3 自編碼器的變形·· 36
10.3.1 稀疏自編碼器·· 36
10.3.2 降噪自編碼器·· 37
10.3.3 收縮自編碼器·· 38
10.3.4 掩碼自編碼器·· 39
10.3.5 其他自編碼器·· 42
10.4 變分自編碼器·· 42
10.4.1 變分推斷·· 42
10.4.2 詳解變分自編碼器·· 45
10.5 變分自編碼器的變形·· 50
10.5.1 半監督變分自編碼器·· 50
10.5.2 反向自迴歸流變分自編碼器·· 54
10.5.3 信息最大化變分自編碼器·· 56
10.5.4 最大均值差異變分自編碼器·· 58
10.5.5 向量量化變分自編碼器·· 59
10.5.6 降噪變分自編碼器·· 62
10.5.7 梯形變分自編碼器·· 64
10.6 變分自編碼器的應用·· 68
10.6.1 機器翻譯·· 68
10.6.2 文本分類·· 72
10.7 閲讀材料·· 76
參考文獻·· 76
11 生成對抗網絡·· 79
11.1 原始生成對抗網絡·· 79
11.1.1 生成對抗網絡的基本結構·· 79
11.1.2 深入理解生成對抗網絡·· 82
11.1.3 原始生成對抗網絡中的問題·· 95
11.2 生成對抗網絡的發展·· 96
11.2.1 深度卷積生成對抗網絡·· 96
11.2.2 基於Wasserstein距離的生成對抗網絡·· 97
11.2.3 加罰項的基於Wasserstein距離的生成對抗網絡·· 102
11.2.4 帶有一致化項的生成對抗網絡·· 104
11.2.5 損失敏感的生成對抗網絡·· 106
11.2.6 信息最大化生成對抗網絡·· 110
11.3 生成對抗網絡的訓練·· 112
11.3.1 訓練生成對抗網絡的問題與發展·· 113
11.3.2 訓練生成對抗網絡的一些技巧·· 115
11.3.3 漸進增大方式訓練生成對抗網絡·· 116
11.3.4 生成對抗網絡的譜歸一化·· 118
11.3.5 通過原始-對偶次梯度方法訓練生成對抗網絡·· 121
11.3.6 用優化鏡像下降的方法訓練生成對抗網絡·· 123
11.3.7 一階懲罰生成對抗網絡·· 125
11.4 深度生成模型的聯合模型·· 126
11.4.1 對抗變分貝葉斯方法·· 127
11.4.2 建立深度生成模型之間的原則性聯繫·· 133
11.4.3 對抗自編碼器·· 140
11.4.4 Wasserstein自編碼器·· 144
11.5 最優傳輸理論與生成對抗網絡·· 147
11.5.1 從最優傳輸理論到生成模型·· 147
11.5.2 利用最優傳輸理論改善生成對抗網絡·· 150
11.6 生成對抗網絡的評估·· 152
11.6.1 幾何評分:一種比較樣本的方法·· 153
11.6.2 調節生成器對生成對抗網絡性能的影響·· 156
11.7 生成對抗網絡的其他模型·· 157
11.8 生成對抗網絡的應用·· 160
11.8.1 圖像的生成與操作·· 160
11.8.2 文本·· 172
11.9 早期的對抗模型·· 175
11.10 生成對抗網絡的總結·· 177
11.11 閲讀材料·· 179
參考文獻·· 180
12 像素級生成模型·· 184
12.1 PixelCNN· 184
12.1.1 PixelCNN介紹·· 184
12.1.2 mask卷積·· 185
12.1.3 盲點問題·· 186
12.2 PixelRNN· 188
12.2.1 行 LSTM PixelRNN· 188
12.2.2 對角線BiLSTM PixelRNN· 189
12.3 門PixelCNN· 192
12.4 條件 PixelCNN· 193
12.5 PixelVAE· 194
12.6 PixelGAN· 195
12.7 閲讀材料·· 197
參考文獻·· 197
13 深度聚類·· 198
13.1 聚類概述·· 198
13.1.1 傳統聚類與深度聚類之間的關係·· 198
13.1.2 深度聚類模型結構·· 199
13.1.3 深度聚類損失函數·· 199
13.1.4 簇的更新策略·· 201
13.2 深度嵌入聚類算法·· 202
13.2.1 自編碼器與聚類結合·· 202
13.2.2 變分自編碼器與聚類的結合·· 207
13.2.3 梯子網絡與聚類的結合·· 210
13.2.4 卷積神經網絡與聚類的結合·· 213
13.3 深度譜聚類·· 217
13.4 深度子空間聚類·· 220
13.5 閲讀材料·· 224
參考文獻·· 225
14 深度強化學習·· 230
14.1 基於值函數的深度強化學習·· 230
14.1.1 深度Q網絡·· 231
14.1.2 雙重深度Q網絡·· 238
14.1.3 優先化經驗回放的深度Q網絡·· 241
14.1.4 基於競爭網絡架構的深度Q網絡·· 243
14.2 基於策略搜索的深度強化學習·· 246
14.2.1 深度確定性策略梯度算法·· 246
14.2.2 異步的優勢行動者-評論家算法·· 250
14.3 基於模型的深度強化學習·· 252
14.3.1 AlphaGo發展史·· 253
14.3.2 AlphaGo原理介紹·· 255
14.4 深度強化學習的應用·· 264
14.5 深度強化學習的未來·· 266
14.6 閲讀材料·· 269
參考文獻·· 269
15 深度學習的可解釋性·· 272
15.1 可解釋性概述·· 272
15.1.1 什麼是可解釋性·· 273
15.1.2 可解釋的必要性·· 273
15.1.3 可解釋性研究進展·· 274
15.2 可視化·· 277
15.2.1 可視化方法分類·· 277
15.2.2 特徵可視化·· 278
15.2.3 關係可視化·· 289
15.2.4 過程可視化·· 297
15.3 深度學習內部工作機制探查·· 300
15.3.1 局部可解釋模型·· 300
15.3.2 關係反向傳播·· 304
15.3.3 決策樹量化解釋·· 311
15.3.4 信息論的角度解釋模型·· 317
15.4 深度學習工作機制理論分析·· 321
15.4.1 基於統計的分析·· 321
15.4.2 基於信息論的分析·· 327
15.4.3 基於認知科學的分析·· 342
15.5 閲讀材料·· 347
參考文獻·· 348
16 對抗樣本攻防和深度學習的魯棒性·· 355
16.1 深度神經網絡的脆弱性·· 355
16.2 對抗樣本攻擊·· 357
16.2.1 攻擊策略·· 357
16.2.2 對抗樣本的產生·· 373
16.2.3 對抗樣本的遷移·· 380
16.3 對抗攻擊的檢測與防禦·· 383
16.3.1 對抗樣本的檢測·· 383
16.3.2 對抗攻擊的防禦·· 385
16.4 深度神經網絡的魯棒性·· 391
16.4.1 分類器的魯棒性·· 391
16.4.2 Parseval網絡·· 399
16.4.3 評估神經網絡的魯棒性·· 400
16.4.4 為深度神經網絡提供可保證的魯棒性·· 403
16.5 深度學習測試·· 405
16.5.1 白盒測試·· 405
16.5.2 黑盒測試·· 414
16.6 深度學習驗證·· 422
16.6.1 可滿足性模理論·· 423
16.6.2 線性實數算法和單純形·· 424
16.6.3 從Simplex到Reluplex 425
16.6.4 有效實施Reluplex· 428
16.6.5 案例研究:ACAS Xu系統·· 429
16.7 閲讀材料·· 431
參考文獻·· 432
參考資料