包郵 深度學(xué)習(xí)模式與實踐
-
>
全國計算機(jī)等級考試最新真考題庫模擬考場及詳解·二級MSOffice高級應(yīng)用
-
>
決戰(zhàn)行測5000題(言語理解與表達(dá))
-
>
軟件性能測試.分析與調(diào)優(yōu)實踐之路
-
>
第一行代碼Android
-
>
JAVA持續(xù)交付
-
>
EXCEL最強(qiáng)教科書(完全版)(全彩印刷)
-
>
深度學(xué)習(xí)
深度學(xué)習(xí)模式與實踐 版權(quán)信息
- ISBN:9787302630630
- 條形碼:9787302630630 ; 978-7-302-63063-0
- 裝幀:平裝-鎖線膠訂
- 冊數(shù):暫無
- 重量:暫無
- 所屬分類:>
深度學(xué)習(xí)模式與實踐 本書特色
作為近幾年人工智能領(lǐng)域的主要研究方向之一,深度學(xué)習(xí)主要通過構(gòu)建深度卷積神經(jīng)網(wǎng)絡(luò)和采用大量樣本數(shù)據(jù)作為輸入,*終得到-一個具有強(qiáng)大分析能力和識別能力的模型。深度學(xué)習(xí)可以是有監(jiān)督的、半監(jiān)督的或無監(jiān)督的。深度學(xué)習(xí)架構(gòu)(例如深度神經(jīng)網(wǎng)絡(luò)、深度信念網(wǎng)絡(luò)、遞歸神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò))已應(yīng)用于計算機(jī)視覺、語音識別、自然語言處理、機(jī)器翻譯等領(lǐng)域并取得初步成效。
隨著深度學(xué)習(xí)的發(fā)展,了 解計算機(jī)編程語言以及掌握計算機(jī)組成原理等知識已成為 技能。本書中的所有代碼示例都是用Python編寫的,因此讀者需要有一定的 Python基礎(chǔ)。此外,作者使用了TensorFlow 2.x框架,其中包含了Keras模型API。本書將詳細(xì)介紹開創(chuàng)性深度學(xué)習(xí)模型的設(shè)計模式,并且將這些組件組合在一起, 以幫助讀者深入理解深度學(xué)習(xí)模式。
本書的內(nèi)容通俗易懂,對于從經(jīng)典人工智能到狹義人工智能的進(jìn)展以及機(jī)器學(xué)習(xí)的基本步驟均有介紹。謝燕蔚、楊博、楊龍、王德涵共同完成了本書的校對工作,在此表示感謝。希望本書的出版能為更多深度學(xué)習(xí)領(lǐng)域的從業(yè)者提供參考和借鑒。
深度學(xué)習(xí)模式與實踐 內(nèi)容簡介
《深度學(xué)習(xí)模式與實踐》通過介紹**實踐、設(shè)計模式和可復(fù)制的架構(gòu),指導(dǎo)讀者的深度學(xué)習(xí)項目從實驗室走向應(yīng)用。本書收集并闡明了近十年來真實世界中深度學(xué)習(xí)*緊密的洞察。讀者將通過每個有趣的例子學(xué)習(xí)相關(guān)技能,并建立信心。 《深度學(xué)習(xí)模式與實踐》深入研究了如何構(gòu)建成功的深度學(xué)習(xí)應(yīng)用程序。通過將經(jīng)過驗證的模式和實踐應(yīng)用到自身項目中,讀者將節(jié)省數(shù)小時的試錯時間。本書通過測試的代碼示例、真實世界示例和出色的敘事風(fēng)格,使復(fù)雜的概念變得簡單和有趣。在此過程中,讀者將學(xué)會相關(guān)技巧來部署、測試和維護(hù)項目。 本書的內(nèi)容包括: 現(xiàn)代卷積神經(jīng)網(wǎng)絡(luò) CNN架構(gòu)的設(shè)計模式 移動和物聯(lián)網(wǎng)設(shè)備模型 大規(guī)模模型部署 計算機(jī)視覺示例
深度學(xué)習(xí)模式與實踐 目錄
第1章 現(xiàn)代機(jī)器學(xué)習(xí)的設(shè)計 3
1.1 關(guān)注適應(yīng)性 4
1.1.1 計算機(jī)視覺引領(lǐng)潮流 4
1.1.2 超越計算機(jī)視覺:NLP、NLU和結(jié)構(gòu)化數(shù)據(jù) 5
1.2 機(jī)器學(xué)習(xí)方法的演變 6
1.2.1 經(jīng)典人工智能與狹義人工智能 6
1.2.2 計算機(jī)學(xué)習(xí)的未來 8
1.3 設(shè)計模式的好處 13
1.4 本章小結(jié) 14
第2章 深度神經(jīng)網(wǎng)絡(luò) 15
2.1 神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 15
2.1.1 輸入層 15
2.1.2 深度神經(jīng)網(wǎng)絡(luò)簡介 17
2.1.3 前饋網(wǎng)絡(luò) 18
2.1.4 序貫式API方法 18
2.1.5 函數(shù)式API方法 19
2.1.6 輸入形狀與輸入層 19
2.1.7 致密層 20
2.1.8 激活函數(shù) 21
2.1.9 速記語法 24
2.1.10 使用優(yōu)化器提高準(zhǔn)確度 25
2.2 DNN二元分類器 26
2.3 DNN多類分類器 28
2.4 DNN多標(biāo)簽多類分類器 29
2.5 簡單圖像分類器 31
2.5.1 展平 32
2.5.2 過擬合和丟棄 33
2.6 本章小結(jié) 35
第3章 卷積神經(jīng)網(wǎng)絡(luò)和殘差神經(jīng)網(wǎng)絡(luò) 37
3.1 卷積神經(jīng)網(wǎng)絡(luò) 37
3.1.1 為什么在DNN的基礎(chǔ)上對圖像模型使用CNN 38
3.1.2 下采樣(調(diào)整大小) 38
3.1.3 特征檢測 39
3.1.4 池化 41
3.1.5 展平 42
3.2 CNN的ConvNet設(shè)計 43
3.3 VGG網(wǎng)絡(luò) 46
3.4 ResNet網(wǎng)絡(luò) 49
3.4.1 架構(gòu) 49
3.4.2 批標(biāo)準(zhǔn)化 54
3.4.3 ResNet50 55
3.5 本章小結(jié) 59
第4章 訓(xùn)練基礎(chǔ)知識 61
4.1 前饋和反向傳播 61
4.1.1 饋送 62
4.1.2 反向傳播 62
4.2 拆分?jǐn)?shù)據(jù)集 64
4.2.1 訓(xùn)練集和測試集 64
4.2.2 獨熱編碼 65
4.3 數(shù)據(jù)歸一化 67
4.3.1 歸一化 67
4.3.2 標(biāo)準(zhǔn)化 69
4.4 驗證和過擬合 69
4.4.1 驗證 69
4.4.2 損失監(jiān)控 73
4.4.3 深入層中 73
4.5 收斂 74
4.6 設(shè)置檢查點和早停法 77
4.6.1 設(shè)置檢查點 77
4.6.2 早停法 78
4.7 超參數(shù) 79
4.7.1 時期數(shù) 80
4.7.2 步數(shù) 80
4.7.3 批大小 81
4.7.4 學(xué)習(xí)率 82
4.8 不變性 84
4.8.1 平移不變性 85
4.8.2 尺度不變性 91
4.8.3 TF.Keras的ImageDataGenerator類 93
4.9 初始(磁盤)數(shù)據(jù)集 94
4.9.1 目錄結(jié)構(gòu) 95
4.9.2 CSV文件 97
4.9.3 JSON文件 98
4.9.4 讀取圖像 98
4.9.5 調(diào)整大小 101
4.10 模型保存/恢復(fù) 102
4.10.1 保存 103
4.10.2 恢復(fù) 103
4.11 本章小結(jié) 104
第Ⅱ部分 基本設(shè)計模式
第5章 過程設(shè)計模式 107
5.1 基本的神經(jīng)網(wǎng)絡(luò)架構(gòu) 108
5.2 stem組件 110
5.2.1 VGG 110
5.2.2 ResNet 111
5.2.3 ResNeXt 115
5.2.4 Xception 116
5.3 預(yù)stem 117
5.4 學(xué)習(xí)器組件 118
5.4.1 ResNet 119
5.4.2 DenseNet 121
5.5 任務(wù)組件 123
5.5.1 ResNet 124
5.5.2 多層輸出 125
5.5.3 SqueezeNet 127
5.6 超越計算機(jī)視覺:自然語言處理 128
5.6.1 自然語言理解 128
5.6.2 Transformer架構(gòu) 129
5.7 本章小結(jié) 130
第6章 寬卷積神經(jīng)網(wǎng)絡(luò) 131
6.1 Inception v1 132
6.1.1 原生inception模塊 132
6.1.2 Inception v1模塊 134
6.1.3 stem 136
6.1.4 學(xué)習(xí)器 137
6.1.5 輔助分類器 137
6.1.6 分類器 139
6.2 Inception v2:卷積分解 140
6.3 Inception v3:重新設(shè)計架構(gòu) 142
6.3.1 Inception組和塊 143
6.3.2 普通卷積 146
6.3.3 空間可分離卷積 147
6.3.4 stem重設(shè)計和實現(xiàn) 148
6.3.5 輔助分類器 149
6.4 ResNeXt:寬殘差神經(jīng)網(wǎng)絡(luò) 150
6.4.1 ResNeXt塊 150
6.4.2 ResNeXt架構(gòu) 152
6.5 寬殘差網(wǎng)絡(luò) 153
6.5.1 WRN-50-2架構(gòu) 154
6.5.2 寬殘差塊 154
6.6 超越計算機(jī)視覺:結(jié)構(gòu)化數(shù)據(jù) 155
6.7 本章小結(jié) 157
第7章 可替代連接模式 159
7.1 DenseNet:致密連接的卷積神經(jīng)網(wǎng)絡(luò) 160
7.1.1 致密組 160
7.1.2 致密塊 162
7.1.3 DenseNet宏觀架構(gòu) 164
7.1.4 致密過渡塊 165
7.2 Xception 166
7.2.1 Xception架構(gòu) 167
7.2.2 Xception的入口流 169
7.2.3 Xception的中間流 171
7.2.4 Xception的出口流 173
7.2.5 深度可分離卷積 175
7.2.6 逐深度卷積 175
7.2.7 逐點卷積 175
7.3 SE-Net 176
7.3.1 SE-Net架構(gòu) 177
7.3.2 SE-Net的組和塊 177
7.3.3 SE鏈接 179
7.4 本章小結(jié) 180
第8章 移動卷積神經(jīng)網(wǎng)絡(luò) 181
8.1 MobileNet v1 182
8.1.1 架構(gòu) 182
8.1.2 寬度乘數(shù) 183
8.1.3 分辨率乘數(shù) 184
8.1.4 stem 185
8.1.5 學(xué)習(xí)器 186
8.1.6 分類器 188
8.2 MobileNet v2 189
8.2.1 架構(gòu) 189
8.2.2 stem 190
8.2.3 學(xué)習(xí)器 191
8.2.4 分類器 194
8.3 SqueezeNet 195
8.3.1 架構(gòu) 196
8.3.2 stem 197
8.3.3 學(xué)習(xí)器 197
8.3.4 分類器 200
8.3.5 旁路連接 202
8.4 ShuffleNet v1 205
8.4.1 架構(gòu) 205
8.4.2 stem 206
8.4.3 學(xué)習(xí)器 206
8.5 部署 213
8.5.1 量化 213
8.5.2 TF Lite轉(zhuǎn)換和預(yù)測 214
8.6 本章小結(jié) 216
第9章 自動編碼器 217
9.1 深度神經(jīng)網(wǎng)絡(luò)自動編碼器 217
9.1.1 自動編碼器架構(gòu) 218
9.1.2 編碼器 219
9.1.3 解碼器 219
9.1.4 訓(xùn)練 220
9.2 卷積自動編碼器 221
9.2.1 架構(gòu) 222
9.2.2 編碼器 222
9.2.3 解碼器 223
9.3 稀疏自動編碼器 225
9.4 去噪自動編碼器 226
9.5 超分辨率 226
9.5.1 預(yù)上采樣SR 227
9.5.2 后上采樣SR 229
9.6 前置任務(wù) 232
9.7 超越計算機(jī)視覺:Seq2Seq模型 234
9.8 本章小結(jié) 235
第Ⅲ部分 使用管線
第10章 超參數(shù)調(diào)優(yōu) 239
10.1 權(quán)重初始化 240
10.1.1 權(quán)重分布 241
10.1.2 彩票假設(shè) 241
10.1.3 預(yù)熱(數(shù)值穩(wěn)定性) 243
10.2 超參數(shù)搜索基礎(chǔ)知識 246
10.2.1 超參數(shù)搜索的手動方法 246
10.2.2 網(wǎng)格搜索 248
10.2.3 隨機(jī)搜索 248
10.2.4 KerasTuner 250
10.3 學(xué)習(xí)率調(diào)度器 252
10.3.1 Keras衰減參數(shù) 253
10.3.2 Keras學(xué)習(xí)率調(diào)度器 253
10.3.3 Ramp 254
10.3.4 恒定步長 255
10.3.5 余弦退火 256
10.4 正則化 258
10.4.1 權(quán)重正則化 258
10.4.2 標(biāo)簽平滑 259
10.5 超越計算機(jī)視覺 260
10.6 本章小結(jié) 261
第11章 遷移學(xué)習(xí) 263
11.1 TF.Keras預(yù)構(gòu)建模型 264
11.1.1 基礎(chǔ)模型 265
11.1.2 用于預(yù)測的預(yù)訓(xùn)練ImageNet模型 266
11.1.3 新分類器 267
11.2 TF Hub預(yù)構(gòu)建模型 271
11.2.1 使用TF Hub預(yù)訓(xùn)練模型 271
11.2.2 新分類器 273
11.3 域間的遷移學(xué)習(xí) 274
11.3.1 類似的任務(wù) 274
11.3.2 不同的任務(wù) 275
11.3.3 特定域權(quán)重 278
11.3.4 域遷移權(quán)重初始化 279
11.3.5 負(fù)遷移 281
11.4 超越計算機(jī)視覺 281
11.5 本章小結(jié) 281
第12章 數(shù)據(jù)分布 283
12.1 分布類型 284
12.1.1 總體分布 284
12.1.2 抽樣分布 285
12.1.3 子總體分布 286
12.2 分布外樣本 286
12.2.1 MNIST精選數(shù)據(jù)集 287
12.2.2 建立環(huán)境 287
12.2.3 挑戰(zhàn)分布外數(shù)據(jù) 288
12.2.4 作為DNN進(jìn)行訓(xùn)練 289
12.2.5 作為CNN進(jìn)行訓(xùn)練 294
12.2.6 圖像增強(qiáng) 297
12.2.7 *終測試 299
12.3 本章小結(jié) 299
第13章 數(shù)據(jù)管線 301
13.1 數(shù)據(jù)格式和存儲 303
13.1.1 壓縮圖像格式和原始圖像格式 303
13.1.2 HDF5格式 306
13.1.3 DICOM格式 310
13.1.4 TFRecord格式 311
13.2 數(shù)據(jù)饋送 316
13.2.1 NumPy 316
13.2.2 TFRecord 318
13.3 數(shù)據(jù)預(yù)處理 320
13.3.1 使用預(yù)stem進(jìn)行預(yù)處理 320
13.3.2 使用TF Extended進(jìn)行預(yù)處理 327
13.4 數(shù)據(jù)增強(qiáng) 332
13.4.1 不變性 332
13.4.2 使用tf.data進(jìn)行增強(qiáng) 334
13.4.3 預(yù)stem 335
13.5 本章小結(jié) 335
第14章 訓(xùn)練和部署管線 337
14.1 模型饋送 338
14.1.1 使用tf.data.Dataset進(jìn)行模型饋送 342
14.1.2 使用tf.Strategy進(jìn)行分布式饋送 345
14.1.3 使用TFX進(jìn)行模型饋送 346
14.2 訓(xùn)練調(diào)度器 352
14.2.1 管線版本控制 354
14.2.2 元數(shù)據(jù) 355
14.2.3 歷史記錄 357
14.3 模型評估 358
14.3.1 候選模型與幸運模型 358
14.3.2 TFX評估 361
14.4 預(yù)測服務(wù) 364
14.4.1 按需(實時)服務(wù) 364
14.4.2 批預(yù)測服務(wù) 367
14.4.3 用于部署的TFX管線組件 368
14.4.4 A/B測試 369
14.4.5 負(fù)載平衡 370
14.4.6 持續(xù)評估 372
14.5 生產(chǎn)管線設(shè)計的演變 373
14.5.1 機(jī)器學(xué)習(xí)作為管線 373
14.5.2 機(jī)器學(xué)習(xí)作為CI/CD生產(chǎn)流程 374
14.5.3 生產(chǎn)中的模型合并 375
14.6 本章小結(jié) 376
深度學(xué)習(xí)模式與實踐 作者簡介
Andrew Ferlitsch是谷歌云人工智能開發(fā)者關(guān)系部的一名專家,領(lǐng)域為計算機(jī)視覺、深度學(xué)習(xí)和在應(yīng)用中操作機(jī)器學(xué)習(xí)。
- >
唐代進(jìn)士錄
- >
李白與唐代文化
- >
羅曼·羅蘭讀書隨筆-精裝
- >
中國歷史的瞬間
- >
經(jīng)典常談
- >
我與地壇
- >
自卑與超越
- >
我從未如此眷戀人間