目錄(112章)
倒序
- 封面
- 版權信息
- 前言
- 關于作者
- 關于審閱者
- 第1章 深度神經(jīng)網(wǎng)絡概述
- 1.1 創(chuàng)建神經(jīng)網(wǎng)絡塊
- 1.2 TensorFlow介紹
- 1.3 MNIST數(shù)據(jù)集介紹
- 1.4 Keras深度學習庫概述
- 1.5 基于Keras和MNIST的手寫數(shù)字識別
- 1.5.1 訓練和測試數(shù)據(jù)的檢索
- 1.5.2 訓練數(shù)據(jù)的可視化
- 1.5.3 創(chuàng)建神經(jīng)網(wǎng)絡
- 1.5.4 訓練神經(jīng)網(wǎng)絡
- 1.5.5 測試
- 1.6 理解反向傳播
- 1.7 本章小結
- 第2章 卷積神經(jīng)網(wǎng)絡介紹
- 2.1 CNN歷史
- 2.2 卷積神經(jīng)網(wǎng)絡
- 2.2.1 計算機如何解釋圖像
- 2.2.2 編碼實現(xiàn)圖像可視化
- 2.2.3 dropout
- 2.2.4 輸入層
- 2.2.5 卷積層
- 2.2.6 池化層
- 2.3 實踐示例:圖像分類
- 2.4 本章小結
- 第3章 構建CNN并進行性能優(yōu)化
- 3.1 CNN架構和DNN的缺點
- 3.1.1 卷積操作
- 3.1.2 池化、步長和填充操作
- 3.2 TensorFlow中的卷積和池化操作
- 3.2.1 在TensorFlow中應用池化操作
- 3.2.2 TensorFlow中的卷積操作
- 3.3 訓練CNN
- 3.3.1 初始化權重和偏置
- 3.3.2 正則化
- 3.3.3 激活函數(shù)
- 3.4 創(chuàng)建、訓練和評估第一個CNN
- 3.5 模型性能優(yōu)化
- 3.5.1 隱含層數(shù)量
- 3.5.2 每個隱含層的神經(jīng)元個數(shù)
- 3.5.3 批標準化
- 3.5.4 高級正則化及過擬合的避免
- 3.5.5 運用哪個優(yōu)化器
- 3.5.6 內(nèi)存調(diào)優(yōu)
- 3.5.7 層的位置調(diào)優(yōu)
- 3.5.8 綜合所有操作創(chuàng)建第二個CNN
- 3.5.9 數(shù)據(jù)集描述和預處理
- 3.5.10 創(chuàng)建CNN模型
- 3.5.11 訓練和評估網(wǎng)絡
- 3.6 本章小結
- 第4章 經(jīng)典的CNN模型架構
- 4.1 ImageNet介紹
- 4.2 LeNet
- 4.3 AlexNet架構
- 4.4 VGGNet架構
- 4.5 GoogLeNet架構
- 4.5.1 架構洞察
- 4.5.2 inception模塊
- 4.6 ResNet架構
- 4.7 本章小結
- 第5章 轉移學習
- 5.1 特征提取方法
- 5.1.1 目標數(shù)據(jù)集較小且與原始訓練集相似
- 5.1.2 目標數(shù)據(jù)集較小且與原始訓練集不同
- 5.1.3 目標數(shù)據(jù)集很大且與原始訓練集相似
- 5.1.4 目標數(shù)據(jù)集很大且與原始訓練集不同
- 5.2 轉移學習示例
- 5.3 多任務學習
- 5.4 本章小結
- 第6章 CNN自編碼器
- 6.1 自編碼器介紹
- 6.2 卷積自編碼器
- 6.3 應用
- 6.4 本章小結
- 第7章 CNN目標檢測與實例分割
- 7.1 目標檢測與圖像分類的區(qū)別
- 7.2 傳統(tǒng)的、非CNN的目標檢測方法
- 7.3 R-CNN:CNN特征區(qū)
- 7.4 Fast R-CNN:基于區(qū)域快速識別的CNN
- 7.5 Faster R-CNN:基于快速區(qū)域生成網(wǎng)絡的CNN
- 7.6 Mask R-CNN:CNN實例分割
- 7.7 實例分割的代碼實現(xiàn)
- 7.7.1 創(chuàng)建環(huán)境
- 7.7.2 準備COCO數(shù)據(jù)集文件夾結構
- 7.7.3 在COCO數(shù)據(jù)集上運行預訓練模型
- 7.8 參考文獻
- 7.9 本章小結
- 第8章 GAN:使用CNN生成新圖像
- 8.1 Pix2pix:基于GAN的圖像翻譯
- 8.1.1 CycleGAN
- 8.1.2 訓練GAN模型
- 8.2 GAN的代碼示例
- 8.2.1 計算損失
- 8.2.2 半監(jiān)督學習和GAN
- 8.3 特征匹配
- 8.3.1 基于半監(jiān)督分類的GAN示例
- 8.3.2 深度卷積GAN
- 8.4 本章小結
- 第9章 CNN和視覺模型的注意力機制
- 9.1 圖像描述中的注意力機制
- 9.2 注意力類型
- 9.2.1 硬注意力
- 9.2.2 軟注意力
- 9.3 運用注意力改善視覺模型
- 9.3.1 視覺CNN模型次優(yōu)性能的原因
- 9.3.2 循環(huán)視覺注意力模型
- 9.4 參考文獻
- 9.5 本章小結 更新時間:2019-04-22 18:02:47
推薦閱讀
- Getting Started with Citrix XenApp? 7.6
- 高手是如何做產(chǎn)品設計的(全2冊)
- 跟小海龜學Python
- Python計算機視覺編程
- Mastering C# Concurrency
- Scala程序員面試算法寶典
- Visual FoxPro程序設計習題集及實驗指導(第四版)
- Learning Unreal Engine Android Game Development
- RubyMotion iOS Develoment Essentials
- SQL Server 2016 從入門到實戰(zhàn)(視頻教學版)
- 會當凌絕頂:Java開發(fā)修行實錄
- 虛擬現(xiàn)實建模與編程(SketchUp+OSG開發(fā)技術)
- 計算思維與Python編程
- Raspberry Pi Robotic Projects
- 計算機軟件項目實訓指導
- 交互設計語言:與萬物對話的藝術(全兩冊)
- 代碼整潔之道:程序員的職業(yè)素養(yǎng)
- JavaScript高級程序設計(第3版)
- RabbitMQ Essentials
- AVR單片機C語言應用100例
- 大學計算機基礎教程
- Python測試驅動開發(fā):使用Django、Selenium和JavaScript進行Web編程(第2版)
- Rust編程之道
- Raspberry Pi:Amazing Projects from Scratch
- Python編程導論(第2版)
- Learning BeagleBone Python Programming
- 深度學習入門:基于PyTorch和TensorFlow的理論與實現(xiàn)
- Splunk Best Practices
- Python3.7編程快速入門
- 高級前端程序員面試筆試寶典