舉報

會員
機器學習編程:從編碼到深度學習
(意)保羅·佩羅塔 著
更新時間:2021-06-01 17:14:22
開會員,本書免費讀 >
最新章節:
附錄B 機器學習術語
本書從一個完全不了解機器學習的程序員的視角出發,通過一系列生動有趣的具體應用實例,運用詼諧的語言以循序漸進的方式比較系統地介紹機器學習的本質思想、基本理論和重要算法,比較細致地剖析線性模型、感知機模型、淺層神經網絡、深度神經網絡的設計原理與編程方法,引導讀者親自動手從零開始打造和完善機器學習的底層代碼,逐步消除對機器學習算法原理的認知盲點,讓廣大初學者能夠較為輕松地掌握機器學習和深度學習的基本理論和編程技術。本書是從零基礎初學者的思維角度編寫的,適合作為智能科學與技術、數據科學與大數據技術、計算機科學與技術以及相關專業的本科生或研究生的機器學習入門教材,也可供工程技術人員和自學讀者學習參考。
最新章節
書友吧品牌:機械工業出版社
譯者:汪雄飛 汪榮貴
上架時間:2021-06-01 17:03:06
出版社:機械工業出版社
本書數字版權由機械工業出版社提供,并由其授權上海閱文信息技術有限公司制作發行
- 附錄B 機器學習術語 更新時間:2021-06-01 17:14:22
- A.6 就這么多了
- A.5 創建和使用對象
- A.4.3 管理包
- A.4.2 主要習語
- A.4.1 定義與導入模塊
- A.4 模塊與包
- A.3.2 默認參數
- A.3.1 命名參數
- A.3 定義和調用函數
- A.2.4 循環
- A.2.3 字符串
- A.2.2 集合
- A.2.1 數據類型和運算符
- A.2 Python語言的基本組成
- A.1.2 Python中重要的縮進
- A.1.1 Python是動態類型
- A.1 Python是什么樣的
- 附錄A Python語言入門
- 20.4 你的旅程開始了
- 20.3.5 動手研究之路
- 20.3.4 通天大道寬又闊
- 20.3.3 圖像生成之路
- 20.3.2 語言之路
- 20.3.1 視覺之路
- 20.3 路在何方
- 20.2 離譜的效率
- 20.1.3 未完待續
- 20.1.2 臨界點
- 20.1.1 一場完美的革新風暴
- 20.1 深度學習的崛起
- 第20章 深度學習
- 19.5 動手研究:大量的超參數
- 19.4 小結
- 19.3 運行卷積
- 19.2.3 卷積層
- 19.2.2 卷積
- 19.2.1 圖像就是圖像
- 19.2 CNN的基本結構
- 19.1.2 難以分類的CIFAR數據
- 19.1.1 初識CIFAR-10
- 19.1 CIFAR-10數據集
- 第19章 超越香草神經網絡
- 18.5 動手研究:10歷元的挑戰
- 18.4 小結
- 18.3.4 最后一招:批處理標準化
- 18.3.3 高級正則化
- 18.3.2 加速梯度下降
- 18.3.1 更好的權重初始化
- 18.3 掌握更多的技巧
- 18.2.2 選擇正確的函數
- 18.2.1 初識ReLU
- 18.2 超越S型函數
- 18.1.2 S型函數及其運算結果
- 18.1.1 激活函數存在的意義
- 18.1 理解激活函數
- 第18章 馴服深度網絡
- 17.5 動手研究:保持簡單
- 17.4 小結
- 17.3 正則化工具箱
- 17.2.2 L1和L2正則化法
- 17.2.1 回顧深度網絡
- 17.2 模型正則化
- 17.1.2 過度擬合與低度擬合
- 17.1.1 過度擬合的成因
- 17.1 詳解過度擬合
- 第17章 戰勝過度擬合
- 16.5 動手研究:Keras游樂場
- 16.4 小結
- 16.3 更深一層
- 16.2.7 實踐中的Keras
- 16.2.6 描繪邊界
- 16.2.5 訓練網絡
- 16.2.4 編譯模型
- 16.2.3 創建模型
- 16.2.2 加載數據
- 16.2.1 計劃與代碼
- 16.2 使用Keras構建神經網絡
- 16.1 針鼴數據集
- 第16章 深度神經網絡
- 第三部分 深度學習
- 15.5 小結與展望
- 15.4 動手研究:實現99%
- 15.3 最終測試
- 15.2.4 調優批量大小
- 15.2.3 調優學習率
- 15.2.2 調優隱藏節點數量
- 15.2.1 選擇歷元的數量
- 15.2 調優超參數
- 15.1.3 標準化的實踐
- 15.1.2 標準化輸入變量
- 15.1.1 檢查輸入變量的范圍
- 15.1 準備樣本數據
- 第15章 來做開發吧
- 14.4 動手研究:思考測試
- 14.3 小結
- 14.2 測試的難題
- 14.1 過度擬合的威脅
- 第14章 測試的禪意
- 13.5 動手研究:最小的批量
- 13.4 小結
- 13.3.3 批處理的優缺點
- 13.3.2 大型和小型批處理
- 13.3.1 扭曲的路徑
- 13.3 理解小批量
- 13.2.2 批量樣本的訓練
- 13.2.1 小批量樣本集的構造
- 13.2 分批處理
- 13.1 訓練過程的可視化
- 第13章 小批量處理
- 12.4 動手研究:高難數據
- 12.3 小結
- 12.2 彎曲的邊界
- 12.1.3 線性不可分
- 12.1.2 理解分類
- 12.1.1 感知機的主場
- 12.1 尋找邊界
- 第12章 分類器的工作原理
- 11.7 動手研究:錯誤的開始
- 11.6 小結
- 11.5 完成網絡模型
- 11.4.3 正確的權重初始化
- 11.4.2 死亡神經元
- 11.4.1 可怕的對稱性
- 11.4 初始化權重
- 11.3.4 提煉反向函數
- 11.3.3 計算w1的梯度
- 11.3.2 計算w2的梯度
- 11.3.1 開始之前
- 11.3 使用反向傳播算法
- 11.2.2 復雜網絡的鏈式法則
- 11.2.1 簡單網絡結構的鏈式法則
- 11.2 從鏈式法則到反向傳播
- 11.1 反向傳播的使用場合
- 第11章 訓練神經網絡
- 10.4 動手研究:時間旅行的測試
- 10.3 小結
- 10.2 交叉熵
- 10.1.2 編寫分類函數
- 10.1.1 編寫softmax函數
- 10.1 編寫正向傳播代碼
- 第10章 構建神經網絡
- 9.5 動手研究:網絡冒險
- 9.4 小結
- 9.3 構建方案
- 9.2 加入softmax函數
- 9.1.2 節點數量
- 9.1.1 鏈式感知機
- 9.1 用感知機組裝神經網絡
- 第9章 設計神經網絡
- 第二部分 神經網絡
- 8.4.2 論戰余波
- 8.4.1 終極之戰
- 8.4 感知機史話
- 8.3.2 線性不可分數據
- 8.3.1 線性可分數據
- 8.3 感知機的不足
- 8.2 組裝感知機
- 8.1 認識感知機
- 第8章 感知機
- 7.4 動手研究:掃雷艦
- 7.3 小結
- 7.2 驗證與結果
- 7.1.5 回顧矩陣維數
- 7.1.4 需要更多的權重
- 7.1.3 解碼分類器的答案
- 7.1.2 獨熱編碼實踐
- 7.1.1 獨熱編碼
- 7.1 多元分類
- 第7章 最后的挑戰
- 6.5 動手研究:難以識別的數字
- 6.4 小結
- 6.3 實際運行
- 6.2.2 處理數據
- 6.2.1 準備輸入矩陣
- 6.2 我們自己的MNIST庫
- 6.1.2 訓練與測試
- 6.1.1 MNIST入門
- 6.1 處理數據
- 第6章 計算機視覺初探
- 5.5 動手研究:權重的影響
- 5.4 小結
- 5.3 操作中的分類函數
- 5.2.4 模型函數受到的影響
- 5.2.3 升級梯度
- 5.2.2 平滑過程
- 5.2.1 信心與疑慮
- 5.2 S型函數
- 5.1 線性回歸的不足
- 第5章 能辨識的機器
- 4.7 動手研究:統計學家
- 4.6 小結
- 4.5 最后一次試運行
- 4.4 告別偏置
- 4.3.5 整合函數
- 4.3.4 升級梯度公式
- 4.3.3 升級損失函數
- 4.3.2 升級預測函數
- 4.3.1 數據準備
- 4.3 升級學習程序
- 4.2.2 矩陣轉置
- 4.2.1 矩陣乘法
- 4.2 矩陣代數
- 4.1 添加更多維度
- 第4章 超空間
- 3.4 動手研究:露營地問題
- 3.3 小結
- 3.2.6 何時梯度下降法不適用
- 3.2.5 測試梯度下降法
- 3.2.4 偏導數
- 3.2.3 脫離平面
- 3.2.2 陡坡速降
- 3.2.1 少量數學知識
- 3.2 梯度下降法
- 3.1 算法的缺陷
- 第3章 梯度
- 2.5 動手研究:設置超參數
- 2.4 小結
- 2.3 添加偏置
- 2.2.6 運行代碼
- 2.2.5 越來越接近
- 2.2.4 計算誤差
- 2.2.3 進行訓練
- 2.2.2 進行預測
- 2.2.1 定義模型
- 2.2 編寫線性回歸代碼
- 2.1.2 理解數據
- 2.1.1 監督比薩
- 2.1 了解問題
- 第2章 首個機器學習程序
- 1.4 設置系統
- 1.3 魔法背后的數學原理
- 1.2 監督學習
- 1.1 編程與機器學習
- 第1章 機器學習的原理
- 第一部分 從零開始的圖像識別
- 致謝
- 前言
- 譯者序
- 版權信息
- 封面
- 封面
- 版權信息
- 譯者序
- 前言
- 致謝
- 第一部分 從零開始的圖像識別
- 第1章 機器學習的原理
- 1.1 編程與機器學習
- 1.2 監督學習
- 1.3 魔法背后的數學原理
- 1.4 設置系統
- 第2章 首個機器學習程序
- 2.1 了解問題
- 2.1.1 監督比薩
- 2.1.2 理解數據
- 2.2 編寫線性回歸代碼
- 2.2.1 定義模型
- 2.2.2 進行預測
- 2.2.3 進行訓練
- 2.2.4 計算誤差
- 2.2.5 越來越接近
- 2.2.6 運行代碼
- 2.3 添加偏置
- 2.4 小結
- 2.5 動手研究:設置超參數
- 第3章 梯度
- 3.1 算法的缺陷
- 3.2 梯度下降法
- 3.2.1 少量數學知識
- 3.2.2 陡坡速降
- 3.2.3 脫離平面
- 3.2.4 偏導數
- 3.2.5 測試梯度下降法
- 3.2.6 何時梯度下降法不適用
- 3.3 小結
- 3.4 動手研究:露營地問題
- 第4章 超空間
- 4.1 添加更多維度
- 4.2 矩陣代數
- 4.2.1 矩陣乘法
- 4.2.2 矩陣轉置
- 4.3 升級學習程序
- 4.3.1 數據準備
- 4.3.2 升級預測函數
- 4.3.3 升級損失函數
- 4.3.4 升級梯度公式
- 4.3.5 整合函數
- 4.4 告別偏置
- 4.5 最后一次試運行
- 4.6 小結
- 4.7 動手研究:統計學家
- 第5章 能辨識的機器
- 5.1 線性回歸的不足
- 5.2 S型函數
- 5.2.1 信心與疑慮
- 5.2.2 平滑過程
- 5.2.3 升級梯度
- 5.2.4 模型函數受到的影響
- 5.3 操作中的分類函數
- 5.4 小結
- 5.5 動手研究:權重的影響
- 第6章 計算機視覺初探
- 6.1 處理數據
- 6.1.1 MNIST入門
- 6.1.2 訓練與測試
- 6.2 我們自己的MNIST庫
- 6.2.1 準備輸入矩陣
- 6.2.2 處理數據
- 6.3 實際運行
- 6.4 小結
- 6.5 動手研究:難以識別的數字
- 第7章 最后的挑戰
- 7.1 多元分類
- 7.1.1 獨熱編碼
- 7.1.2 獨熱編碼實踐
- 7.1.3 解碼分類器的答案
- 7.1.4 需要更多的權重
- 7.1.5 回顧矩陣維數
- 7.2 驗證與結果
- 7.3 小結
- 7.4 動手研究:掃雷艦
- 第8章 感知機
- 8.1 認識感知機
- 8.2 組裝感知機
- 8.3 感知機的不足
- 8.3.1 線性可分數據
- 8.3.2 線性不可分數據
- 8.4 感知機史話
- 8.4.1 終極之戰
- 8.4.2 論戰余波
- 第二部分 神經網絡
- 第9章 設計神經網絡
- 9.1 用感知機組裝神經網絡
- 9.1.1 鏈式感知機
- 9.1.2 節點數量
- 9.2 加入softmax函數
- 9.3 構建方案
- 9.4 小結
- 9.5 動手研究:網絡冒險
- 第10章 構建神經網絡
- 10.1 編寫正向傳播代碼
- 10.1.1 編寫softmax函數
- 10.1.2 編寫分類函數
- 10.2 交叉熵
- 10.3 小結
- 10.4 動手研究:時間旅行的測試
- 第11章 訓練神經網絡
- 11.1 反向傳播的使用場合
- 11.2 從鏈式法則到反向傳播
- 11.2.1 簡單網絡結構的鏈式法則
- 11.2.2 復雜網絡的鏈式法則
- 11.3 使用反向傳播算法
- 11.3.1 開始之前
- 11.3.2 計算w2的梯度
- 11.3.3 計算w1的梯度
- 11.3.4 提煉反向函數
- 11.4 初始化權重
- 11.4.1 可怕的對稱性
- 11.4.2 死亡神經元
- 11.4.3 正確的權重初始化
- 11.5 完成網絡模型
- 11.6 小結
- 11.7 動手研究:錯誤的開始
- 第12章 分類器的工作原理
- 12.1 尋找邊界
- 12.1.1 感知機的主場
- 12.1.2 理解分類
- 12.1.3 線性不可分
- 12.2 彎曲的邊界
- 12.3 小結
- 12.4 動手研究:高難數據
- 第13章 小批量處理
- 13.1 訓練過程的可視化
- 13.2 分批處理
- 13.2.1 小批量樣本集的構造
- 13.2.2 批量樣本的訓練
- 13.3 理解小批量
- 13.3.1 扭曲的路徑
- 13.3.2 大型和小型批處理
- 13.3.3 批處理的優缺點
- 13.4 小結
- 13.5 動手研究:最小的批量
- 第14章 測試的禪意
- 14.1 過度擬合的威脅
- 14.2 測試的難題
- 14.3 小結
- 14.4 動手研究:思考測試
- 第15章 來做開發吧
- 15.1 準備樣本數據
- 15.1.1 檢查輸入變量的范圍
- 15.1.2 標準化輸入變量
- 15.1.3 標準化的實踐
- 15.2 調優超參數
- 15.2.1 選擇歷元的數量
- 15.2.2 調優隱藏節點數量
- 15.2.3 調優學習率
- 15.2.4 調優批量大小
- 15.3 最終測試
- 15.4 動手研究:實現99%
- 15.5 小結與展望
- 第三部分 深度學習
- 第16章 深度神經網絡
- 16.1 針鼴數據集
- 16.2 使用Keras構建神經網絡
- 16.2.1 計劃與代碼
- 16.2.2 加載數據
- 16.2.3 創建模型
- 16.2.4 編譯模型
- 16.2.5 訓練網絡
- 16.2.6 描繪邊界
- 16.2.7 實踐中的Keras
- 16.3 更深一層
- 16.4 小結
- 16.5 動手研究:Keras游樂場
- 第17章 戰勝過度擬合
- 17.1 詳解過度擬合
- 17.1.1 過度擬合的成因
- 17.1.2 過度擬合與低度擬合
- 17.2 模型正則化
- 17.2.1 回顧深度網絡
- 17.2.2 L1和L2正則化法
- 17.3 正則化工具箱
- 17.4 小結
- 17.5 動手研究:保持簡單
- 第18章 馴服深度網絡
- 18.1 理解激活函數
- 18.1.1 激活函數存在的意義
- 18.1.2 S型函數及其運算結果
- 18.2 超越S型函數
- 18.2.1 初識ReLU
- 18.2.2 選擇正確的函數
- 18.3 掌握更多的技巧
- 18.3.1 更好的權重初始化
- 18.3.2 加速梯度下降
- 18.3.3 高級正則化
- 18.3.4 最后一招:批處理標準化
- 18.4 小結
- 18.5 動手研究:10歷元的挑戰
- 第19章 超越香草神經網絡
- 19.1 CIFAR-10數據集
- 19.1.1 初識CIFAR-10
- 19.1.2 難以分類的CIFAR數據
- 19.2 CNN的基本結構
- 19.2.1 圖像就是圖像
- 19.2.2 卷積
- 19.2.3 卷積層
- 19.3 運行卷積
- 19.4 小結
- 19.5 動手研究:大量的超參數
- 第20章 深度學習
- 20.1 深度學習的崛起
- 20.1.1 一場完美的革新風暴
- 20.1.2 臨界點
- 20.1.3 未完待續
- 20.2 離譜的效率
- 20.3 路在何方
- 20.3.1 視覺之路
- 20.3.2 語言之路
- 20.3.3 圖像生成之路
- 20.3.4 通天大道寬又闊
- 20.3.5 動手研究之路
- 20.4 你的旅程開始了
- 附錄A Python語言入門
- A.1 Python是什么樣的
- A.1.1 Python是動態類型
- A.1.2 Python中重要的縮進
- A.2 Python語言的基本組成
- A.2.1 數據類型和運算符
- A.2.2 集合
- A.2.3 字符串
- A.2.4 循環
- A.3 定義和調用函數
- A.3.1 命名參數
- A.3.2 默認參數
- A.4 模塊與包
- A.4.1 定義與導入模塊
- A.4.2 主要習語
- A.4.3 管理包
- A.5 創建和使用對象
- A.6 就這么多了
- 附錄B 機器學習術語 更新時間:2021-06-01 17:14:22