- 封底 更新時間:2024-05-10 11:13:19
- 參考文獻
- ◎ 本章小結
- 12.6 對策與建議
- 12.5.2 聚類及可視化
- 12.5.1 K值確定
- 12.5 K均值聚類
- 12.4.5 Binary編碼
- 12.4.4 One-Hot編碼
- 12.4.3 標準化處理
- 12.4.2 離群值處理
- 12.4.1 數據清洗與整理
- 12.4 數據預處理
- 12.3.2 客戶價值數據
- 12.3.1 客戶意愿數據
- 12.3 數據收集
- 12.2.2 客戶價值細分變量
- 12.2.1 客戶意愿細分變量
- 12.2 客戶細分變量提取
- 12.1 案例介紹
- ■ 案例背景
- ■ 學習目標
- 第12章 案例分析之K均值聚類
- ◎ 本章小結
- 11.4 結果分析
- 11.3 模型構建
- 11.2 描述分析
- 11.1 案例介紹
- ■ 案例背景
- ■ 學習目標
- 第11章 案例分析之隨機森林
- ◎ 課后習題
- ◎ 本章小結
- 10.4.5 疾病數據分析
- 10.4.4 結果分析
- 10.4.3 Apriori算法建模
- 10.4.2 數據預處理
- 10.4.1 數據導入
- 10.4 R語言編程
- 10.3.4 規則生成
- 10.3.3 Fk-1×Fk-1方法的備用方式
- 10.3.2 Fk-1×Fk-1方法
- 10.3.1 Apriori算法的基本框架
- 10.3 Apriori算法原理
- 10.2.2 關聯規則的挖掘
- 10.2.1 關聯規則的基本概念
- 10.2 關聯規則的挖掘
- 10.1 關聯分析與概率統計
- ■ 應用背景介紹
- ■ 學習目標
- 第10章 關聯規則分析
- ◎ 課后習題
- ◎ 本章小結
- 9.4.4 聚類及可視化
- 9.4.3 確定最佳K值
- 9.4.2 數據預處理
- 9.4.1 數據導入
- 9.4 R語言編程
- 9.3 模型理解
- 9.2 算法示例
- 9.1.4 K均值聚類算法延伸
- 9.1.3 距離度量
- 9.1.2 最優K值選擇
- 9.1.1 算法步驟
- 9.1 算法原理
- ■ 應用背景介紹
- ■ 學習目標
- 第9章 K均值聚類
- ◎ 課后習題
- ◎ 本章小結
- 8.4.4 結果分析
- 8.4.3 聚類分組
- 8.4.2 數據預處理
- 8.4.1 數據導入
- 8.4 R語言編程
- 8.3.2 距離度量的選擇
- 8.3.1 層次聚類的優缺點
- 8.3 模型理解
- 8.2 算法示例
- 8.1.2 分裂層次聚類
- 8.1.1 凝聚層次聚類
- 8.1 算法原理
- ■ 應用背景介紹
- ■ 學習目標
- 第8章 層次聚類
- ◎ 課后習題
- ◎ 本章小結
- 7.4.2 貝葉斯網絡應用示例
- 7.4.1 樸素貝葉斯分類器應用實例
- 7.4 R語言編程
- 7.3.4 貝葉斯網絡的特征
- 7.3.3 BBN案例分析
- 7.3.2 構建BBN模型
- 7.3.1 模型表示
- 7.3 貝葉斯信念網絡
- 7.2.4 樸素貝葉斯分類器的特征
- 7.2.3 Laplace校準
- 7.2.2 估計類別下屬性劃分的條件概率
- 7.2.1 樸素貝葉斯分類器的工作流程
- 7.2 樸素貝葉斯分類器
- 7.1 貝葉斯定理
- ■ 應用背景介紹
- ■ 學習目標
- 第7章 貝葉斯分類器
- ◎ 課后習題
- ◎ 本章小結
- 6.3.4 隨機森林模型驗證
- 6.3.3 隨機森林模型訓練
- 6.3.2 數據預處理
- 6.3.1 數據導入
- 6.3 R語言編程
- 6.2.2 隨機森林模型應用
- 6.2.1 隨機森林模型的優缺點
- 6.2 模型理解
- 6.1.2 隨機森林介紹
- 6.1.1 bagging介紹
- 6.1 隨機森林方法原理
- ■ 應用背景介紹
- ■ 學習目標
- 第6章 隨機森林
- ◎ 課后習題
- ◎ 本章小結
- 5.4.4 決策樹模型驗證
- 5.4.3 決策樹模型訓練
- 5.4.2 數據預處理
- 5.4.1 數據導入
- 5.4 R語言編程
- 5.3.3 連續屬性離散化
- 5.3.2 決策樹模型實踐建議
- 5.3.1 決策樹模型的優缺點
- 5.3 模型理解
- 5.2 CART算法示例
- 5.1.2 決策樹剪枝
- 5.1.1 決策樹生成
- 5.1 CART算法原理
- ■ 應用背景介紹
- ■ 學習目標
- 第5章 決策樹與回歸樹
- ◎ 課后習題
- ◎ 本章小結
- 4.4.4 邏輯回歸模型驗證
- 4.4.3 邏輯回歸模型訓練
- 4.4.2 數據預處理
- 4.4.1 數據導入
- 4.4 R語言編程
- 4.3 模型理解
- 4.2 邏輯回歸算法示例
- 4.1.3 邏輯回歸推導
- 4.1.2 邏輯回歸函數
- 4.1.1 邏輯回歸模型簡介
- 4.1 邏輯回歸原理
- ■ 應用背景介紹
- ■ 學習目標
- 第4章 邏輯回歸
- ◎ 課后習題
- ◎ 本章小結
- 3.8 線性回歸的R語言實現
- 3.7.3 殘差的正態性檢驗
- 3.7.2 線性關系檢驗
- 3.7.1 異常點識別
- 3.7 回歸診斷
- 3.6 線性回歸模型的擬合優度
- 3.5 線性回歸中的多重共線性
- 3.4 線性回歸模型的顯著性檢驗
- 3.3 自變量為分類變量的處理
- 3.2 線性回歸模型參數的估計
- 3.1 線性回歸模型的基本形式
- ■ 應用背景介紹
- ■ 學習目標
- 第3章 線性回歸
- ◎ 課后習題
- ◎ 本章小結
- 2.4.5 QQ圖
- 2.4.4 箱線圖與小提琴圖
- 2.4.3 餅圖
- 2.4.2 折線圖與路線圖
- 2.4.1 條形圖與直方圖
- 2.4 常用工具圖的繪制
- 2.3.4 主題
- 2.3.3 分面
- 2.3.2 坐標系
- 2.3.1 標度
- 2.3 圖像細節調整
- 2.2.4 位置調整
- 2.2.3 統計變換
- 2.2.2 幾何對象
- 2.2.1 繪圖對象
- 2.2 圖層
- 2.1.2 散點圖示例
- 2.1.1 圖像的組成
- 2.1 ggplot2的圖層語法
- ■ 應用背景介紹
- ■ 學習目標
- 第2章 R語言可視化技術
- ◎ 課后習題
- ◎ 本章小結
- 1.5.2 tidyr包
- 1.5.1 dplyr包
- 1.5 R包
- 1.4.14 table()函數
- 1.4.13 數據合并
- 1.4.12 文本數據排序
- 1.4.11 數據聚合
- 1.4.10 數據類型轉換
- 1.4.9 apply()函數集合
- 1.4.8 隨機抽樣
- 1.4.7 子集數據
- 1.4.6 數字的四舍五入
- 1.4.5 變量的重命名
- 1.4.4 替換現有字段中的數據
- 1.4.3 運算符
- 1.4.2 缺失信息處理
- 1.4.1 從數據集中提取信息
- 1.4 R語言中的數據處理
- 1.3.6 R語言中的內置函數
- 1.3.5 自定義函數
- 1.3.4 switch語句
- 1.3.3 while循環
- 1.3.2 for循環
- 1.3.1 if分支
- 1.3 R語言中的控制語句及函數
- 1.2.6 R語言中的因子
- 1.2.5 R語言中的列表
- 1.2.4 R語言中的數據框
- 1.2.3 R語言中的矩陣
- 1.2.2 R語言中的向量
- 1.2.1 數據類型
- 1.2 R語言中的數據類型和對象
- 1.1.5 導出數據
- 1.1.4 從R語言的包中獲取數據
- 1.1.3 從文件中讀取數據
- 1.1.2 變量賦值
- 1.1.1 第一個R會話
- 1.1 R語言中的數據讀取和數據導出
- ■ 應用背景介紹
- ■ 學習目標
- 第1章 R語言基礎
- 前言
- 版權信息
- 封面
- 封面
- 版權信息
- 前言
- 第1章 R語言基礎
- ■ 學習目標
- ■ 應用背景介紹
- 1.1 R語言中的數據讀取和數據導出
- 1.1.1 第一個R會話
- 1.1.2 變量賦值
- 1.1.3 從文件中讀取數據
- 1.1.4 從R語言的包中獲取數據
- 1.1.5 導出數據
- 1.2 R語言中的數據類型和對象
- 1.2.1 數據類型
- 1.2.2 R語言中的向量
- 1.2.3 R語言中的矩陣
- 1.2.4 R語言中的數據框
- 1.2.5 R語言中的列表
- 1.2.6 R語言中的因子
- 1.3 R語言中的控制語句及函數
- 1.3.1 if分支
- 1.3.2 for循環
- 1.3.3 while循環
- 1.3.4 switch語句
- 1.3.5 自定義函數
- 1.3.6 R語言中的內置函數
- 1.4 R語言中的數據處理
- 1.4.1 從數據集中提取信息
- 1.4.2 缺失信息處理
- 1.4.3 運算符
- 1.4.4 替換現有字段中的數據
- 1.4.5 變量的重命名
- 1.4.6 數字的四舍五入
- 1.4.7 子集數據
- 1.4.8 隨機抽樣
- 1.4.9 apply()函數集合
- 1.4.10 數據類型轉換
- 1.4.11 數據聚合
- 1.4.12 文本數據排序
- 1.4.13 數據合并
- 1.4.14 table()函數
- 1.5 R包
- 1.5.1 dplyr包
- 1.5.2 tidyr包
- ◎ 本章小結
- ◎ 課后習題
- 第2章 R語言可視化技術
- ■ 學習目標
- ■ 應用背景介紹
- 2.1 ggplot2的圖層語法
- 2.1.1 圖像的組成
- 2.1.2 散點圖示例
- 2.2 圖層
- 2.2.1 繪圖對象
- 2.2.2 幾何對象
- 2.2.3 統計變換
- 2.2.4 位置調整
- 2.3 圖像細節調整
- 2.3.1 標度
- 2.3.2 坐標系
- 2.3.3 分面
- 2.3.4 主題
- 2.4 常用工具圖的繪制
- 2.4.1 條形圖與直方圖
- 2.4.2 折線圖與路線圖
- 2.4.3 餅圖
- 2.4.4 箱線圖與小提琴圖
- 2.4.5 QQ圖
- ◎ 本章小結
- ◎ 課后習題
- 第3章 線性回歸
- ■ 學習目標
- ■ 應用背景介紹
- 3.1 線性回歸模型的基本形式
- 3.2 線性回歸模型參數的估計
- 3.3 自變量為分類變量的處理
- 3.4 線性回歸模型的顯著性檢驗
- 3.5 線性回歸中的多重共線性
- 3.6 線性回歸模型的擬合優度
- 3.7 回歸診斷
- 3.7.1 異常點識別
- 3.7.2 線性關系檢驗
- 3.7.3 殘差的正態性檢驗
- 3.8 線性回歸的R語言實現
- ◎ 本章小結
- ◎ 課后習題
- 第4章 邏輯回歸
- ■ 學習目標
- ■ 應用背景介紹
- 4.1 邏輯回歸原理
- 4.1.1 邏輯回歸模型簡介
- 4.1.2 邏輯回歸函數
- 4.1.3 邏輯回歸推導
- 4.2 邏輯回歸算法示例
- 4.3 模型理解
- 4.4 R語言編程
- 4.4.1 數據導入
- 4.4.2 數據預處理
- 4.4.3 邏輯回歸模型訓練
- 4.4.4 邏輯回歸模型驗證
- ◎ 本章小結
- ◎ 課后習題
- 第5章 決策樹與回歸樹
- ■ 學習目標
- ■ 應用背景介紹
- 5.1 CART算法原理
- 5.1.1 決策樹生成
- 5.1.2 決策樹剪枝
- 5.2 CART算法示例
- 5.3 模型理解
- 5.3.1 決策樹模型的優缺點
- 5.3.2 決策樹模型實踐建議
- 5.3.3 連續屬性離散化
- 5.4 R語言編程
- 5.4.1 數據導入
- 5.4.2 數據預處理
- 5.4.3 決策樹模型訓練
- 5.4.4 決策樹模型驗證
- ◎ 本章小結
- ◎ 課后習題
- 第6章 隨機森林
- ■ 學習目標
- ■ 應用背景介紹
- 6.1 隨機森林方法原理
- 6.1.1 bagging介紹
- 6.1.2 隨機森林介紹
- 6.2 模型理解
- 6.2.1 隨機森林模型的優缺點
- 6.2.2 隨機森林模型應用
- 6.3 R語言編程
- 6.3.1 數據導入
- 6.3.2 數據預處理
- 6.3.3 隨機森林模型訓練
- 6.3.4 隨機森林模型驗證
- ◎ 本章小結
- ◎ 課后習題
- 第7章 貝葉斯分類器
- ■ 學習目標
- ■ 應用背景介紹
- 7.1 貝葉斯定理
- 7.2 樸素貝葉斯分類器
- 7.2.1 樸素貝葉斯分類器的工作流程
- 7.2.2 估計類別下屬性劃分的條件概率
- 7.2.3 Laplace校準
- 7.2.4 樸素貝葉斯分類器的特征
- 7.3 貝葉斯信念網絡
- 7.3.1 模型表示
- 7.3.2 構建BBN模型
- 7.3.3 BBN案例分析
- 7.3.4 貝葉斯網絡的特征
- 7.4 R語言編程
- 7.4.1 樸素貝葉斯分類器應用實例
- 7.4.2 貝葉斯網絡應用示例
- ◎ 本章小結
- ◎ 課后習題
- 第8章 層次聚類
- ■ 學習目標
- ■ 應用背景介紹
- 8.1 算法原理
- 8.1.1 凝聚層次聚類
- 8.1.2 分裂層次聚類
- 8.2 算法示例
- 8.3 模型理解
- 8.3.1 層次聚類的優缺點
- 8.3.2 距離度量的選擇
- 8.4 R語言編程
- 8.4.1 數據導入
- 8.4.2 數據預處理
- 8.4.3 聚類分組
- 8.4.4 結果分析
- ◎ 本章小結
- ◎ 課后習題
- 第9章 K均值聚類
- ■ 學習目標
- ■ 應用背景介紹
- 9.1 算法原理
- 9.1.1 算法步驟
- 9.1.2 最優K值選擇
- 9.1.3 距離度量
- 9.1.4 K均值聚類算法延伸
- 9.2 算法示例
- 9.3 模型理解
- 9.4 R語言編程
- 9.4.1 數據導入
- 9.4.2 數據預處理
- 9.4.3 確定最佳K值
- 9.4.4 聚類及可視化
- ◎ 本章小結
- ◎ 課后習題
- 第10章 關聯規則分析
- ■ 學習目標
- ■ 應用背景介紹
- 10.1 關聯分析與概率統計
- 10.2 關聯規則的挖掘
- 10.2.1 關聯規則的基本概念
- 10.2.2 關聯規則的挖掘
- 10.3 Apriori算法原理
- 10.3.1 Apriori算法的基本框架
- 10.3.2 Fk-1×Fk-1方法
- 10.3.3 Fk-1×Fk-1方法的備用方式
- 10.3.4 規則生成
- 10.4 R語言編程
- 10.4.1 數據導入
- 10.4.2 數據預處理
- 10.4.3 Apriori算法建模
- 10.4.4 結果分析
- 10.4.5 疾病數據分析
- ◎ 本章小結
- ◎ 課后習題
- 第11章 案例分析之隨機森林
- ■ 學習目標
- ■ 案例背景
- 11.1 案例介紹
- 11.2 描述分析
- 11.3 模型構建
- 11.4 結果分析
- ◎ 本章小結
- 第12章 案例分析之K均值聚類
- ■ 學習目標
- ■ 案例背景
- 12.1 案例介紹
- 12.2 客戶細分變量提取
- 12.2.1 客戶意愿細分變量
- 12.2.2 客戶價值細分變量
- 12.3 數據收集
- 12.3.1 客戶意愿數據
- 12.3.2 客戶價值數據
- 12.4 數據預處理
- 12.4.1 數據清洗與整理
- 12.4.2 離群值處理
- 12.4.3 標準化處理
- 12.4.4 One-Hot編碼
- 12.4.5 Binary編碼
- 12.5 K均值聚類
- 12.5.1 K值確定
- 12.5.2 聚類及可視化
- 12.6 對策與建議
- ◎ 本章小結
- 參考文獻
- 封底 更新時間:2024-05-10 11:13:19