最新章節(jié)
書友吧上架時間:2021-01-05 17:39:16
出版社:電子工業(yè)出版社
上海閱文信息技術(shù)有限公司已經(jīng)獲得合法授權(quán),并進行制作發(fā)行
- 參考文獻 更新時間:2021-01-05 18:15:41
- 作者簡介
- 縮略詞表
- 23.2 技術(shù)前沿和未來方向
- 23.1 路線圖
- 第23章 總結(jié)及未來研究方向
- 第VII部分 總結(jié)及展望
- 22.3 統(tǒng)計對話系統(tǒng)的冷啟動技術(shù)
- 22.2 數(shù)據(jù)驅(qū)動的對話策略訓(xùn)練
- 22.1 對話策略及對話系統(tǒng)評估
- 第22章 對話策略優(yōu)化
- 21.3 自然語言生成
- 21.2 對話狀態(tài)跟蹤
- 21.1 口語對話系統(tǒng)概述
- 第21章 對話狀態(tài)跟蹤及自然語言生成
- 20.3 基于深度學(xué)習(xí)的口語理解
- 20.2 口語理解任務(wù)
- 20.1 自然語言處理及深度學(xué)習(xí)
- 第20章 基于深度學(xué)習(xí)的口語理解
- 第VI部分 口語理解及對話系統(tǒng)的深度學(xué)習(xí)實踐
- 19.5 前后端聯(lián)合優(yōu)化
- 19.4 結(jié)合信號處理和深度學(xué)習(xí)方法
- 19.3 波束形成的信號處理方法
- 19.2 DOA算法
- 19.1 遠場識別的前端鏈路
- 第19章 遠場語音識別的前端技術(shù)
- 18.7 時域音頻分離網(wǎng)絡(luò)
- 18.6 將排列不變性訓(xùn)練用于多說話人語音識別
- 18.5 排列不變性訓(xùn)練
- 18.4 深度吸引子
- 18.3 深度聚類
- 18.2 單通道多說話人的語音分離和標(biāo)注置換問題
- 18.1 單通道語音增強技術(shù)
- 第18章 基于深度學(xué)習(xí)的單通道語音增強和分離技術(shù)
- 17.4 使用視聽信息的魯棒語音識別
- 17.3 語音識別中深層神經(jīng)網(wǎng)絡(luò)的多目標(biāo)學(xué)習(xí)
- 17.2 多語言和跨語言語音識別
- 17.1 多任務(wù)和遷移學(xué)習(xí)
- 第17章 深層神經(jīng)網(wǎng)絡(luò)中的表征共享和遷移
- 第V部分 復(fù)雜場景下的語音識別
- 16.3 聯(lián)合CTC-注意力模型
- 16.2 帶注意力機制的“編碼-解碼”模型
- 16.1 連接時序分類模型
- 第16章 端到端模型
- 15.4 噪聲對比估計
- 15.3 無須詞圖的神經(jīng)網(wǎng)絡(luò)序列鑒別性訓(xùn)練
- 15.2 具體實現(xiàn)中的考量
- 15.1 序列鑒別性訓(xùn)練準則
- 第15章 深層神經(jīng)網(wǎng)絡(luò)序列鑒別性訓(xùn)練
- 14.5 DNN說話人自適應(yīng)的效果
- 14.4 子空間方法
- 14.3 保守訓(xùn)練
- 14.2 線性變換
- 14.1 深層神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)問題
- 第14章 深層神經(jīng)網(wǎng)絡(luò)的自適應(yīng)技術(shù)
- 第IV部分 高級語音識別方法
- 13.8 語言模型與聲學(xué)模型的聯(lián)合優(yōu)化
- 13.7 深度學(xué)習(xí)語言模型的使用
- 13.6 雙向語言模型
- 13.5 語言模型的建模單元
- 13.4 CNN語言模型
- 13.3 RNN和LSTM語言模型
- 13.2 DNN語言模型
- 13.1 統(tǒng)計語言模型簡介
- 第13章 基于深度學(xué)習(xí)的語言模型
- 12.10 討論
- 12.9 循環(huán)神經(jīng)網(wǎng)絡(luò)的對比分析
- 12.8 GRU循環(huán)神經(jīng)網(wǎng)絡(luò)
- 12.7 雙向LSTM
- 12.6 高速公路LSTM和網(wǎng)格LSTM
- 12.5 結(jié)合長短時記憶單元的循環(huán)神經(jīng)網(wǎng)絡(luò)
- 12.4 一種用于學(xué)習(xí)循環(huán)神經(jīng)網(wǎng)絡(luò)的原始對偶技術(shù)
- 12.3 沿時反向傳播學(xué)習(xí)算法
- 12.2 基本循環(huán)神經(jīng)網(wǎng)絡(luò)中的狀態(tài)-空間公式
- 12.1 概述
- 第12章 循環(huán)神經(jīng)網(wǎng)絡(luò)及相關(guān)模型
- 11.7 深層卷積神經(jīng)網(wǎng)絡(luò)
- 11.6 時域上的卷積
- 11.5 時頻域上的卷積
- 11.4 時間延遲神經(jīng)網(wǎng)絡(luò)
- 11.3 卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練
- 11.2 卷積神經(jīng)網(wǎng)絡(luò)的基本架構(gòu)
- 11.1 概述
- 第11章 卷積神經(jīng)網(wǎng)絡(luò)
- 第III部分 先進深度學(xué)習(xí)模型在語音識別中的應(yīng)用
- 10.7 喚醒詞識別的位置
- 10.6 多階段喚醒詞識別
- 10.5 可定制的喚醒詞識別
- 10.4 只用DNN的喚醒詞識別
- 10.3 喚醒詞識別的解碼器方案
- 10.2 基于DNN的VAD
- 10.1 基于信號處理的VAD
- 第10章 VAD和喚醒詞識別
- 9.4 多流語音識別
- 9.3 幀級別的聲學(xué)分數(shù)融合
- 9.2 識別結(jié)果融合技術(shù)
- 9.1 在GMM-HMM系統(tǒng)中使用由DNN衍生的特征
- 第9章 深層神經(jīng)網(wǎng)絡(luò)和混合高斯模型的融合
- 8.7 使用合成數(shù)據(jù)提升魯棒性
- 8.6 信號嚴重失真情況下的推廣能力
- 8.5 對環(huán)境的魯棒性
- 8.4 特征的魯棒性
- 8.3 使用隨意輸入特征的靈活性
- 8.2 特征層級
- 8.1 特征和分類器的聯(lián)合學(xué)習(xí)
- 第8章 深層神經(jīng)網(wǎng)絡(luò)中的特征表示學(xué)習(xí)
- 7.2 解碼加速
- 7.1 訓(xùn)練加速
- 第7章 訓(xùn)練加速和解碼加速
- 6.3 基于KL距離的隱馬爾可夫模型
- 6.2 CD-DNN-HMM的關(guān)鍵模塊及分析
- 6.1 DNN-HMM混合系統(tǒng)
- 第6章 深層神經(jīng)網(wǎng)絡(luò)-隱馬爾可夫模型混合系統(tǒng)
- 5.6 采用丟棄法的預(yù)訓(xùn)練
- 5.5 混合預(yù)訓(xùn)練
- 5.4 鑒別性預(yù)訓(xùn)練
- 5.3 降噪自動編碼器預(yù)訓(xùn)練
- 5.2 深度置信網(wǎng)絡(luò)預(yù)訓(xùn)練
- 5.1 受限玻爾茲曼機
- 第5章 高級模型初始化技術(shù)
- 4.3 實際應(yīng)用
- 4.2 使用誤差反向傳播進行參數(shù)訓(xùn)練
- 4.1 全連接深層神經(jīng)網(wǎng)絡(luò)框架
- 第4章 全連接深層神經(jīng)網(wǎng)絡(luò)
- 第II部分 深層神經(jīng)網(wǎng)絡(luò)在語音識別中的應(yīng)用及分析
- 3.6 隱馬爾可夫模型和生成語音識別模型的變體
- 3.5 用于解碼HMM狀態(tài)序列的維特比算法
- 3.4 期望最大化算法及其在學(xué)習(xí)HMM參數(shù)中的應(yīng)用
- 3.3 序列與模型
- 3.2 馬爾可夫鏈
- 3.1 介紹
- 第3章 隱馬爾可夫模型及其變體
- 2.4 采用混合高斯分布對語音特征建模
- 2.3 參數(shù)估計
- 2.2 高斯分布和混合高斯隨機變量
- 2.1 隨機變量
- 第2章 混合高斯模型
- 第I部分 傳統(tǒng)聲學(xué)模型
- 1.4 全書結(jié)構(gòu)
- 1.3 口語理解與人機對話系統(tǒng)
- 1.2 語音識別系統(tǒng)的基本結(jié)構(gòu)
- 1.1 自動語音識別:更好的溝通之橋
- 第1章 簡介
- 符號
- 前言
- 推薦序
- 獻辭
- 人工智能出版工程 叢書編委會
- 內(nèi)容簡介
- 版權(quán)信息
- 封面
- 封面
- 版權(quán)信息
- 內(nèi)容簡介
- 人工智能出版工程 叢書編委會
- 獻辭
- 推薦序
- 前言
- 符號
- 第1章 簡介
- 1.1 自動語音識別:更好的溝通之橋
- 1.2 語音識別系統(tǒng)的基本結(jié)構(gòu)
- 1.3 口語理解與人機對話系統(tǒng)
- 1.4 全書結(jié)構(gòu)
- 第I部分 傳統(tǒng)聲學(xué)模型
- 第2章 混合高斯模型
- 2.1 隨機變量
- 2.2 高斯分布和混合高斯隨機變量
- 2.3 參數(shù)估計
- 2.4 采用混合高斯分布對語音特征建模
- 第3章 隱馬爾可夫模型及其變體
- 3.1 介紹
- 3.2 馬爾可夫鏈
- 3.3 序列與模型
- 3.4 期望最大化算法及其在學(xué)習(xí)HMM參數(shù)中的應(yīng)用
- 3.5 用于解碼HMM狀態(tài)序列的維特比算法
- 3.6 隱馬爾可夫模型和生成語音識別模型的變體
- 第II部分 深層神經(jīng)網(wǎng)絡(luò)在語音識別中的應(yīng)用及分析
- 第4章 全連接深層神經(jīng)網(wǎng)絡(luò)
- 4.1 全連接深層神經(jīng)網(wǎng)絡(luò)框架
- 4.2 使用誤差反向傳播進行參數(shù)訓(xùn)練
- 4.3 實際應(yīng)用
- 第5章 高級模型初始化技術(shù)
- 5.1 受限玻爾茲曼機
- 5.2 深度置信網(wǎng)絡(luò)預(yù)訓(xùn)練
- 5.3 降噪自動編碼器預(yù)訓(xùn)練
- 5.4 鑒別性預(yù)訓(xùn)練
- 5.5 混合預(yù)訓(xùn)練
- 5.6 采用丟棄法的預(yù)訓(xùn)練
- 第6章 深層神經(jīng)網(wǎng)絡(luò)-隱馬爾可夫模型混合系統(tǒng)
- 6.1 DNN-HMM混合系統(tǒng)
- 6.2 CD-DNN-HMM的關(guān)鍵模塊及分析
- 6.3 基于KL距離的隱馬爾可夫模型
- 第7章 訓(xùn)練加速和解碼加速
- 7.1 訓(xùn)練加速
- 7.2 解碼加速
- 第8章 深層神經(jīng)網(wǎng)絡(luò)中的特征表示學(xué)習(xí)
- 8.1 特征和分類器的聯(lián)合學(xué)習(xí)
- 8.2 特征層級
- 8.3 使用隨意輸入特征的靈活性
- 8.4 特征的魯棒性
- 8.5 對環(huán)境的魯棒性
- 8.6 信號嚴重失真情況下的推廣能力
- 8.7 使用合成數(shù)據(jù)提升魯棒性
- 第9章 深層神經(jīng)網(wǎng)絡(luò)和混合高斯模型的融合
- 9.1 在GMM-HMM系統(tǒng)中使用由DNN衍生的特征
- 9.2 識別結(jié)果融合技術(shù)
- 9.3 幀級別的聲學(xué)分數(shù)融合
- 9.4 多流語音識別
- 第10章 VAD和喚醒詞識別
- 10.1 基于信號處理的VAD
- 10.2 基于DNN的VAD
- 10.3 喚醒詞識別的解碼器方案
- 10.4 只用DNN的喚醒詞識別
- 10.5 可定制的喚醒詞識別
- 10.6 多階段喚醒詞識別
- 10.7 喚醒詞識別的位置
- 第III部分 先進深度學(xué)習(xí)模型在語音識別中的應(yīng)用
- 第11章 卷積神經(jīng)網(wǎng)絡(luò)
- 11.1 概述
- 11.2 卷積神經(jīng)網(wǎng)絡(luò)的基本架構(gòu)
- 11.3 卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練
- 11.4 時間延遲神經(jīng)網(wǎng)絡(luò)
- 11.5 時頻域上的卷積
- 11.6 時域上的卷積
- 11.7 深層卷積神經(jīng)網(wǎng)絡(luò)
- 第12章 循環(huán)神經(jīng)網(wǎng)絡(luò)及相關(guān)模型
- 12.1 概述
- 12.2 基本循環(huán)神經(jīng)網(wǎng)絡(luò)中的狀態(tài)-空間公式
- 12.3 沿時反向傳播學(xué)習(xí)算法
- 12.4 一種用于學(xué)習(xí)循環(huán)神經(jīng)網(wǎng)絡(luò)的原始對偶技術(shù)
- 12.5 結(jié)合長短時記憶單元的循環(huán)神經(jīng)網(wǎng)絡(luò)
- 12.6 高速公路LSTM和網(wǎng)格LSTM
- 12.7 雙向LSTM
- 12.8 GRU循環(huán)神經(jīng)網(wǎng)絡(luò)
- 12.9 循環(huán)神經(jīng)網(wǎng)絡(luò)的對比分析
- 12.10 討論
- 第13章 基于深度學(xué)習(xí)的語言模型
- 13.1 統(tǒng)計語言模型簡介
- 13.2 DNN語言模型
- 13.3 RNN和LSTM語言模型
- 13.4 CNN語言模型
- 13.5 語言模型的建模單元
- 13.6 雙向語言模型
- 13.7 深度學(xué)習(xí)語言模型的使用
- 13.8 語言模型與聲學(xué)模型的聯(lián)合優(yōu)化
- 第IV部分 高級語音識別方法
- 第14章 深層神經(jīng)網(wǎng)絡(luò)的自適應(yīng)技術(shù)
- 14.1 深層神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)問題
- 14.2 線性變換
- 14.3 保守訓(xùn)練
- 14.4 子空間方法
- 14.5 DNN說話人自適應(yīng)的效果
- 第15章 深層神經(jīng)網(wǎng)絡(luò)序列鑒別性訓(xùn)練
- 15.1 序列鑒別性訓(xùn)練準則
- 15.2 具體實現(xiàn)中的考量
- 15.3 無須詞圖的神經(jīng)網(wǎng)絡(luò)序列鑒別性訓(xùn)練
- 15.4 噪聲對比估計
- 第16章 端到端模型
- 16.1 連接時序分類模型
- 16.2 帶注意力機制的“編碼-解碼”模型
- 16.3 聯(lián)合CTC-注意力模型
- 第V部分 復(fù)雜場景下的語音識別
- 第17章 深層神經(jīng)網(wǎng)絡(luò)中的表征共享和遷移
- 17.1 多任務(wù)和遷移學(xué)習(xí)
- 17.2 多語言和跨語言語音識別
- 17.3 語音識別中深層神經(jīng)網(wǎng)絡(luò)的多目標(biāo)學(xué)習(xí)
- 17.4 使用視聽信息的魯棒語音識別
- 第18章 基于深度學(xué)習(xí)的單通道語音增強和分離技術(shù)
- 18.1 單通道語音增強技術(shù)
- 18.2 單通道多說話人的語音分離和標(biāo)注置換問題
- 18.3 深度聚類
- 18.4 深度吸引子
- 18.5 排列不變性訓(xùn)練
- 18.6 將排列不變性訓(xùn)練用于多說話人語音識別
- 18.7 時域音頻分離網(wǎng)絡(luò)
- 第19章 遠場語音識別的前端技術(shù)
- 19.1 遠場識別的前端鏈路
- 19.2 DOA算法
- 19.3 波束形成的信號處理方法
- 19.4 結(jié)合信號處理和深度學(xué)習(xí)方法
- 19.5 前后端聯(lián)合優(yōu)化
- 第VI部分 口語理解及對話系統(tǒng)的深度學(xué)習(xí)實踐
- 第20章 基于深度學(xué)習(xí)的口語理解
- 20.1 自然語言處理及深度學(xué)習(xí)
- 20.2 口語理解任務(wù)
- 20.3 基于深度學(xué)習(xí)的口語理解
- 第21章 對話狀態(tài)跟蹤及自然語言生成
- 21.1 口語對話系統(tǒng)概述
- 21.2 對話狀態(tài)跟蹤
- 21.3 自然語言生成
- 第22章 對話策略優(yōu)化
- 22.1 對話策略及對話系統(tǒng)評估
- 22.2 數(shù)據(jù)驅(qū)動的對話策略訓(xùn)練
- 22.3 統(tǒng)計對話系統(tǒng)的冷啟動技術(shù)
- 第VII部分 總結(jié)及展望
- 第23章 總結(jié)及未來研究方向
- 23.1 路線圖
- 23.2 技術(shù)前沿和未來方向
- 縮略詞表
- 作者簡介
- 參考文獻 更新時間:2021-01-05 18:15:41