舉報(bào)

會(huì)員
揭秘大模型:從原理到實(shí)戰(zhàn)
文亮 江維 著
更新時(shí)間:2025-04-17 18:47:23
開(kāi)會(huì)員,本書(shū)免費(fèi)讀 >
最新章節(jié):
12.8 參考文獻(xiàn)
本書(shū)從技術(shù)角度深度解析大模型的原理,從大模型的基礎(chǔ)概念及領(lǐng)域發(fā)展現(xiàn)狀入手,概述大模型的理論基礎(chǔ),介紹OpenAIGPT、清華大學(xué)GLM、MetaLlama等主流大模型的技術(shù)原理,并從大模型參數(shù)高效微調(diào)、大模型指令微調(diào)、大模型訓(xùn)練優(yōu)化和大模型推理優(yōu)化等多角度解析大模型背后的技術(shù),帶領(lǐng)讀者全方位掌握大模型的原理和實(shí)踐方法。本書(shū)最后介紹私有大模型的構(gòu)建,手把手指導(dǎo)讀者做技術(shù)選型并搭建自己的私有大模型。本書(shū)適合人工智能領(lǐng)域有大模型開(kāi)發(fā)需求或?qū)Υ竽P图夹g(shù)感興趣的技術(shù)人員閱讀,也適合普通用戶擴(kuò)展了解大模型的前沿應(yīng)用。
最新章節(jié)
- 12.8 參考文獻(xiàn)
- 12.7 小結(jié)
- 12.6.5 程序思維提示——解決復(fù)雜數(shù)值推理
- 12.6.4 災(zāi)難性遺忘問(wèn)題
- 12.6.3 部署私有大模型
- 12.6.2 有監(jiān)督微調(diào)
品牌:人郵圖書(shū)
上架時(shí)間:2025-04-17 17:33:45
出版社:人民郵電出版社
本書(shū)數(shù)字版權(quán)由人郵圖書(shū)提供,并由其授權(quán)上海閱文信息技術(shù)有限公司制作發(fā)行
- 12.8 參考文獻(xiàn) 更新時(shí)間:2025-04-17 18:47:23
- 12.7 小結(jié)
- 12.6.5 程序思維提示——解決復(fù)雜數(shù)值推理
- 12.6.4 災(zāi)難性遺忘問(wèn)題
- 12.6.3 部署私有大模型
- 12.6.2 有監(jiān)督微調(diào)
- 12.6.1 數(shù)據(jù)準(zhǔn)備
- 12.6 構(gòu)建自己的私有大模型
- 12.5.4 多卡部署
- 12.5.3 Mac部署
- 12.5.2 CPU部署
- 12.5.1 模型量化
- 12.5 低成本部署
- 12.4.3 命令行交互
- 12.4.2 網(wǎng)頁(yè)版啟動(dòng)
- 12.4.1 代碼調(diào)用
- 12.4 模型加載
- 12.3 環(huán)境安裝
- 12.2 選擇基座模型
- 12.1 大模型百花齊放
- 第12章 構(gòu)建私有大模型
- 11.5 參考文獻(xiàn)
- 11.4 小結(jié)
- 11.3.4 預(yù)訓(xùn)練+兩階段/端到端+ID特征模式
- 11.3.3 預(yù)訓(xùn)練+兩階段/端到端模式
- 11.3.2 端到端模式
- 11.3.1 兩階段模式
- 11.3 大模型和推薦系統(tǒng)的結(jié)合效果
- 11.2.3 基于行為序列微調(diào)大模型
- 11.2.2 基于大模型建模行為序列
- 11.2.1 基于大模型構(gòu)建特征
- 11.2 大模型和推薦系統(tǒng)的3種不同結(jié)合方法
- 11.1 大模型和推薦系統(tǒng)的異同
- 第11章 大模型和推薦系統(tǒng)結(jié)合
- 10.7 參考文獻(xiàn)
- 10.6 小結(jié)
- 10.5.5 Stable Diffusion應(yīng)用場(chǎng)景
- 10.5.4 Stable Diffusion的完整流程
- 10.5.3 Stable Diffusion反向去噪過(guò)程優(yōu)化
- 10.5.2 Stable Diffusion前向擴(kuò)散過(guò)程優(yōu)化
- 10.5.1 Stable Diffusion的文字生成圖像過(guò)程
- 10.5 去噪擴(kuò)散概率模型改進(jìn)版——Stable Diffusion
- 10.4.4 引入文字的去噪擴(kuò)散概率模型的訓(xùn)練過(guò)程
- 10.4.3 在U-Net模型中使用文本向量
- 10.4.2 利用CLIP模型生成文本向量
- 10.4.1 去噪擴(kuò)散概率模型的文字生成圖像過(guò)程
- 10.4 引入文字的去噪擴(kuò)散概率模型
- 10.3.3 去噪擴(kuò)散概率模型實(shí)戰(zhàn)——生成手寫(xiě)體數(shù)字圖像
- 10.3.2 去噪擴(kuò)散概率模型的訓(xùn)練過(guò)程
- 10.3.1 去噪擴(kuò)散概率模型的原理
- 10.3 AIGC主流模型——去噪擴(kuò)散概率模型
- 10.2.3 生成對(duì)抗網(wǎng)絡(luò)實(shí)戰(zhàn)——生成手寫(xiě)體數(shù)字圖像
- 10.2.2 生成對(duì)抗網(wǎng)絡(luò)的訓(xùn)練過(guò)程
- 10.2.1 生成對(duì)抗網(wǎng)絡(luò)的模型結(jié)構(gòu)
- 10.2 生成對(duì)抗網(wǎng)絡(luò)
- 10.1 AIGC引來(lái)新一輪投資熱
- 第10章 AIGC和大模型結(jié)合
- 9.3 小結(jié)
- 9.2.5 聯(lián)合采樣
- 9.2.4 溫度采樣
- 9.2.3 top-p采樣
- 9.2.2 top-k采樣
- 9.2.1 束搜索
- 9.2 大模型文本生成的解碼策略
- 9.1.2 對(duì)稱(chēng)量化和非對(duì)稱(chēng)量化
- 9.1.1 量化的優(yōu)勢(shì)
- 9.1 大模型量化
- 第9章 大模型推理優(yōu)化
- 8.7 參考文獻(xiàn)
- 8.6 小結(jié)
- 8.5 大模型并行訓(xùn)練
- 8.4 樣本拼接
- 8.3.3 混合精度訓(xùn)練相關(guān)技術(shù)
- 8.3.2 使用FP16訓(xùn)練神經(jīng)網(wǎng)絡(luò)的問(wèn)題
- 8.3.1 浮點(diǎn)數(shù)據(jù)類(lèi)型
- 8.3 大模型混合精度訓(xùn)練
- 8.2.7 旋轉(zhuǎn)位置編碼的外推性
- 8.2.6 Llama和ChatGLM中的旋轉(zhuǎn)位置編碼實(shí)現(xiàn)
- 8.2.5 旋轉(zhuǎn)位置編碼的遠(yuǎn)程衰減
- 8.2.4 旋轉(zhuǎn)位置編碼的高效計(jì)算
- 8.2.3 多維旋轉(zhuǎn)位置編碼
- 8.2.2 二維旋轉(zhuǎn)位置編碼
- 8.2.1 傳統(tǒng)位置編碼——絕對(duì)位置編碼
- 8.2 旋轉(zhuǎn)位置編碼
- 8.1.2 稀疏Transformer實(shí)現(xiàn)原理
- 8.1.1 稀疏Transformer提出背景
- 8.1 稀疏Transformer
- 第8章 大模型訓(xùn)練優(yōu)化
- 7.6 參考文獻(xiàn)
- 7.5 小結(jié)
- 7.4 谷歌指令微調(diào)數(shù)據(jù)集——Flan 2022
- 7.3.7 思維鏈的局限
- 7.3.6 微調(diào)思維鏈
- 7.3.5 大模型微調(diào)
- 7.3.4 最少到最多提示過(guò)程
- 7.3.3 多數(shù)投票——自洽性
- 7.3.2 零樣本提示思維鏈
- 7.3.1 思維鏈的開(kāi)山之作——思維鏈提示
- 7.3 大模型思維鏈——優(yōu)化模型推理能力
- 7.2 指令微調(diào)和提示的異同
- 7.1 指令微調(diào)
- 第7章 大模型指令微調(diào)
- 6.9 參考文獻(xiàn)
- 6.8 小結(jié)
- 6.7.2 安裝P-Tuning v2環(huán)境依賴(lài)
- 6.7.1 安裝ChatGLM2-6B環(huán)境依賴(lài)
- 6.7 大模型參數(shù)高效微調(diào)實(shí)踐
- 6.6 P-Tuning改進(jìn)版——P-Tuning v2
- 6.5 清華大學(xué)參數(shù)微調(diào)——P-Tuning
- 6.4 谷歌微調(diào)方法——Prompt Tuning
- 6.3 斯坦福輕量級(jí)微調(diào)——Prefix-Tuning
- 6.2 谷歌參數(shù)高效微調(diào)——Adapter Tuning
- 6.1.3 LoRA開(kāi)源實(shí)現(xiàn)
- 6.1.2 LoRA低秩矩陣初始化
- 6.1.1 LoRA基本原理
- 6.1 LoRA——低秩矩陣分解
- 第6章 大模型參數(shù)高效微調(diào)
- 5.6 參考文獻(xiàn)
- 5.5 小結(jié)
- 5.4.2 微調(diào)Llama 2
- 5.4.1 Hugging Face玩轉(zhuǎn)Llama 2
- 5.4 Llama 2應(yīng)用實(shí)踐
- 5.3.4 基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)
- 5.3.3 Llama 2有監(jiān)督微調(diào)
- 5.3.2 Llama 2預(yù)訓(xùn)練
- 5.3.1 Llama 2簡(jiǎn)介
- 5.3 Llama改進(jìn)版——Llama 2
- 5.2.3 Llama優(yōu)化器
- 5.2.2 Llama的模型結(jié)構(gòu)
- 5.2.1 Llama預(yù)訓(xùn)練數(shù)據(jù)
- 5.2 Llama技術(shù)原理
- 5.1 Llama簡(jiǎn)介
- 第5章 Meta開(kāi)源大模型——Llama
- 4.6 參考文獻(xiàn)
- 4.5 小結(jié)
- 4.4.3 效果評(píng)估
- 4.4.2 全參數(shù)微調(diào)
- 4.4.1 代碼結(jié)構(gòu)
- 4.4 GLM-10B全參數(shù)微調(diào)實(shí)踐
- 4.3.3 效果評(píng)估
- 4.3.2 全參數(shù)微調(diào)
- 4.3.1 環(huán)境搭建
- 4.3 ChatGLM-6B全參數(shù)微調(diào)實(shí)踐
- 4.2.4 效果評(píng)估
- 4.2.3 微調(diào)GLM
- 4.2.2 GLM的模型結(jié)構(gòu)
- 4.2.1 預(yù)訓(xùn)練目標(biāo)
- 4.2 GLM技術(shù)原理
- 4.1 GLM簡(jiǎn)介
- 第4章 清華大學(xué)通用預(yù)訓(xùn)練模型——GLM
- 3.8 參考文獻(xiàn)
- 3.7 小結(jié)
- 3.6.4 GPT-4應(yīng)用
- 3.6.3 GPT-4性能分析
- 3.6.2 大模型預(yù)測(cè)擴(kuò)展
- 3.6.1 GPT-4的涌現(xiàn)能力
- 3.6 GPT-4
- 3.5.5 ChatGPT應(yīng)用
- 3.5.4 使用強(qiáng)化學(xué)習(xí)微調(diào)預(yù)訓(xùn)練模型
- 3.5.3 訓(xùn)練獎(jiǎng)勵(lì)模型
- 3.5.2 有監(jiān)督微調(diào)
- 3.5.1 真正的通用人工智能——ChatGPT
- 3.5 橫空出世——ChatGPT
- 3.4.2 GPT-3多項(xiàng)任務(wù)評(píng)估
- 3.4.1 GPT-3的模型結(jié)構(gòu)
- 3.4 GPT-3技術(shù)原理
- 3.3.2 GPT-2應(yīng)用實(shí)踐——文本分類(lèi)和文本生成
- 3.3.1 GPT-2的模型結(jié)構(gòu)
- 3.3 GPT-2技術(shù)原理
- 3.2.2 GPT-1應(yīng)用實(shí)踐——中文文本分類(lèi)
- 3.2.1 GPT-1的模型結(jié)構(gòu)
- 3.2 GPT-1技術(shù)原理
- 3.1 GPT發(fā)展歷史——從GPT-1到GPT-4
- 第3章 OpenAI GPT系列大模型
- 2.6 參考文獻(xiàn)
- 2.5 小結(jié)
- 2.4.2 英文翻譯為中文
- 2.4.1 葡萄牙文翻譯為英文
- 2.4 Transformer應(yīng)用實(shí)踐——機(jī)器翻譯
- 2.3.6 Softmax輸出
- 2.3.5 解碼器結(jié)構(gòu)
- 2.3.4 編碼器結(jié)構(gòu)
- 2.3.3 多頭注意力
- 2.3.2 Transformer輸入表示
- 2.3.1 Transformer的模型結(jié)構(gòu)
- 2.3 大模型基礎(chǔ)結(jié)構(gòu)——Transformer
- 2.2.3 門(mén)控循環(huán)單元(GRU)
- 2.2.2 長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)
- 2.2.1 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)
- 2.2 傳統(tǒng)語(yǔ)言模型
- 2.1 什么是語(yǔ)言模型
- 第2章 大模型理論基礎(chǔ)
- 1.6 參考文獻(xiàn)
- 1.5 小結(jié)
- 1.4.3 GPT是對(duì)數(shù)據(jù)的無(wú)損壓縮
- 1.4.2 如何實(shí)現(xiàn)無(wú)損壓縮
- 1.4.1 直觀理解通用人工智能
- 1.4 壓縮即智能——為什么ChatGPT擁有智能
- 1.3 百花齊放——大模型發(fā)展現(xiàn)狀
- 1.2 大模型的概念
- 1.1.2 國(guó)內(nèi)大模型——360智腦
- 1.1.1 OpenAI大模型ChatGPT
- 1.1 大模型初探
- 第1章 大模型簡(jiǎn)介
- 關(guān)于異步社區(qū)和異步圖書(shū)
- 與我們聯(lián)系
- 提交勘誤
- 配套資源
- 資源與支持
- 讀者對(duì)象
- 本書(shū)結(jié)構(gòu)
- 寫(xiě)作目的
- 寫(xiě)作背景
- 前言
- 內(nèi)容提要
- 版權(quán)
- 版權(quán)信息
- 封面
- 封面
- 版權(quán)信息
- 版權(quán)
- 內(nèi)容提要
- 前言
- 寫(xiě)作背景
- 寫(xiě)作目的
- 本書(shū)結(jié)構(gòu)
- 讀者對(duì)象
- 資源與支持
- 配套資源
- 提交勘誤
- 與我們聯(lián)系
- 關(guān)于異步社區(qū)和異步圖書(shū)
- 第1章 大模型簡(jiǎn)介
- 1.1 大模型初探
- 1.1.1 OpenAI大模型ChatGPT
- 1.1.2 國(guó)內(nèi)大模型——360智腦
- 1.2 大模型的概念
- 1.3 百花齊放——大模型發(fā)展現(xiàn)狀
- 1.4 壓縮即智能——為什么ChatGPT擁有智能
- 1.4.1 直觀理解通用人工智能
- 1.4.2 如何實(shí)現(xiàn)無(wú)損壓縮
- 1.4.3 GPT是對(duì)數(shù)據(jù)的無(wú)損壓縮
- 1.5 小結(jié)
- 1.6 參考文獻(xiàn)
- 第2章 大模型理論基礎(chǔ)
- 2.1 什么是語(yǔ)言模型
- 2.2 傳統(tǒng)語(yǔ)言模型
- 2.2.1 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)
- 2.2.2 長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)
- 2.2.3 門(mén)控循環(huán)單元(GRU)
- 2.3 大模型基礎(chǔ)結(jié)構(gòu)——Transformer
- 2.3.1 Transformer的模型結(jié)構(gòu)
- 2.3.2 Transformer輸入表示
- 2.3.3 多頭注意力
- 2.3.4 編碼器結(jié)構(gòu)
- 2.3.5 解碼器結(jié)構(gòu)
- 2.3.6 Softmax輸出
- 2.4 Transformer應(yīng)用實(shí)踐——機(jī)器翻譯
- 2.4.1 葡萄牙文翻譯為英文
- 2.4.2 英文翻譯為中文
- 2.5 小結(jié)
- 2.6 參考文獻(xiàn)
- 第3章 OpenAI GPT系列大模型
- 3.1 GPT發(fā)展歷史——從GPT-1到GPT-4
- 3.2 GPT-1技術(shù)原理
- 3.2.1 GPT-1的模型結(jié)構(gòu)
- 3.2.2 GPT-1應(yīng)用實(shí)踐——中文文本分類(lèi)
- 3.3 GPT-2技術(shù)原理
- 3.3.1 GPT-2的模型結(jié)構(gòu)
- 3.3.2 GPT-2應(yīng)用實(shí)踐——文本分類(lèi)和文本生成
- 3.4 GPT-3技術(shù)原理
- 3.4.1 GPT-3的模型結(jié)構(gòu)
- 3.4.2 GPT-3多項(xiàng)任務(wù)評(píng)估
- 3.5 橫空出世——ChatGPT
- 3.5.1 真正的通用人工智能——ChatGPT
- 3.5.2 有監(jiān)督微調(diào)
- 3.5.3 訓(xùn)練獎(jiǎng)勵(lì)模型
- 3.5.4 使用強(qiáng)化學(xué)習(xí)微調(diào)預(yù)訓(xùn)練模型
- 3.5.5 ChatGPT應(yīng)用
- 3.6 GPT-4
- 3.6.1 GPT-4的涌現(xiàn)能力
- 3.6.2 大模型預(yù)測(cè)擴(kuò)展
- 3.6.3 GPT-4性能分析
- 3.6.4 GPT-4應(yīng)用
- 3.7 小結(jié)
- 3.8 參考文獻(xiàn)
- 第4章 清華大學(xué)通用預(yù)訓(xùn)練模型——GLM
- 4.1 GLM簡(jiǎn)介
- 4.2 GLM技術(shù)原理
- 4.2.1 預(yù)訓(xùn)練目標(biāo)
- 4.2.2 GLM的模型結(jié)構(gòu)
- 4.2.3 微調(diào)GLM
- 4.2.4 效果評(píng)估
- 4.3 ChatGLM-6B全參數(shù)微調(diào)實(shí)踐
- 4.3.1 環(huán)境搭建
- 4.3.2 全參數(shù)微調(diào)
- 4.3.3 效果評(píng)估
- 4.4 GLM-10B全參數(shù)微調(diào)實(shí)踐
- 4.4.1 代碼結(jié)構(gòu)
- 4.4.2 全參數(shù)微調(diào)
- 4.4.3 效果評(píng)估
- 4.5 小結(jié)
- 4.6 參考文獻(xiàn)
- 第5章 Meta開(kāi)源大模型——Llama
- 5.1 Llama簡(jiǎn)介
- 5.2 Llama技術(shù)原理
- 5.2.1 Llama預(yù)訓(xùn)練數(shù)據(jù)
- 5.2.2 Llama的模型結(jié)構(gòu)
- 5.2.3 Llama優(yōu)化器
- 5.3 Llama改進(jìn)版——Llama 2
- 5.3.1 Llama 2簡(jiǎn)介
- 5.3.2 Llama 2預(yù)訓(xùn)練
- 5.3.3 Llama 2有監(jiān)督微調(diào)
- 5.3.4 基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)
- 5.4 Llama 2應(yīng)用實(shí)踐
- 5.4.1 Hugging Face玩轉(zhuǎn)Llama 2
- 5.4.2 微調(diào)Llama 2
- 5.5 小結(jié)
- 5.6 參考文獻(xiàn)
- 第6章 大模型參數(shù)高效微調(diào)
- 6.1 LoRA——低秩矩陣分解
- 6.1.1 LoRA基本原理
- 6.1.2 LoRA低秩矩陣初始化
- 6.1.3 LoRA開(kāi)源實(shí)現(xiàn)
- 6.2 谷歌參數(shù)高效微調(diào)——Adapter Tuning
- 6.3 斯坦福輕量級(jí)微調(diào)——Prefix-Tuning
- 6.4 谷歌微調(diào)方法——Prompt Tuning
- 6.5 清華大學(xué)參數(shù)微調(diào)——P-Tuning
- 6.6 P-Tuning改進(jìn)版——P-Tuning v2
- 6.7 大模型參數(shù)高效微調(diào)實(shí)踐
- 6.7.1 安裝ChatGLM2-6B環(huán)境依賴(lài)
- 6.7.2 安裝P-Tuning v2環(huán)境依賴(lài)
- 6.8 小結(jié)
- 6.9 參考文獻(xiàn)
- 第7章 大模型指令微調(diào)
- 7.1 指令微調(diào)
- 7.2 指令微調(diào)和提示的異同
- 7.3 大模型思維鏈——優(yōu)化模型推理能力
- 7.3.1 思維鏈的開(kāi)山之作——思維鏈提示
- 7.3.2 零樣本提示思維鏈
- 7.3.3 多數(shù)投票——自洽性
- 7.3.4 最少到最多提示過(guò)程
- 7.3.5 大模型微調(diào)
- 7.3.6 微調(diào)思維鏈
- 7.3.7 思維鏈的局限
- 7.4 谷歌指令微調(diào)數(shù)據(jù)集——Flan 2022
- 7.5 小結(jié)
- 7.6 參考文獻(xiàn)
- 第8章 大模型訓(xùn)練優(yōu)化
- 8.1 稀疏Transformer
- 8.1.1 稀疏Transformer提出背景
- 8.1.2 稀疏Transformer實(shí)現(xiàn)原理
- 8.2 旋轉(zhuǎn)位置編碼
- 8.2.1 傳統(tǒng)位置編碼——絕對(duì)位置編碼
- 8.2.2 二維旋轉(zhuǎn)位置編碼
- 8.2.3 多維旋轉(zhuǎn)位置編碼
- 8.2.4 旋轉(zhuǎn)位置編碼的高效計(jì)算
- 8.2.5 旋轉(zhuǎn)位置編碼的遠(yuǎn)程衰減
- 8.2.6 Llama和ChatGLM中的旋轉(zhuǎn)位置編碼實(shí)現(xiàn)
- 8.2.7 旋轉(zhuǎn)位置編碼的外推性
- 8.3 大模型混合精度訓(xùn)練
- 8.3.1 浮點(diǎn)數(shù)據(jù)類(lèi)型
- 8.3.2 使用FP16訓(xùn)練神經(jīng)網(wǎng)絡(luò)的問(wèn)題
- 8.3.3 混合精度訓(xùn)練相關(guān)技術(shù)
- 8.4 樣本拼接
- 8.5 大模型并行訓(xùn)練
- 8.6 小結(jié)
- 8.7 參考文獻(xiàn)
- 第9章 大模型推理優(yōu)化
- 9.1 大模型量化
- 9.1.1 量化的優(yōu)勢(shì)
- 9.1.2 對(duì)稱(chēng)量化和非對(duì)稱(chēng)量化
- 9.2 大模型文本生成的解碼策略
- 9.2.1 束搜索
- 9.2.2 top-k采樣
- 9.2.3 top-p采樣
- 9.2.4 溫度采樣
- 9.2.5 聯(lián)合采樣
- 9.3 小結(jié)
- 第10章 AIGC和大模型結(jié)合
- 10.1 AIGC引來(lái)新一輪投資熱
- 10.2 生成對(duì)抗網(wǎng)絡(luò)
- 10.2.1 生成對(duì)抗網(wǎng)絡(luò)的模型結(jié)構(gòu)
- 10.2.2 生成對(duì)抗網(wǎng)絡(luò)的訓(xùn)練過(guò)程
- 10.2.3 生成對(duì)抗網(wǎng)絡(luò)實(shí)戰(zhàn)——生成手寫(xiě)體數(shù)字圖像
- 10.3 AIGC主流模型——去噪擴(kuò)散概率模型
- 10.3.1 去噪擴(kuò)散概率模型的原理
- 10.3.2 去噪擴(kuò)散概率模型的訓(xùn)練過(guò)程
- 10.3.3 去噪擴(kuò)散概率模型實(shí)戰(zhàn)——生成手寫(xiě)體數(shù)字圖像
- 10.4 引入文字的去噪擴(kuò)散概率模型
- 10.4.1 去噪擴(kuò)散概率模型的文字生成圖像過(guò)程
- 10.4.2 利用CLIP模型生成文本向量
- 10.4.3 在U-Net模型中使用文本向量
- 10.4.4 引入文字的去噪擴(kuò)散概率模型的訓(xùn)練過(guò)程
- 10.5 去噪擴(kuò)散概率模型改進(jìn)版——Stable Diffusion
- 10.5.1 Stable Diffusion的文字生成圖像過(guò)程
- 10.5.2 Stable Diffusion前向擴(kuò)散過(guò)程優(yōu)化
- 10.5.3 Stable Diffusion反向去噪過(guò)程優(yōu)化
- 10.5.4 Stable Diffusion的完整流程
- 10.5.5 Stable Diffusion應(yīng)用場(chǎng)景
- 10.6 小結(jié)
- 10.7 參考文獻(xiàn)
- 第11章 大模型和推薦系統(tǒng)結(jié)合
- 11.1 大模型和推薦系統(tǒng)的異同
- 11.2 大模型和推薦系統(tǒng)的3種不同結(jié)合方法
- 11.2.1 基于大模型構(gòu)建特征
- 11.2.2 基于大模型建模行為序列
- 11.2.3 基于行為序列微調(diào)大模型
- 11.3 大模型和推薦系統(tǒng)的結(jié)合效果
- 11.3.1 兩階段模式
- 11.3.2 端到端模式
- 11.3.3 預(yù)訓(xùn)練+兩階段/端到端模式
- 11.3.4 預(yù)訓(xùn)練+兩階段/端到端+ID特征模式
- 11.4 小結(jié)
- 11.5 參考文獻(xiàn)
- 第12章 構(gòu)建私有大模型
- 12.1 大模型百花齊放
- 12.2 選擇基座模型
- 12.3 環(huán)境安裝
- 12.4 模型加載
- 12.4.1 代碼調(diào)用
- 12.4.2 網(wǎng)頁(yè)版啟動(dòng)
- 12.4.3 命令行交互
- 12.5 低成本部署
- 12.5.1 模型量化
- 12.5.2 CPU部署
- 12.5.3 Mac部署
- 12.5.4 多卡部署
- 12.6 構(gòu)建自己的私有大模型
- 12.6.1 數(shù)據(jù)準(zhǔn)備
- 12.6.2 有監(jiān)督微調(diào)
- 12.6.3 部署私有大模型
- 12.6.4 災(zāi)難性遺忘問(wèn)題
- 12.6.5 程序思維提示——解決復(fù)雜數(shù)值推理
- 12.7 小結(jié)
- 12.8 參考文獻(xiàn) 更新時(shí)間:2025-04-17 18:47:23