多模態(tài)大模型:算法、應(yīng)用與微調(diào)
本書詳盡地覆蓋了多模態(tài)大模型的算法原理和應(yīng)用實戰(zhàn),提供了豐富的微調(diào)技術(shù)細(xì)節(jié)和實際案例,適合對多模態(tài)大模型有興趣的技術(shù)人員深入學(xué)習(xí)及應(yīng)用。本書分為兩篇:算法原理篇:詳細(xì)介紹了先進的深度學(xué)習(xí)模型,包括Transformer、GPT系列、深度生成模型,從基本架構(gòu)、訓(xùn)練方法到特定應(yīng)用,包括但不限于Seq2Seq結(jié)構(gòu)、位置編碼、注意力機制、殘差連接、變分自編碼器、GAN、ViT、CLIP、StableDiffusion、各模型訓(xùn)練實踐的知識點。此外,探討了預(yù)訓(xùn)練模型的涌現(xiàn)能力、模型參數(shù)和通信數(shù)據(jù)量的估算,以及分布式訓(xùn)練的各種技術(shù),如數(shù)據(jù)并行、模型并行和混合精度訓(xùn)練等。應(yīng)用實戰(zhàn)篇:聚焦于深度學(xué)習(xí)模型的實際應(yīng)用,特別是文本和圖像生成,以及代碼生成的應(yīng)用實戰(zhàn)。通過具體實戰(zhàn)項目,如利用StableDiffusion進行圖像生成和CodeLlama進行代碼生成,提供了微調(diào)技術(shù)的詳細(xì)細(xì)節(jié),介紹了LangChain等大模型應(yīng)用框架。
·25.2萬字