官术网_书友最值得收藏!

我們之前多次提到的計算資源通常是指系統中可用的GPU(graphics processing unit,圖形處理單元,通常稱顯卡)資源。強大的GPU 可以加速 LLM的訓練和使用。

在選擇 GPU 時,一個重要的因素是可用的VRAM(video random access memory,視頻隨機存儲器,通常稱顯存)容量,即 GPU 上可用的內存量。實踐中,顯存越大越好。原因是如果沒有足夠的顯存,某些模型根本無法使用。

由于訓練和微調 LLM 需要高昂的GPU 成本,那些沒有強大的GPU的人常被稱為“GPU 窮人”(GPU-poor)。這反映了訓練這些龐大的模型時對計算資源的激烈爭奪。例如,為了訓練 Llama 2 系列模型,Meta 使用了 A100 80 GB GPU。假設租用一塊這樣的GPU 成本是每小時 1.50 美元,訓練 Llama 2 模型的總成本將超過 500 萬美元 16

16這些模型的訓練總共花費了 3 311 616 GPU 時,即單塊 GPU 訓練模型花費的時間乘以可用的GPU 數量。

遺憾的是,不存在一種統一的規則,可以確定一個特定的模型需要多少顯存。這取決于模型的架構和規模、壓縮技術、上下文長度、運行模型的后端等因素。

本書正是為“GPU 窮人”寫的。我們將使用那些不需要最昂貴的GPU 或高昂的預算就能運行的模型。為此,我們會在 Google Colab 實例中提供所有代碼。在撰寫本書時,免費的Google Colab 實例提供了帶有 16 GB 顯存的T4 GPU,這是我們建議的最低顯存容量。

主站蜘蛛池模板: 永城市| 青岛市| 沙河市| 彝良县| 萍乡市| 余庆县| 和顺县| 枣强县| 且末县| 永靖县| 故城县| 浑源县| 阳高县| 桐庐县| 万年县| 项城市| 山西省| 青海省| 五大连池市| 连城县| 乐东| 陆丰市| 茌平县| 鸡泽县| 临西县| 邵东县| 乾安县| 礼泉县| 浙江省| 富顺县| 淮安市| 贺兰县| 淮阳县| 读书| 上蔡县| 曲松县| 长兴县| 荆州市| 金华市| 莱芜市| 桃江县|