官术网_书友最值得收藏!

在我們回顧語言人工智能的近期歷史時,我們觀察到主要是生成式的僅解碼器(Transformer)模型被稱為 LLM。很多人認為 LLM的關鍵特點就是“大”,但在實踐中,這樣的描述顯然有局限性。

如果我們創建一個與 GPT-3 能力相當但參數量減少到原來的1/10的模型,這樣的模型是否就不屬于“LLM”的范疇了?

同樣,如果我們發布一個與 GPT-4 同等規模的模型,它能夠進行準確的文本分類,但沒有生成能力,那么它還能被稱為“LLM”嗎?即使它的主要功能不是語言生成,但它仍然可以表示文本。

這類定義的問題在于我們排除了一些能力很強的模型。無論我們給某個模型起什么名字,都不會改變它的行為方式。

由于“LLM”這個術語的定義隨著新模型的發布而不斷演變,我們需要明確說明它在本書中的含義。“大”的定義是相對的,今天被認為“大”的模型,明天可能就顯得很小了。目前同一事物有很多不同的稱呼,對我們來說,“LLM”也包括那些不生成文本且可以在消費級硬件上運行的模型。

因此,除了涵蓋生成模型,本書還將介紹參數少于 10 億且不生成文本的模型。我們將探索如何使用其他模型,如嵌入模型、表示模型,甚至詞袋,來增強 LLM的能力。

主站蜘蛛池模板: 常宁市| 肃宁县| 海丰县| 辉南县| 加查县| 崇阳县| 金山区| 蕉岭县| 乌海市| 八宿县| 崇仁县| 兰州市| 和林格尔县| 昌黎县| 井冈山市| 简阳市| 静宁县| 齐齐哈尔市| 田东县| 永寿县| 行唐县| 松阳县| 隆安县| 宜川县| 道真| 江山市| 秦安县| 丰都县| 西青区| 肃宁县| 嘉峪关市| 额敏县| 墨玉县| 杂多县| 疏附县| 潼南县| 浙江省| 淮滨县| 绥中县| 福海县| 汶上县|