1.2.3 GPT的下限
當然,理想和現實是兩回事,即使GPT有著很高的上限和巨大無比的潛力,它也是個“嬰兒”(人類從發明計算機到現在也只有不到100年的時間),目前還是有比較明顯的缺陷與下限的,具體如下。
首先,大家都知道GPT模型產品容易“胡說八道”,常見的主要是以下3種錯誤。
● 常識和事實錯誤:GPT模型可能會生成一些與現實不符或包含錯誤的信息。
● 不完整和模糊的回答:GPT模型在回答復雜問題時,可能會提供不完整或模糊的答案。
● 知識儲備限制:GPT模型的知識儲備來自它的訓練數據,對于一些特殊領域或特殊主題的問題,如果相關的知識不在訓練數據中,則模型可能無法正確回答。
這些缺點其實可以用一句話來形容,即模型與訓練集的內容高度耦合。從前面的原理可以知道,GPT巨量的參數都是通過訓練集訓練出來的,且生成的機制與內容本身無關,所以有時候內容就不是人們想要的—— GPT只能保證生成的內容流暢通順,且與提問相關,但它本身也不清楚生成的是什么。
訓練集的內容能夠很明顯地影響最終模型的效果,假設訓練GPT的時候訓練集中沒有古詩,那么它就完全不會知道古詩這種文體的規律;假設訓練GPT的時候訓練集中充斥著虛假內容,那么它也會充滿虛假內容;訓練集中不同領域數據的大小也決定了GPT執行特定任務的能力的大小。
其次,根據注意力機制的層數算力要求,GPT目前無法進行很深入的推理:對于需要深入理解和推理的問題,GPT模型可能無法給出準確的答案。