1.2.3 GPT的下限
當然,理想和現(xiàn)實是兩回事,即使GPT有著很高的上限和巨大無比的潛力,它也是個“嬰兒”(人類從發(fā)明計算機到現(xiàn)在也只有不到100年的時間),目前還是有比較明顯的缺陷與下限的,具體如下。
首先,大家都知道GPT模型產(chǎn)品容易“胡說八道”,常見的主要是以下3種錯誤。
● 常識和事實錯誤:GPT模型可能會生成一些與現(xiàn)實不符或包含錯誤的信息。
● 不完整和模糊的回答:GPT模型在回答復(fù)雜問題時,可能會提供不完整或模糊的答案。
● 知識儲備限制:GPT模型的知識儲備來自它的訓(xùn)練數(shù)據(jù),對于一些特殊領(lǐng)域或特殊主題的問題,如果相關(guān)的知識不在訓(xùn)練數(shù)據(jù)中,則模型可能無法正確回答。
這些缺點其實可以用一句話來形容,即模型與訓(xùn)練集的內(nèi)容高度耦合。從前面的原理可以知道,GPT巨量的參數(shù)都是通過訓(xùn)練集訓(xùn)練出來的,且生成的機制與內(nèi)容本身無關(guān),所以有時候內(nèi)容就不是人們想要的—— GPT只能保證生成的內(nèi)容流暢通順,且與提問相關(guān),但它本身也不清楚生成的是什么。
訓(xùn)練集的內(nèi)容能夠很明顯地影響最終模型的效果,假設(shè)訓(xùn)練GPT的時候訓(xùn)練集中沒有古詩,那么它就完全不會知道古詩這種文體的規(guī)律;假設(shè)訓(xùn)練GPT的時候訓(xùn)練集中充斥著虛假內(nèi)容,那么它也會充滿虛假內(nèi)容;訓(xùn)練集中不同領(lǐng)域數(shù)據(jù)的大小也決定了GPT執(zhí)行特定任務(wù)的能力的大小。
其次,根據(jù)注意力機制的層數(shù)算力要求,GPT目前無法進行很深入的推理:對于需要深入理解和推理的問題,GPT模型可能無法給出準確的答案。