- 生成式AI與新質內容生產力:從理論解讀到實際應用
- 喻國明 楊雅等
- 3045字
- 2024-07-05 17:35:54
三、問題解決方式:從人腦方案到內外腦并用
問題解決方式與人們對運用哪些工具解決問題的基本認知有關。在傳統認知里,“人腦”主導了大部分的問題解決過程,人腦的邊界即可解決的問題的邊界。然而,隨著生成式AI時代的到來,以機器智能為代表的“外腦”實現了對人腦的輔助,通過遠超人腦的存儲、計算能力,拓寬了人力可及的邊界。人工智能的加持,讓“內外腦”并用成為可能。為了更好地構建“內外腦”系統,我們需要提前進行三項工作:學會分配任務、學會傳達任務和學會明確需求。
1.學會分配任務
從智能產生的根本機制來看,人工智能與人類智能具有完全不同的智能基礎。人工智能的本質是以計算的方式機械地模擬人腦的生物功能,依據理性策略產生強大的計算—表征能力,嚴格按照規則和約束解決問題。對人工智能的提升(如情感理解能力、情境適應能力等),本質上都是對機器關于該參數計算能力的提升,其有限性由自身算力來決定。這種精確、可計算的特性決定了人工智能的應用是面向已知領域的信息總結過程。由于語境的更新,人工智能很難捕捉、解讀新的表征,這時便需要人類智能來實現更新。相較于人工智能,人類智能在時間、算力和交流尺度三個方面的有限性十分突出:有限的壽命和算力決定了人類只能處理有限的、少量的數據,是一種短鏈的突現式智能,也是以經驗感知為主的具身智能;有限的交流尺度則意味著,人類無法如機器一樣以復制的方式轉移信息,只能基于展望未知的想象能力,以學習的方式獲得智能。這些有限性塑造了人類智能區別于人工智能的特征:人類智能是基于具身、直覺、意志的突現式智能,具有面向未來的創新能力;人工智能則是精確、可描述、可計算的計算智能,側重于面向過去的總結。可以看出,人工智能彌補了人類智能在數據處理方面的客觀不足,而不可被計算的“靈光一現”式的創造機遇則只能屬于人類智能。
基于兩種智能生產機制的差異,我們可以將二者的智力生產分成理性智力勞動和非理性智力勞動兩個層次。前者指智力勞動中那些可被數據描述、可被算法解析的邏輯性、理性化部分,后者則強調那些無法用算法解析與表達的目標性領域。在僅以人腦為主導的智力勞動中,兩個部分往往沒有明晰的界限,需要借助生成式AI這一媒介實現分割。舉例來看,在傳統的人腦主導的思維模式下,創作一段小說開頭需要搜索靈感、選擇風格、調動語言,這些任務雜糅在一起,完整而不可拆分。但在使用ChatGPT時,我們可能會傳達這樣的指令:“寫一段具有馬爾克斯風格的開頭,描述一個女人在河邊徘徊的場景,使用青苔、水草等元素。”稍等片刻,機器便會輸出結果。無論它的回答內容是否滿足我們的需要,這樣的一問一答,都實現了對寫作任務的切割與分配:抽象的、意志的勞動,如捕捉靈感、描述目標等任務仍由人腦完成;純粹機械的、技藝性的、無差別的、同勞動特殊形式毫不相干的勞動活動,如從既有經驗中總結規律、輸出結果的任務,則被剝離出來,交由機器“外腦”回答。在馬克思看來,這種機器化生產使人類勞動逐漸去技能化,成為旁觀機器作業的助手。但正如上文提到,人工智能與人類智能間存在難以逾越的鴻溝,面對生成式AI,人類并非站在流水線旁邊的機器生產的附庸,而是“內外腦”并用時的指揮者。
2.學會傳達任務
由于人工智能只能從事機械的、技藝性的理性智力勞動,如何利用人類智能傳達任務指令,協調好人腦的“賦魂”與“外腦”的執行,實現“內外腦”的并用,就變得格外重要。一般認為,博物館等知識媒介,是一種圍繞客觀性組織的線性的“本質性資料庫”(Essence Archive)。在“本質性資料庫”中,受眾接收的是確定的實體或符號。與之相反,生成式AI則是圍繞概率性組織的“或然率資料庫”(Probability Archive),是一個不確定的群集,松散、混亂而充滿變化。我們與生成式AI的每一次交互,都可能獲得不同的輸出。這意味著,向生成式AI下達任務可能不是一勞永逸的,而是一個動態的、不斷調整的過程。這也是生成式AI區別于其他算法媒介之處——它是一種可“微調”(Fine Tuning)的算法媒介。
所謂“微調”,是指模型從訓練數據中讀取文本標記,并預測下一個標記的過程。預測出錯時,模型會更新內部權重,使其更有可能在下一次做出正確預測。在標記、反饋的過程中,人類智能得以對人工智能進行調整。一方面,我們可以調整生成式AI的訓練數據,用包含偏好、需求的私有資料訓練出個性化的人工智能;另一方面,我們還可以通過交互中的提示,標記實現針對部分參數的部分微調。此外,基于強化學習框架的人類反饋強化學習(Reinforcement Learning from Human Feedback,RLHF)也是生成式AI適應人類指令的有力推手。該技術不需要預先標記文本,但需要對機器輸出內容做傾向性反饋,依此實現語言模型的優化。現有研究已說明,這種標記/反饋—調整的訓練激發了模型的理解能力,使之可以在沒有顯式示例的情況下,更好地完成新任務指令。基于此,我們在向生成式AI下達任務時,可以遵循以下三項原則。第一,由簡入繁。在下達任務時,我們可以先進行零樣本(Zero-shot)提示,即不向生成式AI提供具體顯式示例。例如,當模型能夠識別熊和企鵝的特征時,要求其根據“類熊形態”(熊的特征)和“黑白相間”(企鵝的特征)這兩個標簽及對應樣本,在不給定熊貓樣本的情況下,僅憑對熊貓的描述識別出熊貓。當然,這時的輸出可能并不準確,若我們想獲得更優質的結果,可以嘗試給出少樣本(Few-shot)提示,即給出少量示例供模型學習。比如,在對熊貓的描述之外,增加幾張熊貓的圖片作為學習樣本。如果以上兩種提示都未能得到滿意的結果,則可以對模型進行前面提到的“微調”,使之更好地理解任務。第二,化大為小。當我們讓生成式AI進行故事創作等復雜任務時,它可能只會給出一段枯燥、粗糙的流水賬。這時,我們可以試著分割該任務,將大的故事分成小的結構,先讓生成式AI完成一個開頭,再繼續創作下一部分內容,直至結尾。通過化大為小的方式,生成式AI可以一步步給出更符合人類要求的答案。第三,設置自查。這一部分需要我們為生成式AI設置一個關于“好”的判準,并要求其在輸出前檢查答案是否符合要求。比如,我們可以提示生成式AI,“一份好的旅行策劃應包括時間、目的地、交通、住宿、花費等信息,以表格形式呈現”,要求其在輸出答案前完成自查,如果答案不符合要求,則重新生成內容。通過自查,生成式AI可以交出一份更符合人類標準的答案。
3.學會明確需求
由上述內容可以看出,向生成式AI下達任務的過程,是一個逐漸逼近需求的過程,不同的提問方式可能帶來迥異的輸出結果。這也催生了一門新興學科——提示工程(Prompt Engineering)。提示工程關注提示詞的開發與優化,致力于幫助用戶了解大語言模型的能力及局限,進而更好地將其應用于任務場景中。通過遵循一些通用的提示技巧,我們可以更好地向生成式AI闡明需求,獲得更滿意的輸出結果。例如,采用具體而精確的指令。為任務加上限定詞可以幫助生成式AI更好地完成任務,例如,提示“一個300字以內的、講述愛情破裂的、悲情的短故事”要優于“一個愛情故事”。當然,考慮到提示語的長度限制,設置提示時應排除不必要、不相關的細節,僅表述最貼合需求的內容。其次,側重陳述預期目標。在闡釋需求時,我們應聚焦于希望生成式AI實現的目標,即讓模型產生良好響應的細節,盡量避免只告訴其“不該做”的事。舉例來說,提示“設計一個推薦電影的代理程序,不要詢問顧客興趣”便是關注“不要做”的提示,生成式AI可能仍會詢問顧客的興趣偏好;如果將提示變成“設計一個推薦電影的代理程序,從全球熱門電影中推薦電影,避免詢問用戶的偏好;如果沒有電影推薦,代理程序應該回答‘無推薦’”,生成式AI完成任務的可能性會更高。