官术网_书友最值得收藏!

為什么DeepSeek讓全球震撼

一夜之間,DeepSeek-R1模型的發布幾乎改變了一切。

在正式介紹DeepSeek之前,我會認真幫你梳理DeepSeek讓全球震撼的底層原因。這會涉及一些技術術語,但我已經盡可能簡化,以便你能更容易理解。

當然,如果你暫時不想了解這些細節,也可以選擇跳過,直接閱讀后續章節。不了解這些內容完全不影響你用好DeepSeek。但是,我還是非常推薦你能看看這部分內容。

一、AI的革命性時刻

雖然 AI 行業的發展速度在這幾年頗有“AI 一天,人間一年”的感覺,但如果讓我總結近幾年AI行業真正的革命性時刻,其實并不算多,但 DeepSeek 絕對位列其一。強烈建議你仔細讀一讀這五個“AI 革命性時刻”,因為這對理解DeepSeek為什么重要很有幫助(見圖0-1)。其中,前四個都來自OpenAI(發布ChatGPT的公司)。

圖0-1 2022年以來AI發展的五個革命性時刻

(一)2022年11月OpenAI發布ChatGPT 3.5

這宣告了生成式人工智能[1]時代的到來,證明了 AI 可以完全理解人類語言(甚至可以通過圖靈測試[2]),并能夠使用同一個智能模型同時實現聊天、寫作、推理、編程等多種能力,這意味著我們從專用人工智能(Artificial Narrow Intelligence,ANI)時代轉向了通用人工智能(Artificial General Intelligence,AGI)時代。這是AI的一次重大范式轉變。

(二)2023年3月OpenAI推出GPT-4

從此,AI不僅可以理解文字,還可以理解圖像。當輸入圖像時,GPT-4 可以生成對圖像的理解。AI 對圖像的理解不僅僅是像以往一樣只能識別其中的文字、符號或特定的物體,而是能夠從整體上理解圖像內各元素的關系及其內涵(見圖0-2),這讓人們相信AI有理解現實世界的潛力。隨后,各種新模型風生水起,證明了AI可以用完全相同的底層架構同時理解聲音、圖像、文字等信息,這類模型被稱為多模態模型,大大拓寬了 AI 的應用邊界。

圖0-2 GPT-4 可輕松理解圖片中的滑稽之處[3]

(三)2024年2月OpenAI對外展示了Sora文生視頻大模型(當時Sora大模型并未對公眾開放使用,直至2024年12月才正式對外開放)

OpenAI并未單純將Sora視為視頻模型,而是將其作為“世界模擬器”,因為生成視頻的過程需要模型對世界的物理定律有深刻的理解(見圖0-3)。例如,模型必須理解日月的變換、行走的阻力、物體的擠壓和撞擊等物理現象,才能正確渲染出符合邏輯的視頻。這意味著,AI從2D進入3D世界,有理解整個世界甚至整個宇宙的潛質,AI的應用場景被進一步拓寬,同時對于AI成為獨立“硅基生物”的想象變得更加現實。

圖0-3 Sora官方網站的部分視頻示例截圖

(四)2024年9月OpenAI發布o1系列模型

這是人類第一次訓練出學會深度思考的模型,即推理大模型。之前的AI大模型都是非推理大模型,對于任何問題的回答速度幾乎都是一致的。例如,對“你好嗎?”和“如何計算宇宙飛船的太陽能板所需的面積?”的回答速度是接近的,這顯然是不太科學的。人類在遇到復雜問題時會拿出草稿紙仔細推算和檢查,這是人類能夠解決復雜問題的重要原因,而人類遇到簡單問題則會憑直覺回答,消耗的能量很少。之前的AI大模型沒有這種深度思考的能力,所以在推理能力上受到很大限制。o1系列模型具有在正式回答前先輸出“思維鏈[4]”即邏輯推理過程的能力,極大地提升了AI大模型的邏輯推理能力。o1系列模型在Codeforces編程競賽中超過了89%的參賽者,在美國數學奧林匹克競賽的資格賽中列全美前500名,在物理、生物和化學問題的基準測試中超越了人類博士水平的準確率。圖0-4給出了OpenAI官方發布的o1系列模型的評測數據,可以看出o1系列模型將AI的準確率上限提高了整整一個數量級。

圖0-4 o1 系列模型在數學、代碼和博士科學問題上的準確率與GPT-4o和人類專家的對比測試

注:“o1測”代表 o1-preview模型。

(五)深度求索[5]發布DeepSeek-R1模型

第五個革命性時刻,就是2025年1月中國的深度求索(DeepSeek)發布DeepSeek-R1推理大模型。

二、DeepSeek的突出特點

隨著AI的發展,當你讀到這本書時,很可能又有了更新、更好的技術和模型。但是,從AGI的發展史來看,DeepSeek-R1模型絕對是濃墨重彩的一筆。我總結了DeepSeek-R1最突出的幾個特點。

(一)高性能、低成本

作為一個推理大模型,DeepSeek-R1 模型在各個領域上的性能表現都接近、達到甚至超越了OpenAI的o1系列推理大模型(見圖0-5)。但這并不是最重要的,畢竟世界已經有了o1系列及更先進的o3系列模型,以后也必然會有更好的模型,DeepSeek或許也會很快推出R2、R3等新模型。真正重要的是,無論是研發成本還是使用成本,DeepSeek-R1 模型與 OpenAI o1系列模型相比都大大降低了,這在全球AI界引起了巨大震撼。

圖0-5 DeepSeek-R1和OpenAI o1等模型的性能對比[6]

這一點非常重要,因為如果成本太高,再智能的AI大模型也與普通人沒什么關系。例如,2024年年底OpenAI o3系列模型第一次發布的時候,它的高分版本每次執行任務的成本高達1000美元以上(哪怕你只是簡單地問模型一加一等于幾),堪稱恐怖。

而DeepSeek-R1模型通過創新的訓練策略實現了顯著的成本降低,訓練成本僅為約600萬美元,同時保持了卓越的模型性能。這是因為DeepSeek-R1模型大量使用了純強化學習(Reinforcement Learning,RL)技術,這一技術類似“左右手互搏”,不需要太多的人類數據,僅靠模型自身的迭代就能自主發展推理能力。

要理解這一點,我們可以看看圍棋AI 程序AlphaGo Zero。2017年5月,在中國烏鎮·圍棋峰會上,AlphaGo Zero與世界排名第一的柯潔對戰,結果以3∶0的總比分完勝。

讓人震驚的是,AlphaGo Zero一開始時根本沒接觸過人類的棋譜。它使用了強化學習方法進行“自我對弈”,最終成為具備超強棋力的“選手”(見圖0-6)。

圖0-6 AlphaGo Zero 經過70 小時訓練后即達到超人類水準

AlphaGo Zero甚至還獨立發現了新的圍棋策略,讓頂尖的圍棋選手反過來向AI學習。這就是強化學習的好處:不但節約了人類數據(不太需要人類陪它學習下棋的方法),而且擺脫了人類智力的局限(通過自我迭代可能超越人類選手的極限水準)。

人工智能的長遠目標之一就是研發出一種能夠從白板開始學習,并逐漸進化成擁有超常能力的算法。如果AI無法自我進化,人類就會陷入“有多少人工,才有多少智能”的窘境。在此之前,沒人相信僅僅只靠AI大模型的“左右手互搏”就能發展出超強的推理智能,因此大量依賴一種被稱為監督微調(SFT)的技術,即用人類標注的數據來訓練AI 的方法。但監督微調技術的數據成本高昂。而在 DeepSeek-R1 模型的訓練過程中,使用純強化學習就成功讓模型產生“頓悟現象”(Aha Moment),即模型自我發現錯誤并生成更優解法。因此,廣泛使用純強化學習大大降低了訓練成本。

在使用成本上,DeepSeek-R1模型的官方API價格僅為OpenAI o1系列模型的約5%(按照2025年2月各自的官方網站價格)。正因為成本懸殊,如果要使用“滿血版”的OpenAI o1系列、o3系列模型,一度需要支付高達200美元/月的會員費,而DeepSeek-R1模型卻可以免費向全球開放。這也直接造成發布后的兩周內,DeepSeek-R1 模型霸榜全球數十個國家的應用商店,其在包括美國在內的很多國家的下載量都超越了 ChatGPT。畢竟,免費的東西“真香”,在哪個國家都一樣。

降低使用成本使得全世界的普通人能夠更好地把AI應用在工作、生活的每一個角落。當然,這對OpenAI的商業模式也產生了很大的威脅。OpenAI公司在DeepSeek-R1模型發布后不久就宣布把o3-mini系列免費提供給用戶使用,就是因為受到了極大的壓力。2025年2月,馬斯克主導的xAI公司發布Grok 3,其使用了約20萬塊H100 GPU進行訓練,據推算,訓練時使用的算力大約是DeepSeek-R1模型的100倍以上,但發布時的Arena評分僅比DeepSeek-R1模型高不到2%,如圖0-7所示。這也進一步印證了DeepSeek-R1模型極大的成本優勢。

(二)開源

開源是“開放源代碼”的簡稱。所謂AI大模型開源,簡單理解就是將AI大模型的參數(模型權重)和相關代碼公開,供任何人下載和使用。如果項目的開源協議允許,那么任何人都可以在滿足條件的服務器、個人計算機甚至手機上自己部署安裝該模型并使用,無須付費或聯網。這不僅節約了成本,而且能極大地保護了企業和個人的隱私數據。

圖0-7 Grok 3 發布時的 Arena 評分頁面

人們可以把開源模型部署到自己的企業或家里,并結合自己特有的垂直行業知識庫或個人的生活資料、聊天記錄和筆記,構建隱私安全的AI助理。你也可以自由地對開源的模型進行微調[7]或使用 RAG[8]技術添加自己的知識庫,即在原有模型基礎上賦予其更多的垂直領域知識,以更好地滿足自身在特定領域的實際需要。例如,企業可以研發基于 DeepSeek-R1 模型的醫學大模型、編程大模型、智能客服大模型等。

而閉源的模型無法自己部署,只能在供應商的網站或應用上使用。OpenAI的ChatGPT系列模型及o1、o3模型均為閉源模型。使用閉源模型需要聯網,可能需要付費,同時所有的數據都需要傳輸給供應商,可能存在隱私安全問題。在DeepSeek-R1之前,世界范圍內還沒有能達到OpenAI o1、OpenAI o3 模型類似的性能且低運行成本的開源模型出現。之前的模型要么閉源,要么雖然開源但不具備強推理能力,實用價值沒那么高;或者模型太大,運行成本太高。而DeepSeek-R1模型是第一個免費、開源、高效、低成本并存的推理大模型。這在一定程度上減少了閉源 AI 大模型的壟斷。

(三)超越人類推理能力的邊界

上文提到,由于 DeepSeek-R1 模型的訓練大量使用純強化學習,這種左右手互搏的方式能夠讓大模型發展出很多人類并不具備的推理思路,因此DeepSeek-R1模型在推理上的“上限”從理論上講比之前的大模型更高。所以它可能解決很多以前人類解決起來很困難的問題。

很多人在使用 DeepSeek-R1 模型后表示,DeepSeek-R1 模型的思考過程(思維鏈)比答案本身更能給人啟發,其思考過程可以用來反向訓練人腦,提升人腦本身的思維能力。

(四)國產自主可控

DeepSeek系列模型(包括V3和R1)是首個由非美國公司研發的旗艦級推理大模型,縮小了中國和美國在AI大模型水平上的差距,且完全自主可控。

由于DeepSeek系列模型利用多種技術降低了對算力的需求,因此也間接減少了對于英偉達高端GPU芯片的依賴,使得國內使用上一代甚至更早一代的GPU芯片也能訓練出媲美全球最先進AI大模型的產品,這對國家安全非常重要。也正是因為對算力需求的減弱,英偉達股價在DeepSeek-R1模型發布后曾一度暴跌17%(約6000億美元)。

DeepSeek系列模型不僅國產、開源,而且提供了詳細的技術報告,對于中國企業用戶來講,這使得使用和二次開發DeepSeek應用的風險被降低到幾乎為零,對構建企業級AI應用、企業內部AI知識庫、政府AI應用、使用AI輔助業務降本增效等需求,非常合適。我也在積極幫助政府和更多企業接入包括DeepSeek在內的AI大模型,為其構建個性化應用。

(五)全民AI時代到來

如果說OpenAI的ChatGPT開啟了AI快速進化的序幕,那么DeepSeek則是真正讓每個人都接觸到了 AI 的陽光。DeepSeek 通過“低成本+開源”的雙引擎,將AI化作滿天星辰,灑落在每個普通人的指尖。街頭攤主能用它優化進貨策略,肯尼亞的中學教師能用它生成個性化教案,而上海的退休老人可以用它撰寫家族回憶錄——AI 將成為流淌在生活“毛細血管”中的“數字氧氣”。這種普惠性突破,讓人類首次站在了“智力平權”的歷史節點上。

發展至今,AI 雖然不是萬能的,但學會使用 AI 將極大地提升你的學習、生活和工作的效率。所以,翻開這本書,開始使用AI吧!


[1] 生成式人工智能即“AIGC”,AIGC可以按照人類的指令來生成全新的內容,如文本、圖片、視頻等。

[2] 圖靈測試(The Turing Test)起源于計算機科學和密碼學的先驅艾倫·麥席森·圖靈發表于1950年的一篇論文“計算機器與智能”。該測試的流程是,一名測試者寫下自己的問題,隨后將問題以文字形式(屏幕和鍵盤)發送給另一個房間,這個房間中有一個人和一臺機器。然后測試者會分別收到機器和人的回答。測試者僅根據回答來判斷哪個是真人,哪個是機器。所有參與測試的人或機器都會被分開。這個測試旨在探究機器能否模擬出與人類相似或無法區分的智能。

[3] 圖片摘自OpenAI發布的GPT-4 Technical Report(《GPT-4技術報告》)。GPT-4敏銳地捕捉到這張圖片的特別之處:一個男子正在熨衣服,而熨衣板卻連接在一輛行駛中的出租車車頂上。

[4] 思維鏈(Chain of Thought,CoT)。對于復雜的問題(如數學、編程、工程等問題),AI大模型很難直接給出正確答案。思維鏈要求大模型在輸出最終答案之前,必須先輸出中間的推理步驟,以此來增強大模型的推理能力。這大幅提高了AI大模型處理復雜推理任務的能力,并且輸出的中間步驟方便使用者了解大模型的思考過程,提高了大模型推理的可解釋性。目前,思維鏈推理已經成為大模型處理復雜任務的一個常用手段。

[5] 全稱為杭州深度求索人工智能基礎技術研究有限公司。DeepSeek即深度求索的英文翻譯。

[6] 摘自 DeepSeek-R1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning(《DeepSeek-R1官方技術報告》)。

[7] 模型微調(Fine-tuning)是指在預訓練好的大模型的基礎上,通過使用特定領域或任務的數據進行二次訓練,使模型在特定場景下表現得更好的技術。這有點像一位“通才”在已經掌握了廣泛知識的基礎上,進行專業化的“進修”。例如,一個通用的語言模型可能精通多個領域的寫作,但通過微調,我們可以讓它更擅長醫學文獻的撰寫,或者更善于模仿某位作家的寫作風格。微調不僅能提升模型在目標任務上的表現,還可以顯著降低訓練成本和縮短訓練時間,是 AI 領域一項重要的技術手段。

[8] RAG 技術即“檢索增強的生成”,其詳細說明和應用會在本書后續章節提到,此處不再贅述。

主站蜘蛛池模板: 长葛市| 永德县| 博白县| 四子王旗| 慈利县| 通渭县| 临武县| 类乌齐县| 安庆市| 开远市| 专栏| 新化县| 房产| 通化县| 加查县| 阳原县| 扬中市| 开化县| 台前县| 宜黄县| 宣武区| 甘德县| 荔波县| 永善县| 新龙县| 镇巴县| 镇安县| 洪雅县| 大姚县| 花垣县| 西城区| 叙永县| 蓬溪县| 清水县| 合阳县| 平遥县| 博湖县| 永兴县| 肃宁县| 金川县| 军事|