書名: 人工智能作者名: 王東 利節 許莎本章字數: 4318字更新時間: 2020-03-06 11:38:37
1.2 人工智能簡史
1.2.1 數理邏輯:人工智能的前期積累
人工智能的發展初期以如何刻畫人類的智能行為作為研究目標,特別是對知識的表達和推理過程的形式化。換句話說,就是如何將人類的智能行為用計算機模擬出來。事實上,對人類知識結構和推理方法的研究最早可上溯到古希臘哲學家亞里士多德(Aristotle)的三段論邏輯以及歐幾里得(Euclid)的形式推理方法。13世紀,加泰羅尼亞數學家和邏輯學家拉蒙·柳利(Raymundus Lullus)用機械手段模擬簡單的邏輯操作,通過演繹運算從舊知識中推理出新知識。17世紀,英國哲學家霍布斯(Hobbes)和數學家萊布尼茨(Leibniz)等進一步提出“推理就是計算”的思路,將邏輯變得可計算化。到了20世紀,在布爾(Boole)、費雷格(Frege)、希爾伯特(Hilbert)、羅素(Russell)等人的努力下,數理邏輯(Mathematical logic)成為一門獨立的學科,標志著邏輯推理形式化的數學理論最終形成。
什么叫邏輯推理形式化呢?可以通過一個例子來簡單理解。假設p、q、r分別表示“今天下雨”“我們今天不野餐”“我們明天野餐”,那么“如果今天下雨,那么我們今天將不野餐?!笨杀硎緸?i>p→q;“如果我們今天不野餐,那么我們明天將野餐?!笨梢员硎緸?i>q→r。通過連續運用推理規則,即可由p→q和q→r推理出p→r。這意味著“如果今天下雨,那么則明天野餐?!痹谏鲜鲞^程中,我們將事實表示為符號,將推理表示成符號間的蘊含關系(→),如果再加上一系列限制條件和演算規則,即可得到一套邏輯系統。在這套系統中,p、q、r是獨立于事實本身的變量,因此該系統描述的不是某一個具體的推理任務,而是一類基于相同邏輯元素和統一推理規則的任務的抽象表示?;诖耍评磉^程被轉化成符號演算,這是數理邏輯的基本思路。
數理邏輯的發展為未來的人工智能大廈奠定了第一塊基石。數理邏輯的先驅們認為一切智能活動都可以轉化為邏輯過程,因此邏輯過程的可計算意味著人類智能的可計算。希爾伯特(圖1-1)甚至曾經設想一個一致完備的邏輯體系,只要基本假設是合理的,就可以通過運算推導出領域內的一切知識。這個大一統的夢想最終被哥德爾(Godel)著名的不完備定理打破,但數理邏輯的強大描述能力已經深入人心,大大增加了人們制造智能機器的勇氣。人們相信,只要邏輯系統設計得足夠好,就有望將人類的智能過程通過計算完美地復現,盡管當時計算機還沒有出現。

圖1-1 大衛·希爾伯特(德國人,1862—1943年,偉大的數學家)
注:1900年,希爾伯特在巴黎的國際數學家大會上提出了23個問題。這些問題為20世紀的數學研究指明了方向,被稱為“希爾伯特問題”。希爾伯特的第2個問題為“算術公理之相容性”。在這一問題中,希爾伯特猜想一個公理系統可以一致、完備地生成所有真值命題。這一猜想在1930年被奧匈帝國數學家庫爾特·哥德爾證明為偽。
延伸閱讀:哥德爾不完備定理
哥德爾于1930年證明,任意一個足夠強大的邏輯系統都是不完備的,總有一些定理在該邏輯系統中無法被證明為真,也無法被證明為偽。哥德爾的證明類似“說謊者悖論”:如果有個人說“我說的是假話”,我們是無法判斷這句話的真假的。如果這個人說的是真話,那么由“我說的是假話”這句話的意義可推知他(她)實際在說假話,與前提“他在說真話”相互矛盾;反之,如果這個人說的是假話,則“我說的是假話”這句話就不是真的,因此這個人事實上說的是真話,又與前提“他在說假話”相互矛盾。哥德爾證明類似的悖論在任何一個足夠強的邏輯系統中都存在,因此任何一個邏輯系統總有它無法理解的命題存在。這說明任何一個系統都有其固有局限性,不同層次的系統局限性各不相同。計算機無法突破其固有局限性,因此模擬人類智能的方法有可能永遠無法超過人類。
1.2.2 圖靈:人工智能的真正創始人
1936年,年僅24歲的英國科學家圖靈(Turing)在他的論文《論可計算數及其在判定問題上的應用》中提出圖靈機(Turing Machine)模型,證明基于簡單的讀寫操作,圖靈機有能力處理非常復雜的計算,包括邏輯演算。1945年6月,美國著名數學家和物理學家約翰·馮·諾伊曼(John von Neumann)等人聯名發表了著名的“101頁報告”,闡述了計算機設計的基本原則,即著名的馮·諾伊曼結構。1946年2月14日,世界上第一臺計算機ENIAC在美國賓夕法尼亞大學誕生。1951年,ENIAC的發明者電氣工程師約翰·莫奇利(John William Mauchly)和普雷斯波·艾克特(J. Presper Eckert)依據馮·諾伊曼結構對ENIAC進行了升級,即著名的EDVAC計算機。計算機的出現為快速邏輯演算準備好了工具,奠定了人工智能大廈的第二塊基石。
在美國人設計ENIAC的同時,圖靈也在曼徹斯特大學負責曼徹斯特一號的軟件開發工作,并開始關注讓計算機執行更多智能性的工作。例如,他主張智能機器不該只復制成人的思維過程,還應該像孩子一樣成長學習,這正是機器學習的早期思路;他認為可以通過模仿動物進化的方式獲得智能;他還自己編寫了一個下棋程序,這可能是最早的機器博弈程序了。為了對人工智能有個明確的評價標準,圖靈于1950年提出了著名的圖靈測試(Turing Test)。在這一測試中,圖靈設想將一個人和一臺計算機隔離開,通過打字進行交流。如果在測試結束后,機器有30%以上的可能性騙過測試者,讓他(她)誤以為自己是人,則說明計算機具有智能。這一測試標準一直延續至今,可惜還沒有一臺計算機可以確定無疑地通過這一看似簡單的測試。圖靈的這些工作使他成為人工智能當之無愧的創始人(圖1-2)。

圖1-2 圖靈和他的圖靈測試
注:測試者通過鍵盤和機器及真人以自然語言對話,如果機器可以騙過測試者,讓測試者以為它是真人,則認為該機器具有了智能。
1.2.3 達特茅斯會議:AI的開端
就在圖靈開始他的人工智能研究不久,當時很多年輕人也開始關注這一嶄新的領域,其中就包括美國達特茅斯學院數學助理教授約翰·麥卡錫(John McCarthy)、美國哈佛大學數學與神經學初級研究員馬文·明斯基(Marvin Minsky)、貝爾電話實驗室數學家克勞德·香農(Claude Shannon)、IBM公司信息研究經理納撒尼爾·羅切斯特(Nathaniel Rochester)。1956年,這些年輕人聚會在達特茅斯學院,討論如何讓機器擁有智能,這次會議被稱為“達特茅斯會議”(圖1-3和圖1-4)。正是在這次會議上,研究者們正式提出“人工智能”這一概念,AI從此走上歷史舞臺。當時討論的研究方向包括以下幾個方面:
- 可編程計算機;
- 編程語言;
- 神經網絡;
- 計算復雜性;
- 自我學習;
- 抽象表示方法;
- 隨機性和創見性。
可見,當時人工智能的研究非常寬泛,像編程語言、計算復雜性這些現在看來并不算AI的范疇也需要人工智能的學者們考慮。這是因為當時計算機剛剛誕生不久,很多事情還沒有頭緒,AI研究者們不得不從基礎做起。盡管如此,現代人工智能的主要研究內容在這次會議上已經基本確定了。
達特茅斯會議被公認為是人工智能研究的開始,會議的參加者們在接下來的數十年里都是這個方向的領軍人物,完成了一次又一次的創舉和突破。

圖1-3 達特茅斯會議原址

圖1-4 達特茅斯會議的幾位參加者
1.2.4 人工智能的三起兩落
歷史總是曲折的,同時也是螺旋式前進的,人工智能的發展也是如此。我們可以將人工智能的發展分為以下幾個階段。
黃金十年(1956—1974年) 達特茅斯會議后的十年被稱為黃金十年,這是人工智能的第一次高潮。當時很多人持有樂觀情緒,認為經過一代人的努力,創造出與人類具有同等智能水平的機器并不是個難題。1965年,希爾伯特·西蒙(Herbert Simon)就曾樂觀預言:“二十年內,機器人將完成人能做到的一切工作?!痹谶@近二十年里,包括ARPA在內的資助機構投入大筆資金支持AI研究,希望制造出具有通用智能的機器。這一時期的典型方法是符號方法(Symbolic Method),該方法基于人為定義的知識,利用符號的邏輯演算解決推理問題。啟發式搜索(Heuristic Search)是這一時期的典型算法,這一算法通過引入問題相關的領域知識(稱為啟發信息)對搜索空間進行限制,從而極大地提高了符號演算的效率。這一時期的典型成果包括定理證明、基于模板的對話機器人(ELIZA、SHRDLU)等。
AI嚴冬(1974—1980年) 到了20世紀70年代,人們發現AI并不像預想的那么無所不能,只能解決比較簡單的問題。這其中有計算資源和數據量的問題,也有方法論上的問題。當時的AI以邏輯演算為基礎,試圖將人的智能方式復制給機器。這種方法在處理確定性問題(如定理證明)時表現很好,但在處理包含大量不確定性的實際問題時則具有極大的局限性。一些研究者開始懷疑用邏輯演算模似智能過程的合理性。如休伯特·德萊弗斯(Hubert Dreyfus)就認為人類在解決問題時并不依賴邏輯運算(1),然而,不依賴邏輯運算的感知器模型被證明具有嚴重局限性(2),這使得研究者更加心灰意冷。AI研究在整個20世紀70年代進入嚴冬。
短暫回暖(1980—1987年) 到了20世紀80年代,人們漸漸意識到通用AI過于遙遠,人工智能首先應該關注受限任務。這一時期發生了兩件重要的事情,一是專家系統(Expert System)的興起;二是神經網絡(Neural Net)的復蘇。前者通過積累大量領域知識,構造了一批可應用于特定場景下的專家系統,受到普遍歡迎;后者通過學習通用的非線性模型,可以得到更復雜的模型。這兩件事事實上都脫離了傳統AI的標準方法,從抽象的符號轉向更具體的數據,從人為設計的推理規則轉向基于數據的自我學習。
二次低潮(1987—1993年) 20世紀80年代后期到20世紀90年代初期,人們發現專家系統依然有很大的問題,知識的維護相當困難,新知識難以加入,老知識互相沖突。同時,日本雄心勃勃的“第五代計算機”也沒能貢獻有價值的成果。人們對AI的投資再次削減,AI再次進入低谷。在這一時期,人們進一步反思傳統人工智能中的符號邏輯方法,意識到推理、決策等任務也許并不是人工智能的當務之急,實現感知、移動、交互等基礎能力也許是更現實、更迫切的事,而這些任務與符號邏輯并沒有必然聯系。
務實與復蘇(1993—2010年) 經過20世紀80年代末和20世紀90年代初的反思,一大批腳踏實地的研究者脫去AI鮮亮的外衣,開始認真研究特定領域內特定問題的解決方法,如語音識別、圖像識別、自然語言處理等。這些研究者并不在意自己是不是在做AI,也不在意自己從事的研究與人工智能的關系。他們努力將自己的研究建立在牢固的數學模型基礎上,從概率論、控制論、信息論、數值優化等各個領域汲取營養,一步步提高系統的性能。在這一過程中,研究者越來越意識到數據的重要性和統計模型的價值,貝葉斯模型(Bayes Model)和神經網絡越來越受到重視,機器學習成為AI的主流方法。
迅猛發展(2011至今) 人工智能再次進入大眾的視野是在2011年。這一年蘋果發布了iPhone 4S,其中一款稱為Siri的語音對話軟件引起了公眾的關注,重新燃起了人們對人工智能技術的熱情。從技術上講,這次人工智能浪潮既源于過去十年研究者在相關領域的踏實積累,同時也具有嶄新的元素,特別是大數據的持續積累、以深度神經網絡(Deep Neural Net,DNN)為代表的新一代機器學習方法的成熟,以及大規模計算集群的出現。這些新元素組合在一起,形成了聚合效應,使得一大批過去無法解決的問題得以解決,實現了真正的成熟落地??梢哉f,當前的人工智能技術比歷史上任何一個時代都踏實和自信。