- 人工智能3.0:大智若愚
- 高奇琦等
- 4941字
- 2021-09-01 15:51:45
3 三起兩落潮水平

1997年,在與卡斯帕羅夫的最后一局對弈中勝出之后,傳奇的國際象棋電腦“深藍”退役。二十年之后,在一場圍棋比賽中,人工智能棋手AlphaGo戰勝人類最強棋手柯潔。不同于它的前輩“深藍”坎坷的戰績,AlphaGo幾乎是所向披靡。在這二十年里,當我們已經適應互聯網給人類帶來的巨大而深刻的變化時,人工智能又將人類拉入新紀元。
雖然如今人工智能炙手可熱,但它的發展之路從來都不是一帆風順的。相反,它歷經數次的巔峰與低谷(圖6)。雖然當下人工智能又一次迎來它的黃金期,但以史為鑒,我們發現正是達特茅斯會議之后的起起落落,最終沉淀下助推人工智能大發展的動力。

圖6 起起伏伏發展路
開端:人工智能的第一次大發展(1950—1974年)
“二十年內,機器將能完成人能做到的一切工作”!這樣樂觀的預言在達特茅斯會議閉幕之后的十幾年里甚囂塵上。
1952年,IBM科學家亞瑟·塞繆爾(Arthur Samuel)開發了一個“智能”的跳棋程序。這個程序能夠通過觀察棋子當前的位置,學習棋盤隱含的模型,從而進行下一步行動。塞繆爾還發現,伴隨著游戲程序運行時間的增加,其后續指導能夠越來越好。因為這個程序,此前關于機器無法超越人類、像人類一樣寫代碼和學習的觀點被駁倒了。因此,塞繆爾創造了“機器學習”一詞,并將其定義為 “可以提供計算機能力而無需顯式編程的研究領域”。
1957年,弗蘭克·羅森布拉特(Frank Rosenblatt)基于神經感知科學提出了第二模型,這一模型與今天的機器學習模型十分類似?;谶@個模型,羅森布拉特設計出了感知機(the perceptron)——第一個計算機神經網絡,它能模擬人腦的運作方式。1967年,最近鄰算法(The nearest neighbor algorithm)誕生,由此,計算機可以進行簡單的模式識別。
在這段大發展的期間內,計算機被廣泛用來解決數學問題,甚至被用來學習和使用英語。
隨著人工智能技術的前景一片大好,來自美國ARPA(國防高等研究計劃署)等政府機構的大筆資金也相繼注入麻省理工學院、卡內基梅隆大學、斯坦福大學、愛丁堡大學的人工智能項目中。然而事與愿違,大量的資金投入卻并沒有取得與之相當的成果,樂觀的預言全部落空。
停滯:人工智能的第一次低谷(1970—1980年)
從20世紀60年代中期到20世紀70年代末,機器學習的進展幾乎停滯不前。雖然這個時期仍然有一些進展,如結構學習系統和歸納學習系統的產生,但這些所謂的成果只停留在概念層面,未能投入到實際應用中。雪上加霜的是,神經網絡學習機也存在理論缺陷,未能達到預期效果,研究一度轉入低潮。
這個時期人工智能的研究目標是,模擬人類的學習過程,并在機器內部使之轉化為能夠理解的邏輯結構。但是因為無法轉化成實用的成果,來自政府的經費被大規模削減。
首先是1968年,美國參議院多數黨領袖曼斯菲爾德(Mike Mansfield)對“先進研究項目局”(ARPA)的資助提出異議,因為AI的成果無法運用于軍事,他認為這類項目應該由美國國家科學基金會NSF負責,國防部的錢不能被用于軍事目的之外的研究領域。到了70年代初期,海爾梅爾(George Heilmeirer)在任期內以AI不能制造武器用于戰爭為由,大規模削減了對AI的經費資助。
實際上這個時期整個AI領域都遭遇了瓶頸。最根本的癥結在于硬件無法滿足運算需求,當時的計算機內存有限,處理速度不足,所以無法有效解決實際的AI問題。當時的研究者們的設想是計算機程序對這個世界具有相當于兒童水平的認識,但他們很快就發現這個要求太高了:即使是一個兒童的大腦內也存儲著龐大的數據,在1970年,沒有人能夠做出如此巨大的數據庫。另外,兒童也是具有學習能力的,他們能夠不斷地豐富自己的數據庫,然而對于程序來說,沒人能讓一個程序自主學到豐富的信息。
實際上這一時期的這些挫折源于人工智能研究者們對項目難度評估不足,這除了導致向投資者的承諾無法兌現外,還嚴重打擊了人們對AI的樂觀期望。到了20世紀70年代,人工智能開始頻繁遭遇批評,來自政府和公司的研究經費也被轉移到那些有期望實現的特定項目上。在這個困難重重的時期,計算機硬件性能遭遇瓶頸、人類的能力跟不上計算復雜性的增長速度、缺乏大量的數據樣本。這些問題看上去好像永遠找不到答案。以機器視覺功能為例,在那時就無法找到一個足夠大的數據庫來支撐程序去學習。
壓垮駱駝的最后一根稻草來自人工智能的先驅明斯基。1968年,他在《語義信息處理》一書中分析了所謂人工智能的局限性,并給出結論: “目前”(1968年)的方法無法讓計算機真正有類似于人的智能。這一業界大拿的唱衰引起了大規模的連鎖反應。美國政府給人工智能斷糧,一下子拿掉了用于人工智能研究的絕大部分經費,此后十余年左右時間里,全世界的人工智能研究都處于低谷。
復蘇:人工智能的第二次繁榮(1980—1987年)
這一時期,人工智能領域是專家系統和人工神經網絡的天下。專家系統可以解釋為一個智能計算機程序系統。它就像一位人類的專家,系統內含有大量的相當于某個領域專家水平的知識與經驗,針對某個特定領域的問題,能夠利用人類專家的知識來處理問題。
早在20世紀60年代,后來的圖靈獎獲得者愛德華·費根鮑姆(Edward Albert Feigenbaum)就通過實驗和研究,證明了實現智能的要義在于知識。同時,也是他最早倡導“知識工程”(knowledge engineering),并開始了對專家系統的早期研究,由此愛德華·費根鮑姆也被稱為“專家系統之父”。
經過二十多年的發展,卡內基梅隆大學的約翰·麥克德莫特(John P. McDermott)在1978年用OPS5開發了XCON專家系統。XCON專家系統最初被用于DEC位于新罕布什爾州薩利姆的工廠。據統計,通過減少技師出錯、加速組裝流程和增加客戶滿意度,它每年能為DEC節省2500萬美元。能看到經濟效益的發明總是受人歡迎的,XCON的成功激發了工業領域對人工智能尤其是專家系統的熱情。
科學家們認為,專家系統具有的實用性在某些程度上改變了人工智能的發展方向。人工智能不再是實驗室的玩具,而是轉變為能夠通過智能系統來解決實際生活中問題的工具。這種實用性的增加雖然與當初創立人工智能的初衷不完全一致,卻也為人工智能的生存指明了道路。由于其實用性的大大增強,才能吸引大量的關注和投資,并由此走出低谷。
與此同時,人工神經網絡的發展也如火如荼。人工神經網絡某種程度上可以被理解為仿生學,也常直接被簡稱為神經網絡或類神經網絡。在概念上它是指計算機從信息處理角度對人腦的神經元網絡進行模擬和抽象,建立某種簡單的模型,以不同的連接方式組成不同的網絡。實際上人工神經網絡是一種運算模型,它內部包含大量的節點,節點相互連接。在算法中,每個節點都表示一個輸出函數,每兩個節點間的連接就代表加權值,就相當于人工神經網絡的記憶。
神經網絡的發展史非常長,早在1943年,心理學家麥克洛奇(W. S. McCulloch)和數理邏輯學家皮特(W. Pitts)就開創了人工神經網絡的研究時代,他們建立了神經網絡的數學模型,被稱為MP模型。
到了20世紀60年代,人工神經網絡的研究進一步發展,科學家們提出了更加嚴謹的神經網絡模型。即使是在20世紀70年代,人工神經網絡轉入低潮期,這一領域的研究者們仍然沒有放棄,他們提出了認知機網絡等重要的概念,同時進行了神經網絡數學理論的研究。
到了1982年,約翰·霍普菲爾德(John Hopfield)引入了“計算能量”的概念,基于他在加州理工擔任生物物理教授期間的研究,其提出了一種新的神經網絡概念,后來被命名為霍普菲爾德網絡,它可以用來解決大類模式識別的問題。1984年,約翰·霍普菲爾德又提出了連續時間Hopfield神經網絡模型,成為神經計算機研究領域的開拓者,自此,神經網絡在聯想記憶和優化計算方面獲得了新的發展途徑,這也進一步推進了神經網絡的研究。
1986年,大衛·魯梅爾哈特(David Rummelhart)、杰弗里·辛頓(Jeffrey Hinton)、羅納德·威廉姆斯(Ronald Williams)聯合發表了一篇論文:《通過誤差反向傳播學習表示》,他們通過實驗確定反向傳播算法能夠運用于神經網絡的訓練之中。這是一個具有里程碑意義的發現,推動了神經網絡研究的發展。
在20世紀80年代,“神經網絡”就像此后90年代的互聯網和眼下的“大數據”一樣,每個人都想對其一親芳澤。1993年,《神經網絡會刊》創刊,目的在于為神經網絡領域的高質量文章提供出版渠道,這是由美國電氣電子工程師學會(IEEE)主辦的。
資金支持隨之而來,美國國防部和海軍等也紛紛加大對神經網絡研究的資助力度。神經網絡一時風頭無限。然而后來的互聯網掩蓋了神經網絡在20世紀80年代的光芒。但是,80年代互聯網的發展也給了神經網絡更大的機會。這幾年計算機科學的明星——“深度學習”與神經網絡就有著諸多相似之處,兩者密不可分。所謂深度學習,就是用多層神經元構成神經網絡達到機器學習的功能。而神經網絡也是由一層一層的神經元構成的。
時至今日,世界各大發達國家仍舊十分重視人工神經網絡的研究。
同時,人工智能領域也有了亞洲國家——日本的身影。日本從1981年開始研發人工智能計算機,它的開創之舉就是大量撒錢。第二年,日本經濟產業省斥資8.5億美元,用以研發人工智能計算機。這之后,英國、美國紛紛效仿,開始向信息技術領域注入大量資金。
危機:人工智能第二次低谷(1992—2005年)
繁榮背后一定隱藏著危機,對人工智能的大規模注資并不是慈善家們的善款,更何況很多還是來源于政府的預算。政府期待的是一分投入一分產出,基于對于人工智能強大能量的預期,期待更高的回報也是無可厚非的。
然而現實卻是,專家系統雖然實用,但是用處僅僅局限于某些特定的情景,帶來的產出并沒有那么理想。日本斥巨資投入的項目也未達到預期。隨著PC的普及,大型的計算機開始逐步淡出人們的視野。加之20世紀90年代初經濟不景氣,日本的經濟持續下滑。1992年,日本確實生產出了“第五代計算機”,但它的核心能力卻不達標,并且與主流需求相差甚遠,所以最終宣告失敗。人工智能仿佛是一塊貧瘠的土地,投入成本巨大,卻長不出豐碩的果實,維護成本也極其高昂。
經歷過這次預算削減的科學家們將這一時期稱為“人工智能的冬天”,冬天缺少陽光而大地封凍。對于耗資巨大的計算機科學來說,資金就是陽光,整個社會的唱衰無疑使將整個行業遭到封凍。
爆發:人工智能第三次大發展(2005年至今)
冬天已經來臨,春天還會遠嗎?那些處在冬天的科學家們并沒有放棄自己的研究,在等待著一次厚積薄發。
從某種意義上說,2005年可以算作大數據元年。4月,Google的機器翻譯首次在由美國國家標準與技術研究所(National Institute of Standards and Technologies)主持的測評和交流中,就遠遠超越其他研究團隊。2006年,加拿大多倫多大學教授杰弗里·辛頓在《科學》雜志上發表了關于深度學習的文章,神經網絡又引起了大家的關注。2008年,谷歌推出了一款預測流感的產品。這款產品根據某些搜索字詞進行匯總,可以近乎實時地對全球當前的流感疫情進行估測。
隨后,人工智能程序在挑戰人類的道路上一騎絕塵。2011年,人工智能程序Watson(沃森)參加了美國的智力問答電視節目,最終擊敗兩個人類冠軍,贏得了100萬美元的獎金。當然,所獲得的獎金被其開發公司IBM收入囊中。
圖靈曾說過,機器的智能是對人類的模仿游戲,如今它們在模仿人腦的征途上不斷突破。2012年,加拿大神經學家團隊創造出了升級版人工大腦“Spaun”——一個配有250萬個模擬人類大腦的“神經元”、具備一些簡單認知能力的虛擬大腦,“Spaun”還通過了最基本的人類智商測試。
在這個人工智能發展之春,各大科技巨頭趁此東風紛紛進入角逐場。在深度學習領域,Facebook成立了人工智能實驗室;Google收購了語音和圖像識別公司DNNResearch,推廣深度學習平臺;劍橋大學建立了人工智能研究所……
在這次人工智能發展的大浪潮中,已不再僅僅是美國這一超級玩家在玩獨角戲了,各國都紛紛參與到這次人工智能的狂歡之中。中國作為崛起中的大國,自然也不甘落后,例如百度創立了深度學習研究院,其他互聯網巨頭也都在神經網絡、無人駕駛等領域嶄露頭角。
在“深藍”戰勝卡斯帕羅夫將近20年后,谷歌公司開發的AlphaGo在2016年戰勝了圍棋世界冠軍李世石。這一次人機對弈讓人工智能變得更加炙手可熱,人工智能也不再是科技圈的游戲。此后,AlphaGo又戰勝了目前代表人類圍棋手最高水準的柯潔,這一次,人工智能的威力震撼了所有人(圖7)。有人開始憂懼人工智能的強大,而更多的人則感到興奮。整個社會都開始加入到這一狂歡之中,隨之而來的是整個人工智能市場的新一輪爆發。

圖7 當AI戰勝人類
結語:保持清醒,無懼變革
從達特茅斯會議上AI的正式誕生,到后續的起起落落,如今,人工智能已經迎來了茁壯成長的夏天。人工智能在經歷了它的高山低谷之后,在21世紀又將迎來它的大發展。未來將會是什么樣的圖景,我們無法準確預測,但可以肯定的是,人工智能將會深刻改變我們的生活。