官术网_书友最值得收藏!

關于人工智能的三大誤區(qū)

當離開波多黎各時,我堅信關于人工智能未來的對話應該持續(xù)下去,因為這是我們這個時代最重要的對話關于人工智能的對話很重要,表現在兩個方面:緊迫性和影響力。氣候變化或許會在50~200年內肆虐四方,但與氣候變化相比,許多專家預計,人工智能會在幾十年內造成更大的影響,可能還會給我們帶來緩解氣候變化的科技。與戰(zhàn)爭、恐怖主義、失業(yè)、貧困、移民和社會公平等問題相比,人工智能的崛起會帶來更大的整體性影響。事實上,我們會在這本書中探討人工智能將如何影響以上所有問題,無論是從好的方面還是壞的方面。。這場對話關乎我們所有人的未來,不應該只局限于人工智能研究者參與。這就是我寫這本書的原因:


我希望你,我親愛的讀者,也能夠加入這場對話。你想要什么樣的未來?我們應不應該開發(fā)致命的自動化武器?你希望職業(yè)自動化發(fā)展成什么樣?你會對今天的孩子提供哪些職場建議?你更希望看到新職業(yè)取代舊職業(yè),還是一個不需要工作的社會,在那里,人人都可以享受無盡的閑暇時光和機器創(chuàng)造出來的財富?再進一步,你是否希望我們創(chuàng)造出生命3.0,并把它散播到宇宙各處?我們會控制智能機器,還是僅被它們控制?智能機器會取代我們,與我們共存,還是會與我們融為一體?人工智能時代,作為“人”,究竟意味著什么?你又希望它意味著什么?我們如何才能讓未來變成自己想要的樣子?


《生命3.0》這本書的目的是幫助你加入這場對話。正如我在前面所說,關于人工智能,存在許多迷人的爭議,世界頂級專家們也難以達成共識。不過,我也見過許多無聊的“偽爭議”,究其原因就是,有些人只是誤解了對方的意思,所以各執(zhí)一詞,互不相讓。為了幫助我們聚焦在那些最有趣的爭議和開放式的問題之上,而不是在誤解上繼續(xù)糾纏,讓我們先來澄清一些最常見的誤解。

我們平時經常使用“生命”“智能”和“意識”這類詞語,但它們其實存在許多不同的定義。有時候,人們并沒有注意到,當他們使用這些詞語時,表達的意思卻各不相同,所以許多誤解由此而生。為了避免你我也掉入這個陷阱,在表1-1中,我列舉了在本書中我提到這些詞時所表達的意思,作為備忘。其中一些定義,我到后面的章節(jié)中才會正式地介紹和解釋。請注意,我并不是說我的定義比其他人的更好,我只是想在這里澄清我想表達的意思,以避免被誤解。你將看到,我通常會把某個東西的定義下得廣一些,讓它們不僅可以用在人類身上,也可以用在機器身上,以避免“人類中心主義”的偏見。請你現在看一看這張備忘表。如果你在讀后面的章節(jié)時,對某些詞的定義感到困惑,也希望你回到這張表,再看一看,特別是讀到第4~8章時。

表1-1 名詞備忘表

注:關于人工智能的許多誤解都是由人們對上述詞語的不同定義造成的,這個表中列舉的是我在《生命3.0》這本書里對它們的定義,其中一些詞語,我在后面的章節(jié)才會正式地介紹和解釋。

除了詞匯上面的混淆,我還見過許多與人工智能有關的對話,因為一些簡單的誤區(qū)而走上歧路。下面我來澄清一些最常見的誤區(qū)。

時間線的誤區(qū):通用人工智能什么時候會出現

第一個誤區(qū)與圖1-2中的時間線有關:究竟什么時候,機器才能進化為極大超越人類水平的通用人工智能呢?一個常見的誤區(qū)是(如圖1-5所示),認為這個問題的答案十分確定。

圖1-5 關于超級智能的常見誤區(qū)

一個流行的錯誤觀點是,超人類水平的通用人工智能一定會在21世紀內實現。實際上,歷史上充滿了天花亂墜的技術宣言。核聚變發(fā)電廠和飛天汽車在哪兒呢?照某些人的承諾,這些東西應該早就實現了。同樣地,人工智能在過去也被一次又一次地吹捧上天,始作俑者甚至包括一些人工智能的奠基者,比如,提出了“AI”這個概念的約翰·麥卡錫、馬文·明斯基馬文·明斯基(Marvin Minsky)是人工智能領域的先驅之一,其經典著作《情感機器》為我們描繪了一幅塑造未來機器的光明圖景。本書已由湛廬文化策劃,浙江人民出版社出版。——編者注、納撒尼爾·羅切斯特和克勞德·香農一起寫出了下面這段過于樂觀的預言1956年夏天,28歲的約翰·麥卡錫(John McCarthy)與同齡的馬文·明斯基、37歲的納撒尼爾·羅切斯特(Nathaniel Rochester)以及40歲的克勞德·香農(Claude Shannon)組織了一次人工智能的專題討論會,這個會議就是歷史上有名的達特茅斯夏季研討會,被認定是人工智能研究的誕生之日。——編者注,當時,他們打算用“石器時代”的計算機大干兩個月,來實現一些目標:


1956年夏天,我們將在達特茅斯學院進行一項由10個人組成的為期兩個月的人工智能研究……研究的主題是:如何讓機器使用語言、進行抽象思考和形成概念,讓它們解決目前只能由人類解決的問題,并自我改善。我們認為,如果仔細甄選一些科學家,組成一個團隊,在一起工作一個夏天,就能在一個或多個問題上取得重大進展。


然而,與此相反的另一個流行的錯誤觀點是,超人類水平的通用人工智能在21世紀內一定不會實現。關于我們離實現它還有多遠,研究者的評估范圍很廣泛,但我們并不能信誓旦旦地肯定21世紀內實現它的可能性為零。技術懷疑主義者曾做出過許多令人沮喪的消極預測,后來也被證明不符合事實。歐內斯特·盧瑟福(Ernest Rutherford)可能是他那個年代最偉大的原子核物理學家,他在1933年說,核能就是一派空談,而不到24小時,美國原子核物理學家利奧·西拉德(Leo Szilard)就創(chuàng)造了核鏈式反應;1956年,英國皇家天文學家理查德·伍利(Richard Woolley)認為,太空旅行“完全是一派胡言”。這個誤區(qū)最極端的觀點是認為超人類水平的通用人工智能永遠不會到來,因為在物理學上不可能實現。然而,物理學家知道,大腦中的夸克和電子組合起來不正像一臺超級計算機嗎?并且,沒有哪個物理定律說我們不能建造出比大腦更智能的夸克團。

有人對人工智能研究者進行了一些調查,請他們預測多少年之后,人類水平的通用人工智能實現的可能性將達到至少50%。所有這些調查的結果都一樣:世界頂級專家各執(zhí)一詞,因此我們根本不知道答案。在波多黎各會議上,我們也進行了一次這樣的調研,答案的平均數是2055年,但有些研究者認為需要幾百年,甚至更久。

還有一個相關的誤區(qū)是,認為擔憂人工智能的人總以為它不出幾年就會降臨。實際上,有記錄顯示,大多數擔憂超人類水平的通用人工智能的人都認為,它至少還有幾十年才會實現。不過,他們認為,只要我們并不是百分之百肯定,它一定不會發(fā)生在21世紀內,那么最好盡快開展人工智能安全性研究,防患于未然。我們在本書中會讀到,許多安全問題的解決是非常困難的,可能需要幾十年的時間才能解決。因此,最好從現在就開始進行研究,才是明智之舉,而不是等到某些猛灌紅牛的程序員決定開啟一個人類水平的通用人工智能的前夜才開始亡羊補牢。

關于爭議的誤區(qū):“盧德分子”不是唯一的擔憂者

第二個常見的誤區(qū)是,認為唯一對人工智能懷有憂慮并支持人工智能安全性研究的一類人,都是對人工智能一竅不通的“盧德分子”。當斯圖爾特·羅素在波多黎各的演講中提到這件事時,觀眾笑成一片。還有一個相關的誤區(qū)是,認為支持人工智能安全性研究會招致極大的爭議。實際上,若想適度地支持人工智能安全性研究,人們并不需要確認風險是否很高,只需要相信風險不容忽視就行了,就像人們適度地投資房屋保險,只是因為他們認為火災的可能性不容忽視罷了。

經過我個人的分析發(fā)現,媒體報道夸大了人工智能安全性辯論的爭議程度。不過,恐懼能帶來經濟效益。許多宣告世界末日即將來臨的文章都是斷章取義,但比起那些更微妙平和的文章來說,它們能獲得更高的點擊率。結果就是,假如辯論雙方只從媒體的引述中獲悉對方的觀點,通常就會高估他們之間的分歧程度。比如,如果一個技術懷疑主義者只從英國通俗小報那里了解比爾·蓋茨的觀點,那他很可能會錯誤地認為,蓋茨相信超級智能很快就要來臨了。同樣地,人工智能有益運動支持者如果只知道吳恩達說了“火星人口過剩”這句話,那他也可能會錯誤地認為,吳恩達完全不關心人工智能的安全性問題。實際上,我知道吳恩達很關心這個問題,只不過,由于他預估的時間長一點,所以他很自然地將人工智能面臨的短期挑戰(zhàn)放在比長期挑戰(zhàn)更重要的位置上。

關于風險類別的誤區(qū):不是被趕盡殺絕,而是失去控制權

當我在《每日郵報》媒體對機器人危言聳聽的報道案例:http://tinyurl.com/hawkingbots.上讀到一篇題為“史蒂芬·霍金警告說,機器人的崛起對人類可能造成災難性的破壞”的頭條報道時,我翻了個白眼。我已經數不清這是第幾次看到類似的標題了。通常情況下,文章里還會配一張一看就很邪惡的機器人拿著武器的圖片,并建議我們應該擔憂機器人的崛起,因為它們可能會產生意識并且變得邪惡,然后把我們趕盡殺絕。值得一提的是,這樣的文章確實令人印象深刻,因為它們簡潔地總結了我的人工智能同行們不會擔心的情景。這個情景集合了三個不同的誤區(qū),分別是對意識、邪惡和機器人的理解。

當你開車時就會發(fā)現,你擁有對顏色、聲音等東西的主觀體驗。但是,一輛無人駕駛汽車是否會擁有主觀體驗呢?它會不會感覺到作為一輛無人駕駛汽車的感覺?或者,它只是一個沒有任何主觀體驗的無意識“僵尸”?誠然,關于意識的謎題本身是很有趣的,我們將在第8章討論這個問題,但是,這個問題與人工智能的風險毫無關系。如果你被一輛無人駕駛汽車撞到,它有沒有主觀意識對你來說沒什么兩樣。同樣地,超級智能究竟會如何影響我們人類,只取決于它會做什么,而不取決于它主觀上感覺到了什么。

因此,對邪惡機器的恐懼,也沒那么重要。我們真正應該擔心的不是它們有沒有惡意,而是它們的能力有多強。從定義上來說,一個超級智能會非常善于實現自己的目標,不管這個目標是什么,因此,我們需要確保它的目標與我們的相一致。舉個例子,你可能并不討厭螞蟻,也不會出于惡意踩死螞蟻,但如果你正在負責一個綠色能源的水電項目,在即將淹沒的區(qū)域里有一處蟻穴,那么,這些螞蟻便兇多吉少了。人工智能有益運動的目的就是要避免人類處在這些螞蟻的境地。

對意識的誤解與認為“機器不能擁有目標”這一誤區(qū)有關。狹義地看,機器顯然能擁有目標,因為它們能展現出目標導向行為:熱跟蹤導彈的行為就是為了實現“擊中靶標物”這一目標。如果一臺目標與你的目標不一致的機器令你感受到了威脅,那么,狹義地說,令你擔憂的正是它的目標,而不是它擁有意識或體驗到了意志。如果一枚熱跟蹤導彈正在向你襲來,你肯定不會大喊:“我一點兒也不擔心,因為機器不能擁有目標!”

通俗小報對人工智能危言聳聽的“妖魔化”,令羅德尼·布魯克斯等機器人先驅感到很不公平。在這點上,我很同情他們,因為一些記者確實十分執(zhí)著于“機器人叛亂”的題材,并且喜歡在文章中配上眼睛血紅的邪惡的金屬機器人的圖片。實際上,人工智能有益運動支持者最擔憂的并不是機器人,而是智能本身:尤其是那些目標與我們的目標不一致的智能。這種與我們的目標不一致的智能要引發(fā)我們的憂慮,并不需要一個機器人的身體,只需要連接互聯網即可。我們將在第4章探討互聯網將如何讓人工智能在金融市場上比人類更聰明,獲得比人類研究者更高的投資回報率,比人類領袖更善于權謀,并開發(fā)出我們無法理解的武器。即使不能建造出實體的機器人,一個超級智能和超級富有的人工智能也能很輕易地收買或操縱大量人類,讓他們在不知不覺中執(zhí)行自己的命令,就像威廉·吉布森(William Gibson)的科幻小說《神經漫游者》(Neuromancer)中所描繪的那樣。

對機器人的誤解源自“機器不能控制人類”的誤區(qū)。智能讓控制成為可能:人類能控制老虎,并不是因為我們比老虎強壯,而是因為我們比它們聰明。這意味著,如果我們不再是地球上最聰明的存在,那么,我們也有可能會失去控制權。

圖1-5總結了這些常見的誤區(qū),這樣我們就可以一次性地拋棄它們,并把我們與朋友和同行討論的焦點集中在那些合情合理的爭議上。我們接下來將看到,這些爭議可一點兒都不少!

主站蜘蛛池模板: 菏泽市| 阿勒泰市| 武定县| 裕民县| 萨迦县| 石门县| 赤壁市| 游戏| 湘乡市| 桃园市| 兴安盟| 富裕县| 大安市| 阜阳市| 漯河市| 江阴市| 博罗县| 太和县| 米泉市| 赫章县| 肇源县| 海丰县| 新源县| 邳州市| 栖霞市| 阜康市| 江津市| 灵川县| 永康市| 托里县| 西和县| 韩城市| 尼玛县| 略阳县| 竹北市| 松潘县| 金华市| 富宁县| 滁州市| 阳原县| 滦南县|