舉報

人機對齊:如何讓人工智能學習人類價值觀
最新章節: 第15章 注釋
如今的“機器學習”系統已具備非凡能力,能夠在各種場合代替我們看和聽,并代表我們做決定。但是警鐘已經敲響。隨著機器學習飛速發展,人們的擔憂也在與日俱增。如果我們訓練的人工智能(AI)做的事情與我們真正的目的不符,就會引發潛在的風險和倫理問題。研究人員稱之為對齊問題(thealignmentproblem)。暢銷書作家布萊恩·克里斯汀用生動的筆調,清晰闡釋了AI與我們息息相關的問題。在書中,我們將認識第一批積極應對對齊問題的學者,了解他們為了避免AI發展的局面失控,付出的卓絕努力和雄心勃勃的計劃。克里斯汀不僅精練地描繪了機器學習的發展史,并且親自深入科研一線同科學家對話,準確呈現了機器學習最前沿的進展。讀者可以清晰認識到,對齊問題研究的成敗,將對人類的未來產生決定性影響。對齊問題還是一面鏡子,將人類自身的偏見和盲點暴露出來,讓我們看清自己從未闡明的假設和經常自相矛盾的目標。這是一部精彩紛呈的跨學科史詩,不僅審視了人類的科技,也審視了人類的文化,時而讓人沮喪,時而又柳暗花明。