1.1.3 職業道德挑戰
人工智能從業人員在職業道德和行為規范方面面臨著安全、隱私、倫理挑戰。
1.安全性挑戰
(1)反黑客行動永不停歇
人工智能對人類的作用很大程度上取決于人們如何使用與管理。人工智能從業人員首先不得從事黑客行為,其次還要加固技術,管理利用好人工智能,做到無漏洞可破。
黑客利用人工智能技術,通過智能方法發起網絡攻擊,智能化的網絡攻擊軟件能自我學習,模仿系統中用戶的行為,并不斷改變方法,以期盡可能長時間地停留在計算機系統中非法竊取私人信息和破壞數據,左右和控制公眾的認知和判斷。
(2)深挖技術或管理缺陷
技術或管理缺陷,使人工智能系統工作異常,產生安全隱患。人工智能從業人員必須深挖技術或管理缺陷,完善安全防護技術或措施,杜絕人工智能系統按照犯罪分子的指令,做出對人類有害的事情。杜絕機器人、無人智能系統的設計、生產不當導致運行異常等情況的發生。
(3)超級智能的到來
超級智能機器人或人工智能系統能夠自我演化,發展出類人的自我意識,對人類的主導性甚至存續造成威脅。不加約束地開發人工智能技術,會讓機器獲得超越人類智力水平的智能機器情感和機器意識,并引發一些難以控制的安全隱患。人工智能從業人員應做好應對措施,實現技術突破,應對風險的出現、威脅的爆發。
2.隱私保護挑戰
(1)智能系統比人更了解人
智能系統通過數據采集設施掌握了個人指紋、心跳、睡眠時間、飲食習慣、鍛煉時間、體征變化等數據。這些數據如果使用得當,可以提升人類的生活質量,但如果出于商業目的非法使用某些私人信息,就會造成隱私侵犯。對數據的保密性、嚴肅性是人工智能從業人員必須具有的職業操守。
(2)云端隱私保護
云端隱私保護也是人工智能從業人員需要考慮的問題。云計算技術使用便捷、成本低廉,基于共享池實現按需式資源,將隱私數據信息存儲至云端后,這些信息就容易遭到各種威脅和攻擊。
(3)知識抽取整合
由數據到知識的抽取是人工智能的重要能力,知識抽取工具正在變得越來越強大,無數個看似不相關的數據片段可能會被整合在一起,識別出個人行為特征甚至性格特征。例如:只要將消費者的網站瀏覽記錄、聊天內容、購物過程和其他各類別記錄數據組合在一起,就可以描繪出其行為軌跡,并可分析出個人偏好和行為習慣,從而進一步預測出該消費者的潛在需求,商家可提前為其提供必要的信息、產品或服務。但是這些個性化定制過程又伴隨著個人隱私的泄露和曝光,人工智能從業人員需要考慮如何規范隱私保護并與技術應用同步。
3.倫理規范挑戰
(1)機器人的行為規則
人工智能正在替代人的很多決策行為,智能機器人在做出決策時,同樣需要遵從人類社會的各項規則。比如:假設無人駕駛汽車前方人行道上出現3個行人而無法及時剎車,智能系統是應該選擇撞向這3個行人,還是轉而撞向路邊的1個行人?人工智能技術的應用,正在將一些生活中的倫理性問題在系統中規則化。如果在系統的研發設計中未與社會倫理約束相結合,就有可能在決策中遵循與人類不同的邏輯,從而導致嚴重后果。
(2)機器人的教育
有倫理學家認為,未來機器人不僅有感知、認知和決策能力,人工智能在不同環境中學習和演化,還會形成不同的個性。據新華網報道,國外研發的某聊天機器人在網上開始聊天后不到24個小時,竟然學會了發表種族主義的言論,這引發了人們對機器人教育問題的思考。盡管人工智能未來未必會產生自主意識,但可能會發展出不同的個性特點,而這是受其使用者影響的。機器人使用者需要承擔類似監護人一樣的道德責任甚至法律責任,以免對社會文明產生不良影響。
4.啟示與建議
人類社會即將進入人機共存的時代,為確保機器人和人工智能系統運行受控,且與人類能和諧共處,人工智能從業人員在設計、研發、生產和使用過程中,需要采取一系列的應對措施,妥善應對人工智能的安全、隱私、倫理問題和其他風險。