- 2020—2021年中國人工智能產業(yè)發(fā)展藍皮書
- 中國電子信息產業(yè)發(fā)展研究院編著
- 506字
- 2024-01-25 18:10:21
第四節(jié) AI應用面臨社會問題和道德法律挑戰(zhàn)
隨著以人工智能為基礎的創(chuàng)新在我們的生活中變得越來越普遍,人工智能應用的道德挑戰(zhàn)越來越明顯,并且受到了嚴格審查,各種AI技術的使用會導致意想不到(或有害)的后果,例如侵犯隱私、基于性別、種族/民族、性取向或性別認同的歧視和不透明的決策等問題。應對現(xiàn)有的道德挑戰(zhàn),并在部署之前構建負責任的、公平的AI創(chuàng)新變得更為重要。根據(jù)斯坦福大學數(shù)據(jù),AI框架、AI研究和教育、人臉識別、算法偏差是全球最受關注的AI倫理議題。
自 2015年以來,政府、私營企業(yè)、政府組織和研究專業(yè)組織陸續(xù)開始編寫應對AI應用道德挑戰(zhàn)的規(guī)范性原則文件,表明各國政府和組織正在注意并建立AI治理的愿景。即便如此,AI倫理原則概念的泛華在 2020年遭到了倫理研究者和人權從業(yè)者的批評,他們反對與倫理有關的術語的不精確使用以及缺乏制度框架,在大多數(shù)情況下不具有約束力。這些原則的模糊和抽象無法為如何具體實施與AI相關的道德準則提供指導。數(shù)據(jù)顯示,截至 2020年,歐洲和中亞地區(qū)發(fā)布的AI道德原則數(shù)量最多(52 份),其次是北美(41 份)、東亞和太平洋地區(qū)(14 份),其中僅歐盟委員會發(fā)布AI白皮書、聯(lián)合國成立AI倫理委員會、梵蒂岡發(fā)布AI倫理計劃受到國際社會的較高關注。