新華網 正文
超越“機器人三定律” 人工智慧期待新倫理
2019-03-18 16:53:15 來源: 新華網
關注新華網
微博
Qzone
評論
圖集

  新華社北京3月18日電

  新華社記者楊駿

  人工智慧的倫理原則近來備受關注。聯合國教科文組織總幹事阿祖萊在3月初舉行的“推動人性化人工智慧全球會議”上就表示,目前還沒有適用于所有人工智慧開發和應用的國際倫理規范框架。

  對于科幻作家阿西莫夫上世紀設計、防止機器人失控的著名“機器人三定律”,業界早已認識到其局限性。“機器人三定律,歷史上看貢獻很大,但現在停留在三定律上,已遠遠不夠。”專家近日接受記者採訪時這樣説。

  新局面,呼吁倫理新原則

  科學家先前一直希望以最簡單的辦法,確保以機器人為代表的人工智慧不給人類帶來任何威脅。“機器人三定律”規定:機器人不能傷害人類;它們必須服從于人類;它們必須保護自己。後來還加入了“第零定律”:機器人不得傷害人類整體,不得因不作為使人類整體受到傷害。

  “機器人不能傷害人,但機器人會以什麼方式傷害到人?這種傷害有多大?傷害可能以什麼形式出現?什麼時候可能發生?怎樣避免?這些問題在今天要麼需要細化,要麼需要有更具體的原則來防范,而不能停留在七八十年前的認識水準。”中國人工智慧學會AI倫理專業委員會負責人、中國科學技術大學機器人實驗室主任陳小平教授説。

  全球知名的艾倫人工智慧研究所首席執行官埃齊奧尼兩年前就在一次演講中呼吁更新“機器人三定律”。他還提出,人工智慧係統必須遵守適用于其操作人員的所有法律條文;人工智慧係統必須明確表示它不是人類;未經資訊來源明確許可,人工智慧係統不能保留或披露機密資訊等。在當時,這些頗有新意的意見引發業界熱議。

  美國人工智慧倫理領域知名學者、麻省理工學院教授泰格馬克近年推廣的“AI有益運動”提出,需有新倫理原則確保未來人工智慧和人類的目標一致。這項活動曾獲得霍金等眾多全球頂級科學家以及知名IT企業支援。

  “人工智慧在乘數效應的推動下會變得越來越強大,留給人類試錯的空間將越來越小。”泰格馬克説。

  人為本,全球探路新倫理

  當前全球對人工智慧新倫理的研究日趨活躍。不少人對人工智慧心存芥蒂,多半來自其高速發展帶來的未知性,“保護人類”成為首當其衝的關切。

  “必須確保人工智慧以人為本的發展方向。”阿祖萊呼吁。

  美國機器智能研究院奠基人尤德科夫斯基提出了“友好人工智慧”的概念,認為“友善”從設計伊始就應當被注入機器的智能係統中。

  新倫理原則不斷提出,但突出以人為本的理念始終不變。百度公司創始人李彥宏在2018年中國國際大數據産業博覽會上提出了“人工智慧倫理四原則”,首要原則就是安全可控。

  美國電氣和電子工程師協會規定,人工智慧要優先考慮對人類和自然環境的好處的最大化。

  新的倫理原則制定也正提上各國政府的議事日程。

  中國政府2017年7月發布《新一代人工智慧發展規劃》時就指出,建立人工智慧法律法規、倫理規范和政策體係,形成人工智慧安全評估和管控能力;2018年4月,歐盟委員會發布的文件《歐盟人工智慧》提出,需要考慮建立適當的倫理和法律框架,以便為技術創新提供法律保障;今年2月11日,美國總統特朗普簽署行政令,啟動“美國人工智慧倡議”,該倡議的五大重點之一便是制定與倫理有關聯的人工智慧治理標準。

  存憂慮,跨界共商新問題

  陳小平呼吁,為規避人工智慧發展過程中的倫理道德風險,人工智慧學術界和産業界,以及倫理、哲學、法律等社會學科各界應參與原則制定並緊密合作。

  他認為,雖然從短期看還沒有證據指向人工智慧有重大風險,但依然存在隱私泄露、技術濫用等問題。而無人駕駛、服務類機器人的倫理原則也須盡快探討制定。

  美國電氣和電子工程師協會還規定,為了解決過錯問題,避免公眾困惑,人工智慧係統必須在程式層面具有可追責性,證明其為什麼以特定方式運作。

  “就長期來看,不能等到出現了嚴重的問題,再制定措施去防止。”陳小平認為,人工智慧和其他技術的特點不一樣,很多人工智慧技術具有自主性。例如自主機器人在現實社會中具有物理行動能力,如果沒有適當的防范措施,一旦出現嚴重問題,可能危害較大。

  陳小平希望更多人參與人工智慧倫理研究,尤其是科學家和工程師,因為恰恰他們最了解問題的根源、危險可能發生的方式、細節和相關技術進展,“他們不説,外界只能去猜,難以得出正確的判斷和適當的應對措施”。

  他還提醒,在防范風險的同時應該注意平衡,避免因為過度限制或使用不合適的降低風險方式造成遏制産業發展的副作用。

+1
【糾錯】 責任編輯: 劉笑冬
新聞評論
載入更多
玉淵潭早櫻迎春
玉淵潭早櫻迎春
海南海文大橋建成通車
海南海文大橋建成通車
春日鳥瞰“長江第一灣”
春日鳥瞰“長江第一灣”
春花爛漫映峽江
春花爛漫映峽江

010160000000000000000000011101091124249611