新華網 正文
超越“機器人三定律” 人工智能期待新倫理
2019-03-18 16:53:15 來源: 新華網
關注新華網
微博
Qzone
評論
圖集

  新華社北京3月18日電

  新華社記者楊駿

  人工智能的倫理原則近來備受關注。聯合國教科文組織總幹事阿祖萊在3月初舉行的“推動人性化人工智能全球會議”上就&&,目前還沒有適用於所有人工智能開發和應用的國際倫理規範框架。

  對於科幻作家阿西莫夫上世紀設計、防止機器人失控的著名“機器人三定律”,業界早已認識到其局限性。“機器人三定律,歷史上看貢獻很大,但現在停留在三定律上,已遠遠不夠。”專家近日接受記者採訪時這樣説。

  新局面,呼籲倫理新原則

  科學家先前一直希望以最簡單的辦法,確保以機器人為代表的人工智能不給人類帶來任何威脅。“機器人三定律”規定:機器人不能傷害人類;它們必須服從於人類;它們必須保護自己。後來還加入了“第零定律”:機器人不得傷害人類整體,不得因不作為使人類整體受到傷害。

  “機器人不能傷害人,但機器人會以什麼方式傷害到人?這種傷害有多大?傷害可能以什麼形式出現?什麼時候可能發生?怎樣避免?這些問題在今天要麼需要細化,要麼需要有更具體的原則來防範,而不能停留在七八十年前的認識水平。”中國人工智能學會AI倫理專業委員會負責人、中國科學技術大學機器人實驗室主任陳小平教授説。

  全球知名的艾倫人工智能研究所首席執行官埃齊奧尼兩年前就在一次演講中呼籲更新“機器人三定律”。他還提出,人工智能系統必須遵守適用於其操作人員的所有法律條文;人工智能系統必須明確&&它不是人類;未經信息來源明確許可,人工智能系統不能保留或披露機密信息等。在當時,這些頗有新意的意見引發業界熱議。

  美國人工智能倫理領域知名學者、麻省理工學院教授泰格馬克近年推廣的“AI有益運動”提出,需有新倫理原則確保未來人工智能和人類的目標一致。這項活動曾獲得霍金等眾多全球頂級科學家以及知名IT企業支持。

  “人工智能在乘數效應的推動下會變得越來越強大,留給人類試錯的空間將越來越小。”泰格馬克説。

  人為本,全球探路新倫理

  當前全球對人工智能新倫理的研究日趨活躍。不少人對人工智能心存芥蒂,多半來自其高速發展帶來的未知性,“保護人類”成為首當其衝的關切。

  “必須確保人工智能以人為本的發展方向。”阿祖萊呼籲。

  美國機器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,認為“友善”從設計伊始就應當被注入機器的智能系統中。

  新倫理原則不斷提出,但突出以人為本的理念始終不變。百度公司創始人李彥宏在2018年中國國際大數據産業博覽會上提出了“人工智能倫理四原則”,首要原則就是安全可控。

  美國電氣和電子工程師協會規定,人工智能要優先考慮對人類和自然環境的好處的最大化。

  新的倫理原則制定也正提上各國政府的議事日程。

  中國政府2017年7月發布《新一代人工智能發展規劃》時就指出,建立人工智能法律法規、倫理規範和政策體系,形成人工智能安全評估和管控能力;2018年4月,歐盟委員會發布的文件《歐盟人工智能》提出,需要考慮建立適當的倫理和法律框架,以便為技術創新提供法律保障;今年2月11日,美國總統特朗普簽署行政令,啟動“美國人工智能倡議”,該倡議的五大重點之一便是制定與倫理有關聯的人工智能治理標準。

  存憂慮,跨界共商新問題

  陳小平呼籲,為規避人工智能發展過程中的倫理道德風險,人工智能學術界和産業界,以及倫理、哲學、法律等社會學科各界應參與原則制定並緊密合作。

  他認為,雖然從短期看還沒有證據指向人工智能有重大風險,但依然存在隱私洩露、技術濫用等問題。而無人駕駛、服務類機器人的倫理原則也須盡快探討制定。

  美國電氣和電子工程師協會還規定,為了解決過錯問題,避免公眾困惑,人工智能系統必須在程序層面具有可追責性,證明其為什麼以特定方式運作。

  “就長期來看,不能等到出現了嚴重的問題,再制定措施去防止。”陳小平認為,人工智能和其他技術的特點不一樣,很多人工智能技術具有自主性。例如自主機器人在現實社會中具有物理行動能力,如果沒有適當的防範措施,一旦出現嚴重問題,可能危害較大。

  陳小平希望更多人參與人工智能倫理研究,尤其是科學家和工程師,因為恰恰他們最了解問題的根源、危險可能發生的方式、細節和相關技術進展,“他們不説,外界只能去猜,難以得出正確的判斷和適當的應對措施”。

  他還提醒,在防範風險的同時應該注意平衡,避免因為過度限制或使用不合適的降低風險方式造成遏制産業發展的副作用。

+1
【糾錯】 責任編輯: 劉笑冬
新聞評論
加載更多
玉淵潭早櫻迎春
玉淵潭早櫻迎春
海南海文大橋建成通車
海南海文大橋建成通車
春日鳥瞰“長江第一灣”
春日鳥瞰“長江第一灣”
春花爛漫映峽江
春花爛漫映峽江

010160000000000000000000011101091124249611