新華網 > > 正文
2024 05/ 20 16:49:18
來源:第一財經

人工智能全球監管迎來重磅一週

字體:

  從一份公約到一次政府間對話首次會議,從一場峰會到一份法規的簽署,前後兩周內,人工智能(AI)的全球治理正被緊鑼密鼓地提上各方議程。

  21日,韓國將和英國共同在首爾主辦第二屆人工智能安全峰會,大會將重點討論人工智能安全問題,並探討最先進的人工智能模型的潛在能力。同日,歐洲理事會將通過歐盟《人工智能法案》,這意味着相關規則將於6月開始實施。

  而在剛剛過去的周五(17日),歐洲委員會(The Council of Europe)通過了一份AI公約,並稱這是有史以來AI領域首個具有法律約束力的國際條約,並對非歐洲國家開放簽署。另據中國外交部美大司消息,當地時間2024年5月14日,中美人工智能政府間對話首次會議在瑞士日內瓦舉行。雙方圍繞人工智能科技風險、全球治理、各自關切的其他問題深入、專業、建設性地交換了意見。

  一直以來,如何推出能被廣泛接受的人工智能治理原則挑戰重重。意大利經濟發展部前副部長、意大利獨立黨外交及國際貿易負責人傑拉奇(Michele Geraci)近期接受第一財經記者採訪時,直截了當地回答説,他認為無法對AI技術實現全球監管。

  然而,從經合組織(OECD)到聯合國,國際層面始終在努力推進這一議程,並找到監管的“公約數”。金杜律師事務所合夥人吳涵律師告訴第一財經,從監管內容來看,中國、美國和歐盟在一定程度上均具有共性。

  AI治理的雙多邊討論“多點開花”

  歐洲委員會秘書長佩奇諾維奇(Marija Pejčinović)介紹,該機構17日通過的《人工智能框架公約》提出了一個法律框架,涵蓋了AI系統的整個生命周期,旨在促進負責任的技術創新、利用AI的益處,並解決可能的技術風險。

  與今年3月13日在歐洲議會通過的《歐盟人工智能法案》相同,該公約對人工智能系統的設計、開發、使用和退役採用基於風險的方法,要求仔細考慮使用人工智能系統的任何潛在負面後果。

  而時隔兩個月,歐盟《人工智能法案》也將於21日在歐洲理事會簽署,這是全球首部AI領域的全面監管法規,違反法規的相關方將被追究責任。為了幫助歐洲企業為這一法案的實施做好準備,歐盟委員會還制定了《人工智能契約》。該契約旨在幫助領先企業測試,並與其他公司分享其AI解決方案,以迎接即將到來的監管框架。

  吳涵稱,值得注意的是,從《通用數據保護條例》(GDPR)到《數字服務法案》《數字市場法案》,再到歐盟《人工智能法案》,歐盟在數字經濟監管上的創新不僅僅體現在具體的監管措施,其規則輸出的“布魯塞爾效應”愈發凸顯。從GDPR等可以看出,歐洲的數據監管規則一定程度上不僅輸出了部分監管工具(比如GDPR下的標準合同條款),更嘗試在價值觀等方面獲得更多國家的共識。

  除歐洲外,根據外交部美大司消息,在中美人工智能政府間對話首次會議上,雙方介紹了各自對人工智能技術風險的看法和治理舉措以及推動人工智能賦能經濟社會發展採取的措施。中方強調人工智能技術是當前最受關注的新興科技,中方始終堅持以人為本、智能向善理念,確保人工智能技術有益、安全、公平。中方支持加強人工智能全球治理,主張發揮聯合國主渠道作用,願同包括美方在內的國際社會加強溝通協調,形成具有廣泛共識的全球人工智能治理框架和標準規範。中方就美方在人工智能領域對華限制打壓表明嚴正立場。

  在全球層面,第二屆人工智能安全峰會將於21日在首爾舉辦。去年11月舉行的第一屆峰會發布的《布萊奇利宣言》稱,AI的許多風險本質上是國際性的,因此“最好通過國際合作來解決”。與會國家和地區同意協力打造一個“具有國際包容性”的前沿AI安全科學研究網絡,以對尚未被完全了解的AI風險和能力加深理解。

  中美歐在AI治理上的共性與差異

  早在2019年,OECD就首次發布了其人工智能原則。這些原則已成為全球人工智能政策制定的參考點,歐盟、美國和聯合國在其立法和監管框架中都使用了經合組織對人工智能系統和生命周期的定義。

  但在“定義”之外,對於全球治理能否實現這個問題,歐洲復興開發銀行前行長查克拉巴蒂(Suma Chakrabarti)近期接受第一財經記者專訪時&&,全球數字治理的核心問題是各國政府能否統一標準,以實現數字基礎設施的跨國互操作性。但其中存在很大的障礙,例如不同國家和地區的公民對政府和私營部門處理數據的信任程度差別很大。

  “這些信任缺失的挑戰,無論是個人與政府之間,還是政府與政府之間,都使全球治理變得複雜。”他認為,全球治理應該從簡單的、有共識的領域切入。

  查克拉巴蒂解釋:“加州大學伯克利分校計算機科學教授拉塞爾(Stuart Russell)對此有一個關於醫藥業的形象類比。藥品的製造商需要證明其藥物能夠提供公共利益,無論在美國、中國還是英國,對有效藥物的需求已達成普遍共識,不存在政治爭議。我們可以將類似的框架應用於人工智能,比如強制要求開發人工智能技術的公司證實其對公眾的益處。此類評估應公正進行,確保評估在技術上保持中立。”

  那麼,全球主要經濟體對人工智能治理持有怎樣的觀點,又有何共性?

  吳涵對第一財經記者介紹,從《人工智能法案》等相關數字立法來看,歐盟均以事前監管為重點,構建涵蓋事前、事中和事後的全鏈條監管體系。

  這至少折射出兩個方面的信號。一方面,歐盟貫徹“以風險為進路”的監管模式,無論是對個人數據,數字服務企業還是AI系統,均整合了規制對象的相關特徵,對特定規制對象進行分類,並施加差異化的監管規則。另一方面,GDPR和《數字服務法案》《數字市場法》等幾部歐盟法案均是歐盟的正式法律,具有強行性法律效力,並非市場主體可以任意選擇遵循或不遵循的倡導性提議。

  在AI技術更迭迅速、風險具有不確定性的現階段,吳涵&&,我國和歐盟均採取了重事前監管、兼顧事中和事後監管的全生命周期監管模式。

  比如,歐盟要求高風險AI系統提供者在將其系統投放市場或投入使用前開展符合性評估,並加貼CE標識;而結合《生成式人工智能服務管理暫行辦法》與實踐的監管動態,我國生成式人工智能服務領域則形成了由算法備案和大模型評估構成的“雙備案”制,體現了我國的事前監管要求。

  但吳涵稱,從AI立法進展來看,儘管在事前監管上有相同理念,相較於歐盟歷時三年制定的《AI法案》,我國採取了“小切口法”的立法策略,深入特定應用領域提出監管要求,體現了我國在AI領域中的“敏捷治理”理念。

  “與此同時,我國也正在積極推進《人工智能法草案》的立法工作。此外,雖然我國和歐盟在AI治理領域均採取了風險分類分級的手段,但基於彼此具體社會情境的現實差異與法律基礎等的差異,我國與歐盟對AI的風險認知框架存在不同。”吳涵説。

  但美國的AI治理思路明顯存在差異。吳涵稱,在AI治理文件方面,美國雖然也開始了一定的AI治理規則制定工作,但大多為政策或指引,正式立法嘗試較少,且暫未在美國範圍形成內具有廣泛適用性與法律效力的統一監管規則,倡議性文件居多。在治理模式上,現階段,美國主要由各監管部門開展自上而下的分散監管,這與歐盟制定《AI法案》的思路也存在較大的差異。

  吳涵認為:“儘管存在諸多差異,但根據目前美國公開發布的AI相關文件,如美國國會人工智能小組發布的《人工智能基礎模型透明法(草案)》,與中國和歐盟相似,美國也重點關注AI系統的透明度披露、訓練數據治理、知識産權保護、內容安全與倫理等。在監管內容方面,美國與中歐在一定程度上均具有共性。”

【糾錯】 【責任編輯:黃海榮 】
閱讀下一篇:
010020010010000000000000011100001212364104