10月25日,法國總統馬克龍(中左)在聖埃蒂安市視察一家智能機器人公司
歐洲議會的決議再次表明了歐洲在數字領域注重道德倫理的態度,歐洲有志於站在倫理的制高點,引導全球人工智能的發展方向。
邱靜
歐洲議會10月通過一項決議,對執法機構在執法過程中使用人工智能提出要求,呼籲禁止警方在公共場所或者邊境檢查中實行大規模人臉識別、禁止使用私域人臉識別數據庫以及根據行為特徵進行預測性監管等。
歐洲議會的決議再次表明了歐洲在數字領域注重道德倫理的態度,歐洲有志於站在倫理的制高點,引導全球人工智能的發展方向。
關注人的數據安全和被濫用
歐洲的人工智能倫理主要關注數字技術的開發者、製造商和運營商的行為規範,以最大限度減少在人工智能技術發展和運用中可能産生的危害。其涵蓋範圍主要包括數據隱私、偏見、歧視等産生的各類問題,近期和中期的擔憂是人工智能對工作和工作場所的影響,長期性擔憂關注人工智能技術達到或者超過人類同等能力時所産生的影響。
人工智能倫理涉及的方面較多,歐洲主要關注以下幾個方面。
一是隱私。人工智能技術的開發和運用需要收集和使用大量數據,其中包含個人信息。大數據中長期保留的個人信息被攫取和使用的風險較大;機器學習可以幫助從數據中提取信息、發現新模式,並且能夠將看似無害的數據轉化為敏感的個人數據;通過面部識別軟體或對購物、社交媒體的數據挖掘來識別個體身份;人工智能技術被大量用於監視和偵查,即使主體對數據擁有相應權利,但也難以控制訓練有素的人工智能模型……這些都可能導致對個人隱私和尊嚴的侵犯。
二是公平。人工智能由人創造,因此易受人的偏見左右。技術開發人員和用戶的價值觀會影響人工智能模型的設計和使用,導致系統偏差,尤其是相關程序主要反映特定人群的價值觀時,形成偏見和歧視的現象就會更加突出。人工智能系統會不斷複製和強化這種偏見,從而造成嚴重的社會問題,産生深遠的影響。
例如,在某些西方國家執法和維護國家安全的過程中,面部識別技術的運用導致黑人等特定人群受到不公平對待;在職業領域,女性更易遭受性別歧視。而且,人工智能系統尤其是深度學習的系統,一般都有掌握其運作的“黑匣子”,使得系統運行的透明度較差,這加深了人們對技術的不信任,使人們更加質疑其公平性。
三是平等。人工智能的發展可以簡化業務,較大程度上提高生産效率和能力,增進企業的效益,使企業所有人獲得不成比例的收益。但與此同時,人工智能也可能取代某些工作崗位,導致部分人群失業或者收入快速下降,收入差異化現象會更加突出,就業結構呈現兩極化趨勢,加劇社會不平等問題。
此外,技術逐漸成為一種支配性甚至壟斷性的權力。人工智能的發展讓谷歌、臉書(元)、蘋果、亞馬遜等數字大公司擁有更強大的技術能力,獲取更多的數據和市場份額,從而鞏固市場壟斷地位、集聚更大的私權力,導致貧富差距及更加嚴重的社會撕裂。
四是安全。人工智能的安全因素在於其形成的風險具有不可預知性,亦即難以準確預估和應對不確定性導致的安全問題,比如設計漏洞、設計不當引發的安全風險,操作不當、惡意使用引發的安全問題,等等。
深度學習可以不斷提升人工智能系統的能力,但自我提升的過程容易形成新的安全風險,使不確定性持續存在,尤其是超級人工智能不能自主有效應對各類不確定性因素。此外,人工智能技術一旦被恐怖組織或個人獲取和掌握,以及被用於戰爭,會給整個人類帶來致命的危害。
相關立法循序漸進
在規制人工智能技術應用方面,歐盟走在了前列,尤其密切關注人工智能可能引發的各類問題,並且率先制定出相關規則。
2018年生效的歐盟《通用數據保護條例》被稱為史上最嚴格的數據保護條例,它明確了數據主體所享有的知情同意權、遺忘權、可攜帶權等,規定了數據控制者和處理者的責任和義務,設立了數據保護官,增大了處罰力度。人工智能的設計和運行需要獲取大量數據,都受到該條例的有效約束。
同時,歐盟委員會於2020年2月發布了《人工智能白皮書——歐洲追求卓越和信任的策略》,提出希望建立卓越和可信任的人工智能生態系統。2021年4月21日,歐盟委員會發布了立法提案——《歐洲議會和理事會關於制定人工智能統一規則(人工智能法)和修訂某些歐盟立法的條例》(以下簡稱“人工智能立法提案”),以期通過建設可信人工智能,獲取全球倫理規則制定主導權。
人工智能立法提案經歐洲議會和歐洲理事會審議通過後將成為歐盟的法律,其主要內容包括:
首先,實行分級管理。根據系統的功能和用途,將人工智能應用風險分為不可接受的風險、高風險、有限風險和低風險四類。
對公民的安全、日常生活和基本權利構成嚴重威脅的,屬於不可接受的風險。例如,人工智能系統通過潛意識技術扭曲人的行為或者利用人的弱點,導致對此人或者其他人形成身體或精神上的傷害;公共機構進行社會評分的人工智能系統可能造成部分人群受到不公平待遇。
此外,原則上禁止出於執法目的在公共空間使用實時遠程生物識別系統,如面部識別系統。但一些特殊情況除外,如緊急尋找失蹤兒童等。
其次,對高風險嚴格管理。提案將可能發生高風險的領域分為關鍵基礎設施、公共服務、&&境等八類,並且強調所有遠程生物識別系統都具有高風險。
提案明確存在高風險的人工智能技術在投入市場之前應當履行相關義務:具有完備的風險評估系統,採取風險管理措施;向系統提供高質量的數據集,檢查可能存在的偏見,以規避風險和防止歧視性結果;採取適當的監管措施,盡量降低安全風險;完成提高透明度的相關義務,例如向用戶提供清晰、準確和全面的信息,做好記錄存檔工作以確保結果和過程可追溯,及時提供系統運行及其目的的相關信息以供監管當局查詢。
再次,對有限風險提出透明度要求。除對高風險系統提出嚴格的透明度要求外,提案還明確透明度義務適用於某些風險較低的人工智能系統,例如與人類交互的人工智能系統、情感識別或者生物特徵分類系統、深度偽造技術等。
最後,明確監管部門和處罰要求。提案指出,可以成立歐盟人工智能委員會,委員會負責監督新規則的實施和相關標準的制定,並且協調成員國行為、促進成員國分享實踐經驗。
在處罰方面,針對不同情形設定了相應處罰力度。例如,明確在開發或者使用高風險的人工智能系統中,如果違反相關規定,將處以高達3000萬歐元或公司全球年度總營業額2%至6%的行政罰款。
全球影響
歐盟&&了數據保護法律,並即將&&人工智能法律。在人工智能快速發展的時代,歐盟的立法將對歐洲的人工智能設計和應用産生影響,也將在某種程度上引導全球人工智能發展的方向。
一是可能在一定程度上抑制歐洲的人工智能創新。
2021年1月25日美國信息技術與創新基金會發布的報告指出,歐洲的人工智能仍然落後於美國和中國。為改變落後局面,歐盟及歐洲各國進行了大量投資,但是歐洲一直將權利保護與道德倫理作為優先價值選擇。《通用數據保護條例》提高了個人數據保護水平,但嚴格的規定也給企業增加了相當的負擔,具體監管上也存在困難。
有專家指出,歐盟委員會的人工智能立法提案可能會在一定程度上阻礙企業創新;美國智庫數據創新中心的報告指出,規範歐洲人工智能的新法律可能給歐盟在未來5年內造成31億歐元經濟損失。
二是增大了其他國家的企業進入歐盟市場的難度。
歐盟的法律規定將導致人工智能研發成本上升。同時,立法提案明確了適用範圍包括為歐洲提供人工智能系統或服務的全球各類經濟體,進口商必須確保外國供應商已經執行了適當的合規評估,符合歐盟法律相關規定,這些嚴格規範會增加他國企業進入歐盟市場的難度、提高成本,相當於給歐盟市場築起一道藩籬。
三是有助於歐洲鞏固其佔據的倫理制高點和規則主導權。
基於制定規範的能力、歐盟市場的規模效應以及形成的道德引導力,歐盟制定的規則常常具有“布魯塞爾效應”,能夠影響其他國家的規則制定。例如,《通用數據保護條例》成為數據保護的範本法律,被很多國家借鑒。而歐盟即將&&的人工智能立法注重倫理建設、權利保護以及風險防範,充分體現了歐洲以人為本的價值觀,符合全球對於人工智能發展不確定性的擔憂狀況。而且相關規範具體、合理,可能再次引領全球數字領域立法的發展方向。
同時,基於價值理念上的差異與鼓勵創新的考慮,其他國家可能會更加注重在倫理、權利與自由創新之間尋求平衡,避免損害自身的國際競爭力。
四是將實質性提高人工智能的道德性和安全性。
《通用數據保護條例》及其帶來的全球影響較大程度上提高了數據保護水平。歐盟人工智能立法提案明確了分級管理體制,禁止某些人工智能技術,對高風險人工智能的開發和應用提出了合規要求,並設置處罰規定。
立法使一些道德倫理上的要求轉化為具體規範,並且具有了法律約束力,可以促使人工智能設計和應用充分體現倫理要求,有效保護個人權利,盡力防範各類風險,從而引導技術向善,避免給個人和社會帶來危害。
五是促進全球人工智能監管政策的實施。
由於人工智能的重要性和存在的潛在風險,大部分國家和國際組織都較為重視道德倫理、權利保護和安全問題,並形成了一些提議,但基本上還停留於研究和號召層面,形成了一些原則性內容,而欠缺具體規範,也沒有具體落實。對歐盟的人工智能立法,國際社會廣泛關注,其他國家和國際組織也會逐漸落實相關提議,開啟立法議程並保障規定的實施。
(作者係中國社會科學院世界經濟與政治研究所副編審)
來源:2021年11月17日出版的《環球》雜誌 第23期
《環球》雜誌授權使用,其他媒體如需轉載,請與本刊&&
本期更多文章敬請關注《環球》雜誌微博、微信客戶端:“環球雜誌”
|