人與AI之間的界線可能越來越模糊,但權利與責任的界線必須越畫越清。
“手敲了一下午的劇本被以為是AI”。據報道,隨着AI的廣泛應用,一些“真人創作者”也面臨窘境:自己發布的內容被&&誤判為AI生成,甚至面臨作品被限流、下架的境遇。
不久前,一句評論引發全國首例AI誤判案或能帶來啟示。一位普通網民李先生在某&&發表評論,被機器判定為“AI生成”,內容遭隱藏,賬號被禁言一天。向&&申訴未果後,李先生選擇起訴&&,北京互聯網法院經審理支持了李先生的訴求,判決&&刪除對李先生評論的違規處理記錄,撤銷隱藏內容。
表面上,這只是一次輕微的網絡糾紛,但因身處“算法”和“AI”生成兩大前沿科技的交匯點而別具意義。比如應該如何對待AI生成內容?&&算法在其中承擔了什麼角色,産生誤判又該怎麼辦,用戶與&&出現爭議誰來舉證等問題。
在此案例中,法院並沒有親自下場厘清李先生的評論到底是不是AI生成,而是通過明確兩個原則進行判定,其一,&&有權對涉案內容是否屬於AI生成合成內容進行審查和處理;其二,&&應該有合理依據。這實際上把舉證的責任交給了&&,而&&又無法對算法決策依據和結果進行適度的解釋和説明,因此敗訴。
9月1日起,國家互聯網信息辦公室、工業和信息化部等部門聯合發布《人工智能生成合成內容標識辦法》將施行,要求上游AI模型需要對生成內容、元數據文件添加標識,&&亦應根據不同情形添加相應標識。
現實遠比規則複雜。未來靠人力對AI生成內容標識顯然不可能,“用AI對抗AI”將成為常態,AI檢測技術難免出錯。更大問題在於,當算法的判定缺乏解釋性、申訴機制不透明時,誤判不僅是一時的技術錯誤,而是對創作者聲譽和作品可見度的直接傷害。
北京互聯網法院此次判決的意義在於,它首先認可了&&的“守門員”角色,認為&&具有相關內容的審核權,但同時又限制了&&的“裁判員”角色。這不僅是法律邏輯,也是權力與責任的平衡。
判定一條網友評論是否AI生成事小,但確定原則、防患於未然事大。2016年,澳大利亞政府通過技術手段檢測社會福利欺詐,簡單對比稅務與福利數據,自動判定了大量低收入者涉嫌騙保,這一過程中超過50萬人受到影響。但這是一次誤判事件,最終政府公開道歉並啟動賠償計劃。如無合理制度,類似事件並非不可能重演。
由此也可讓公眾知曉,在AI時代,被誤判後是可以主張闔法權益的;&&應建立更高效、更可追溯的覆核機制,同時要加強算法的“可解釋性”。
在未來的數字世界裏,人與AI之間的界線可能越來越模糊,但權利與責任的界線必須越畫越清。否則,我們將生活在一個諷刺的場景中:最擅長模仿人類的AI安然無恙,而真正的人類卻要四處證明自己“不是機器”。(信海光)