“十五五”規劃建議提出,全面實施“人工智能+”行動,並將“加強人工智能治理”作為數字強國建設的重要部署。當前,以大語言模型為代表的生成式人工智能,正以其前所未有的創造力、擬真度和普及速度,成為推動社會變革的重要驅動力量。它不僅是提升效率的工具,更直接參與內容生産與意義建構過程,正在重塑信息生産機制、文化傳播形態以及人們理解世界的方式。然而,生成式人工智能在釋放巨大潛能的同時,也引發了深度偽造、算法偏見、知識産權爭議以及信息信任受損等一系列倫理與社會風險。因此,迫切需要提升公眾數字素養,引導公眾成為負責任的技術使用者和倫理規範的積極共建者,從而推動生成式人工智能實現健康、可持續的發展。
生成式人工智能治理面臨挑戰
生成式人工智能治理面臨的挑戰,是技術、認知和社會責任三個維度的複雜耦合。
第一,技術層面,算法歧視與“黑箱”風險雙重疊加。生成式人工智能模型訓練所依賴的大規模數據集,往往內含歷史性且隱性的社會偏見。這些偏見在模型設計、算法處理和訓練數據等多個環節中相互疊加,共同助長了有害的刻板印象,進而導致生成結果出現歧視性傾向。同時,受算法工程師技術操作能力和算法企業內部數據保護機制的限制,內部結構和參數的不可知,導致了算法“黑箱”的出現,由此嚴重削弱了模型的可解釋性,進而阻礙了倫理風險的有效追溯和責任的明確界定。
第二,認知層面,公眾批判思維與信息甄別能力不足。技術風險的治理最終要落腳於社會主體,而公眾認知能力的不足是風險轉化為現實危害的“放大器”。首先,過度依賴AI削弱了公眾的獨立思考能力。生成式人工智能的便捷性及其生成內容呈現出的“高度可信性”,正在削弱公眾的主動思考與判斷能力,加劇人的認知惰性和對技術的過度依賴。當公眾習慣於直接採納AI提供的答案時,其對信息的主動求證、批判質疑和對複雜問題的獨立分析能力將逐漸退化。其次,信息甄別不足助長風險傳播。普通公眾缺乏甄別AI生成內容(尤其是深度偽造音視頻、文本)的技術知識和批判工具,極易將虛假信息視為真實信息。這種甄別能力的不足,使虛假信息得以借助社交媒體迅速擴散,並在短時間內放大其影響,對社會信任基礎造成衝擊。最後,“信息繭房”固化認知偏差。人工智能通過個性化推薦和內容過濾機制,在提升信息匹配效率和用戶體驗的同時,也可能不斷強化既有偏好,將用戶困於“信息繭房”之中。這種機制將加劇用戶僅接觸到符合其既有認知的內容,從而固化認知偏差,降低其對多元視角的包容性,不利於社會共識的形成。
第三,社會責任層面,安全風險與公平缺口並存。生成式人工智能治理的突出難題,在於責任主體與責任邊界尚不清晰,相關社會責任與問責機制仍有待完善。在法律上,由於技術鏈條的複雜性,使得責任主體界定模糊,傳統法律歸責原則難以適用,由於缺乏內置保護機制,致使模型訓練和用戶交互過程中極易發生個人隱私數據洩露,削弱個體信息控制權。在安全上,人工智能若被用於輔助生成針對關鍵基礎設施的網絡攻擊,或被濫用於傳播虛假情報,可能引發系統性、跨層級的安全風險滲透,對公共秩序和社會穩定構成威脅。在經濟上,技術紅利的高度集中,加劇了技術公平缺口,形成了新的社會分化。生成式人工智能對技術和數據資源的高度依賴,可能強化少數企業的技術優勢,帶來市場集中甚至壟斷的風險,並加劇不同國家和人群之間的“AI鴻溝”,進一步擴大貧富差距與社會分化,引發嚴重的不公問題。
三個維度為人工智能治理提供支撐
數字素養是數字社會公民在學習、工作和生活中應具備的一系列能力的集合,包括數字信息獲取、製作、使用、評價、交互、分享、創新、安全保障、倫理道德等能力。它要求個體能夠有效且批判地獲取和評估信息,嫻熟運用數字工具創造知識,並能適當地利用數字化手段解決工作、學習和社會實踐中的問題。數字素養作為一種綜合性的社會能力,其主要通過技術、認知和社會責任三個維度,全面地為生成式人工智能治理提供堅實的認知基礎、行動框架和道德約束力。
第一,加強數字知識與技術的理解與應用。隨着生成式人工智能的快速發展,社會對數字能力的要求已從“會用工具”提升為“懂原理、能協作、善於評估”。公眾只有理解模型的基本運行邏輯、數據驅動特徵與潛在偏差來源,才能在使用生成式人工智能工具時保持必要的判斷力,避免將算法結果視作“絕對真理”。在技術應用層面,數字素養推動公眾形成“人機協作”的新型工作方式,使公眾既能夠高效調用智能工具提升生産與學習能力,又能識別模型局限、改寫提示策略、調整生成路徑,實現對人工智能的可控使用。數字知識的普及程度,直接決定了社會整體能否以理性、穩健的方式擁抱生成式人工智能,從而為其治理奠定堅實的技術認知基礎。
第二,加強數字信息的獲取、甄別與共享,以構建可信公共知識空間。生成式人工智能在內容生成、信息傳播方面能力空前,但也因此放大了虛假信息、算法幻覺與深度偽造的風險。數字素養的核心之一,就是培養公眾的信息甄別、事實校驗與風險提示能力,使每個人都能夠在高速流動的數字生態中“看清楚”“辨得出”“説得明”。除了獲取與甄別,信息交流與共享同樣是生成式人工智能治理的重要環節。具備良好數字素養的公眾不僅能基於可靠信息參與公共討論,還能通過建設性表達推動形成健康的數字公共領域,為政策制定與平台治理提供真實可信的社會反饋。公眾數字素養的提升,有助於構建多方協同的治理格局,推動生成式人工智能走向公平、可責、透明的發展方向。
第三,加強數字安全與社會責任意識,讓“技術向善”成為社會共識。生成式人工智能的治理不僅依賴制度設計與平台規則,更依賴個人在使用過程中的自律意識與社會責任感。數字素養強調公眾對數據隱私保護重要性的理解與認知,能夠識別算法操控、個人信息洩露及模型濫用等風險,做到“不製造風險、不放大風險、不讓風險外溢”。更重要的是,數字時代的公眾需要具備基本的技術倫理意識,自覺約束自身對生成式人工智能的使用行為,不編造虛假內容、不助長歧視與偏見、不用技術侵害他人權益。公眾的責任意識越強,生成式人工智能越能朝“向善”方向發展,其治理越能落到實處。
(作者:張橦 張慧 均係大連理工大學人文學院副教授)




