當智能體的技術權力在事實上大過其主人,人類在數字世界的控制權便面臨被“架空”的風險。這種權力的隱形流失,並非源於技術的惡意,而是因為系統在追求效率的過程中,悄無聲息地打破了人類的“數字主權”邊界。
過去兩年,人工智能(AI)技術的突破讓人們驚嘆其“聰明”程度。我們曾着迷於AI的對話能力、翻譯技能和創作潛力,但如今,隨着AI從簡單的聊天機器人逐步發展成能夠直接買東西、簽合同的“智能體”時,焦點已經轉向了權力邊界的討論。我們不得不思考:人類在享受AI便利的同時,是否依然保持對決策過程的控制權?
美國《福布斯》雜誌網站近期關注到該趨勢,並指出AI競爭的一個新規則已浮出水面——信任。信任不再是企業的軟性優勢,而成為産品設計中不可忽視的“硬指標”。未來數字世界的控制權將歸屬於那些能平衡“能力”與“可靠”的平台。換句話説,AI的“代理權”將不再僅僅取決於其技術能力,而是取決於其能否讓用戶在交出控制權的同時,依然感到安全與放心。
“代理權”越位或違背用戶意願
這種安全感的本質,是人類對“代理權”越位的深層警惕。以前,AI是一個“問答機”,人類下指令,AI來執行。但現在,AI正在向“智能體”進化,這意味着它從被動響應轉向了主動執行。
據國外黑客新聞網(The Hacker News)1月24日發布的文章指出,AI智能體不僅僅是另一種類型的“用戶”。它們與人類用戶、傳統的服務賬戶有着本質區別,正是這些差異,導致現有的訪問權限和審批模型全面失效。在實際操作中,為了讓AI能高效完成任務,系統賦予智能體的權限往往比用戶本人擁有的更高。這種“訪問權限漂移”有可能導致AI在用戶不知情、未授權的情況下,執行了技術層面合法、但違背用戶自主意願的操作。
當“代理人”的技術權力在事實上大過其主人,人類在數字世界的控制權便面臨被“架空”的風險。這種權力的隱形流失,並非源於技術的惡意,而是因為系統在追求效率的過程中,悄無聲息地打破了人類的“數字主權”邊界。德勤在1月21日發布的報告中指出,目前AI的“代理權”已經超越了其安全防禦措施。數據顯示,全球僅有20%的公司建立了成熟的AI智能體治理模型。這種“4/5的空白”意味着,大多數企業和個人在將控制權交給AI時,實際上是在“裸奔”,這進一步加劇了人類主權被架空的潛在風險。
重塑人機權限契約邊界
為了奪回這種控制權,全球的技術治理者正試圖將“可靠”寫進底層代碼。新加坡資媒局(IMDA)於1月22日發布的《智能體AI治理框架》提出了一個核心概念,即“有意義的監督”。IMDA指出,僅僅在流程里加一個“人工點擊確認”的按鈕是不夠的。如果AI的決策過程像一個看不透的黑盒,人類的批准就會變成一種盲目的走過場。真正的控制,要求AI必須讓用戶看懂它的意圖和可能的後果。
據《福布斯》雜誌介紹,目前技術界開始推崇一種“雙重授權”架構。這種架構的核心在於將AI對數據的“訪問權”與對結果的“行動權”分離。這意味着,AI可以幫人們查資料、起草方案,但在涉及付錢、簽合同或修改隱私的關鍵環節,必須觸發一個獨立的驗證開關,把決策的“閘門”重新交還給人類。這種權限重塑確保了技術無論怎麼進化,始終只是人類意志的延伸,而不是替代。
“信任”應成為産品硬指標
過去,我們習慣於把所有個人數據都交給遠方的雲端巨頭。但《福布斯》指出,伴隨AI長大的年輕人,開始反思這種“讓渡”的代價。這些所謂的“AI原生代”正在産生一種“主權覺醒”,他們不再信任將所有私人數據交付雲端,而是要求AI在本地化、私有化的基礎設施上運行。
事實上,德勤報告中提到的“主權AI”正演變為一種個人訴求:用戶希望AI能根據特定的法律、數據和個人偏好在本地部署。下一代用戶不會僅僅被新奇事物所吸引,他們更關注自主權:我能否控制系統了解我的哪些信息?我能否塑造它的行為方式?我能否在不丟失數據的情況下隨時退出?
當信任成為一種硬性的産品指標時,AI開發者的目標也發生了轉移。功能和成本已不足以成為核心競爭力,如何在權限控制、數據使用以及決策透明度上取得信任,才是AI産品真正的吸引力所在。歸根結底,AI重構數字世界控制權的過程,本質上是人類在技術叢林中尋找新安全感的過程。正如《福布斯》所言,未來的AI“代理權”將是一種“合法性”的競逐。能證明自己“有所不為”、能把控制權交還給用戶的AI,才能真正走進人類文明的深處。(記者 張佳欣)




