人機共生時代,警惕AI依賴
3月 27日,人們在中關村國際創新中心諮詢&參觀倣生人形機器人
文/《環球》雜誌記者 彭茜
編輯/樂艷娜
“交稿最後時限的前一夜,我徹夜未眠,除了和困意對抗,更多的能量消耗在與那根看不見的‘神筆’在雲端上角力。只有貓咪是乖巧聽話的,不再一屁股蹲坐在鍵盤上阻止我推着石頭上山又再看它轟隆隆滾下來的徒勞。
AI變了,我甚至無法用準確的語言形容,到底是什麼變了。它不再像初次亮相時那般驚艷,能夠迅速給出出人意料卻又情理之中的劇情走向。相反,它變得遲緩、呆傻,犯下各種低級錯誤……”
這是科幻作家陳楸帆今年發表在《科幻立方》上的小説《神筆》,講述了一個靈感阻滯的科幻作家使用最新人工智能(AI)寫作工具,卻被越陷越深的故事。
現實世界中,AI正在為我們提供一種“認知捷徑”,人們不用再費力思考,便能輕鬆得到想要的答案。一開始只是查詢信息、翻譯文字,慢慢開始輔助寫郵件、工作總結、整篇論文,甚至進行重要決策……過度依賴AI,利用其進行“思維外包”,正讓我們日漸喪失思維的主導權。
AI“思維外包”的隱憂
當前,大模型、智能體等AI應用已在多領域廣泛賦能生産生活,促進工作提質增效。但AI帶來的技術紅利之下也暗藏隱憂。比如,有研究顯示,過度依賴AI模型可能引發“AI腦霧”,削弱工作的動力。
根據美國麻省理工學院的一項新研究,長期使用AI會導致人的認知能力下降。這相當於每使用一次AI,就欠下一筆“認知債”,將用未來的思考能力支付“利息”。
研究者對54名參與者展開腦電圖掃描,結果顯示認知活動強度與外部工具使用呈負相關,沒有使用工具的人展現出最強且分佈最廣的腦神經連接,而使用AI大語言模型的人其腦神經連接強度最弱。4個月內,使用AI大語言模型的人在神經、語言和行為層面持續表現不佳。腦部掃描揭示了使用AI的損害:大腦的神經連接從79個驟降至42個。
而微軟和卡內基-梅隆大學的新研究也揭示了類似的現象,生成式AI會削弱批判性思維能力,導致過度依賴——對生成式AI的信心越高,知識工作者的批判性思維越少,長期依賴AI可能削弱人們獨立解決問題的能力。
研究者由此認為,開發者在設計生成式AI工具時,應有支持用戶提升批判性思維的意識(如提示需驗證的場景)、動機(如關聯技能發展)和能力(如提供驗證工具)。特別是在設計法律文書、醫療建議等高風險任務時,應強制彈出驗證提醒(如“請核對AI引用的法規條款”)等,在輸出結果中明確標注潛在風險(如“此代碼未經過運行測試”),打破用戶對AI“全知全能”的認知偏差。
浙江大學管理學院吳蘇青研究員團隊今年在英國《科學報告》雜誌發表一項涉及3500多名參與者的研究,顯示當工作者從有AI輔助的人機協作任務轉向無AI輔助的獨立工作任務時,會出現顯著的內在動機下降和無聊感增強的情況,這揭示了人機協作中未被充分重視的心理影響。具體來看,使用AI後,人們的內在動力平均下降11%,無聊感平均增加20%。缺乏內在動力會降低工作滿意度,導致倦怠等負面後果。
“人機協作這一新型工作模式雖能顯著提升工作效率與表現,但也可能削弱人的內在動機。這一好處和風險並存的效應提醒我們,在認可AI帶來的幫助時,也要深入思考它在工作流程中的應用會怎樣影響員工的心理和行為,進而影響到績效、健康和成長等方面。”吳蘇青在接受《環球》雜誌記者採訪時説。
人們為何“輕信”AI
人們之所以愈發依賴和輕信AI,源自近年來AI專業化能力和交互便捷性的飛躍。其生成內容的專業化程度,讓不少人把AI奉為專家;而對話式的交互方式,讓它好似一位學識淵博又無話不談的好友,更易讓人形成心理依賴和信任。
如今AI大模型“開箱即用”的便捷性,降低了使用門檻,使一些人在“無腦”使用AI時喪失了主動思考。由於缺乏基本的AI素養教育,使用者對AI本身的技術缺陷認知不足,容易“輕信”。一些使用者對由模型“幻覺”生成的看似真實實則胡編亂造的虛假信息難以鑒別,造成現實混亂。
英國高等法院今年6月曾要求律師採取緊急行動,防止AI被濫用,原因是已出現數份可能由AI生成的虛假案例引用被提交至法庭。而今年由美國衞生與公眾服務部牽頭、“讓美國再次健康”委員會發布的兒童慢性病報告,也因使用了生成式AI的內容,導致出現重大引用錯誤。
“我們在使用AI的同時,把判斷力也一起外包了,不再去驗證AI給出的答案,不再去反思使用AI的過程。無條件接受AI給的任何信息,就會導致人的主觀能動性的下降,深度的閱讀思考和表達的能力也會隨之退化。”陳楸帆在接受《環球》雜誌記者採訪時説。
科幻作家、中國作協科幻文學委員會副主任陳楸帆
陳楸帆在高校教授創意寫作,他發現身邊已有非常多的學生開始用大模型等AI工具來做作業、寫論文,包括創意寫作。而另一位在中國人民大學任教的教師向記者透露,她的學生甚至連給她的微信回復都交由AI完成,從格式和表述的一些細節,她很容易分辨出內容是由AI的模板生成的。
吳蘇青認為,AI的應用還帶來認知需求的“空心化”。已有研究表明,人類大腦對認知挑戰的追求是內在動機的重要來源之一。當AI完成工作的“燒腦”部分,人類僅剩機械性執行,工作淪為“被動填空”,這就可能會導致心理疏離,使人喪失工作動力。AI生成內容被直接採用,還會導致員工感到自主性被侵蝕,進一步降低其主觀能動性和參與感。
她説,企業、政府部門等部署AI時應“慢下腳步”,不宜“一步到位”全部替代人工,可先小範圍試點、可控推進,邊用邊觀察對員工積極性和創造力的影響。尤其要關注其長期心理影響,如興趣減弱、無聊感增強等,這在一些關鍵崗位可能帶來安全隱患。
隨着大語言模型的應用,AI模擬人類互動的能力也大幅提升。據《自然》報道,一些專門的AI伴侶公司還運用行為研究中證實能增強科技成癮的技術手段,以提升用戶黏性。普林斯頓大學認知心理學研究者羅斯·金裏奇説,借助大語言模型,陪伴型聊天機器人更擬人化了,人們特別容易把AI當成真實的“準人類知己”,對其生成的信息無限信任,與其溝通時“毫無保留”。
7月 14日,觀眾在河北省石家莊市美術館參觀AI藝術畫展
建立思維的“AI緩衝帶”
AI究竟是“良藥”還是“毒藥”,取決於人們使用它們的方式,正如再有效的藥物過量使用也會有損健康。專家認為,AI一定會更加深度嵌入人們的工作與生活,在這個人機共生的新時代,與AI共處需要更加智慧。
美國AI教育公司Section 4首席執行官格雷格·肖夫對此有個形象的比喻——未來10年內,使用AI的知識型勞動者將分化為兩類群體:“AI駕馭者”與“AI乘客”。
“AI乘客”欣然將自身的認知工作全權交由AI打理。他們會把提示詞粘貼到ChatGPT等AI大模型中,複製生成的結果,然後作為自己的成果提交。短期內,他們或許會因工作效率提升而獲得認可。但隨着AI能力的迭代,這些人終將會被AI取代。
而“AI駕馭者”則堅持主導AI的運作。他們會把AI生成的內容當作初稿,對其成果進行嚴格核查。有時他們還會關閉AI,騰出時間獨立思考。從長期來看,這兩類群體之間的經濟差距將急劇擴大,後者毫無疑問將會勝出。
“我們需要在不同的學習和工作場景裏,學會分辨哪些場景適合用AI,哪些場景需要人來進行有力輔助,以及判斷和辨別AI給出的結果。”陳楸帆持同樣觀點。在他看來,人們應對自己的心智、認知掌握主動權,有意識地建立起一個“AI緩衝帶”,即面對新問題時先從自己的角度給出答案,再尋求AI去深化和擴充。
人們甚至還可進行“對抗性生成”,即當AI給出跟自己觀點十分契合的答案時,用批判性思維去質疑,到底是我被AI所影響,還是AI在我的不斷訓練下變得越來越趨同?我們是否能跳出思維慣性來做出不一樣的選擇,給出AI沒想到的答案?
身為經常需要進行“頭腦風暴”的科幻作家,陳楸帆刻意為自己設置了一些需要“慢思維”的環節,用於區別需要依靠AI高效完成的一些任務。比如在構思小説時,慢下來去細細感受、思考、表達,在筆記本上涂涂畫畫,他感到比線性地敲擊鍵盤更能激發靈感。
“這一過程最終也將包括如何建立起與‘人’的更有效鏈結,如何跟多樣性的智能主體交流,然後互相激蕩,取長補短。我們需要一種人與人、人與機器之間更複雜、更立體的協作來建立自我主體性和主觀能動性,包括創造力、想象力的保衛機制。”他説。