讀腦?控腦?
➤未説出口的思想、情感和意圖被掌握等擔心,在10年內是不必要的
➤我們對大腦改造的邊界在哪兒,需要隨着技術發展逐步探索。完整意識上傳、記憶編輯等需要較長時間實現,相信在實現過程中,無論是社會共識層面還是法律倫理層面都會為技術的演進做好準備
➤在全球尚未對腦機接口技術的倫理達成共識的背景下,我們更應穩步推進技術,構建與中國科技實力相匹配的倫理治理體系,避免陷入“先發展後治理”的陷阱
文 |《瞭望》新聞周刊記者 張冉燃 董雪

當腦機接口技術從實驗室邁向現實應用,一場觸及人類終極邊界——大腦、思想與身份認同等——的深刻變革正悄然開啟。
這項技術不僅有望為癱瘓患者重建行動能力、為失明人士帶來視覺希望,更將神經數據這一前所未有的隱私形態、思想情感的潛在掌控,乃至決策自主的哲學命題等,驟然推到我們面前,形成對人類積澱已久的社會倫理、法律體系和哲學認知的全新關切。
今時今日,距離真正的“讀心術”“精神控制”“意識上傳”“記憶編輯”等場景仍較遙遠,但防範其可能引發的隱私洩露、算法操控等風險,應當始於當下、防患未然。在腦機接口技術加速突破的當下,可能是關乎人類文明走向的十字路口——如果大腦信號可能被破譯、神經數據需要確權,我們面臨的就不僅是技術問題,更是如何守護人之為人的本質命題。

腦智卓越中心侵入式腦機接口超柔性神經電極,厚度僅為約頭髮絲的 1/100 腦智卓越中心供圖
神經數據權屬之辯
《瞭望》:大腦信號會否被非法獲取、濫用?
李澄宇:隨着腦機接口技術在醫療康復、神經科學研究等領域的應用邊界不斷拓展,與其他智能設備帶來的問題一樣,大腦信號在技術上也存在被非法獲取和濫用的可能。需要與電腦、手機等智能設備或醫療信息相關器械的設計一樣,引入安全防火墻,保障信息安全。
《瞭望》:大腦産生的神經數據所有權歸誰?
李澄宇:大腦産生的神經數據直接關聯到個人的精神世界、內心隱私和人格尊嚴。因此,其最終所有權應歸屬於産生該數據的個人。去個人隱私後的數據,在明確歸屬個人的基礎上,可類比其他類型的醫療數據,建立精細化的授權使用和收益分享機制。這裡,要特別注意以下3個原則:
一是知情同意要深化。對神經數據的收集和使用,必須獲得用戶具體的、分場景的知情同意。
二是嚴格限制使用目的。收集的神經數據只能用於用戶同意的特定目的,如疾病治療,嚴禁未經清晰請求並獲許可而進行二次開發及用於其他商業用途。
三是收益共享。當匿名的、聚合的神經數據被用於訓練更先進的算法並産生巨大商業價值時,可以考慮建立一種數據貢獻者參與價值分配的模式,前提是確保數據的絕對匿名化和安全,防止任何形式的反推識別。
段偉文:神經數據的所有權是一個悖論。神經數據極其特殊,患者本人難以理解其含義,醫生和研究機構能進行專業解讀和處理,並可能用於共享研究,但這些神經數據未來會被用於何處、産生何種價值等,均存在不確定性。因此,神經數據很難簡單歸屬於被採集者、醫療機構或研究機構。
國家層面目前對此尚未有清晰的法律界定。一個現實挑戰在於如何界定神經數據——許多非直接來自大腦的信號,如通過模式識別分析的眼動、心率變異性,甚至顱內壓值等,經過計算後也能間接揭示人的神經活動狀態。
有鋻於此,當前的核心任務是建立一套貫穿神經數據全周期的治理框架,其重點不在於糾結所有權的歸屬,而要確保神經數據的保管與使用始終安全、合規,承認並保障神經數據主體的追溯權與知情同意權,即個人有權知道其神經數據被如何使用,並能夠追溯用途。
《瞭望》:如何界定通過腦機接口産生的行為責任?
李雪:由於腦機接口能夠直接控制外部設備,行為的發生是否代表用戶真實意圖,或是系統故障導致的誤操作,這一問題已引發法律、倫理界人士的廣泛討論。我認為可借鑒自動駕駛領域的責任分配原則,建立“神經責任界定標準”,通過操作日誌與意圖識別機制明確行為歸屬,確保行為責任的清晰劃分。
李澄宇:傳統法律體系建立在“人的意圖通過身體動作執行,行為責任清晰可辨”的基礎上。但腦機接口一旦大規模使用,在意圖與行為之間就插入了算法與機器執行的環節,有可能存在對責任認定的爭議。建議參考自動駕駛技術分級控制,對算法的自動化與責任進行分類或分層,可大致分為産品責任、用戶責任、混合責任三類:
産品責任類似汽車因剎車失靈引發事故,當因腦機接口設備的設計缺陷、製造瑕疵或算法錯誤等導致非意圖的後果時,可追究製造商、開發者的責任。
用戶責任是指腦機接口設備準確無誤地執行了使用者的清晰指令,由此産生的行為後果由使用者承擔。
混合責任的過失認定相對複雜,因為這一情形涉及交互中的共同作用,例如使用者未按規程操作、忽視系統警告,同時腦機接口設備本身也存在問題,此時需要根據過錯程度進行責任劃分。
為厘清責任,確保腦機接口設備的行為可追溯,未來需要保證腦機接口設備的工作狀態、決策邏輯,尤其是基於AI的腦信號解碼可記錄、可追溯、可審計,以便發生爭議時能夠客觀還原指令産生、傳輸與執行的完整鏈條,為責任認定提供關鍵證據。

由中國自主研發的半侵入式腦機接口系統已經開始臨床試驗。圖為“北腦一號”(2025 年 3 月攝) 北京天壇醫院供圖
暫無“讀心”之憂
《瞭望》:未説出口的思想、情感和意圖通過腦機接口技術被掌握,會否影響精神隱私?進而引發精神控制?
李澄宇:腦機接口技術的核心是讀取腦活動、寫入腦信息,但目前還處於較為早期的技術與産品驗證階段,在腦中讀取寫入信息的精準度有限,且都在醫療環境下應用。
同時需要澄清的是,未説出口的思想、情感,這些信息一般並不會被納入腦機接口算法進行訓練,因此不存在針對思想與情感的訓練與被掌握的問題,也不會存在精神隱私問題。因此未説出口的思想、情感和意圖被掌握等擔心,在10年內是不必要的。
談到意圖,如肢體運動、未説出的言語,以及視覺圖像的輸入等,是根據患者需求被解碼或編碼的,應該説不只可以被掌握,而且腦機接口技術本就依託掌握這些信息來幫助患者,這方面的隱私可通過軟硬體防火墻、加密等方式來保護。
談到隱私洩露與精神控制,目前確實在研發幫助精神障礙患者的腦機接口技術,也會獲取患者的精神疾病狀態,如抑鬱症患者的某些腦區特徵性異常腦活動等,對這些信息同樣需要進行軟硬體防火墻、加密等方式保護。
但我個人認為,對患者精神障礙症狀的改善不應該看做是精神控制,目前腦機接口的精度也遠遠達不到精神控制的程度。精神疾病狀態之外的精神世界,還遠不是腦機接口技術可以獲取的;其他的運動、視覺、記憶等腦機接口技術,僅涉及這些行為相關腦區的腦信號採集、處理和傳輸,這些腦區對精神世界參與度非常低,並不會對精神隱私帶來洩露風險。
李雪:我們需要辯證看待腦機接口對人類未來的影響。人和動物的區別之一在於語言能力——我們可以通過語言表達自己的思想和情感。而通過腦機接口與大腦交互,將有助於我們更好地理解自己的情感與意圖及其産生的原因。當然,我們需要做好這類隱私的保護。
就保護手段而言,可以從技術和法律兩個方面實現:在技術層面,我們可以將腦機接口做成邊緣計算系統,在系統內部篩選過濾信息,使輸出的是高度凝練的、只用於我們目標的信息,如運動控制。在法律、倫理層面,以制度形式保障個體對自身腦電數據的所有權、知情權、授權權與撤銷權等權利。

腦智卓越中心侵入式腦機接口生産全植入腦機接口系統所用的半導體加工設備之一——激光植球機 腦智卓越中心供圖
腦機接口的哲學叩問
《瞭望》:如果決策被腦機接口預測,人類是否失去了選擇權?
李雪:人的大腦是一個複雜系統,無法簡單地用機械化思維解釋。腦機接口能夠預測決策,實際意味着系統更好地理解了個體的意圖。這與日常生活中家人通過觀察我們的行為推測我們的狀態相似,並不意味着個體失去了選擇權。相反,這種技術為我們提供了更多的選擇。預測本身只是提供更多可能性,最終的決策權利仍然由個體掌握。
我們對大腦改造的邊界在哪兒,是需要隨着技術發展逐步探索的,就像人類了解了DNA編碼,做了大量基因測序,也能夠在一定程度上對部分基因進行編輯,但是這距離解決大部分基因缺陷導致的疾病還很遠,更不要説我們最早擔憂的設計生命體等問題了。完整意識上傳、記憶編輯等需要較長時間實現,我相信在實現過程中,無論是社會共識層面還是法律倫理層面都會為技術的演進做好準備。
李澄宇:決策與選擇權的問題如果是在討論目前針對運動、視覺等應用場景的腦機接口技術,則不存在決策的問題,因為這些技術的基本要求在於編解碼的準確率,目前技術並不代替使用者作出選擇,不存在人類失去選擇權的問題。
對記憶腦機接口、視覺腦機接口、情緒腦機接口這些依賴調控神經元活動的腦機接口技術,有可能存在算法出現問題、進而出現在腦中錯誤寫入信息,或者黑客獲取了腦機接口控制權並寫入誤導性信息誤導決策的情況。這應當在未來的技術研發中注意避免,採取隱私保護、保密、設立防火墻等方法降低風險。
如果是討論未來認知增強之後,可能發展出的“決策”或“認知”腦機接口,那麼人類是否還擁有“選擇權”確實是可以討論的問題,但可以留到那個時代再討論,預計15~20年內不太可能出現這種情況。
《瞭望》:有人擔心腦機接口技術可能預示着思想的共享,對這一潛在場景究竟是打破溝通壁壘的終極溝通還是消解自我特性的意識湮滅存在爭議。你怎麼看?
李澄宇:目前以疾病治療為目的的腦機接口技術,不存在思想共享的可能。也很難想象人類腦機接口的未來用戶會同意意識湮滅。在隱私與自主權方面,應最大限度保障使用者的神經數據隱私,阻止可能出現的無意識的思想共享。
而在未來腦機接口大發展的前提下,如果出現思想共享的可能,也應與語言、文字、廣播、視頻、廣告、互聯網傳播等人類其他共享思想的模式一樣,進行相應管控。
《瞭望》:當意識可上傳、記憶可編輯,會否引起人的身份認同危機?
李澄宇:意識上傳、記憶編輯在可見的未來不太可能實現,其困難來自腦機接口讀取與寫入腦信息的精準度還遠遠不夠,尤其是對意識和記憶腦機接口靶點腦區這樣基本的問題還不清楚答案。如果二三十年後技術上實現了,大概率也會和人類本有的意識和記憶進行某種程度的融合,而不會是裂腦人一樣的分裂並引發身份認同危機。
況且,腦機接口這類技術的應用屬於自主選擇範疇:重大疾病患者,其使用前提是基於使用者的明確認可;面向商業娛樂場景的非侵入式腦機接口産品,主要定位為消費級電子産品,是否使用、選擇何種技術方案,也均由使用者自主決定。同時,相關技術的應用尺度應通過法律層面的明確規範進行界定,切實保障使用者的合法權益。
在這些選擇與制度保障下,意識上傳、記憶編輯所産出的人,一定與現在的人有很大不同,如果這樣改變意識與記憶的方式影響到後代人類或其他生物的生存、生殖、生活模式,這個變化可能會成為生物學上進化或演化的一部分,其所産生的影響可以建模分析。

在復旦大學附屬華山醫院腦機接口前瞻性臨床試驗手術現場,採集到了高質量的單神經元信號 受訪者供圖
既踩“油門”又備“剎車”
《瞭望》:腦機接口帶來的認知增強是否可能帶來失控的風險?
李澄宇:在發展方向上,認知增強是腦機接口未來可能探索的方向之一,但當前的研究重點仍集中於幫助患有重大疾病或存在功能缺失的人群恢復部分生理或認知功能。未來認知增強技術的發展路徑,需要在實踐中不斷評估校正,並借助法律與倫理框架約束。
應該説,任何新興技術都難免引發對未知風險的擔憂,應通過科學規範的手段引導和管控,可以參考人工智能等領域的倫理規範經驗,提早布局相關法規制定。
段偉文:不能簡單認為治療的目的就合理、增強的目的就不合理。例如治療健忘似乎具有目的上的正當性,但當前人類對記憶與認知的理解仍非常有限,部署相關技術一定要考慮安全性。安全是倫理的第一要義。
一個需要警惕的情況是,人工智能、大模型,以及腦機接口等技術工具,如同人類的“義肢”,應該成為延伸人類能力邊界、彌補認知局限的支撐,而非取代人類主體地位的替代者。但現在人工智能的介入正在改變人類認知的基本原則,AI輔助決策可能削弱人的自主判斷能力,這種情況比較突出。
應當説,技術並非天然崇高,它需要像人體跟“義肢”的磨合一樣,與社會、法律與倫理等磨合,甚至是排異和修復。經過實際操作層面的持續調試,有利於技術真正服務於人。
具體到腦機接口技術,它也需要與社會層面磨合。特別是要將倫理價值觀嵌入技術研發的全流程,不是空談原則,而是通過機制設計體現向善導向。
值得指出的是,中國科技發展進步巨大,在不少領域已經從“跟跑”轉向“並跑”,甚至是“領跑”。這也意味着中國的科技發展關係到全球命運,構建與之匹配的科技文化至關重要。對科技進行有效治理,不能僅依賴剛性的法律,也要借助倫理這類“軟法”形成約束。
《瞭望》:對做好腦機接口倫理治理有何思考?
段偉文:腦機接口技術涵蓋多個層面,其倫理問題也需根據不同類型區別對待。可考慮將其劃分為三大領域進行差異化治理。
在醫療應用領域,應恪守生命倫理,強化長期責任。例如在神經疾病治療等醫療應用中,腦機接口技術必須遵循尊重自主、不傷害、有利、公正等生命醫學倫理原則以及我國科技倫理原則。同時,需高度重視其特殊性——它可能對患者人格、認知産生長期且深刻的影響。因此,除短期療效外,必須加強對患者長期生理、心理及生活質量的追蹤研究,建立完善的責任與問責機制,體現技術應用的審慎與負責。
在探索性研究領域,應聚焦數據與隱私前瞻風險。對認知增強等探索性研究,需特別關注神經數據安全和精神隱私保護等前沿倫理挑戰。應警惕神經數據被用於社會分級、歧視或操控等不當用途的可能性。倫理審查不應是靜態的“清單核對”,而應是動態的、嵌入研究全過程的。換言之,要在實踐中及時發現由技術引發的新問題,並參照倫理指引權衡。這需要深入理解技術,並平衡不同群體的利益。
對意識上傳等遠期科幻議題,從治理層面應明確將其界定為學術思想探討範疇。這類議題雖能激發重要的倫理前瞻思考,但當前技術遠未成熟。治理的重點在於務實地將此類前瞻性倫理問題與可操作的科學研究、臨床應用清晰區分開來,避免概念混淆,從而將有限的研究力量和資源集中於解決更具現實緊迫性的問題上。
在全球尚未對腦機接口技術的倫理達成共識的背景下,我們更應穩步推進技術,構建與中國科技實力相匹配的倫理治理體系,避免陷入“先發展後治理”的陷阱。
技術創新如同文明的“油門”,我們不能只顧加速,還需備好倫理責任等的“剎車”,以最大限度減少潛在傷害。否則按當前技術的發展速度,有過數千年文明歷史的人類,其韌性是否足以支撐下一個數千年,就可能打上問號。□