斯坦福大學校園裏的標示牌
斯坦福大學的技術倫理相關課程均與業界結合緊密,具備很強的實操性,這既提高了學生的積極性和參與度,也使得學界的很多靈感與智慧可以直通工業界,真正助力實際問題的解決。
《環球》雜志記者/彭茜
人們對理工類課程的傳統印象是做實驗、寫代碼、跑數據,但斯坦福大學的課程設置充滿學科交叉色彩,人文社科和數理充分交融,常將科學技術置于社會歷史變遷背景下審視,從哲學、社會學、政治學等多角度探討技術社會的影響和倫理挑戰。
無論是斯坦福大學專門的技術倫理必修課,還是嵌入式的倫理課程模組,均體現出與業界結合緊密、直面現實問題的特色,有一定的啟發和借鑒價值。
傳奇的CS181
在斯坦福大學,CS181是一門頗具傳奇色彩的課程。這門已開設30多年的“電腦科學、倫理與公共政策”課,顯示了該校對于技術倫理教育的長期關注。從設立伊始,這門課就以跨學科的視角來審視科技發展。
CS181的前身是上世紀80年代開設的“電腦、倫理與社會責任”課。當時,美國開啟反彈道導彈軍事戰略“星球大戰”計劃,軍方開始大力資助斯坦福理工科實驗室研究。這令一些科學家開始思考如何避免技術發展偏向危險軌道,更加關注技術的社會責任。當時在斯坦福大學教授符號係統的特裏·威諾格萊德和博士生、哲學家海倫·尼森博姆聯合開設了這門選修課。在課上,學生們聽尼森博姆講授功利主義和康得,威諾格萊德則帶領大家討論電腦和社會責任。
2019年在斯坦福做訪問學者期間,《環球》雜志記者選修了這門有30多年歷史的“長青課”。現在,這門課已是斯坦福大學電腦專業核心必修課,選課規模達150人。在人工智慧(AI)、大數據等新技術全面滲透人類日常生活的當下,這門課有了新的現實意義。課程研討與電腦應用相關的倫理和社會問題,聚焦“倫理理論、社會、政治和法律考量”,關注的問題領域包括隱私、可靠性、復雜係統的風險、專業人士在技術應用過程中的責任及其工作産生的後果等等。
這門課如今由斯坦福大學電腦係、哲學係和政治係的3位老師共同授課,從各自學科視角引領學生審視技術發展。如談及自動駕駛汽車,電腦係教授薩哈米會詳解目前自動駕駛汽車所面臨的技術瓶頸;哲學係教授科恩會拋出倫理學中的“電車難題”,讓大家思考當自動駕駛汽車面臨不可避免的事故,如何在保護車內乘客和路人之間作權衡;政治係教授雷奇則對比各國政府出臺的自動駕駛汽車監管措施,要求大家思考不同政體和文化背景下的技術治理偏好。
CS181的另一特色,是讓學生真切體會技術倫理問題就在身邊。從第一節課開始,薩哈米在講臺前擺了幾臺直對著學生的錄影機,徵集大家在攝像頭“注視下”上課的感受,這是對技術侵入人類生活的一次現場模擬。“電腦與倫理學”“AI監管”“AI與國家安全”“數據隱私”“私人平臺的權力”“硅谷的文化與價值”……課程章節設置緊跟現實中的倫理爭議,經常把一些突發事件作為案例討論,並請來爭議中的“當事人”現身説法。
在“私營平臺的權力”一節中,課程邀請了谷歌新聞創始人巴哈特、臉書前首席安全官斯塔莫斯和歐洲議會議員斯卡科進行圓桌討論,探討臉書作為“私營超級力量”如何控制整個資訊生態係統、臉書和谷歌搜索引擎推薦演算法如何“強化”假新聞、“社交網絡效應”如何加深美國兩黨分歧等等。而在“AI與國家安全”一節中,現任美國國家情報總監、前白宮國家安全委員會副顧問海恩斯,以及硅谷大數據公司Palantir隱私與公民自由小組負責人等專家,則非常直白地剖析了中美AI“軍備競賽”的現狀,並討論中國發展AI的“舉國體制”是否可為美國提供借鑒。
課程十分注重培養學生的批判性思維和決策能力。教授在每節課上都在講臺兩側各設一個話筒,在嘉賓演講和圓桌討論結束後,學生會在話筒後排長隊針對演講內容提問,視角尖銳常令嘉賓措手不及。除講習課外,每周還設有助教引導的討論課,學生被分為不同小組,進行正反方激辯。
引導學生發現問題,也讓學生積極參與探索解決問題的現實路徑,是CS181的另一重點。比如,有一節課專門討論演算法歧視問題,教授與學生共同探討了硅谷某公司利用AI演算法篩選簡歷導致的性別歧視。而課後作業,就是讓大家一起設計一個更公平、無偏見的AI神經網絡係統。
參加了這門課的斯坦福大學大一學生楊彧蔚對記者説,CS181已和數學、文學一樣成為一門“工具性”課程,也是通識教育的一部分。他表示,對于希望涉足電腦行業的自己來説,CS181提供了全新的思考角度,自己未來或許會成為一個更具有社會責任感的程式員。
楊彧蔚還和課上同學成立了“有益社會的電腦科學”俱樂部,已經有100多位成員,大家常常在課下根據課上討論的一些電腦倫理和社會問題,去嘗試做一些解決方案。
倫理課程模組廣泛嵌入
除了專門的技術倫理課,斯坦福大學幾乎所有技術類課程都設有嵌入式的社會影響和倫理模組;一些人文社科學院的課程,也加入了對技術的社會性反思,使得幾乎任何專業背景的學生都可以接受技術倫理和社會影響的教育。
全校大熱的課程——著名人工智慧專家吳恩達開設的深度學習,設立專門板塊討論“深度虛假”等深度學習的濫用對社會的危害,比如電腦通過學習海量視頻數據後生成虛假政治人物演講視頻、偽造名人發言等。課程不僅教授背後的技術細節,也探討識別和整治“深度虛假”的方法。
美國國家工程院院士、人工智慧專家李飛飛的電腦視覺課程,也專門用幾節課的時間去討論人臉識別的隱私問題。
法學院開設的“AI的社會影響”課程,則關注AI治理中的法律因素。老師會帶領學生審視AI應用中的一些法律盲區,探討當AI載體觸犯他人利益、造成社會損失時,如何量刑定罪,學生們還會組成虛擬法庭進行辯論。比如,自動駕駛汽車出了事故,如何對汽車廠商、自動駕駛方案提供方、駕駛員等進行責任認定,這些都是真實生活中亟待解決的問題。
課堂上另一給人留下深刻印象的案例,是美國某州級法院依賴AI係統輔助對犯罪嫌疑人進行量刑,結果該嫌疑人因為是有色人種(黑人),被AI認為應重判,原因就是此前AI學習的大量數據都是有色人種的犯罪記錄,導致了不公平。
再如記者所選的“設計思維:科技中的性別研究”課程,由設計學院、社會學係和工學院共同開設。該課希望通過性別研究改進當前科技産品設計中多元性和包容性不足的問題。當下科技界有太多性別單一主義思維,如手機智能語音助手大多使用女性聲音,這其實是一種對女性的潛在歧視。我們的期末項目是設計了一套性別包容性“菜譜”,這套開源工具包可輔助自動駕駛、AI語音助手等科技産品設計,使其更加多元包容,如在産品設計中考慮到女性、嬰幼兒的特別需求等。
在課程最後的答辯環節,由硅谷業界人士來評審工具的實用性並提出問題。我們的這套工具得到了Amazon Echo智能音箱的開發者和谷歌旗下Waymo自動駕駛汽車研發者的青睞,他們表示會在産品設計和團隊建設中嘗試使用我們的工具。
由此可見,斯坦福大學的技術倫理相關課程均與業界結合緊密,具備很強的實操性,這既提高了學生的積極性和參與度,也使得學界的很多靈感與智慧可以直通工業界,真正助力實際問題的解決。
繞不開的倫理審查機制
除了在課程中深度嵌入倫理模組,斯坦福大學對于技術倫理的重視還體現在嚴格的科研倫理審查機制上。這一機制從高校教育階段就幫助每個科研從業者樹立技術倫理意識。
在校園公告欄裏,經常能看到一些招貼受試志願者的海報,很多都是為了測試新技術應用,如智能手表監測用戶睡眠的情況,智能音箱的人機交互技術的成熟度如何,等等。這些涉及人類受試者的研究招募,從海報、問卷到研究方案等都要經過制度審查委員會(IRB)的審查。
斯坦福大學發展與心理科學博士李星煜對《環球》雜志記者説,IRB是美國聯邦政府成立的專門機構,植入在每個大學和科研機構中,由有倫理學背景的專人負責,只要是涉及人類受試者的研究計劃,無論是人文學科還是理工科,均需要提交IRB審查,這也是將研究成果發表在國際期刊的前提。IRB要求每個學生都要接受倫理方面的培訓,並在考取證書後才能做跟人相關的實驗。
李星煜介紹,學校有官方網站供研究者填寫研究倫理審查申請表,包括研究項目持續期、主要目的、包含哪些子項目等。IRB會派專門的經理與研究者對接,根據網申表格提出一些質疑,並要求把不符合倫理的地方作修改或刪除。知情同意寫有研究主導院係和IRB的舉報電話,如果受試者對研究不滿意,隨時可打電話舉報。
李星煜舉例説,自己曾參與一項研究,調查什麼因素會影響學生對學習科學的興趣,發放測試學習熱情的問卷就需要先通過IRB審查;還有一些研究涉及“欺騙”受試者,比如一些實驗會有一半人吃安慰劑,這種時候就要寫清楚每一步怎麼跟受試者説話,最後怎麼來跟他們釋疑。
“IRB要求保證受試者心滿意足地體驗實驗過程。因此我們設計實驗時,就很重視實驗開始前和開始後的溝通環節,要讓受試者理解我們具體要研究什麼,他們是為科學作貢獻,而不是被當成小白鼠。” 李星煜説。
來源:2021年7月14日出版的《環球》雜志 第14期
《環球》雜志授權使用,其他媒體如需轉載,請與本刊聯繫
本期更多文章敬請關注《環球》雜志微博、微信客戶端:“環球雜志”
|