正文

AI專業有門不教演算法的“倫理必修課”

2021年10月09日 09:42:40 來源: 解放日報

    9月13日是上海交通大學開學第一天,“人工智慧思維與倫理”課程在閔行校區開講,近100名本科生聆聽了電腦科學與工程係教授呂寶糧的第一講。“我還以為這門課要教編程和演算法,沒想到呂老師主要講的是倫理問題,感覺更接近文科。”人工智慧(AI)專業大一新生卜家梓告訴記者。周一晚上,小卜就寫好了課後作業《“資訊繭房”中的現代人》,對網絡媒體的智能演算法推送做了反思。

    這門課程是交大電子資訊與電氣工程學院人工智慧專業的必修課,其他專業的學生可選修。主講教師共有4人,其中3人是人工智慧科學家,另一位是法學家。來自商湯的人工智慧專家作為企業特邀講師,也會為學生上課。

    呂寶糧和交大凱原法學院教授鄭戈認為,為人工智慧相關專業的本科生開設科技倫理課程很有必要,可以為未來的演算法工程師、軟硬體開發人員輸入倫理意識,防止新一代信息技術被誤用或作惡。教授發問引發未來精英思考

    深度學習等人工智慧技術有哪些典型應用?阿西莫夫提出的機器人三原則是什麼?霍金對人工智慧的憂慮是不是杞人憂天?“人工智慧思維與倫理”第一課上,呂老師講的內容很快引起了同學們的興趣。據了解,人工智慧本科專業是交大錄取分數線最高的專業,旨在培養這個領域的行業精英。開設這門大一必修課,是為了讓未來的精英了解人工智慧技術發展與倫理、法律的關係,從事技術研發時能恪守道德法則。

    “你們今後很可能成為IT公司的研發人員,在開發産品時,能否遵循個人資訊採集的‘最小必要’原則?能否抵制‘大數據殺熟’的商業利益誘惑?”呂老師的發問,引發了同學們的思考。據介紹,“最小必要”原則是指移動互聯網産品採集用戶人臉、手機號碼等個人資訊時,要有明確、合理的目的,並應當限于實現目的的最小范圍。“大數據殺熟”是指互聯網企業利用用戶數據,對老用戶抬高價格的行為。

    作為腦機交互專家,呂寶糧還介紹了他與瑞金醫院合作開展的“基于情感腦機介面的難治性抑鬱症評估與治療”項目。用腦深部電刺激術(DBS)治療抑鬱症患者,也涉及倫理問題:一是臨床醫學研究倫理,二是DBS參數調節倫理。“由于參數調節不當,澳大利亞一名帕金森病人接受DBS治療後,變得性欲強烈。如果他因此犯罪,誰該承擔法律責任?”這個問題,又一次引發了同學們的思考。

    加強價值理性教育讓理工科大學生更富有人文關懷

    作為法理學專家,鄭戈將為學生講8節課,分為3個專題——理性的人工智慧、輔助性的人工智慧、負責任的人工智慧。

    在“理性的人工智慧”專題中,他將與學生探討一個問題:自動駕駛係統如何盡到注意義務?注意義務是一個重要的法律概念,法律上的過失就是指違反注意義務。自動駕駛達到L3、L4級別後,如果發生交通事故,該由誰承擔違反注意義務的責任?“我國道路交通安全法的修訂建議稿已引入自動駕駛係統開發單位的責任,但這個問題其實很復雜。自動駕駛係統是一個由感知、定位、決策和控制模組組成的復雜係統,每個模組都有開發者。發生事故後,5G網絡服務供應商有沒有責任?高精地圖供應商有沒有責任?這些單位的法律責任界定問題,需要進一步研究。”他希望通過對這個問題的講解,讓學生認識到,今後開發自動駕駛係統的各個模組時要盡到注意義務,從而使整個係統成為“理性的人工智慧”。

    與自動駕駛相比,智能語音客服的應用如今更為廣泛。用戶撥打客服電話時,與他交流的很可能是語音機器人。在“輔助性的人工智慧”專題中,鄭戈將援引布魯克林法學院教授帕斯奎爾的觀點,分析“人工智慧和機器人係統不應該假冒人類”這一法則。

    智能語音係統為何不能假冒人類,而應在對話中告知用戶自己是機器人?他解釋説,現代倫理學的基礎是康得提出的“人是目的,不是手段”,這個論斷確立了人的主體性地位,日益強大的人工智慧演算法如果假冒人類,會消解人的主體性。“人工智慧應該是輔助性的,人工智慧和機器係統必須顯示出它們的創造者、控制者和所有者,而不能刻意模糊人與機器的界限。”

    在鄭戈看來,國內高校的理工科教育過于偏重工具理性,只要求學生找到科學和工程目標的最優解,忽略了“人生的目的”“有溫度的科技”等價值理性。“人工智慧思維與倫理”課程在價值理性教育上做了積極探索,會讓理工科大學生更富有人文情懷。

    大學生和中學生都應學倫理

    雖然只聽了兩節課,但卜家梓已經有了改造移動互聯網産品的想法。“很多同學喜歡刷抖音等軟件,因為它們一直推送自己喜歡看的內容,我了解到‘資訊繭房’理論後,才意識這類軟件是有問題的,因為它們只根據用戶個人喜好推送資訊,會讓用戶思維固化、眼界狹隘。”小卜談了自己的觀點。在發給呂老師的課後作業中,他提出了改進建議:軟件開發人員和演算法工程師應遵循倫理規范,加入“是否允許本App收集您的偏好等資訊”這一許可權給予提示,讓用戶獲得不根據行為偏好獲取資訊的權利,不再受“資訊繭房”束縛。

    呂寶糧和鄭戈介紹,國外不少高校也開設了人工智慧等信息技術倫理課。比如麻省理工學院的“工程師倫理:人工智慧”,從引發倫理困境的工程案例出發,揭示其背後的深層問題。又如普林斯頓大學的人工智慧與倫理對話項目,由該校人類價值中心和信息技術政策中心聯合開發,建有案例庫,供教學和研究使用。

    “我們身處數字社會,人工智慧已從前沿技術變成基礎技術,帶來了一係列倫理、法律和治理問題。”鄭戈表示,國內高校相關專業都有必要開設倫理類課程,從人才培養入手樹立“科技向善”理念,讓大學生擁有自覺的科技倫理意識,在未來職業生涯中踐行科技倫理、遵守法律法規。

    他還建議國內科技和教育工作者借鑒麻省理工的做法,為中學生開發人工智慧倫理課程。據介紹,麻省理工為中學生開發的課程旨在提高青少年使用智能手機、社交媒體時的自我控制和道德判斷能力。“網絡平臺經濟也叫注意力經濟,平臺背後的行為偏好演算法讓很多青少年沉迷其中,花費了大量時間。”鄭戈説,“中學可通過課程教育,讓學生了解網絡平臺的演算法邏輯,産生對人工智慧兩面性的自覺意識。”(俞陶然)

【糾錯】 [責任編輯: 佘靈 ]

微信掃描二維碼,關注新華網

熱點推薦

掃一掃

掃一掃,分享手機新華網上海頻道

Copyright © 2000- XINHUANET.com All Rights Reserved.

制作單位:新華網上海頻道 版權所有:新華網上海頻道

010070120010000000000000011100001310233297