讓科技倫理建設為人工智能健康發(fā)展護航
【聚焦科技倫理】
◎陳小平
當前,加強人工智能領域科技倫理建設的必要性、緊迫性和原則規(guī)范已成共識。前不久,《科技倫理審查辦法(試行)》(以下簡稱《審查辦法》)的正式發(fā)布,標志著我國科技倫理建設全面進入治理階段,對于推動我國人工智能等領域的健康發(fā)展和負責任創(chuàng)新具有重要的現(xiàn)實意義。
現(xiàn)階段人工智能倫理審查面臨諸多挑戰(zhàn)
現(xiàn)階段人工智能科技活動倫理審查工作重點和突出難點可歸納為以下幾個方面。
一是正確判斷科技活動是否屬于倫理審查范圍?!秾彶檗k法》第二條明確規(guī)定了科技活動的審查范圍,從內(nèi)容上看主要考慮的是受試者的合法權益以及科技活動可能對生命、生態(tài)、公共秩序、社會發(fā)展等造成的倫理風險。該文件是科技倫理審查的通用性規(guī)定,尚未對每一項具體科技活動是否屬于審查范圍作出規(guī)定。因此,科技活動承擔單位的科技倫理審查委員會(可能還有承擔專家復核的機構)需要結合實際情況,細化本單位的科技倫理審查范圍,同時根據(jù)《審查辦法》第九條制定科技倫理風險評估辦法,指導科研人員開展科技倫理風險評估,按要求申請倫理審查。目前,雖然我國人工智能學界、業(yè)界和管理機構對倫理風險的認識正在提升,但風險判斷能力和水平滯后于認識程度的提升,如何作出正確判斷將是一項新挑戰(zhàn)。
二是恰當把握審查內(nèi)容和審查尺度。《審查辦法》第十五條對科技倫理審查內(nèi)容作出了明確的規(guī)定,特別對涉及個人隱私數(shù)據(jù)等的科技活動提出了要求,與個人信息保護法、數(shù)據(jù)安全法等進行了很好的銜接。但在實際工作中,還需要制定可操作的審查細則。此外,《審查辦法》提出,地方、相關行業(yè)主管部門或科技類社會團體可以制定或修訂本地方、本系統(tǒng)、本領域的科技倫理審查細則、具體規(guī)范和指南。今年2月,國家衛(wèi)健委、教育部、科技部等制定了《涉及人的生命科學和醫(yī)學研究倫理審查辦法》,對生命科學和醫(yī)學領域的研究作了更詳細的規(guī)定,而人工智能領域尚缺少更具體的規(guī)定,因此人工智能倫理審查實施細則的制定應是下一步重點工作之一,并且要在審查實踐中逐步完善。在實施細則的設置中,如何恰當把握審查尺度將面臨挑戰(zhàn),容易出現(xiàn)尺度過松或過嚴的現(xiàn)象,進而對后續(xù)的倫理審查產(chǎn)生系統(tǒng)性影響。如果尺度過松,有可能導致一些存在倫理風險的科技活動倫理審查不全面,從而留下倫理風險隱患;如果尺度過嚴,可能妨礙科技活動的正常推進,降低國家科技進步和經(jīng)濟、社會發(fā)展的速度。
三是加強科技倫理風險預警與跟蹤研判。《審查辦法》規(guī)定,對可能產(chǎn)生較大倫理風險挑戰(zhàn)的新興科技活動實施清單管理。清單的制定涉及對倫理風險的預測,這種預測往往是非常困難的,對人工智能長期社會效應的分析、預測尤其困難。因此,清單的滯后性將持續(xù)存在。尤其需要警覺的是,某些倫理后果無法通過事后治理加以消除,或事后治理的代價過大。因此,清單的動態(tài)調(diào)整機制尤為重要。在對較高風險的科技活動的倫理風險防控上,要堅持《關于加強科技倫理治理的意見》提出的敏捷治理要求,加強科技倫理風險預警與跟蹤研判,及時動態(tài)調(diào)整治理方式和倫理規(guī)范,快速靈活應對科技創(chuàng)新帶來的倫理挑戰(zhàn)。
多措并舉推動人工智能倫理審查落到實處
人工智能領域的倫理審查是一項新事物,要求科技活動的承擔者、倫理委員會委員和工作人員、參與復核的專家和其他工作人員等參與《審查辦法》實施的人員認真學習、深刻理解《審查辦法》及其他相關政策規(guī)定,掌握背景知識,不斷在實踐中提高倫理審查的能力。
首先,要提高參與《審查辦法》實施的人員對人工智能的認識水平。當前,人們對于人工智能的認識仍存在不少誤區(qū),不少人錯誤地認為人工智能與人類智能是本質(zhì)相同的,只是程度不同而已,為此認為對人的管理、教育方法也適用于人工智能。這種誤解、誤判會嚴重地干擾人工智能治理?!叭斯ぶ悄苤浮丙溈ㄥa等人首次使用了“人工智能”一詞,并明確指出,“AI的大部分工作是研究世界對智能提出的問題,而不是研究人或動物。AI研究者可以使用人沒有或人不能使用的方法,即使這些方法主要涉及計算”。由此可見,在人工智能倫理審查中務必根據(jù)數(shù)據(jù)、模型、算法、平臺等AI技術要素的實際特性,作出客觀的判斷,而不能混淆人工智能與人類智能。
其次,根據(jù)倫理審查的人才現(xiàn)狀和工作需要,亟須加強科技倫理審查人才隊伍的培養(yǎng),以滿足現(xiàn)階段的迫切需要。要從更長期的需要出發(fā),加大力度,通過學校教育、進修培訓等方式,培養(yǎng)一大批科技倫理治理的專業(yè)人才。
再次,落實《審查辦法》必須從全局觀點出發(fā),清單管理是重中之重,應根據(jù)人工智能研究和應用的發(fā)展情況和治理需要,對清單進行及時調(diào)整,并就調(diào)整內(nèi)容及時發(fā)布相關說明和實施指導。另外,有條件的地區(qū)、行業(yè)和單位,應加快啟動倫理審查工作,及時總結經(jīng)驗教訓,發(fā)揮示范和引領作用。還需加強《審查辦法》實施過程中相關經(jīng)驗的信息共享,以提高全國范圍內(nèi)倫理審查的效率和效能。
最后,針對滯后性挑戰(zhàn)和人工智能的特點,建議開設一個新的研究方向——人工智能可控性研究。以往的研究主要針對工程可靠性,而對人工智能來說,這是遠遠不夠的,有必要從基礎理論、模型、算法、數(shù)據(jù)、平臺等各個角度,對人工智能的可控性展開全面研究。同時,需要積極探索人工智能在相關領域的倫理效應和潛在風險,增強我國對人工智能等科技活動的風險預測和防范能力。
(作者系中國人工智能學會人工智能倫理與治理工委會主任)
來源:科技日報
版權聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關法律責任。