国产成av人片在线观看天堂无码,伊人免费视频在线,另类在线欧美图片,亚洲国产中文字幕乱,绝世天君txt下载,家有囍事小说,斗罗小说网

專題報告二:科技發(fā)展與法治政府|人工智能的政策實踐與立法展望

專題報告二:科技發(fā)展與法治政府|人工智能的政策實踐與立法展望

luyijun 2025-03-27 醉美胡楊 5 次瀏覽 0個評論

王春蕾,中國政法大學法治政府研究院副教授,主要研究方向為行政法學、教育法學;辛浩天,中國政法大學法學院博士研究生,主要研究方向為行政法學;郭競捷,中國政法大學法學院碩士研究生,主要研究方向為行政法學。


  :人工智能技術在世界范圍內(nèi)得到了迅猛的發(fā)展與廣泛應用,但其也帶來了治理上的新問題,需要立法加以回應。我國在人工智能立法上進行了有益的探索,通過多層級、地域化、領域化立法初步構建起了人工智能法律治理框架,但仍存在立法層級低、立法規(guī)定落后、體系銜接不暢的問題。作為一種新興技術,人工智能與傳統(tǒng)技術并不相同,其數(shù)字化、智能化、前沿化的特點,一方面使得其概念范疇并不確定、具有模糊性,對其進行立法規(guī)制存在難點,另一方面也帶來了數(shù)據(jù)安全、算法風險等新型科技風險,現(xiàn)行立法難以對其進行規(guī)制,需要從立法對象、風險類型、規(guī)制途徑等方面加以回應。在我國未來的人工智能立法中,需要明確人工智能立法的定位及其規(guī)范對象,堅持安全與發(fā)展并重、自主與開放兼顧、政府與市場相協(xié)調的立法原則,構建多層次的人工智能法律體系,從立法上完善分級監(jiān)管、數(shù)據(jù)合規(guī)、倫理審查等法律制度,實現(xiàn)人工智能規(guī)制與發(fā)展的統(tǒng)一。

關鍵詞:人工智能;立法實踐;科技風險;立法展望;制度構建


一、人工智能及其立法概述


(一)人工智能的發(fā)展概況

隨著科學研究的不斷突破和應用技術的日新月異,全球再次處在新一輪歷史性的科技革命和工業(yè)革新的十字路口。繼工業(yè)化時代與信息化時代后,智能化時代已經(jīng)初現(xiàn)端倪,成為全球科技產(chǎn)業(yè)發(fā)展的潮流與大趨勢。近年來,人工智能大模型在科學技術層面和應用領域取得了巨大的突破,被廣泛應用于無人駕駛、人臉識別技術以及各類的智能設施等領域,世界范圍內(nèi)人工智能技術和產(chǎn)業(yè)一直保持著高速發(fā)展態(tài)勢。

作為引領未來的新興戰(zhàn)略技術,人工智能技術得到了世界各國的重視,發(fā)展迅猛。自從在1956年美國達特茅斯討論會上,人工智能的概念被首次提出以來,人工智能經(jīng)歷了機器學習、神經(jīng)網(wǎng)絡、互聯(lián)網(wǎng)技術驅動的三次繁榮發(fā)展期。雖然在此期間也遭遇了計算機算力不足、推理模型陷入瓶頸導致的兩次發(fā)展低谷期,但總體上,人工智能技術已經(jīng)得到了長足的發(fā)展。世界各國不斷升級人工智能戰(zhàn)略,人工智能已經(jīng)成為科技創(chuàng)新的關鍵領域和數(shù)字經(jīng)濟時代的重要支柱,面向人工智能領域創(chuàng)新需求的投資不斷擴大,通過應用牽引推動人工智能技術落地成為各國共識。而隨著人工智能技術發(fā)展與應用的深入,近年來涌現(xiàn)了一大批以GPT-4(一種語言模型)為代表的實用型人工智能技術,推動形成了新一輪的生成式人工智能(AIGC)熱潮,通用人工智能的能力水平也引起了更廣泛的關注。在技術發(fā)展、產(chǎn)業(yè)化進一步深入的同時,人工智能也從以知識和數(shù)據(jù)為驅動的階段,逐漸發(fā)展到注重技術的安全性、可控性的發(fā)展階段,如何實現(xiàn)持續(xù)、健康的發(fā)展成為人工智能發(fā)展的焦點,可信安全的要求也逐漸成為人工智能賦能領域過程中不可或缺的保障。

(二)人工智能立法的重要性

高速發(fā)展的人工智能技術給人們的工作與生活帶來了極大的便利,但同時也伴隨著巨大的公共性風險。中國信息通信研究院發(fā)布的《人工智能白皮書(2022年)》指出,“以深度學習為核心的人工智能技術正在不斷暴露出由其自身特性引發(fā)的風險隱患”,人工智能技術所固有的技術風險被持續(xù)放大,給舊有的法律以及規(guī)范體系帶來了多個方面的沖擊。有學者將人工智能所帶來的風險隱患總結歸納為五種,即倫理風險、極化風險、異化風險、規(guī)制風險和責任風險。

隨著人工智能深入賦能帶來的多方面的風險與挑戰(zhàn),人工智能治理日益得到重視。作為人工智能治理的重要手段,加強人工智能立法,對人工智能技術及其應用進行法律規(guī)制,是防范、控制乃至化解人工智能風險的重要進路??偟膩砜?,加強人工智能立法有其必要性。

首先,通過人工智能立法,能夠較好地建立起人工智能的法律規(guī)制框架,在此框架內(nèi)規(guī)范人工智能技術的發(fā)展與使用,以最大限度地限制、防范、化解其所帶來的風險。例如,在個人隱私保護和數(shù)據(jù)安全這一問題上,人工智能技術的應用需要海量的數(shù)據(jù)予以支持,而這些數(shù)據(jù)有可能涉及個人隱私和敏感信息。如果沒有適當?shù)牧⒎ūWo,可能會導致嚴重的隱私侵犯和數(shù)據(jù)安全問題。推動人工智能立法有助于加強對人工智能技術的監(jiān)管,促進其合法、規(guī)范使用,保障發(fā)展中的安全與穩(wěn)定。

其次,人工智能立法還能夠在規(guī)范人工智能技術的前提下,起到引領、推動人工智能健康發(fā)展的作用。通過為人工智能技術設立產(chǎn)業(yè)標準、技術規(guī)范,可以促進人工智能產(chǎn)業(yè)規(guī)范化、有序化發(fā)展。同時,通過立法還可以將政府對人工智能產(chǎn)業(yè)發(fā)展的扶助、鼓勵政策法律化,鼓勵更多的企業(yè)和技術人員參與到人工智能的研究和應用中來,推動產(chǎn)業(yè)的發(fā)展和創(chuàng)新。

最后,科學的人工智能立法,還能夠在數(shù)字技術廣泛使用的當下,促進社會公平的構建與實現(xiàn)。無監(jiān)管的人工智能可能會加劇社會不公,產(chǎn)生不公平的結果。一個透明、公正的人工智能系統(tǒng)需要一套法律框架來防止濫用和偏見,確保所有人都能公平地從人工智能技術的發(fā)展中受益;同樣的,通過科學的人工智能立法,確保人工智能技術的公正使用,也能促進社會公平的實現(xiàn)。

(三)世界范圍內(nèi)人工智能立法的主要進展

在人工智能技術加速發(fā)展的大背景下,世界各國的人工智能治理在整體上呈現(xiàn)加速演進態(tài)勢,各國紛紛開始從原則性約束的“軟法”邁向更具實質性監(jiān)管意味的“硬法”。以美歐為首的人工智能先行者紛紛加速推進人工智能領域的立法規(guī)制,初步形成了較為完備的規(guī)制體系,以“硬法”為保障的風險防控體系逐步建立。域外的人工智能立法經(jīng)驗,可以為我國人工智能政策與立法實踐提供借鑒。

1、美國立法實踐

美國對于人工智能的立法走在了世界前列。在對人工智能技術的監(jiān)管方面,從2012年的《聯(lián)邦航空管理局現(xiàn)代化和改革法》,到2015年國會將人工智能的表述加入《修復美國地面交通法》,再到2020年的《生成人工智能網(wǎng)絡安全法案》《數(shù)據(jù)問責和透明度法案》《人工智能監(jiān)管原則草案》等法案或草案,美國在聯(lián)邦層面上構筑起了比較完善的人工智能監(jiān)管體系。而在人工智能產(chǎn)業(yè)促進方面,聯(lián)邦政府通過《2020年國家人工智能倡議法》《芯片與科學法案》《2022年推進美國人工智能法案》等法案,明確其將在人工智能等關鍵領域加大研究經(jīng)費和產(chǎn)業(yè)補貼的投入,提出了增加投資、鼓勵運用等多項促進人工智能發(fā)展的舉措。

綜合來看,有學者指出,從美國聯(lián)邦政府所發(fā)布的人工智能發(fā)展戰(zhàn)略部署和面對人工智能風險所進行的公法規(guī)制實踐來看,美國采取的是“激勵創(chuàng)新審慎監(jiān)管的柔性規(guī)制模式”,也即“以激勵人工智能創(chuàng)新發(fā)展為價值導向,審慎監(jiān)管結果風險方式的綜合性規(guī)制路徑”。布魯金斯學會的亞歷克斯·恩格勒針對美國政府的監(jiān)管方式指出,美國聯(lián)邦政府的人工智能風險管理方法可以大致描述為基于風險、針對特定行業(yè)以及在聯(lián)邦機構中高度分布。雖然這種方法有好處,但它也導致了人工智能政策的不平衡發(fā)展;白宮雖然有幾份關于人工智能危害的聯(lián)邦指導文件,但其“并沒有為人工智能風險制定一個公平或一致的聯(lián)邦方法”。

2、歐盟立法實踐

歐盟在人工智能領域的立法較美國而言稍晚,卻具有極大的影響力,甚至在一定程度上引領了世界的人工智能立法趨勢。在早期,歐盟立法以出臺框架性文件為主,通過《歐洲人工智能戰(zhàn)略》《算法問責及透明治理框架》《人工智能白皮書》等戰(zhàn)略文件,提出了人工智能發(fā)展的一些原則與規(guī)制框架,希望通過軟法的形式,打造以人為本的可信賴和安全的人工智能。而隨著人工智能技術與產(chǎn)業(yè)的發(fā)展,2021年4月,歐盟委員會首次提出關于制定人工智能統(tǒng)一規(guī)則的立法提案,經(jīng)法國、捷克等國討論修改,形成多版折中草案,并于5月通過了《人工智能法案》談判授權草案。《人工智能法案》已于2024年3月正式通過,該法案是歐盟內(nèi)部管理人工智能的一般性規(guī)則,這是世界范圍內(nèi)首個關于人工智能監(jiān)管框架的專門性公法規(guī)制法案,其重點確保了人工智能系統(tǒng)由人監(jiān)督、安全、透明、可追溯、非歧視和環(huán)保。法案將人工智能系統(tǒng)的風險劃分為不可接受風險、高風險、低風險或最低風險,依照不同人工智能使用情況制定不同的規(guī)范措施。從內(nèi)容上看,這是一種“橫向”的和“基于風險”的監(jiān)管手段,這意味著它計劃為所有行業(yè)和應用程序的人工智能提供規(guī)則,重點關注各領域人工智能創(chuàng)新的潛在風險。

總體上來看,歐盟對人工智能的公法規(guī)制力度較大,并且具有清晰明確的法律基礎,有學者將歐盟這種管制模式歸結為“保障安全嚴厲監(jiān)管的剛性規(guī)制模式”,即將保障人工智能的安全可信作為價值導向,通過采用剛性的立法規(guī)制路徑來對人工智能的發(fā)展過程和相關風險進行監(jiān)管。


二、我國人工智能的立法情況與實踐效果


人工智能的良性發(fā)展需要構建起科學全面的法律規(guī)范體系作為保障。近年來,我國人工智能立法制度化、規(guī)范化水平不斷提高,呈現(xiàn)多層級、地域化、領域化的立法特點。

(一)人工智能的中央政策與立法成就

在國家層面上,我國形成了以《新一代人工智能發(fā)展規(guī)劃》為核心,以《生成式人工智能服務管理暫行辦法》等各類部門規(guī)范和政策文件為支撐,不斷完善、充實、更新的人工智能規(guī)范體系。具體立法情況見表1(略)。

1、以《新一代人工智能發(fā)展規(guī)劃》為核心

雖然目前我國尚未制定狹義法律層面的人工智能法,但在黨中央的部署推動下,國務院于2017年7月印發(fā)了《新一代人工智能發(fā)展規(guī)劃》。作為我國從國家層面上對人工智能的發(fā)展方向作出的宏觀指引,《新一代人工智能發(fā)展規(guī)劃》系統(tǒng)闡述了我國在人工智能方面的總體政策,強調要“搶抓人工智能發(fā)展的重大戰(zhàn)略機遇,構筑我國人工智能發(fā)展的先發(fā)優(yōu)勢”,明確了“發(fā)展為主、控制潛在風險為輔”的戰(zhàn)略布局。此外,該規(guī)劃明確了我國新一代人工智能發(fā)展的戰(zhàn)略目標:到2020年,人工智能總體技術和應用與世界先進水平同步;到2025年,人工智能基礎理論實現(xiàn)重大突破,部分技術與應用達到世界領先水平;到2030年,人工智能理論、技術與應用總體達到世界領先水平。2017年12月,工業(yè)和信息化部發(fā)布《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018—2020年)》。該計劃以產(chǎn)業(yè)發(fā)展作為出發(fā)點,對國務院《新一代人工智能發(fā)展規(guī)劃》所提出的任務目標進行了具體細化和布置落實,旨在推動人工智能和實體經(jīng)濟的深度性融合。

2、以中央各類部門規(guī)范和政策文件為支撐

原則性、綱領性的《新一代人工智能發(fā)展規(guī)劃》僅確立了基本的規(guī)制要求,要想使發(fā)展規(guī)劃具體落實到人工智能的各相關領域之中,形成更具操作性的具體規(guī)制措施,就需要作出更加細致的規(guī)定。在這種情況下,中央各類部門規(guī)章及其他政策文件構成了人工智能法律規(guī)制體系的重要組成部分。

總體上來看,我國目前對于人工智能的細化立法,呈現(xiàn)“場景化的分散式立法態(tài)勢”,主要是針對人工智能應用中的各要素進行具體規(guī)制,具體表現(xiàn)為隨著人工智能的發(fā)展而逐步針對人工智能應用所帶來的具體問題出臺相應的管理規(guī)范,如《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《科技倫理審查辦法(試行)》等,這些文件分別從算法治理、深度合成治理、科技倫理治理等不同層面對人工智能的規(guī)范和發(fā)展進行了細化規(guī)定。

在數(shù)據(jù)保護方面,我國相繼發(fā)布了數(shù)據(jù)安全和個人信息保護方面的三部立法——《網(wǎng)絡安全法》《數(shù)據(jù)安全法》《個人信息保護法》,涵蓋了人工智能開發(fā)、應用過程中的數(shù)據(jù)隱私保護、數(shù)據(jù)質量管理、透明度和可解釋性、數(shù)據(jù)共享與合作、安全評估和審查以及法律責任和追責機制等方面。

在算法治理方面,我國相繼發(fā)布了一系列法規(guī)和指導文件,以確?;ヂ?lián)網(wǎng)信息服務算法的規(guī)范運行,如國家網(wǎng)信辦發(fā)布的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《關于加強互聯(lián)網(wǎng)信息服務算法綜合治理的指導意見》,以及國家市場監(jiān)督管理總局、國家標準化管理委員會發(fā)布的《信息安全技術機器學習算法安全評估規(guī)范》等。這些法規(guī)和指導文件的出臺旨在建立算法治理的體系,保障互聯(lián)網(wǎng)信息服務算法的合規(guī)性和安全性,防范潛在的安全風險,為算法治理提供了明確的框架和規(guī)范,有助于保障互聯(lián)網(wǎng)信息服務算法的安全性和合規(guī)性。同時,這也體現(xiàn)了我國在算法治理方面的重視和努力,為構建健康、可信賴的數(shù)字環(huán)境提供了有力支持。

在科技倫理方面,我國通過一系列法規(guī)和指導文件對人工智能的管理、研發(fā)、供應、使用和組織實施規(guī)范進行了框架上的規(guī)定。國家新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能倫理規(guī)范》明確了增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險和保持公開透明的科技倫理原則,同時對人工智能的管理、研發(fā)、供應、使用和組織實施進行了框架上的規(guī)定。就倫理審查這一特定流程,科技部于2023年9月7日發(fā)布了《科技倫理審查辦法(試行)》,要求責任單位設立科技倫理(審查)委員會,建立審查管理制度,提供科技咨詢與培訓,并客觀評估和審慎對待不確定性和技術應用風險。

在智能醫(yī)療領域,我國通過各類法律、法規(guī)、政策實現(xiàn)對人工智能的管理和引導。國家藥監(jiān)局(原國家食藥監(jiān)總局)及國家藥監(jiān)局器審中心所發(fā)布的《移動醫(yī)療器械注冊技術審查指導原則》《人工智能醫(yī)療器械注冊審查指導原則》《人工智能醫(yī)用軟件產(chǎn)品分類界定指導原則》等文件對用于診斷和評估的智能算法軟件、人工智能醫(yī)學診斷設備的范圍和管理等進行明確?!痘ヂ?lián)網(wǎng)診療監(jiān)管細則(試行)》則對人工智能醫(yī)學診斷進行了規(guī)定:“人工智能軟件等不得冒用、替代醫(yī)師本人提供診療服務?!薄疤幏綉山釉\醫(yī)師本人開具,嚴禁使用人工智能等自動生成處方?!贝送?,目前國家衛(wèi)健委則主要針對人工智能被用于輔助診斷的技術出臺了一些細化的質量控制規(guī)范和管理規(guī)范,包括《人工智能輔助診斷技術臨床應用質量控制指標》(2017年版)和《人工智能輔助診斷技術管理規(guī)范》(2017年版)等。

而隨著人工智能的深入發(fā)展,以及國家對人工智能治理認識的深化,我國對于人工智能之立法,也逐漸從分散規(guī)制、要素規(guī)制轉向對象規(guī)制、統(tǒng)一規(guī)制。一個顯著的體現(xiàn)即為2023年7月國家網(wǎng)信辦聯(lián)合六部門發(fā)布的《生成式人工智能服務管理暫行辦法》。該辦法針對生成式人工智能技術進行了全面的規(guī)定,旨在促進該技術的健康發(fā)展和規(guī)范應用。該辦法明確了堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結合的原則,并在此基礎之上相應規(guī)定了具體措施以鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務實行包容審慎和分類分級的監(jiān)管方式,同時也明確了提供和使用生成式人工智能服務的總體要求,在倫理、算法、數(shù)據(jù)及內(nèi)容等方面規(guī)定了生成式人工智能應當符合的條件及責任承擔主體和義務內(nèi)容,包括算法前置備案、信息披露、內(nèi)容審查等。

3、人工智能統(tǒng)一立法的進展

隨著全球人工智能發(fā)展進入新一輪躍升期,超大規(guī)模預訓練模型的重大突破實現(xiàn)了人工智能的一次技術飛躍,人工智能應用場景不斷拓展,正加速從消費端向生產(chǎn)端滲透,與制造、醫(yī)療、能源、交通等領域深度融合,全方位融入科技、經(jīng)濟和社會發(fā)展等方方面面,我國也加速了人工智能的統(tǒng)一立法進程。2023年5月,國務院辦公廳印發(fā)《國務院2023年度立法工作計劃》,人工智能法草案即位列其中,這意味著國家層面的人工智能立法將迎來一個新的階段。

(二)人工智能的地方立法與實踐探索

地方性立法具有較強的靈活性,能結合本地的實際情況和現(xiàn)階段的突出問題,對上位法的內(nèi)容進行進一步的細化和優(yōu)化。目前我國大部分地區(qū)均在探索建立地域性的人工智能規(guī)制體系,希望借此規(guī)制人工智能技術,并促進人工智能產(chǎn)業(yè)發(fā)展。但這些地方探索以地方政府規(guī)章和政策性文件為主,僅有少部分地區(qū)通過地方性法規(guī)的形式對人工智能技術進行了細致規(guī)定,呈現(xiàn)政策先行、重點領域立法的特點,詳見表2(略)。

具體而言,在地方立法上,目前僅有深圳市和上海市頒布了人工智能相關地方性法規(guī),集中于人工智能汽車與自動駕駛領域。深圳市于2022年9月出臺了《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》,該條例是我國人工智能領域的首部地方性法規(guī),就基礎研究與技術開發(fā)、產(chǎn)業(yè)基礎設施建設、應用場景拓展、促進與保障、治理原則與措施等多項重要問題作出規(guī)定。隨后,上海市出臺《上海市促進人工智能產(chǎn)業(yè)發(fā)展條例》,該條例整體共包括六章七十二條內(nèi)容,是人工智能領域的首部省級地方法規(guī),也是上海市繼《上海市數(shù)據(jù)條例》后第二部數(shù)字經(jīng)濟領域地方法規(guī)。該條例以促進數(shù)據(jù)利用與技術健康發(fā)展為立法定位,強調創(chuàng)新性和引領性,在有效市場和有為政府之間尋求平衡,力圖充分發(fā)揮兩者的作用,采取了多種激勵措施來推動人工智能產(chǎn)業(yè)實現(xiàn)持續(xù)性高質量發(fā)展。與此同時,更多地區(qū)則以政策文件的形式促進人工智能合理健康發(fā)展。

(三)現(xiàn)行政策與立法的主要不足

1、整體立法層級較低

如前文所述,在當前人工智能相關立法中,我國并無一部統(tǒng)一的人工智能法,僅存在一部國務院的規(guī)范性文件對人工智能的規(guī)制與發(fā)展進行了整體性規(guī)定。對于人工智能領域的法律治理,主要依靠部門規(guī)章以及部門發(fā)布的其他規(guī)范性文件以“小步快進”的方式進行立法。而在地方上,由地方性法規(guī)這一層級的立法來對人工智能進行規(guī)制的規(guī)范數(shù)量也較少,僅有深圳市、上海市所通過的兩部地方性法規(guī),地方對于人工智能治理的細化規(guī)定主要依賴地方政府規(guī)范性文件以及有關政策進行分散性規(guī)制。整體上來看,現(xiàn)存人工智能之相關法律規(guī)范的層級較低。

從目前人工智能開發(fā)和應用的蔓延態(tài)勢而言,由全國人大及其常委會進行法律層面的人工智能專項性立法已經(jīng)到了應當提上日程的時候。既有科技法治實踐的經(jīng)驗表明,只有科技立法與技術的發(fā)展同步,才能使法律與科技發(fā)展形成良性互動的關系。這是工業(yè)革命以來科技進步能夠有效轉化為經(jīng)濟社會發(fā)展的動力或為其賦能的有力支持和基本保障。只有在這種良性互動的環(huán)境下,科技才能真正得到符合人類價值取向的發(fā)展和應用,人工智能技術的發(fā)展與應用也不例外。人工智能技術的迅速蔓延,也帶來了日益迫切的法律需求。過去幾年,我國人工智能領域的建章立制已經(jīng)起步。在2022年3月1日開始實施的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》中,生成合成類算法作為五大類算法推薦技術算法推薦技術的五大類為生成合成類、個性化推送類、排序精選類、檢索過濾類以及調度決策類。之一而受到密切監(jiān)管。2023年1月1日開始實施的《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》將深度合成技術作為算法服務種類中高風險的算法予以率先立法監(jiān)管,進一步加強了對該技術的監(jiān)管。為了進一步推動人工智能領域的規(guī)范和發(fā)展,2023年7月國家網(wǎng)信辦等七部門聯(lián)合出臺了《生成式人工智能服務管理暫行辦法》。綜合以上三份文件,隨著算法和人工智能技術的發(fā)展,我國對其治理也形成了“算法治理—深度合成治理—生成式人工智能治理”的迭代路徑。2023年9月7日,新華社發(fā)布了十四屆全國人大常委會立法規(guī)劃,明確此后五年中國立法工作的“總藍圖”,但明確列入2023年國務院立法工作計劃的人工智能法,沒有出現(xiàn)在全國人大常委會未來五年的立法規(guī)劃里。以此而言,以法律的形式對人工智能進行規(guī)制仍然任重而道遠。

2、部分領域立法滯后

立法具有滯后性,這一法律規(guī)制手段所具有的本質性的缺陷,在人工智能技術一日千里的發(fā)展態(tài)勢下,體現(xiàn)得尤為突出與明顯。

人工智能技術的應用領域十分廣泛,相應的,在中央層面形成了數(shù)據(jù)保護、算法治理、科技倫理、智能駕駛、智能醫(yī)療等幾大領域的框架性立法。具體到地方,現(xiàn)行立法主要集中在產(chǎn)業(yè)促進等框架性立法以及智能駕駛領域,在其他領域如數(shù)據(jù)保護、科技倫理、智能醫(yī)療等則存在較多缺漏。以智能醫(yī)療為例,人工智能技術的應用覆蓋了醫(yī)療行業(yè)的各個方面,如醫(yī)療風險管理、自動監(jiān)控、醫(yī)療設備、醫(yī)學影像、藥物挖掘、精神健康、生物科技、營養(yǎng)和病理監(jiān)控等多個領域都能看到人工智能技術的影子,智能醫(yī)療技術不斷發(fā)展。然而,相較于技術的高歌猛進,人工智能在醫(yī)療健康領域的監(jiān)管立法、質量標準制定、準入和評估體系建設等方面總體滯后,或將阻礙醫(yī)療人工智能的應用和發(fā)展。

3、立法體系銜接不暢

立法是一個統(tǒng)一性的工程,要構建全面覆蓋、協(xié)調一致的法律規(guī)范體系,則需要合理處理一般法與特別法、中央立法與地方立法之間的關系。但遺憾的是,我國人工智能立法并未在這兩個關系上做好協(xié)調,立法體系存在銜接不暢的問題。

專題報告二:科技發(fā)展與法治政府|人工智能的政策實踐與立法展望

一方面,人工智能包含數(shù)據(jù)、算法、模型、算力等要素,對于其中的部分要素,我國已有相應的立法。同時,人工智能在各行業(yè)各領域得到具體應用時,又會涉及與該行業(yè)領域方面的現(xiàn)有法律發(fā)生交叉重疊的問題。因此,如何銜接好人工智能立法與現(xiàn)有相關法律規(guī)定,是立法者需要認真考慮的問題。而在當前立法中,由于對人工智能的法律定位不清晰,相關法律問題尚未形成共識,導致存在立法沖突、人工智能立法與現(xiàn)有立法銜接不暢的問題。

另一方面,地方性立法具有相對獨立性,在規(guī)范結構的完整性與法條之間的關聯(lián)性上可能存在與中央立法產(chǎn)生齟齬的問題,導致規(guī)范內(nèi)部的體系性被破壞。若是出現(xiàn)地方性的人工智能立法重復上位立法的現(xiàn)象,不僅會導致地方性立法的靈活性、針對性價值徹底喪失,地方的特殊問題也難以通過地方性立法予以解決,更為可怕的是地方性立法的一致性價值在一定程度上也會被消解。而在我國的地方立法中,較多地區(qū)的人工智能立法僅大量簡單地重述上位法規(guī)定,未能有效結合本地區(qū)人工智能發(fā)展的痛點、難點問題進行科學立法,導致地方立法并未起到其應有之作用,降低了立法效率。


三、人工智能立法的重點與難點


(一)立法定位與規(guī)范對象問題

開展人工智能立法,首要問題即為立法定位和規(guī)范對象的問題。正如有學者所說的,一個特定法域或一部特定的立法,若沒有明確的規(guī)范對象,則其既無法確定自己的適用定位,也難以形成正確的調整方法。以此而言,進行人工智能立法的一個前提條件,就是必須明確其規(guī)范對象到底是什么。這就又牽扯到了人工智能立法體系的邏輯前提——人工智能的法律定義這一問題。在人工智能立法趨向“體系化”以及立法進程日益加快的背景下,首先需要解決的便是人工智能的概念范圍應當如何確定的問題。人工智能立法的規(guī)制范圍究竟是什么,其規(guī)范對象究竟是什么,人工智能法在法律體系中究竟處于什么定位,這是開展人工智能立法必須先解決的重點與難點問題。

在確定人工智能立法的規(guī)范對象這一問題上,應當看到,人工智能技術作為當代最具前沿性的實踐活動,“并不是像簡單世界時代里發(fā)生的人與人之間的科技活動那樣,具有相對確定、相對穩(wěn)定的特點”,恰恰相反,人工智能技術從里到外都體現(xiàn)出不確定性和動態(tài)性的特點。

對于人工智能立法之規(guī)范對象認識之困難,一方面在于“人工智能”這一概念的模糊性。作為隨著技術發(fā)展所出現(xiàn)的新事物,人工智能之概念極其不確定。首先,其作為一種概念集合,是對一系列符合智能化特征的技術的總稱,從智能駕駛,到ChatGPT,都可以被納入其中。這種基于歸納法所得出的概念,導致“人工智能”的定義注定是模糊的。其次,作為一項前沿技術,人工智能技術仍在發(fā)展過程中,未來其將發(fā)展到何種程度是難以預測的,立法也需要具有一定的原則性以實現(xiàn)規(guī)制之全面性與有效性。雖然人工智能的定義方式非常多元,國內(nèi)外人工智能領域立法實踐中也都有單獨設置定義性條款來界定人工智能法律概念的先例,但這些定義有其特定的立法背景和體系語境,未必適合當前中國“人工智能法”的立法需求。

另一方面,對于人工智能立法之規(guī)范對象認識之困難,還在于人工智能技術應用活動的廣泛性。作為一種以機器深度學習和人機互動為特征的新型信息科技,人工智能科技的應用領域極為廣泛,而其應用的多樣性也帶來了規(guī)制上的特殊復雜性和不確定性。人工智能不僅僅作為專業(yè)定向科技,在研發(fā)、生產(chǎn)和部署方面具備支持自動決策的能力,可以實現(xiàn)自我迭代,同時也作為一項賦能科技,可以廣泛應用于與經(jīng)濟或管理相關的多種場景。盡管這種廣泛應用在表面上呈現(xiàn)為從場景到場景的現(xiàn)象羅列,但實際上各個場景之間的功能、結構以及主體互動關系千差萬別。這種多樣性使得對其進行規(guī)范變得極具挑戰(zhàn),極大地增加了規(guī)范制定的困難。

此外,進行人工智能立法,還需要明確的是人工智能產(chǎn)品的法律責任和權益保障問題。隨著人工智能技術的產(chǎn)業(yè)化,越來越多的人工智能產(chǎn)品將會流向市場。人工智能產(chǎn)品的法律責任是否屬于人工智能法的規(guī)制范圍,以及人工智能產(chǎn)品的責任承擔與消費者權益保障問題,也是人工智能立法所要解決的重點與難點問題。

(二)數(shù)據(jù)安全與權益保護問題

在人工智能所帶來的諸多問題中,數(shù)據(jù)安全與保護問題尤為突出,已成為當下最具挑戰(zhàn)性的問題之一。由于人工智能的核心是數(shù)據(jù)與算法,這意味著其大多數(shù)應用需要“大數(shù)據(jù)”的支持。進一步來說,人工智能越是智能,就越是需要海量的數(shù)據(jù)作為支撐,同時其對數(shù)據(jù)的處理能力也就越強。由此,人工智能的應用帶來了嚴重的數(shù)據(jù)安全危機。綜合來看,人工智能技術的發(fā)展與應用所帶來的數(shù)據(jù)安全風險主要體現(xiàn)在以下兩個方面。

一方面,人工智能技術建立在大數(shù)據(jù)之上,其在對數(shù)據(jù)進行獲取、分析的同時,也帶來了數(shù)據(jù)安全的風險。在數(shù)據(jù)收集、存儲、傳輸與共享的全流程中,都可能存在數(shù)據(jù)侵權、信息泄露的問題。

其一,人工智能對數(shù)據(jù)之收集、運用,可能存在侵犯他人合法權益之風險,如何保障數(shù)據(jù)之合法收集、使用,是立法的重難點之一。

首先,人工智能技術對數(shù)據(jù)的使用,存在侵犯個人信息權之風險。這種風險,首先來自人工智能技術對個人信息收集方式的更新,從而對傳統(tǒng)個人信息保護規(guī)則形成了一種規(guī)避。最典型的例子是數(shù)據(jù)爬取技術,這是人工智能獲取數(shù)據(jù)的常用手段之一。數(shù)據(jù)爬取技術能夠通過程序自動、快速、高效地收集網(wǎng)絡中的海量數(shù)據(jù),供給人工智能模型所使用,以提高模型的準確性和可靠性。然而,這樣的收集方式所帶來的風險是,所收集到的數(shù)據(jù)中可能包含敏感的個人信息,其來源很難加以追溯和驗證。人工智能利用數(shù)據(jù)爬取技術“灌入”了這些個人信息數(shù)據(jù),但在這個過程中卻未告知信息主體并征得其同意,這就直接架空了傳統(tǒng)上對個人信息處理的一項重要規(guī)則——“告知—同意”規(guī)則。因此,人工智能之數(shù)據(jù)爬取作為單方發(fā)起的“非合意數(shù)據(jù)流通”,存在極高的對個人信息權益之侵犯可能性。此外,人工智能對個人信息與個人隱私的侵犯風險,還來自其強大的信息處理能力。應當看到,人工智能技術增強了對個人信息的直接監(jiān)控能力并且?guī)砹双@取個人信息數(shù)據(jù)的更多可能性。隨著人工智能系統(tǒng)越來越多地被整合到基礎設施、生產(chǎn)制造、商業(yè)運營和日常生活中,在醫(yī)療、交通、金融、執(zhí)法等各個領域得到廣泛的應用,尤其是其與物聯(lián)網(wǎng)的融合,使用戶個人的面孔、財務、偏好等個人信息無所遁形??赡軓膯蝹€信息來看,這些個人信息均是經(jīng)過用戶同意并合法獲取的,但是,人工智能具備強大的“畫像識別”能力,借助物聯(lián)網(wǎng)、大數(shù)據(jù)等技術,能夠對海量的相關數(shù)據(jù)進行整合、分析,在此基礎上輕松繪制出用戶的完整“畫像”,潛藏著極大的個人信息風險。如何落實人工智能對個人信息之獲取符合個人信息保護的要求,仍需立法加以探索。

其次,人工智能的數(shù)據(jù)合法問題,還牽涉人工智能立法與知識產(chǎn)權法如何妥當銜接的問題。習近平總書記指出,“要健全大數(shù)據(jù)、人工智能、基因技術等新領域新業(yè)態(tài)知識產(chǎn)權保護制度”。人工智能技術圍繞“算法”與“數(shù)據(jù)”展開“思考”,而隨著“算法”與“數(shù)據(jù)”所帶來的產(chǎn)業(yè)價值不斷提升,它們也將成為新時期知識產(chǎn)權法關注的重點,彌補傳統(tǒng)知識產(chǎn)權法對算法和數(shù)據(jù)保護的不足具有必要性。但在知識產(chǎn)權保護的范圍上,并非全無爭議。人工智能模型本身作為計算機程序,其能夠被視為智力成果而得到知識產(chǎn)權法的保護,這一點已經(jīng)成為學術界與實務界的共識。然而,關于人工智能訓練所必需的海量數(shù)據(jù),其所涉及的知識產(chǎn)權問題仍存在較大爭議?!渡墒饺斯ぶ悄芊展芾頃盒修k法》第7條給出了原則性的規(guī)定:“生成式人工智能服務提供者(以下稱提供者)應當依法開展預訓練、優(yōu)化訓練等訓練數(shù)據(jù)處理活動,遵守以下規(guī)定:……(二)涉及知識產(chǎn)權的,不得侵害他人依法享有的知識產(chǎn)權……”在此種情況下,如何確保數(shù)據(jù)來源的合法、合規(guī)至關重要,如何對數(shù)據(jù)使用中的知識產(chǎn)權保護與技術創(chuàng)新發(fā)展加以平衡也同樣值得深入思考。數(shù)據(jù)中的知識產(chǎn)權保護界限缺失以及界定模糊,容易導致“公地悲劇”;但如果過于強調對數(shù)據(jù)的知識產(chǎn)權保護,則可能阻礙相關技術的發(fā)展,難以避免“反公地悲劇”的出現(xiàn)。如何在人工智能發(fā)展的過程中合理銜接知識產(chǎn)權保護,確保人工智能對數(shù)據(jù)的合法使用,也是未來人工智能立法的重點之一。

其二,人工智能的數(shù)據(jù)庫存在數(shù)據(jù)泄露的風險。人工智能技術需要在大量數(shù)據(jù)的基礎上學習、生成、訓練其模型,而大量數(shù)據(jù)的處理將不可避免地擴大受攻擊面,也就相應地提高了數(shù)據(jù)泄露的概率、擴大了數(shù)據(jù)泄露的影響范圍。數(shù)據(jù)被泄露可能有以下三方面的原因。第一,數(shù)據(jù)被主動泄露,即開發(fā)機構直接向外界披露了人工智能語料庫所存儲的數(shù)據(jù)。第二,數(shù)據(jù)被隱含泄露,即人工智能所迭代訓練的數(shù)據(jù)在未來的版本中被作為輸出內(nèi)容,從而間接泄露了訓練數(shù)據(jù)的內(nèi)容。例如,如果人工智能模型的訓練數(shù)據(jù)中包含了具有隱私敏感性的文本數(shù)據(jù),如醫(yī)療記錄、司法文書、個人通信記錄等,那么模型可能會學習這些信息并在未來版本中輸出泄露。與直接泄露相比,間接泄露具有高頻性、漸進性的特點,其中風險不容小覷。第三,數(shù)據(jù)因系統(tǒng)漏洞而被泄露,這也是語料庫數(shù)據(jù)泄露的最大風險源。人工智能模型本身可能存在未知的安全漏洞,攻擊者可能通過這些漏洞進行攻擊,包括但不限于修改模型的輸出、篡改模型的訓練數(shù)據(jù)、竊取模型的參數(shù)等。這些潛在的可供攻擊的漏洞可能導致系統(tǒng)數(shù)據(jù)的泄露,對模型整體的安全性構成威脅。目前,由于智能硬件缺乏足夠的加密技術等保障措施,大量用戶信息處于透明的狀態(tài),這使得黑客入侵變得相對容易。尤其是在現(xiàn)實中,并非每一個掌握大量數(shù)據(jù)的機構,其數(shù)據(jù)安保條件都足以匹配其龐大的數(shù)據(jù)規(guī)模。如何在利用個人信息之前對其進行充分保護,就成了一個亟待解決的難題。而一旦出現(xiàn)數(shù)據(jù)泄露,由于人工智能模型具有相對較大的數(shù)據(jù)體量,將導致難以挽回的損害后果。具體而言,個人數(shù)據(jù)泄露可能導致大范圍的隱私權和著作權被侵犯的風險,企業(yè)的數(shù)據(jù)泄露可能會導致不正當競爭或商業(yè)秘密泄露的風險,而政府的數(shù)據(jù)泄露則可能帶來更為嚴重的損害后果,敏感數(shù)據(jù)、秘密數(shù)據(jù)的泄露甚至會對國家利益與安全產(chǎn)生威脅。

另一方面,人工智能技術也對個人信息保護與隱私保護提出了新的挑戰(zhàn)。舉例而言,傳統(tǒng)上,對個人信息進行匿名化處理是在數(shù)據(jù)處理過程中對個人信息進行保護的重要措施。但隨著人工智能技術的不斷發(fā)展與應用,大量數(shù)據(jù)更容易被獲取并關聯(lián)。通過對數(shù)據(jù)加以分析、比對和匹配,即使是原本被匿名化的個人信息,也能被識別到具體的自然人之上,由此產(chǎn)生了數(shù)據(jù)的二次利用。2017年,美國一家企業(yè)開發(fā)了一套機器學習算法,在對人臉進行馬賽克處理的情況下,通過神經(jīng)網(wǎng)絡技術仍然能夠識別出圖像或視頻中隱藏的信息。通過網(wǎng)絡技術,“抽象的人”逐漸被還原為“特定的人”。值得注意的是,人工智能的發(fā)展離不開區(qū)塊鏈的應用。未來如果把區(qū)塊鏈技術應用于個人信息領域,即使去識別化,也難以完全去除其中的個人信息,這可能引發(fā)個人對自己的信息被他人操控的擔憂和恐慌。

綜上,如何確保人工智能技術中數(shù)據(jù)使用的合法性,以及數(shù)據(jù)在存儲、傳輸和處理全過程中的安全性,是人工智能立法的又一重點與難點。

(三)算法治理問題

算法是人工智能的核心組成部分,也是人工智能引發(fā)爭議和風險的主要原因。在數(shù)字經(jīng)濟時代,算法被視為“基礎語言”,其效能不僅直接決定著決策的效率和質量,并且也越來越對公私主體產(chǎn)生直接和間接的多維度的影響。隨著“算法經(jīng)濟”和“算法社會”的興起,算法的研發(fā)、投資和應用成為科技領域的新興增長點。然而,隨著算法應用領域的不斷擴展和延伸,相應的算法適用危機不斷出現(xiàn),算法治理體系亟待進一步健全和完善。對算法進行治理,需要解決算法的不透明、信息失真、算法歧視以及數(shù)據(jù)鴻溝等問題。

算法的不透明指的是算法的設計、運行和評估等過程缺乏公開和解釋。隨著人工智能在面部識別和數(shù)據(jù)收集等高度敏感領域的廣泛應用,應用過程中的風險也隨之增加,引發(fā)了群眾對算法安全的擔憂和對算法透明度的需求。因此,算法的可解釋性作為一種識別和糾正人工智能系統(tǒng)產(chǎn)生的錯誤的工具是必要的,具有重要的安全應用價值。同時,作為“黑盒模型”之算法也帶來了人們對歧視和偏見的擔憂,人工智能是否會不公平地考慮性別、年齡或種族等歧視性因素并將這些因素納入決策過程成為一個新的問題。

信息失真指的是算法處理、傳播和利用信息時可能出現(xiàn)錯誤、偏差和損害。以社交媒體對信息的處理為例,其算法通過對個人數(shù)據(jù)進行處理和分析從而形成用戶畫像,并依據(jù)這些用戶畫像向使用者提供相應的信息。這就造成了信息失真的問題?;谌斯ぶ悄艿膬?nèi)容過濾可能導致用戶不再能接觸到其通信環(huán)境之外的內(nèi)容,或者只能接觸到符合大多數(shù)人偏好的內(nèi)容。從長遠來看,這可能導致用戶遭遇惡劣的“濾泡效應”或“回音室效應”,分裂作為一個整體的民主公共領域,甚至造成多數(shù)意見的“獨裁”,導致嚴重的過濾偏差。

算法歧視指的是算法在決策、推薦和服務等方面可能對某些群體或個體造成不公平或不利。這種不公平從本源上來看可以追溯到三種缺陷:有缺陷的數(shù)據(jù)收集、有缺陷的數(shù)據(jù)聚合和標準的無響應。第一,有缺陷的數(shù)據(jù)收集是指數(shù)據(jù)輸入偏差很可能導致數(shù)據(jù)輸出偏差,這樣的“輸入偏差”可能源于受保護群體的代表性不足或過多。例如,美國Northpointe公司所開發(fā)的犯罪風險評估算法COMPAS,將黑人的犯罪風險錯誤地評估為白人的兩倍。由于算法在本質上是以計算機代碼所表達的邏輯意見,因此無論是算法的設計目的,還是模型選擇,抑或是數(shù)據(jù)使用,都是設計者和開發(fā)者的主觀選擇。在這個過程中,設計者和開發(fā)者可能會將自身所持有的偏見嵌入算法系統(tǒng)之中。第二,所謂有缺陷的數(shù)據(jù)聚合,是指初始訓練數(shù)據(jù)本身是具有代表性的,但是在稍后的處理過程中被引入了偏差。這種缺陷典型的例子是在消費信貸決策中,如果拒絕向三次延遲信用卡付款的有色人種提供“信譽”標注,而其他人則可能四次拖欠付款也不會被標注為“違約”,那么人工智能也可能會相應地對待未來的“信用評估”。第三,標準的無響應是指人工智能的基礎在于統(tǒng)計數(shù)據(jù),它只能通過對過去的觀察來評估未來,而標準的考慮是由反事實(contrafactual)所驅動的,因此將這些考慮轉化為人工智能能夠理解的語言可能極具挑戰(zhàn)。

數(shù)據(jù)鴻溝指的是數(shù)據(jù)利益、數(shù)據(jù)能力在數(shù)據(jù)的掌握者、分析者、使用者、支配者和生產(chǎn)者等各權益主體之間存在不均衡的情況,導致在國家、地域、產(chǎn)業(yè)乃至個體間形成了鴻溝。人們在利用計算機和互聯(lián)網(wǎng)方面存在的差異——這些差異包括技能和信息素養(yǎng)的能力差異,利用信息網(wǎng)絡來提高政治參與度的民主機會差異,以及利用信息的經(jīng)濟機會差異——使得“數(shù)據(jù)鴻溝”在客觀上是存在的。社會身份和財富不再僅靠勞動和投資來獲取,而更多是通過占有信息、數(shù)據(jù)和贏得算法來迅速變成商業(yè)巨頭和富豪,數(shù)字鴻溝就轉換成等差鴻溝,而且身在底層就很難翻身向上流動。它甚至還會形成數(shù)據(jù)壟斷和算法歧視,導致一些商業(yè)平臺存在較為普遍的“大數(shù)據(jù)殺熟”現(xiàn)象。例如購物網(wǎng)站通過智能算法,根據(jù)用戶經(jīng)常瀏覽或消費的商品的類型、價格區(qū)間、購物歷史,結合地理位置、移動情況、常去消費地點等,可以推測出他們的收入水平、對價格的敏感程度以及用戶黏度等信息,進而對價格不敏感且用戶黏度較大的顧客秘密提高價格銷售商品。

如何進行算法治理是人工智能立法的難點問題。對此,我國相繼發(fā)布了一系列法規(guī)和指導文件,希冀推動互聯(lián)網(wǎng)信息服務算法的規(guī)范運行,如國家網(wǎng)信辦發(fā)布的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《關于加強互聯(lián)網(wǎng)信息服務算法綜合治理的指導意見》等。盡管這些文件為算法治理提供了明確的框架和規(guī)范,有助于保障互聯(lián)網(wǎng)信息服務算法的安全性和合規(guī)性,但是,限于技術和治理手段,以上立法對于算法問題的治理作用收效甚微,亟待后續(xù)立法的進一步規(guī)制。

(四)倫理風險與社會責任問題

如何應對倫理風險是人工智能立法的敏感問題。隨著科技的發(fā)展,科技倫理的問題從傳統(tǒng)的生物醫(yī)學領域,逐漸擴展至納米科技、認知與神經(jīng)科技、人工智能科技等新興科技領域。這些新興技術具備重新塑造邏輯、生命、物質與大腦神經(jīng)的潛力,而且以融合性的方式相互賦能、共同發(fā)展,對社會生活造成重大潛在影響??萍紝θ祟惤换シ绞降挠绊懭諠u深遠,技術研發(fā)和應用所產(chǎn)生的隱私、平等、公正等問題也逐步顯現(xiàn)并成為現(xiàn)實。在人工智能領域,這種對于價值、道德等倫理要素的潛在侵蝕表現(xiàn)得尤為突出,其高智能、自主決策的特性在應用中引發(fā)了一系列倫理問題。

人工智能倫理風險的出現(xiàn),一方面是由于人工智能技術本身的缺陷。例如,被用于人工智能大模型訓練的數(shù)據(jù)集在多樣性、代表性、公正性等方面存在缺陷,由此導致偏見、刻板印象乃至片面性等問題。由于數(shù)據(jù)集的類型區(qū)分不清,也可能因此出現(xiàn)事實與想象不分,進而加劇錯誤信息或虛假信息的擴散與傳播。盡管有規(guī)定要求對使用人工智能技術生成的內(nèi)容進行標識,但目前的技術難以做到一一精準識別。此外,雖然從技術上講,人工智能永遠不會作出決定,但人工智能被用于自動決策具有倫理意義。在使用人工智能技術進行自動決策的過程中,人工智能取代了人的主體地位,由人工智能對人類尊嚴、正義、公平等價值取向進行取舍判斷,將對理性、良知自由和責任自負等倫理秩序與倫理責任體系產(chǎn)生非常深遠的影響。另一方面,倫理風險也可能基于用戶對于人工智能模型的濫用而產(chǎn)生,例如用戶利用生成式人工智能模型進行破壞社會秩序的行為。如何應對人工智能可能帶來的倫理道德風險,也將成為較長時間內(nèi)人類利用人工智能技術的重要議題。

人工智能的使用涉及人類社會的價值觀、道德觀和責任觀等倫理層次的問題,這些問題難以完全為“風險—安全”的概念所涵蓋,因此需要引入科技倫理的治理手段來加以干預。傳統(tǒng)的科技治理方式通常局限于回應科技對人體健康、自然環(huán)境等物理層面的直接影響,卻難以有效應對人工智能技術對人的主體性、社會交往規(guī)則、價值觀念等方面所產(chǎn)生的更為間接但更加深遠的影響。在這種情況下,科技倫理的治理手段顯得尤為重要,立法必須對此加以關注并予以回應。但這并不是一個容易解決的問題。立法如何超越傳統(tǒng)上對物理風險規(guī)制的局限,進入科技倫理治理的層次,運用倫理原則和標準來對人工智能技術的運用加以治理,推動人工智能滿足對尊嚴和權利、正義和責任、自由與多樣性等價值的追求,是一個值得考慮的問題。具體而言,立法對于人工智能倫理進行治理,主要存在如下幾方面的困難。

第一,對人工智能技術進行倫理治理,是一種從“下游”科技使用行為邁向上游科技研發(fā)行為的治理方式。由此導致的極大的不確定性,與科技倫理治理需要評價科技的社會性影響之要求存在根本上的矛盾。人工智能作為一種先進技術,廣泛地嵌入社會機制與政治安排之中,然而社會對人工智能的使用方式又是處于持續(xù)變動中的。因此,很難通過預測來采取措施,因為這“需要一種能夠準確考慮非常復雜變量的超級理性”,但在現(xiàn)實中,這樣的“超級理性”是不存在的。

第二,對人工智能技術進行倫理治理,指向了科學技術的社會性影響方面,這必將牽涉出非常廣泛的考慮維度,是一種開放維度的考慮。除了傳統(tǒng)上對于污染、人身安全等物理性、可視化的風險的考慮外,科技倫理治理還需要關注人的尊嚴、自主、隱私、平等與非歧視、利益共享等更為廣泛的維度。而這個維度是開放的,難以抽象出可以普遍適用的、穩(wěn)定的判斷規(guī)律,也給人工智能之倫理治理造成了極大的困難。

第三,倫理立場具有多元性與變動性,其基于一定的道德觀念,而在當下社會,道德觀念是多元而難以統(tǒng)一的。在倫理議題下,觀點之分歧從基礎規(guī)范層次或者說原則層次深入到了價值判斷之領域。例如,人工智能使決策自動化成為可能,但這也帶來了對于人之主體性和決策正義、公平的疑慮,本質上來說,這是一種技術進步、決策效率與人之尊嚴和權利之間的沖突。這些分歧無法用知識的增進來加以解決或視為已經(jīng)解決,因此法律必須直面這種價值上的沖突,作出其自身的判斷。立法如何采取一種恰當?shù)姆绞浇槿耄且粋€難題。

此外,在人工智能倫理問題上,企業(yè)對其使用人工智能技術過程中所產(chǎn)生的倫理問題應當負有責任,此為其社會責任的一環(huán)。如何促進這一社會責任落實,使企業(yè)在人工智能研發(fā)、測試、合作、部署、更新等全過程中履行科技倫理審查的義務,并對企業(yè)之行為是否符合科技倫理進行監(jiān)管,是人工智能立法的另一重點與難點。


四、人工智能的立法展望


(一)人工智能立法的規(guī)范對象

開展人工智能立法,首要的一個問題就是明確立法所要規(guī)范的對象是什么。顧名思義,人工智能立法,即為面向人工智能開展的立法,從人工智能法之法律定位來說,其應當是規(guī)制與促進人工智能技術及其相關活動之法律規(guī)范。

但是,什么是人工智能,仍然沒有一個為所有人普遍接受的定義??疾煊蛲庵^點,歐盟之《人工智能法案》將人工智能的定義縮小為“機器學習或基于邏輯和知識的系統(tǒng)”,明確了人工智能系統(tǒng)與傳統(tǒng)計算機系統(tǒng)的邊界,同時其還于第4條增加了“實施細則”,以便后續(xù)立法提案添加與人工智能系統(tǒng)定義相關的技術要素,確保人工智能系統(tǒng)定義的靈活性與時效性。美國學者則將人工智能歸結為“研究人類智能行為規(guī)律(比如學習、計算、推理、思考、規(guī)劃等),構造具有一定智慧能力的人工系統(tǒng)”。而在我國,立法上同樣不存在一個較為明確的對人工智能的定義,僅有一個國家標準在技術層面上提出,人工智能是“利用計算機或其控制的設備,通過感知環(huán)境、獲取知識、推導演繹等方法,對人類智能的模擬、延伸或擴展”。特別的,針對人工智能技術中的生成式人工智能技術,2023年頒布的《生成式人工智能服務管理暫行辦法》給出了明確的定義——“具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關技術”。而在學理上,學者們對于人工智能之定義的討論也從未停止,眾說紛紜。

綜合來看,應當認識到,正如有學者所指出的,人工智能技術處于不斷更新、發(fā)展之中,人工智能科技活動極其復雜。其作為當代最具前沿性的表征科技的實踐活動,非但不具有相對確定、相對穩(wěn)定的特點,反而從內(nèi)到外都呈現(xiàn)出極其不確定性和動態(tài)變化的特點。因此,難以針對人工智能給出一個固定且明確的定義。但這并不意味著不能對人工智能技術進行描述。正如有學者所說的,從本質上而言,任何立法的規(guī)范對象都應該說是指向特定社會活動,科技本身不會成為法律上的規(guī)范對象,真正需要規(guī)范的是科技活動及其產(chǎn)生的社會問題。人工智能立法也不例外。因此,與其從科技層面通過對其技術原理的總結而對其進行定義,從而陷入信息科學、控制科學、神經(jīng)科學等學科深奧的基礎理論探討之中,不如從人工智能活動與其特征入手,總結其需要被法律所規(guī)制的要素與特征,從法律意義上限定人工智能技術及其活動的范圍。因此,人工智能應當是依托于數(shù)據(jù)集合的,具有自身的一定的算法,并通過該算法自主對數(shù)據(jù)進行深度學習,從而與外界交互或完成一定行為。李對于具備此種要素的技術進行的活動,應當可以納入人工智能立法的規(guī)制范圍。

(二)人工智能立法的立法原則

1、安全與發(fā)展并重原則

人工智能在經(jīng)濟發(fā)展、社會進步和全球治理等領域產(chǎn)生了重大而深遠的影響。然而,科學技術是一把雙刃劍,既能造福社會和人民,也可能被一些人利用來損害公共利益和民眾利益。因此,在積極推動人工智能進一步發(fā)展的同時,人工智能安全問題也必須得到重視。安全是人工智能發(fā)展的底線,在進行人工智能立法時,要貫徹總體國家安全觀,保障網(wǎng)絡安全、數(shù)據(jù)安全,保護個人信息安全,促進人工智能技術向善。

同時,也應當看到,人工智能屬于新興的技術產(chǎn)業(yè),相關技術處在不斷開拓創(chuàng)新的摸索發(fā)展階段。人工智能作為未來維護國家安全、提高國家競爭力的重要技術手段,世界主要國家與經(jīng)濟體均對此加大投入,在人工智能領域爭取領導性地位已成為基本態(tài)勢。而我國與歐美發(fā)達國家相比,在人工智能技術的發(fā)展方面存在諸多短板,如核心技術存在不足、專業(yè)人才缺乏等,現(xiàn)階段正是我國人工智能實現(xiàn)快速發(fā)展、追趕世界頂尖水平的關鍵階段。因此,立法上不僅需要加強對人工智能行業(yè)的規(guī)范,更需要著重強調鼓勵技術創(chuàng)新和積極營造良好的市場大環(huán)境,促進人工智能技術與產(chǎn)業(yè)的發(fā)展和繁榮,在做好風險防范的前提下更好地推進人工智能領域的大踏步發(fā)展,以實現(xiàn)國務院《新一代人工智能發(fā)展規(guī)劃》中提出的到2030年在人工智能領域達到世界領先水平的發(fā)展目標。具體而言,人工智能立法應在防范相關安全風險、保障個體權利的同時,注重預留相關產(chǎn)業(yè)發(fā)展空間,以立法激勵技術創(chuàng)新、搶占人工智能先發(fā)優(yōu)勢,做到兼顧安全與發(fā)展,實現(xiàn)立法的寬嚴相濟。

2、自主與開放兼顧原則

習近平總書記強調,“自主創(chuàng)新不是閉門造車,不是單打獨斗,不是排斥學習先進,不是把自己封閉于世界之外。我們要更加積極地開展國際科技交流合作,用好國際國內(nèi)兩種科技資源”。這同樣適用于人工智能發(fā)展與規(guī)制:既不能故步自封,限制對國際先進技術與治理經(jīng)驗的學習與引進,也不能不加甄別,一味地奉行“拿來主義”,而是應分清其可靠性與可利用程度,有選擇有層次地引進,從而高效利用國內(nèi)和國際兩種資源,實現(xiàn)自主創(chuàng)新和開放創(chuàng)新的有機結合。

在人工智能技術的發(fā)展中,要堅持、鼓勵人工智能技術的自主創(chuàng)新,自力更生、自主發(fā)展,以確保人工智能領域的關鍵核心技術牢牢掌握在自己的手里,在國際競爭和技術發(fā)展中把握主動權。同時,也要堅持開放創(chuàng)新的理念,放眼全球、學習先進,向世界學習先進技術,吸收國際先進經(jīng)驗,平等互利開展國際交流與合作,參與生成式人工智能相關國際規(guī)則的制定。

在立法上,也要做到借鑒域外經(jīng)驗,形成本土規(guī)則。人工智能、數(shù)字化領域的發(fā)展是國際社會共同的趨勢,歐盟、美國等均已在人工智能立法領域有所探索。例如,歐盟通過對個人數(shù)據(jù)權利的嚴格保護,形成了對人工智能的源頭規(guī)制模式。相較歐盟,美國在數(shù)字立法尤其是人工智能領域的立法上相對謹慎。一方面積極采取措施,規(guī)范人工智能領域的發(fā)展,并且為人工智能的發(fā)展營造良好的環(huán)境;另一方面,在人工智能領域存在諸多理論和倫理爭議的當下,不急于推出新的法案,而是依靠行政機關的靈活處置和法院的個案司法判斷來掌控數(shù)字經(jīng)濟時代下人工智能領域的規(guī)范和走向。對此,我國人工智能立法可以適當借鑒,吸收域外立法經(jīng)驗,學習國際先進經(jīng)驗,博采眾長,合理借鑒多數(shù)司法管轄區(qū)的訓練數(shù)據(jù)治理等監(jiān)管要求,結合我國實際形成符合我國實踐要求的人工智能法律體系。

3、政府與市場相協(xié)調原則

在人工智能立法上,還需要處理好政府與市場的關系。不可否認,在我國人工智能的發(fā)展過程中,政府起到了非常重要的作用,從中央的《新一代人工智能發(fā)展規(guī)劃》,到地方對人工智能發(fā)展的鼓勵政策與發(fā)展規(guī)劃,極大地促進了我國人工智能技術的提升與人工智能產(chǎn)業(yè)的發(fā)展。但是,我國人工智能的發(fā)展,不能僅僅依靠政府的單向推動,還應充分發(fā)揮市場的作用。健全技術創(chuàng)新市場導向機制,發(fā)揮市場對技術研發(fā)方向、路線選擇、要素價格、各類創(chuàng)新要素配置的導向作用。

因此,在人工智能立法中,要注意厘清政府與市場的角色,通過立法充分保障市場主體的自主權,發(fā)揮其積極性。政府在人工智能發(fā)展領域的主要角色是承擔重大、尖端和基礎性的工作,加大對高精尖技術與基礎設施建設方面的投入。因此,需要加快推動政府職能轉變,使政府成為組織者和服務者,加大對人工智能領域的政策支持,大力促進科技成果的轉移和轉化。總的來說,在人工智能立法中,要堅持政府與市場相協(xié)調原則,確保政府與市場之間形成良性互動和有機合作,以共同營造健康良好的人工智能發(fā)展環(huán)境。

(三)人工智能立法的主要路徑

1、由重點立法走向統(tǒng)一立法

現(xiàn)下,我國人工智能領域相關規(guī)范依技術內(nèi)容的不同,散見于各行政部門管理規(guī)定之中,立法呈現(xiàn)分散化、領域化特點,且規(guī)范層級相對較低。我國現(xiàn)行《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》《生成式人工智能服務管理暫行辦法》等規(guī)范均體現(xiàn)了針對性立法、敏捷治理的思路,即針對特定類型算法服務或應用制定規(guī)范。采取行業(yè)規(guī)制的方式能使監(jiān)管部門迅速回應算法與人工智能在特定領域、行業(yè)引發(fā)的問題,實現(xiàn)敏捷治理、精準治理。

然而,盡管上述法規(guī)相互銜接,能夠體現(xiàn)監(jiān)管思路的延續(xù)性,但通用型人工智能將迅速普及,其應用也將快速多樣化,“點對點”的監(jiān)管可能會“目不暇接”而“疲于應對”。人工智能技術不斷發(fā)展,需要立法的及時跟進。人工智能的立法不僅僅是一個法律問題,更涵蓋了對人工智能本身的認識問題、社會倫理問題以及數(shù)據(jù)和算法等技術問題。這就需要從整體上進行宏觀規(guī)劃,逐步推動人工智能立法由重點立法走向統(tǒng)一立法。對于尚不成熟的事項或是人工智能實踐中出現(xiàn)的新因素、新活動,可以對該問題進行特別立法,及時規(guī)制;在總結各特定領域、行業(yè)立法的基礎上,形成人工智能治理的一般規(guī)則,有計劃、分步驟地積極穩(wěn)妥推進,由點到面地進行統(tǒng)一的人工智能立法,逐步推動人工智能立法的體系化進程。制定關于人工智能的專門性法律,能有效應對相關管理規(guī)定零散化、局部化,有利于推進人工智能法律規(guī)范體系化,解決新興技術面世后的立法滯后問題,為人工智能領域的法律規(guī)制提供明晰的規(guī)范依據(jù),同時也有助于相關各方整體、全面、準確把握國家針對人工智能發(fā)展的總體思路,以此形成合力,從而提升人工智能技術與產(chǎn)業(yè)發(fā)展的整體性。

2、跨領域、跨行業(yè)立法

人工智能和數(shù)字化帶來的很多法律問題屬于跨領域問題,涉及各個行業(yè)的技術標準、國家安全、信息安全、倫理道德等。因此,就立法而言,以人工智能為核心的數(shù)字化時代的法律制度設計,必須綜合考慮社會現(xiàn)實以及技術本身等多個領域,需要召集各個行業(yè)的專家、法律專家和社會學者共同研究論證,并具備一定程度的概括性與兼容性。這與傳統(tǒng)立法思維的穩(wěn)定性和專項性背道而馳,因此數(shù)字化背景下的立法將成為我國法制史上的重大變革之一。因此,人工智能領域立法應當一定程度地擯棄傳統(tǒng)意義上單一的法律保護思維,將立法納入更廣闊的社會經(jīng)濟背景中,結合各行各業(yè)的不同需求,統(tǒng)籌核心技術和全國經(jīng)濟的宏觀脈絡,將立法作為各行各業(yè)數(shù)字化、人工智能化大背景下的指南針,引領技術和經(jīng)濟的發(fā)展。

3、構建中央到地方的多層級的人工智能法律體系

對于人工智能立法,要充分發(fā)揮中央與地方兩個積極性。在人工智能法律體系的構建上,要注重地方的立法與實踐。一方面,可以允許地方立法先行先試,充分尊重地方根據(jù)實際情況的立法探索與實踐,并在及時總結地方立法經(jīng)驗基礎上,適時進行中央統(tǒng)一立法,實現(xiàn)科學立法。另一方面,地方性立法是中央立法的合理補充,其能結合本地實際情況和現(xiàn)階段突出問題,對上位法的內(nèi)容進行細化和優(yōu)化,以充分滿足實踐需要。因此,縱向層面上,中央對于人工智能的統(tǒng)一立法不宜過細,主要任務為搭建人工智能治理的立法框架與規(guī)制原則,而將具體的執(zhí)行性、操作性的規(guī)定留給地方根據(jù)實際進行探索,允許地方立法在法律體系框架內(nèi),通過地方性法規(guī)、政府規(guī)章乃至規(guī)范性文件與政策的形式,對本地區(qū)的人工智能治理與發(fā)展進行探索。

(四)人工智能立法的主要制度

1、以風險為核心的分類分級監(jiān)管制度

風險分級是人工智能立法的重要組成部分,針對不同風險等級的人工智能服務或產(chǎn)品,應采取不同程度的監(jiān)管措施。歐盟委員會發(fā)布的人工智能法案即采取了四級風險分級的方法,包括不可接受的風險、高風險、有限風險和最低風險,根據(jù)風險級別的不同,對人工智能系統(tǒng)采取不同的監(jiān)管措施。其中,歐盟法案明確了不可接受的風險的情形,并明令予以禁止;同時,歐盟法案對具有高風險的人工智能產(chǎn)品和服務實施上游治理防范,規(guī)定了嚴格的前置審查程序和履行合規(guī)義務;對于有限風險和最低風險的人工智能系統(tǒng),歐盟法案沒有設置前置審查程序,僅以透明度原則等進行規(guī)制。

我國目前規(guī)范舉措針對不同技術內(nèi)容進行專門化管理,專項規(guī)定的方式具有針對性、細節(jié)化特點,卻存在無法涵括全部情形的缺陷。因此,在我國統(tǒng)一的人工智能立法中,也可適當借鑒歐盟的做法,采取以風險為核心的分級分類管控機制,依照不同人工智能安全風險進行分級管理,或依照不同技術方向進行全面概括,以避免重復立法,節(jié)約立法成本,提高立法效率。

2、隱私保護與數(shù)據(jù)合規(guī)制度

數(shù)據(jù)作為人工智能的基礎性要素,對其進行規(guī)制可以從根源上促進人工智能技術之合法運用。具體而言,需要做到以下幾點。

第一,確保所使用的數(shù)據(jù)合法合規(guī)。人工智能技術是建立在對海量數(shù)據(jù)進行訓練的基礎之上的,因此需要確保提供給人工智能進行分析的數(shù)據(jù)本身是合法合規(guī)的,否則將會導致人工智能活動從源頭上違法?!渡墒饺斯ぶ悄芊展芾頃盒修k法》第7條即規(guī)定,生成式人工智能服務提供者開展預訓練、優(yōu)化訓練等訓練數(shù)據(jù)處理活動,應使用具有合法來源的數(shù)據(jù)和基礎模型。對于涉及個人信息之數(shù)據(jù),應當嚴格遵守“告知—同意”規(guī)則,或通過合法之數(shù)據(jù)交易途徑獲取。對于涉及知識產(chǎn)權之數(shù)據(jù)與算法,也應確保所使用之數(shù)據(jù)與算法具有知識產(chǎn)權上之合法性,建立數(shù)據(jù)與算法之知識產(chǎn)權合規(guī)制度。

第二,確保數(shù)據(jù)在使用全過程中的安全性。在人工智能立法中,需始終堅守數(shù)據(jù)和隱私保護的底線。對于數(shù)據(jù)之收集、使用的全過程,應確保其安全,防止數(shù)據(jù)被非法獲取、濫用或泄露。立法應建立數(shù)據(jù)安全保護制度,根據(jù)數(shù)據(jù)的來源、性質和敏感程度,確定數(shù)據(jù)的所有者、管理者和使用者,規(guī)定數(shù)據(jù)的收集、存儲、處理、傳輸、共享和銷毀等行為的條件和限制。同時應在人工智能立法中完善個人信息保護的相關規(guī)定,在數(shù)據(jù)收集、使用和共享的各個環(huán)節(jié)注重對于個人信息的保護。此外,數(shù)據(jù)的海量增長,很有可能顛覆傳統(tǒng)的數(shù)據(jù)保護機制,立法也必須探索新的路徑,除上述方式外,立法也可以通過大數(shù)據(jù)合法交易等方式,保障“數(shù)據(jù)可用不可見,用途可控可計量”的安全使用。

第三,建立數(shù)據(jù)保護的法律責任制度。應明確數(shù)據(jù)保護的義務主體和權利主體,規(guī)定數(shù)據(jù)保護的義務和責任,設立數(shù)據(jù)保護的監(jiān)管機構,建立數(shù)據(jù)保護的違法行為認定和處罰標準,提供數(shù)據(jù)保護的救濟渠道和方式。

3、算法規(guī)制制度

對算法的規(guī)制應為人工智能立法的重頭戲。對于人工智能算法進行治理,建立算法規(guī)制制度,主要可以分為兩項具體制度。

第一,算法透明度制度。所謂算法的透明度,主要是指在人工智能產(chǎn)品與服務中,其數(shù)據(jù)收集、算法設計和決策過程應當具有的可解釋性和可理解性。強調算法的可解釋性與可理解性,就賦予了人工智能的設計者、開發(fā)者、使用者如實記錄或披露設計、開發(fā)、使用人工智能具體情況的義務。具體而言,透明度制度在立法上應有如下幾點表現(xiàn)。首先,提升系統(tǒng)的透明度。長期以來,算法系統(tǒng)因其不透明性而備受批判,被冠以“黑箱”之名。提升算法的透明度就意味著用戶和相關利益者能夠理解算法是如何工作的,有助于用戶了解算法的作用和限制,從而增強對算法決策結果的信任。此外,更為重要的一點是,算法透明也是防范算法偏見、算法歧視和算法操縱的一項重要手段。其次,提升決策的透明度。算法決策的不公正不僅影響個體獲取關鍵機會的資格,還可能對長久被邊緣化的群體造成不利影響,同時在社會層面,算法決策不公正可能會對社會的共同價值產(chǎn)生侵蝕效應?!秱€人信息保護法》第24條第1款即規(guī)定:“個人信息處理者利用個人信息進行自動化決策,應當保障決策的透明度和結果公平、公正?!比斯ぶ悄芩鞒龅臎Q策之過程和結果應當具有可解釋性,特別是當涉及系統(tǒng)作出對個人權益有重大影響的決定時,用戶應當能夠了解為何系統(tǒng)作出了特定的決策或生成了特定的結果,有哪些因素被納入考量,以此來建立可信賴的交互關系。

第二,算法備案制度。國家網(wǎng)信辦等九部門于2021年聯(lián)合發(fā)布的《關于加強互聯(lián)網(wǎng)信息服務算法綜合治理的指導意見》奠定了我國開展算法治理工作的基礎。截止到2023年6月,已經(jīng)有四批次合計264個互聯(lián)網(wǎng)信息服務算法、41個深度合成算法完成備案并公示;此外,在一些場景下,完成算法備案也成為應用上架的先決條件。通過算法備案制度,有關部門可以對企事業(yè)單位算法治理架構與算法本身的安全架構進行管控,這也符合執(zhí)法監(jiān)管的一貫思路。

4、科技倫理審查制度

開展人工智能立法,還要重視建立科技倫理審查制度。近些年來,隨著人工智能的運用場景進一步豐富與人工智能產(chǎn)業(yè)的繁榮發(fā)展,實踐中也逐漸形成了人工智能倫理道德的若干準則。在此基礎之上,不斷豐富、完善其內(nèi)涵,并在這些準則的基礎上形成人工智能科技倫理理論、規(guī)范和監(jiān)管體系,以保障人工智能技術可控、可靠,將是人工智能立法必要的一環(huán)。

2022年3月中共中央辦公廳與國務院辦公廳發(fā)布《關于加強科技倫理治理的意見》,到2023年4月科技部等十部門聯(lián)合發(fā)布《科技倫理審查辦法(試行)》,我國科技倫理審查制度正式落地并初具雛形。在未來的人工智能立法中,應當對該制度進行總結與發(fā)展,進一步完善科技倫理審查的制度框架,強化、細化企業(yè)的科技倫理審查義務,并將科技倫理審查制度貫穿于人工智能研發(fā)、測試、合作、部署、更新等過程。

具體而言,進一步的完善措施可以從兩個方面開展。一方面,可以對科技倫理評估范圍予以擴張。這里的科技倫理評估是指,在開展科學研究和技術開發(fā)項目前,相關主體應當按照法律的程序要求對所涉項目的價值影響與利益沖突開展倫理審查,這是在科技創(chuàng)新的上游階段執(zhí)行倫理原則的重要程序節(jié)點。通過擴大評估范圍,將人工智能技術納入科技倫理評估的范圍,可以更全面地考慮其倫理影響,確保人工智能技術的發(fā)展符合道德和社會價值觀。另一方面,推動大型科技企業(yè)加強倫理審查組織化保障。這意味著不僅需要將程序性管理標準真正內(nèi)化為企業(yè)管理機制的一部分,還需要對企業(yè)課以相應的“組織化保障義務”,這包括成立專門組織、建立相應的內(nèi)部治理架構,來具體負責相關管理制度的落實。通過這種方式,可以使企業(yè)更有動力與能力來主動地對技術發(fā)展、應用中的倫理問題予以監(jiān)控與充分考慮。

同時,還應調整原有的技術體系和治理體系,使其符合科技倫理審查的要求,并使科技倫理審查制度與科技風險監(jiān)管責任相匹配,以實現(xiàn)監(jiān)管與責任的統(tǒng)一,從而使人工智能活動中科技倫理的要求落到實處。



轉載請注明來自阿拉善凱拓戶外,本文標題:《專題報告二:科技發(fā)展與法治政府|人工智能的政策實踐與立法展望》

百度分享代碼,如果開啟HTTPS請參考李洋個人博客
每一天,每一秒,你所做的決定都會改變你的人生!
Top