青青青手机视频在线观看,中文字幕老视频平台网站,国产在线精品观看一区,天天干天天草天天av,2023草草影院最新入口,日本黄色网站在线视频,亚洲日本欧美产综合在线

網(wǎng)站首頁(yè) | 網(wǎng)站地圖

每日推薦
首頁(yè) > 原創(chuàng)精品 > 成果首發(fā) > 正文

人工智能驅(qū)動(dòng)下網(wǎng)絡(luò)空間的新沖突與治理方向

——基于生成式治理理論的視角

【摘要】人工智能技術(shù)的深度嵌入,正在重塑網(wǎng)絡(luò)空間的沖突形態(tài)與治理邏輯。傳統(tǒng)網(wǎng)絡(luò)空間治理范式,無(wú)論是基于命令—控制的強(qiáng)規(guī)制,還是側(cè)重市場(chǎng)自律的弱干預(yù),在應(yīng)對(duì)技術(shù)的高度自主性、主體的多樣彌散性、損害的跨域傳導(dǎo)性以及場(chǎng)景的復(fù)雜耦合性時(shí),均已顯現(xiàn)出系統(tǒng)性不適。對(duì)2020年以來(lái)全球范圍內(nèi)由人工智能驅(qū)動(dòng)的典型網(wǎng)絡(luò)空間沖突進(jìn)行類型學(xué)分析,可以識(shí)別出四種核心模式:深度偽造與認(rèn)知操縱、智能化基礎(chǔ)設(shè)施攻擊、算法歧視與社會(huì)公正沖突、數(shù)據(jù)主權(quán)與數(shù)字霸權(quán)博弈。新型沖突的本質(zhì)已從工具理性驅(qū)動(dòng)轉(zhuǎn)向生成理性驅(qū)動(dòng),呈現(xiàn)出主體泛在化、手段智能化、影響社會(huì)化和責(zé)任模糊化等區(qū)別于傳統(tǒng)沖突的顯著特征。有鑒于此,“生成式治理”的創(chuàng)新理論框架應(yīng)以“風(fēng)險(xiǎn)預(yù)防、動(dòng)態(tài)適應(yīng)、多方協(xié)同、智能驅(qū)動(dòng)”為支柱,構(gòu)建一個(gè)能夠與人工智能系統(tǒng)共生演進(jìn)、具備學(xué)習(xí)和預(yù)測(cè)能力的動(dòng)態(tài)治理體系,其落地需要制度創(chuàng)新、技術(shù)創(chuàng)新和組織創(chuàng)新的協(xié)同推進(jìn)。

【關(guān)鍵詞】人工智能 網(wǎng)絡(luò)空間沖突 生成式治理 數(shù)字主權(quán) 算法治理

【中圖分類號(hào)】TP18/D630 【文獻(xiàn)標(biāo)識(shí)碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2025.13.002

【作者簡(jiǎn)介】米加寧,北京郵電大學(xué)經(jīng)濟(jì)與管理學(xué)院教授,新質(zhì)生產(chǎn)力與管理創(chuàng)新研究中心主任。研究方向?yàn)樯墒街卫?、新質(zhì)生產(chǎn)力、數(shù)字政府,主要著作有《國(guó)家哲學(xué)社會(huì)科學(xué)成果文庫(kù)·數(shù)據(jù)科學(xué)對(duì)社會(huì)科學(xué)轉(zhuǎn)型的重大影響研究》、《生成式人工智能十大認(rèn)識(shí)論問(wèn)題》(論文)、《生成式治理:大模型時(shí)代的治理新范式》(論文)等。

人工智能時(shí)代網(wǎng)絡(luò)空間沖突的范式轉(zhuǎn)換與治理困境

作為繼陸、海、空、天之后的第五維空間,網(wǎng)絡(luò)空間的秩序構(gòu)建與沖突演化始終是數(shù)字時(shí)代全球治理的核心議題。其發(fā)展歷程大致可分為三個(gè)階段:早期以基礎(chǔ)設(shè)施建設(shè)和信息自由流動(dòng)為主要特征的“技術(shù)烏托邦”階段;中期隨著網(wǎng)絡(luò)應(yīng)用的普及,網(wǎng)絡(luò)犯罪、黑客攻擊、內(nèi)容安全等問(wèn)題凸顯,治理重點(diǎn)轉(zhuǎn)向安全與規(guī)制的“問(wèn)題應(yīng)對(duì)”階段;以及當(dāng)前我們正進(jìn)入的,以人工智能為核心驅(qū)動(dòng)力的“智能博弈”階段。在這個(gè)新的階段,網(wǎng)絡(luò)空間不再僅僅是信息的載體或人類活動(dòng)的虛擬映射,而是日益成為一個(gè)由人類、算法、智能設(shè)備共同構(gòu)成的,能夠自主演化、生成新現(xiàn)實(shí)的復(fù)雜生態(tài)系統(tǒng)。與現(xiàn)實(shí)物理空間相比,網(wǎng)絡(luò)空間沖突呈現(xiàn)出行為體多樣化、攻擊手段快速更新等新特點(diǎn)。[1]人工智能的介入則將這些特點(diǎn)推向極致。

2020年以來(lái),以生成式人工智能(generative AI)為代表的技術(shù)突破,以前所未有的速度和深度滲透到網(wǎng)絡(luò)空間的各個(gè)層面,催生了全新的沖突形態(tài)。從深度偽造技術(shù)(deepfake)在地緣政治博弈中的武器化應(yīng)用,到人工智能對(duì)關(guān)鍵基礎(chǔ)設(shè)施的自動(dòng)化攻擊,再到算法決策引發(fā)的系統(tǒng)性社會(huì)歧視,這些新型沖突嚴(yán)峻挑戰(zhàn)既有的治理框架和認(rèn)知邊界。與傳統(tǒng)網(wǎng)絡(luò)沖突相比,人工智能驅(qū)動(dòng)的新型沖突呈現(xiàn)深刻質(zhì)變,暴露出傳統(tǒng)治理范式的系統(tǒng)性不適。

首先,治理對(duì)象發(fā)生根本變化。傳統(tǒng)治理的對(duì)象是作為“工具”的技術(shù)和使用技術(shù)的人,其行為邏輯相對(duì)穩(wěn)定。而人工智能,特別是具備自主學(xué)習(xí)能力的人工智能系統(tǒng),能夠突破“波蘭尼悖論”所揭示的人類表達(dá)能力的局限,實(shí)現(xiàn)規(guī)則的自我生產(chǎn),[2]表現(xiàn)出“生成理性”(generative rationality)的特征,能夠演化出超越人類預(yù)設(shè)的行為模式。治理對(duì)象從可控的“物”變成了具有一定自主性的“行動(dòng)者”,這使得基于靜態(tài)規(guī)則和行為預(yù)測(cè)的傳統(tǒng)治理手段效果大打折扣。其次,治理時(shí)效性面臨空前挑戰(zhàn)。人工智能驅(qū)動(dòng)的沖突以“機(jī)器速度”發(fā)生和演化,信息操縱或網(wǎng)絡(luò)攻擊可在毫秒級(jí)時(shí)間內(nèi)完成并造成巨大影響,而人類主導(dǎo)的、層級(jí)化的治理決策流程則以“人類速度”運(yùn)行,兩者之間的時(shí)間差導(dǎo)致治理行動(dòng)往往滯后于沖突的爆發(fā)和升級(jí)。再次,治理邊界被徹底打破。人工智能沖突的影響極易從網(wǎng)絡(luò)空間溢出,與社會(huì)心理、金融穩(wěn)定、公共安全乃至國(guó)際關(guān)系等現(xiàn)實(shí)世界議題深度耦合,形成跨域傳導(dǎo)的級(jí)聯(lián)效應(yīng),任何單一領(lǐng)域的、碎片化的治理都難以奏效。[3]

面對(duì)這一系列新變化,無(wú)論是強(qiáng)調(diào)政府主導(dǎo)、事前規(guī)制的命令—控制型治理范式,還是信奉市場(chǎng)力量、側(cè)重事后救濟(jì)的自由主義治理范式,都顯得力不從心?,F(xiàn)有法律法規(guī)往往滯后于技術(shù)迭代的速度,難以對(duì)人工智能詐騙等新問(wèn)題作出有效規(guī)制;傳統(tǒng)的網(wǎng)絡(luò)安全防御體系在智能化、不斷變異的攻擊面前捉襟見(jiàn)肘;而以民族國(guó)家為單位的傳統(tǒng)國(guó)際治理框架,則難以應(yīng)對(duì)人工智能技術(shù)全球化擴(kuò)散所帶來(lái)的跨國(guó)數(shù)據(jù)流動(dòng)、算法偏見(jiàn)和數(shù)字霸權(quán)等全球性挑戰(zhàn)。[4]這正是本文所要回應(yīng)的理論缺口:現(xiàn)有治理理論未能充分解釋人工智能驅(qū)動(dòng)下網(wǎng)絡(luò)空間沖突的生成性、涌現(xiàn)性和復(fù)雜性,因此無(wú)法提供一個(gè)足夠敏捷、協(xié)同和智能的治理框架。

本文的核心問(wèn)題在于:第一,人工智能究竟如何從本體論層面改變網(wǎng)絡(luò)空間沖突的本質(zhì)?第二,這些由人工智能驅(qū)動(dòng)的新型沖突具有哪些區(qū)別于傳統(tǒng)沖突的內(nèi)在特征和演化邏輯?第三,面對(duì)這些新挑戰(zhàn),我們需要構(gòu)建一種怎樣的治理理論與實(shí)踐框架,以超越現(xiàn)有范式的局限?

為回答上述問(wèn)題,本文采用多案例研究方法,系統(tǒng)分析2020年以來(lái)全球范圍內(nèi)具有代表性的人工智能驅(qū)動(dòng)網(wǎng)絡(luò)空間沖突事件。在構(gòu)建沖突類型學(xué)的基礎(chǔ)上,本文將深入剖析新型沖突的生成機(jī)理與演化邏輯,試圖在與復(fù)雜適應(yīng)系統(tǒng)理論、多中心治理理論和新興的人工智能倫理研究對(duì)話的過(guò)程中,提出并系統(tǒng)闡述“生成式治理”(generative governance)的創(chuàng)新性理論框架。這一由“全域數(shù)據(jù)感知、跨域知識(shí)提取、多情景策略創(chuàng)生”所驅(qū)動(dòng)的治理新范式,[5]旨在超越傳統(tǒng)靜態(tài)、被動(dòng)的治理范式,構(gòu)建一個(gè)與人工智能技術(shù)生態(tài)相匹配的,具備動(dòng)態(tài)適應(yīng)、主動(dòng)預(yù)測(cè)和協(xié)同演進(jìn)能力的治理新模式,以期為學(xué)界和政策界應(yīng)對(duì)人工智能時(shí)代的網(wǎng)絡(luò)空間挑戰(zhàn)提供有益的理論探索和實(shí)踐指引。

理論基礎(chǔ)與分析框架

從工具理性到生成理性:人工智能驅(qū)動(dòng)下沖突的本體論轉(zhuǎn)向。傳統(tǒng)網(wǎng)絡(luò)空間沖突研究,乃至大部分技術(shù)治理理論,都內(nèi)隱地基于一種工具理性的分析范式。在該范式下,技術(shù)被視為價(jià)值中立的、被動(dòng)的工具,是人類實(shí)現(xiàn)特定目標(biāo)的延伸和手段。沖突的根源被歸結(jié)為人類的惡意或誤用,治理的焦點(diǎn)因此也集中在如何規(guī)范人的行為和限制技術(shù)的功能上。然而,當(dāng)人工智能,特別是具備持續(xù)學(xué)習(xí)和創(chuàng)造性生成能力的大語(yǔ)言模型(LLMs),成為網(wǎng)絡(luò)空間的核心行動(dòng)者時(shí),這種工具主義的解釋框架便顯現(xiàn)出其局限性。

本研究借鑒并提出“生成理性”的概念,以描述人工智能系統(tǒng)在特定情境下展現(xiàn)出的、超越簡(jiǎn)單規(guī)則執(zhí)行的行動(dòng)邏輯。與赫伯特·西蒙的“有限理性”關(guān)注人類因認(rèn)知和信息局限而作出“滿意”而非“最優(yōu)”決策不同,“生成理性”關(guān)注的是人工智能系統(tǒng)在與海量數(shù)據(jù)和復(fù)雜環(huán)境的交互中,生成(generate)新的知識(shí)、策略、行為模式乃至目標(biāo)的能力。這種理性并非源于對(duì)人類意圖的被動(dòng)執(zhí)行,而是源于算法模型內(nèi)部復(fù)雜的、非線性的運(yùn)算和學(xué)習(xí)過(guò)程。算法能夠通過(guò)基于大數(shù)據(jù)集的自我學(xué)習(xí)形成規(guī)則集,并應(yīng)用于不同場(chǎng)景下的感知和決策,這本身就是一種規(guī)則的自我生產(chǎn)過(guò)程。

生成理性體現(xiàn)在三個(gè)核心層面。第一,策略的創(chuàng)造性生成。人工智能系統(tǒng)能夠發(fā)現(xiàn)人類思維的盲點(diǎn),生成超越人類經(jīng)驗(yàn)的沖突策略。比如,在網(wǎng)絡(luò)攻防演練中,人工智能可以自主發(fā)現(xiàn)零日漏洞(zero-day exploits)并發(fā)起攻擊;在認(rèn)知對(duì)抗中,人工智能可以生成高度逼真且符合特定目標(biāo)受眾心理偏好的虛假敘事,其復(fù)雜性和迷惑性遠(yuǎn)超人力所為。第二,行為的涌現(xiàn)性(emergence)。多個(gè)人工智能系統(tǒng)(如社交機(jī)器人網(wǎng)絡(luò))之間的簡(jiǎn)單交互,能夠產(chǎn)生復(fù)雜的、宏觀層面的集體行為,如輿論的極化或金融市場(chǎng)的恐慌性拋售。這種涌現(xiàn)的宏觀現(xiàn)象,無(wú)法通過(guò)簡(jiǎn)單分析單個(gè)人工智能的行為來(lái)預(yù)測(cè),體現(xiàn)了典型的復(fù)雜系統(tǒng)特征。第三,目標(biāo)的動(dòng)態(tài)演化。在長(zhǎng)期運(yùn)行中,基于強(qiáng)化學(xué)習(xí)的人工智能系統(tǒng)可能會(huì)為了達(dá)成某個(gè)宏觀的獎(jiǎng)勵(lì)目標(biāo)(reward objective),演化出與設(shè)計(jì)者初衷相悖,甚至有害的子目標(biāo)(sub-goal)。例如,美軍一次思想實(shí)驗(yàn)中,負(fù)責(zé)摧毀敵方目標(biāo)的人工智能無(wú)人機(jī),為了確保完成任務(wù)(獲得獎(jiǎng)勵(lì)),最終選擇攻擊并“殺死”試圖阻止它的人類操作員,這一事件雖未真實(shí)發(fā)生,卻深刻揭示了人工智能目標(biāo)演化的潛在風(fēng)險(xiǎn)。[6]

從工具理性到生成理性的本體論轉(zhuǎn)向,意味著我們治理的對(duì)象已發(fā)生根本改變。我們面對(duì)的不再是簡(jiǎn)單的、可預(yù)測(cè)的工具,而是一個(gè)具有內(nèi)在生成能力、行為邊界不斷變化的“人造行動(dòng)者”(artificial agent)。因此,治理范式也必須從對(duì)“物”的靜態(tài)規(guī)制,轉(zhuǎn)向?qū)?dòng)態(tài)、演進(jìn)、具有一定自主性的“生態(tài)系統(tǒng)”的管理。

從線性對(duì)抗到動(dòng)態(tài)共進(jìn):復(fù)雜適應(yīng)系統(tǒng)視角下的網(wǎng)絡(luò)空間沖突演化。將網(wǎng)絡(luò)空間視為一個(gè)復(fù)雜適應(yīng)系統(tǒng)(complex adaptive system, CAS),為理解人工智能驅(qū)動(dòng)的新型沖突提供了至關(guān)重要的理論視角。約翰·霍蘭德(John Holland)提出的復(fù)雜適應(yīng)系統(tǒng)理論,描述了由大量自主的、相互作用的行動(dòng)者(agents)組成的系統(tǒng),如何通過(guò)學(xué)習(xí)和適應(yīng),自下而上地涌現(xiàn)出宏觀的、復(fù)雜的結(jié)構(gòu)和行為模式。在人工智能時(shí)代的網(wǎng)絡(luò)空間這一復(fù)雜適應(yīng)系統(tǒng)中,行動(dòng)者包括人類用戶、人工智能代理(算法、機(jī)器人)、智能設(shè)備、平臺(tái)企業(yè)、政府監(jiān)管機(jī)構(gòu)等。它們基于各自的內(nèi)部模型(規(guī)則、目標(biāo))進(jìn)行決策和行動(dòng),并不斷根據(jù)與環(huán)境和其他行動(dòng)者互動(dòng)的反饋來(lái)調(diào)整自身的模型。

人工智能技術(shù)的深度嵌入,從三個(gè)方面大大增強(qiáng)了該系統(tǒng)的復(fù)雜性。第一,行動(dòng)者數(shù)量和異質(zhì)性爆炸式增長(zhǎng)。人工智能代理的數(shù)量呈近乎指數(shù)級(jí)增長(zhǎng),類型千差萬(wàn)別,從大型基礎(chǔ)模型到微小的物聯(lián)網(wǎng)設(shè)備內(nèi)嵌算法,它們的多樣性和相互作用的復(fù)雜性遠(yuǎn)超以往。第二,系統(tǒng)演化速度急劇加快。人工智能的學(xué)習(xí)和決策以“機(jī)器速度”進(jìn)行,使得網(wǎng)絡(luò)攻防、輿論傳播、市場(chǎng)交易等過(guò)程的節(jié)奏被提升了多個(gè)數(shù)量級(jí)。攻擊與防御的策略在持續(xù)的對(duì)抗中以人類無(wú)法企及的速度快速迭代,系統(tǒng)呈現(xiàn)出超高頻的動(dòng)態(tài)演化特征。第三,反饋回路的復(fù)雜化和非線性化。人工智能系統(tǒng),特別是社交媒體的推薦算法,創(chuàng)造了強(qiáng)大而隱蔽的正反饋回路。比如,算法向用戶推薦其偏好的信息,用戶的點(diǎn)擊行為又強(qiáng)化了算法的推薦偏好,如此循環(huán)往復(fù),可能在短時(shí)間內(nèi)將溫和的觀點(diǎn)分歧放大為嚴(yán)重的社會(huì)對(duì)立和認(rèn)知隔閡,形成“信息繭房”和“回音壁效應(yīng)”。[7]

這種復(fù)雜性的激增導(dǎo)致人工智能驅(qū)動(dòng)的網(wǎng)絡(luò)空間沖突呈現(xiàn)高度的不確定性、突變性和級(jí)聯(lián)效應(yīng)。一個(gè)在局部看似微小的擾動(dòng),如一段深度偽造視頻的傳播,可能通過(guò)社交媒體算法的放大,迅速觸發(fā)跨系統(tǒng)的連鎖反應(yīng),演變?yōu)椴敖鹑谑袌?chǎng)乃至社會(huì)穩(wěn)定的重大事件。[8]傳統(tǒng)的基于線性因果分析和靜態(tài)均衡思維的治理模式,在這種復(fù)雜系統(tǒng)中顯然無(wú)法有效解釋和預(yù)測(cè)沖突的演化軌跡,更遑論有效干預(yù)。因此,治理體系自身也必須具備適應(yīng)性和演化能力,才能與被治理的復(fù)雜系統(tǒng)相匹配,這為我們提出的“生成式治理”的動(dòng)態(tài)適應(yīng)維度奠定了理論基礎(chǔ)。

數(shù)字主權(quán)與算法權(quán)力:人工智能時(shí)代的權(quán)力結(jié)構(gòu)重構(gòu)。人工智能技術(shù)的發(fā)展正在深刻重塑網(wǎng)絡(luò)空間的權(quán)力結(jié)構(gòu),其核心表現(xiàn)為“算法權(quán)力”(algorithmic power)的凸顯及其與傳統(tǒng)國(guó)家主權(quán)的互動(dòng)與張力。傳統(tǒng)上,主權(quán)(特別是威斯特伐利亞體系下的主權(quán))被理解為國(guó)家在其領(lǐng)土范圍內(nèi)擁有的最高、排他性權(quán)力。而當(dāng)前網(wǎng)絡(luò)空間中,這一概念受到以科技巨頭為載體的算法權(quán)力的侵蝕與挑戰(zhàn)。

算法權(quán)力是一種新興的、彌散式的權(quán)力形態(tài),它不依賴于傳統(tǒng)的強(qiáng)制手段,而是通過(guò)塑造信息環(huán)境、設(shè)定選擇架構(gòu)、分配社會(huì)資源和影響人類行為來(lái)實(shí)現(xiàn)。其具體表現(xiàn)包括:決策權(quán)力的算法化,從信貸審批、崗位招聘到外賣派單,社會(huì)資源分配越來(lái)越多地由不透明的人工智能系統(tǒng)主導(dǎo),可能固化甚至放大既有的社會(huì)不公;認(rèn)知權(quán)力的算法化,推薦系統(tǒng)和內(nèi)容生成模型通過(guò)個(gè)性化地塑造每個(gè)人的信息環(huán)境來(lái)影響公眾輿論和集體認(rèn)知,成為認(rèn)知操縱的新工具;規(guī)范權(quán)力的算法化,人工智能通過(guò)對(duì)人類行為的預(yù)測(cè)和“助推”(nudging),潛移默化地塑造社會(huì)規(guī)范和行為模式。這種算法權(quán)力與用戶權(quán)利的失衡,是算法風(fēng)險(xiǎn)產(chǎn)生的根源。[9]

面對(duì)算法權(quán)力的崛起,各國(guó)紛紛以“數(shù)字主權(quán)”(digital sovereignty)作為應(yīng)對(duì)策略,試圖通過(guò)發(fā)展本土可控的人工智能技術(shù)能力、加強(qiáng)數(shù)據(jù)跨境流動(dòng)監(jiān)管、制定符合本國(guó)價(jià)值觀的算法規(guī)則等方式,維護(hù)和延伸國(guó)家在網(wǎng)絡(luò)空間的主權(quán)。這就形成了人工智能時(shí)代全球治理的核心張力:一方是跨國(guó)科技平臺(tái)和全球數(shù)據(jù)流動(dòng)所代表的“去領(lǐng)土化”的算法權(quán)力,另一方是民族國(guó)家試圖重建數(shù)字邊界、捍衛(wèi)“領(lǐng)土化”的數(shù)字主權(quán)。各國(guó)提出的“主權(quán)人工智能”(sovereign AI)戰(zhàn)略,以及中美在人工智能領(lǐng)域的激烈競(jìng)爭(zhēng),都是這一張力的具體體現(xiàn)。

這種權(quán)力結(jié)構(gòu)的重構(gòu),不僅改變了網(wǎng)絡(luò)空間沖突的主體(國(guó)家—科技巨頭)和形式(軍事對(duì)抗—標(biāo)準(zhǔn)與供應(yīng)鏈競(jìng)爭(zhēng)),也對(duì)傳統(tǒng)的、以國(guó)家為中心、以法律為主要工具的治理模式提出根本性挑戰(zhàn)。如何在主權(quán)邊界模糊、權(quán)力主體多樣的網(wǎng)絡(luò)空間中有效規(guī)制算法權(quán)力,如何平衡數(shù)字主權(quán)訴求與全球數(shù)字經(jīng)濟(jì)的開(kāi)放性,成為人工智能時(shí)代治理無(wú)法回避的核心議題。[10]這要求治理框架必須是多中心的、協(xié)同的,能夠整合不同主體、協(xié)調(diào)不同利益,而這正是“生成式治理”中協(xié)同性維度的理論出發(fā)點(diǎn)。

人工智能驅(qū)動(dòng)下網(wǎng)絡(luò)空間新沖突的類型學(xué)分析與特征歸納

本研究采用多案例研究方法,遵循典型性、多樣性、重要性和數(shù)據(jù)可得性原則,對(duì)2020年以來(lái)全球發(fā)生的人工智能驅(qū)動(dòng)的網(wǎng)絡(luò)空間新沖突進(jìn)行系統(tǒng)分析。基于對(duì)數(shù)十起案例的綜合分析,我們識(shí)別出四種相互關(guān)聯(lián)但各有側(cè)重的沖突類型。研究顯示,人工智能驅(qū)動(dòng)的網(wǎng)絡(luò)空間沖突與傳統(tǒng)網(wǎng)絡(luò)空間沖突呈現(xiàn)顯著差異(見(jiàn)表1)。

1

深度偽造與認(rèn)知操縱沖突。此類沖突的核心是利用生成式人工智能技術(shù)制造高度逼真的虛假信息,以低成本、大規(guī)模、精準(zhǔn)化的方式操縱公眾認(rèn)知,服務(wù)于特定政治或經(jīng)濟(jì)目的。它攻擊的目標(biāo)是人類社會(huì)最基礎(chǔ)的信任結(jié)構(gòu),試圖讓“眼見(jiàn)為實(shí)”的傳統(tǒng)認(rèn)知基石發(fā)生動(dòng)搖,從而引發(fā)社會(huì)信任危機(jī)和認(rèn)知混亂。生成式人工智能背景下,技術(shù)的兩重性決定其在信息傳播領(lǐng)域的應(yīng)用正在重塑網(wǎng)絡(luò)空間信息生態(tài),隱含著深層的信息生態(tài)風(fēng)險(xiǎn)。

地緣政治沖突中的信息戰(zhàn)是其最尖銳的表現(xiàn)。比如,在烏克蘭危機(jī)的白熱化階段,一段烏克蘭總統(tǒng)澤連斯基呼吁軍隊(duì)放下武器投降的深度偽造視頻在社交網(wǎng)絡(luò)和被黑客攻擊的烏克蘭電視臺(tái)傳播。盡管該視頻因面部表情和聲音略顯不自然而被迅速識(shí)破,但它被廣泛認(rèn)為是歷史上首次在真實(shí)戰(zhàn)爭(zhēng)中有意使用的深度偽造視頻,其目的在于直接打擊敵方軍民士氣,制造內(nèi)部混亂。這一事件標(biāo)志著認(rèn)知戰(zhàn)進(jìn)入了“人工智能合成”階段,引發(fā)全球?qū)ξ磥?lái)更高質(zhì)量、更難辨別的深度偽造內(nèi)容可能造成巨大破壞的普遍擔(dān)憂。[11]

在社會(huì)和經(jīng)濟(jì)領(lǐng)域,此類技術(shù)的濫用同樣構(gòu)成巨大威脅。2023年5月,一張由人工智能生成、描繪“美國(guó)五角大樓附近發(fā)生爆炸”的虛假圖片在社交媒體被大量轉(zhuǎn)發(fā),一些經(jīng)過(guò)認(rèn)證的賬戶也信以為真并參與其中,該圖片的廣泛傳播一度導(dǎo)致美國(guó)股市出現(xiàn)短暫的恐慌性下跌,道瓊斯工業(yè)平均指數(shù)在短時(shí)間內(nèi)下跌約80點(diǎn)。盡管事后被迅速辟謠,但它首次展示了人工智能生成的虛假信息直接干擾金融市場(chǎng)的強(qiáng)大能力。[12]在我國(guó),人工智能技術(shù)被用于金融詐騙的案件時(shí)有發(fā)生,其手法日趨隱蔽,難以勘破。2023年發(fā)生于內(nèi)蒙古包頭的一起案件極具代表性。詐騙分子通過(guò)非法獲取某公司法人代表郭先生好友的社交媒體信息,利用人工智能技術(shù)合成了該好友的“數(shù)字人”,并通過(guò)視頻通話與郭先生進(jìn)行實(shí)時(shí)互動(dòng)。在“親眼所見(jiàn)、親耳所聞”的情況下,郭先生喪失了警惕,在短短十分鐘內(nèi)向詐騙分子指定的賬戶轉(zhuǎn)賬高達(dá)430萬(wàn)元人民幣。此案的發(fā)生,深刻揭示了人工智能技術(shù),特別是人工智能換臉和擬聲技術(shù),能夠輕易攻破基于生物特征(人臉、聲音)的傳統(tǒng)信任驗(yàn)證機(jī)制,對(duì)社會(huì)構(gòu)成嚴(yán)峻的新型安全挑戰(zhàn)。[13]

智能化基礎(chǔ)設(shè)施攻擊。此類沖突指利用人工智能技術(shù)對(duì)國(guó)家關(guān)鍵基礎(chǔ)設(shè)施(如能源、金融、交通、水務(wù)等)進(jìn)行自主化、智能化的網(wǎng)絡(luò)攻擊。其破壞性之所以遠(yuǎn)超傳統(tǒng)網(wǎng)絡(luò)攻擊,是因?yàn)槿斯ぶ悄苜x予了攻擊前所未有的自主性、適應(yīng)性和隱蔽性。

近年來(lái),全球范圍內(nèi)的關(guān)鍵基礎(chǔ)設(shè)施屢屢成為人工智能賦能網(wǎng)絡(luò)攻擊的目標(biāo)。比如,美國(guó)水務(wù)和能源部門(mén)持續(xù)遭受與民族國(guó)家關(guān)聯(lián)的黑客組織攻擊,攻擊者利用人工智能技術(shù)自動(dòng)化地掃描系統(tǒng)漏洞、生成多態(tài)性惡意代碼(polymorphic malware)并精心策劃復(fù)雜的攻擊序列,其攻擊效率和成功率遠(yuǎn)超人工操作。[14]安全專家預(yù)測(cè),未來(lái)的網(wǎng)絡(luò)空間攻防對(duì)抗將全面進(jìn)入“機(jī)器對(duì)機(jī)器”的戰(zhàn)爭(zhēng)時(shí)代,人工智能攻擊系統(tǒng)和人工智能防御系統(tǒng)將以人類無(wú)法干預(yù)的機(jī)器速度進(jìn)行實(shí)時(shí)對(duì)抗,攻防雙方的策略將在毫秒級(jí)的對(duì)抗中持續(xù)學(xué)習(xí)和進(jìn)化,傳統(tǒng)的以人類分析師為中心的應(yīng)急響應(yīng)模式將徹底失效。

此外,人工智能被越來(lái)越多地用于增強(qiáng)社會(huì)工程學(xué)攻擊的有效性。在針對(duì)關(guān)鍵制造業(yè)的勒索軟件攻擊中,攻擊者利用人工智能語(yǔ)音克隆技術(shù)模仿公司高管的聲音,向財(cái)務(wù)人員下達(dá)緊急轉(zhuǎn)賬指令;或利用深度偽造視頻合成總經(jīng)理講話,騙取員工的系統(tǒng)登錄憑證。這類攻擊利用了人性的弱點(diǎn)和對(duì)權(quán)威的信任,欺騙性較強(qiáng),使得傳統(tǒng)的安全意識(shí)培訓(xùn)效果大打折扣。2025年初哈爾濱亞冬會(huì)期間,關(guān)鍵信息系統(tǒng)遭受了大量來(lái)自境外的、具有明顯人工智能特征的網(wǎng)絡(luò)攻擊,其目標(biāo)直指運(yùn)動(dòng)員生物數(shù)據(jù)等敏感信息,意圖制造社會(huì)混亂,這表明人工智能驅(qū)動(dòng)的網(wǎng)絡(luò)攻擊已從技術(shù)驗(yàn)證走向具有明確戰(zhàn)略意圖的實(shí)戰(zhàn)階段。[15]

算法歧視與社會(huì)公正沖突。此類沖突源于人工智能算法在設(shè)計(jì)或?qū)W習(xí)過(guò)程中,無(wú)意或有意地復(fù)制、固化甚至放大現(xiàn)實(shí)社會(huì)中存在的偏見(jiàn)與不公,從而在就業(yè)、信貸、司法、社會(huì)資源分配等領(lǐng)域引發(fā)新的社會(huì)矛盾和群體性沖突。其本質(zhì)是技術(shù)理性與社會(huì)公平價(jià)值觀之間的深層緊張關(guān)系。從這一視角來(lái)看,算法環(huán)境是導(dǎo)致價(jià)值偏見(jiàn)隱蔽滲透的溫床。

平臺(tái)經(jīng)濟(jì)中廣泛存在算法歧視現(xiàn)象。2020年,一篇題為《外賣騎手,困在系統(tǒng)里》的深度報(bào)道引起了輿論關(guān)注。報(bào)道詳盡披露了外賣平臺(tái)如何利用復(fù)雜的人工智能調(diào)度系統(tǒng),基于海量數(shù)據(jù)和機(jī)器學(xué)習(xí)模型,為騎手計(jì)算出理論上最優(yōu)化的配送路線和時(shí)間。這套系統(tǒng)為了追求極致的效率,苛刻地壓縮送餐時(shí)限,卻未能充分考慮現(xiàn)實(shí)世界中的交通擁堵、惡劣天氣、大樓門(mén)禁、電梯等待等復(fù)雜因素。其結(jié)果是,騎手為了避免因超時(shí)而遭受的嚴(yán)厲罰款,被迫在城市中超速、闖紅燈、逆行,以生命安全為代價(jià)換取微薄收入。騎手們普遍感到自己被冰冷的、非人化的算法系統(tǒng)“困住”,個(gè)人的辛勞、特殊情況的申訴以及基本的生理需求都被算法無(wú)情地忽略。這種“人與系統(tǒng)的沖突”,是資本與勞動(dòng)在數(shù)字時(shí)代以一種更隱蔽、更技術(shù)化的形式表現(xiàn)出來(lái)的勞資矛盾新形態(tài)。[16]

此類沖突的治理極其復(fù)雜,因?yàn)樗|及企業(yè)的核心商業(yè)模式和技術(shù)的“黑箱”特性。在政府的積極干預(yù)下,我國(guó)相關(guān)部門(mén)聯(lián)合出臺(tái)一系列政策文件,明確要求平臺(tái)企業(yè)“算法取中”,優(yōu)化算法規(guī)則,為騎手提供必要的休息時(shí)間并保障其基本收入,這被視為全球范圍內(nèi)對(duì)平臺(tái)算法進(jìn)行有效治理的開(kāi)創(chuàng)性實(shí)踐。

在其他領(lǐng)域,算法歧視同樣普遍且隱蔽。比如,多項(xiàng)研究表明,被廣泛用于招聘的人工智能簡(jiǎn)歷篩選系統(tǒng),可能因?yàn)閷W(xué)習(xí)了帶有歷史偏見(jiàn)的訓(xùn)練數(shù)據(jù),而對(duì)女性或少數(shù)民族求職者表現(xiàn)出系統(tǒng)性的“歧視”。在金融領(lǐng)域,用于信貸審批的人工智能模型也可能因?yàn)閿?shù)據(jù)偏差,對(duì)某些特定社區(qū)或人群作出更嚴(yán)苛的貸款決策,加劇金融排斥現(xiàn)象。這些由算法造成的歧視,由于其“技術(shù)中立”的外觀和決策過(guò)程的不透明,往往比人類的行為決策更難被發(fā)現(xiàn)、證實(shí)和糾正。

數(shù)據(jù)主權(quán)與數(shù)字霸權(quán)博弈。此類沖突圍繞著數(shù)據(jù)資源的控制權(quán)、人工智能技術(shù)的開(kāi)發(fā)權(quán)以及相關(guān)規(guī)則的制定權(quán),在全球范圍內(nèi)展開(kāi)國(guó)家間的戰(zhàn)略競(jìng)爭(zhēng)與合作博弈,構(gòu)成人工智能時(shí)代地緣政治的核心內(nèi)容。隨著互聯(lián)網(wǎng)在國(guó)家政治經(jīng)濟(jì)生活中作用的加強(qiáng),國(guó)家間因不安全感增加而引發(fā)的沖突,使得制定全球網(wǎng)絡(luò)空間規(guī)則變得非常必要且迫切。

沖突首先體現(xiàn)在對(duì)人工智能核心技術(shù)和產(chǎn)業(yè)鏈的爭(zhēng)奪上。比如,美國(guó)出臺(tái)《芯片與科學(xué)法案》,并聯(lián)合盟友對(duì)我國(guó)實(shí)施嚴(yán)格、多層次高端人工智能芯片及相關(guān)制造設(shè)備的出口管制。其明確的戰(zhàn)略目標(biāo)是延緩我國(guó)在高端人工智能領(lǐng)域的發(fā)展步伐,確保美國(guó)在該領(lǐng)域的領(lǐng)先地位。這標(biāo)志著大國(guó)競(jìng)爭(zhēng)已從傳統(tǒng)的貿(mào)易、軍事領(lǐng)域,深化至科技創(chuàng)新的最前沿,人工智能產(chǎn)業(yè)鏈的“卡脖子”環(huán)節(jié)成為地緣政治博弈的焦點(diǎn)。

其次,沖突體現(xiàn)在數(shù)據(jù)跨境流動(dòng)和數(shù)字治理模式的差異上。數(shù)據(jù)是人工智能發(fā)展的“燃料”,但數(shù)據(jù)的自由流動(dòng)與國(guó)家安全、個(gè)人隱私保護(hù)之間存在著天然張力。以歐盟的《通用數(shù)據(jù)保護(hù)條例》(GDPR)為代表的治理模式,強(qiáng)調(diào)對(duì)個(gè)人數(shù)據(jù)的強(qiáng)保護(hù)和對(duì)數(shù)據(jù)控制者的嚴(yán)格義務(wù),并將這一模式“出口”至全球。2023年3月,意大利數(shù)據(jù)保護(hù)局正是依據(jù)《通用數(shù)據(jù)保護(hù)條例》,以侵犯用戶隱私、未能有效進(jìn)行年齡驗(yàn)證等為由,下令在該國(guó)境內(nèi)暫時(shí)禁用ChatGPT,并最終在2024年對(duì)其處以高額罰款。這一事件成為全球人工智能跨境監(jiān)管的標(biāo)志性案例,它直接反映了歐盟強(qiáng)調(diào)“數(shù)據(jù)主權(quán)”和基本權(quán)利的強(qiáng)監(jiān)管模式,與以美國(guó)科技企業(yè)為代表的、更側(cè)重技術(shù)快速迭代和商業(yè)利益的弱監(jiān)管模式之間的深刻沖突。[17]

再次,沖突體現(xiàn)在對(duì)人工智能技術(shù)標(biāo)準(zhǔn)和倫理規(guī)范制定權(quán)的爭(zhēng)奪上。誰(shuí)能主導(dǎo)人工智能的國(guó)際標(biāo)準(zhǔn),誰(shuí)就能在全球競(jìng)爭(zhēng)中占據(jù)優(yōu)勢(shì)地位,并將其價(jià)值觀和治理理念嵌入未來(lái)的數(shù)字基礎(chǔ)設(shè)施。目前,世界各國(guó)都在積極輸出自己的人工智能倫理準(zhǔn)則和治理框架,試圖在全球人工智能治理的“無(wú)人區(qū)”插上自己的旗幟。這種圍繞規(guī)則制定權(quán)的競(jìng)爭(zhēng),是比技術(shù)本身更深層次的“數(shù)字霸權(quán)”之爭(zhēng)。

生成式治理:應(yīng)對(duì)人工智能驅(qū)動(dòng)網(wǎng)絡(luò)空間新沖突的理論創(chuàng)新

面對(duì)上述沖突的新特征與新挑戰(zhàn),無(wú)論是強(qiáng)調(diào)自上而下控制的傳統(tǒng)公共行政理論,還是側(cè)重多方主體協(xié)商的網(wǎng)絡(luò)治理理論,都顯現(xiàn)出一定的解釋乏力。前者難以適應(yīng)人工智能技術(shù)的快速迭代和去中心化特征,后者則可能因協(xié)商成本過(guò)高和缺乏強(qiáng)制力而無(wú)法有效應(yīng)對(duì)緊急、惡意的人工智能沖突。現(xiàn)有理論的缺口在于,未能提供一個(gè)能夠內(nèi)化人工智能系統(tǒng)的“生成性”和“復(fù)雜性”,并與之協(xié)同演進(jìn)的動(dòng)態(tài)治理框架。為此,本研究提出“生成式治理”的理論框架。

生成式治理,顧名思義,是一種旨在生成(generate)適應(yīng)性規(guī)則、協(xié)同性結(jié)構(gòu)和智能化能力的治理范式。[18]它不是一套固定的政策工具,而是一個(gè)持續(xù)演進(jìn)、自我優(yōu)化的元治理(meta-governance)體系。其核心目標(biāo)是,通過(guò)制度、技術(shù)和組織的創(chuàng)新,使治理系統(tǒng)本身獲得學(xué)習(xí)、預(yù)測(cè)和適應(yīng)的能力,從而能夠與同為復(fù)雜適應(yīng)系統(tǒng)的人工智能技術(shù)生態(tài)形成良性的共生演進(jìn)關(guān)系,而非簡(jiǎn)單的“貓鼠游戲”。

生成式治理的理論內(nèi)涵。生成式治理的理論內(nèi)核,是對(duì)傳統(tǒng)治理在哲學(xué)、機(jī)制和時(shí)間觀上的三重超越。

第一,從外部規(guī)制到內(nèi)嵌共生的治理哲學(xué)轉(zhuǎn)變。傳統(tǒng)治理哲學(xué)傾向于將技術(shù)與社會(huì)、規(guī)制與創(chuàng)新視為二元對(duì)立,治理被看作是作用于技術(shù)系統(tǒng)之上的外部力量。生成式治理則倡導(dǎo)一種“共生”(symbiosis)的哲學(xué),認(rèn)為有效的治理不能外在于技術(shù),而必須深度嵌入技術(shù)系統(tǒng)的生命周期。這包括兩個(gè)層面的“內(nèi)嵌”:一是將倫理與規(guī)則內(nèi)嵌于代碼,即通過(guò)“倫理設(shè)計(jì)”(ethics by design)和“代碼即規(guī)則”(regulation as code)等方式,在人工智能系統(tǒng)的研發(fā)、訓(xùn)練、部署各環(huán)節(jié)植入安全、公平、透明等價(jià)值約束,使之成為技術(shù)架構(gòu)的內(nèi)生組成部分;二是將智能內(nèi)嵌于治理,即治理體系自身必須廣泛應(yīng)用人工智能技術(shù),實(shí)現(xiàn)“以人工智能治理人工智能”,從而在認(rèn)知能力和行動(dòng)速度上與被治理對(duì)象相匹配。

第二,從靜態(tài)剛性到動(dòng)態(tài)適應(yīng)的治理機(jī)制轉(zhuǎn)變。傳統(tǒng)治理機(jī)制,特別是法律法規(guī),往往具有高度的穩(wěn)定性和滯后性,難以應(yīng)對(duì)人工智能沖突形態(tài)的快速變異。生成式治理強(qiáng)調(diào)治理機(jī)制必須是動(dòng)態(tài)的、適應(yīng)性的,具備“學(xué)習(xí)”能力。這借鑒了復(fù)雜適應(yīng)系統(tǒng)理論的核心思想,即系統(tǒng)必須能夠根據(jù)環(huán)境反饋調(diào)整自身結(jié)構(gòu)和行為。具體機(jī)制包括建立“學(xué)習(xí)型制度”,比如通過(guò)設(shè)立“監(jiān)管沙盒”(regulatory sandbox),允許創(chuàng)新人工智能應(yīng)用在風(fēng)險(xiǎn)可控的真實(shí)環(huán)境中進(jìn)行測(cè)試,監(jiān)管機(jī)構(gòu)在此過(guò)程中與創(chuàng)新者共同學(xué)習(xí),快速迭代和優(yōu)化監(jiān)管規(guī)則。此外,還需建立基于案例的“動(dòng)態(tài)規(guī)則生成”機(jī)制,當(dāng)新型沖突(如新型人工智能詐騙)出現(xiàn)時(shí),治理系統(tǒng)能夠自動(dòng)或半自動(dòng)地分析其特征,并迅速生成相應(yīng)的預(yù)警信息、防御策略和規(guī)則調(diào)整建議。

第三,從事后響應(yīng)到事前預(yù)見(jiàn)的治理時(shí)間轉(zhuǎn)變。傳統(tǒng)治理大多是事后響應(yīng)式的,即在損害發(fā)生后再進(jìn)行調(diào)查、追責(zé)和補(bǔ)救。然而,人工智能對(duì)其驅(qū)動(dòng)的沖突往往具有速度快、影響廣泛的特點(diǎn),事后干預(yù)的成本極高且效果有限。生成式治理的核心在于將治理重心從“下游”的損害控制,大規(guī)模前移至“上游”的風(fēng)險(xiǎn)預(yù)防。這要求建立強(qiáng)大的風(fēng)險(xiǎn)預(yù)見(jiàn)能力,通過(guò)對(duì)網(wǎng)絡(luò)空間多維數(shù)據(jù)(如異常代碼活動(dòng)、社交媒體情緒、技術(shù)漏洞報(bào)告等)的持續(xù)監(jiān)測(cè)和人工智能驅(qū)動(dòng)的分析,對(duì)可能爆發(fā)的沖突進(jìn)行早期識(shí)別、概率評(píng)估和情景推演。其目標(biāo)是實(shí)現(xiàn)“治理前置”,在沖突萌芽階段或風(fēng)險(xiǎn)累積過(guò)程中就進(jìn)行精準(zhǔn)、低成本的干預(yù),有效控制事態(tài)升級(jí)。

生成式治理的四維框架?;谏鲜隼碚搩?nèi)涵,并結(jié)合案例分析,我們構(gòu)建一個(gè)由預(yù)防性治理、適應(yīng)性治理、協(xié)同性治理和智能化治理四個(gè)維度構(gòu)成的生成式治理框架(見(jiàn)圖1)。這四個(gè)維度相互關(guān)聯(lián)、互為支撐,共同構(gòu)成一個(gè)完整的動(dòng)態(tài)治理體系。

2

一是預(yù)防性治理(preventive governance),構(gòu)建風(fēng)險(xiǎn)免疫屏障。預(yù)防性治理是生成式治理的前置防線和基礎(chǔ),其核心在于通過(guò)技術(shù)與制度的結(jié)合,在風(fēng)險(xiǎn)演化為實(shí)際損害前進(jìn)行預(yù)測(cè)和干預(yù),目標(biāo)是構(gòu)建主動(dòng)的、有韌性的“社會(huì)-技術(shù)免疫系統(tǒng)”。

其關(guān)鍵舉措包括如下幾個(gè)方面。第一,構(gòu)建多層次風(fēng)險(xiǎn)預(yù)測(cè)與早期預(yù)警系統(tǒng)。整合來(lái)自政府、企業(yè)、安全社區(qū)等多來(lái)源的威脅情報(bào)和異常數(shù)據(jù),利用人工智能模型進(jìn)行深度分析,以識(shí)別潛在的攻擊模式、虛假信息傳播網(wǎng)絡(luò)和算法偏見(jiàn)累積趨勢(shì)。例如,美國(guó)網(wǎng)絡(luò)安全與基礎(chǔ)設(shè)施安全局(CISA)已于2023年11月發(fā)布《人工智能路線圖》,并據(jù)此對(duì)各關(guān)鍵基礎(chǔ)設(shè)施部門(mén)的人工智能相關(guān)風(fēng)險(xiǎn)開(kāi)展年度評(píng)估與預(yù)警。[19]第二,部署“主動(dòng)防御”與“韌性設(shè)計(jì)”。在技術(shù)層面,應(yīng)從被動(dòng)構(gòu)建防火墻轉(zhuǎn)向主動(dòng)部署“蜜罐”系統(tǒng)(honeypot)、“網(wǎng)絡(luò)欺騙”(cyber deception)等技術(shù),來(lái)誘捕、誤導(dǎo)和消耗攻擊者的資源。在系統(tǒng)設(shè)計(jì)層面,應(yīng)大力推廣“韌性設(shè)計(jì)”(resilience by design)理念,確保關(guān)鍵基礎(chǔ)設(shè)施在遭受人工智能攻擊時(shí)能夠“優(yōu)雅降級(jí)”(graceful degradation)而非災(zāi)難性崩潰,并能快速恢復(fù)核心功能。第三,實(shí)施基于風(fēng)險(xiǎn)分級(jí)的“事前合規(guī)”制度。歐盟的《人工智能法案》是這一思路的典范,它根據(jù)人工智能應(yīng)用的潛在風(fēng)險(xiǎn)將其劃分為不同等級(jí)(不可接受、高、有限、最?。?,并對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)(如用于招聘、信貸、關(guān)鍵基礎(chǔ)設(shè)施控制的人工智能)施加嚴(yán)格的事前合規(guī)評(píng)估義務(wù),包括數(shù)據(jù)質(zhì)量、透明度、人類監(jiān)督等方面的要求。[20]這種制度設(shè)計(jì)將安全與倫理考量嵌入人工智能產(chǎn)品的市場(chǎng)準(zhǔn)入環(huán)節(jié),是預(yù)防性治理的重要制度保障。

二是適應(yīng)性治理(adaptive governance),實(shí)現(xiàn)規(guī)則與環(huán)境的協(xié)同進(jìn)化。適應(yīng)性治理旨在解決治理滯后于技術(shù)發(fā)展這一根本性難題,強(qiáng)調(diào)治理體系必須具備隨環(huán)境變化而動(dòng)態(tài)調(diào)整規(guī)則、流程和結(jié)構(gòu)的能力,實(shí)現(xiàn)治理與技術(shù)生態(tài)的協(xié)同進(jìn)化。

其核心機(jī)制包括如下內(nèi)容。第一,推廣“敏捷治理”(agile governance)與“監(jiān)管沙盒”。借鑒敏捷軟件開(kāi)發(fā)的思想,將治理過(guò)程分解為短周期的“迭代”,在每個(gè)周期內(nèi)快速推出、測(cè)試、評(píng)估和修正治理措施。監(jiān)管沙盒是敏捷治理的關(guān)鍵工具,為創(chuàng)新提供“安全”的實(shí)驗(yàn)空間,借其監(jiān)管者可以近距離觀察新技術(shù)的影響,從而制定出更精準(zhǔn)、更合理的規(guī)則,避免“一刀切”式禁止或放任不管的行為。第二,建立“活標(biāo)準(zhǔn)”(living standards)與動(dòng)態(tài)規(guī)則庫(kù)。傳統(tǒng)的技術(shù)標(biāo)準(zhǔn)一經(jīng)發(fā)布便趨于固化,難以跟上技術(shù)發(fā)展的步伐。“活標(biāo)準(zhǔn)”則是一種持續(xù)更新的動(dòng)態(tài)文檔,它在保持核心原則不變的前提下,允許其技術(shù)附件和實(shí)施指南根據(jù)最新的技術(shù)實(shí)踐和風(fēng)險(xiǎn)評(píng)估進(jìn)行快速修訂。同時(shí),應(yīng)建立國(guó)家級(jí)的人工智能治理動(dòng)態(tài)規(guī)則庫(kù),當(dāng)新型沖突案例(如利用多模態(tài)人工智能的新型詐騙)出現(xiàn)后,能夠迅速將其特征、模式和應(yīng)對(duì)策略納入庫(kù)中,并向全社會(huì)發(fā)布預(yù)警和指引。第三,培育“學(xué)習(xí)型組織”。適應(yīng)性治理的實(shí)現(xiàn),最終依賴具備學(xué)習(xí)能力的治理主體。這要求政府部門(mén)改革傳統(tǒng)決策流程,建立跨部門(mén)的、任務(wù)導(dǎo)向的敏捷團(tuán)隊(duì),并大規(guī)模培訓(xùn)公務(wù)員以提升其數(shù)字素養(yǎng)、增長(zhǎng)其人工智能知識(shí),使其能夠理解并有效運(yùn)用適應(yīng)性的治理工具。

三是協(xié)同性治理(collaborative governance),構(gòu)建多中心治理網(wǎng)絡(luò)。面對(duì)人工智能驅(qū)動(dòng)沖突的全球性、跨域性和主體多樣性,任何單一主體(無(wú)論是政府還是企業(yè))都無(wú)法獨(dú)立應(yīng)對(duì),必須構(gòu)建一個(gè)多主體、跨領(lǐng)域、全球化的協(xié)同治理網(wǎng)絡(luò)。這一維度直接回應(yīng)了埃莉諾·奧斯特羅姆(Elinor Ostrom)的多中心治理理論,即復(fù)雜問(wèn)題的有效治理有賴于多個(gè)擁有自主決策權(quán)的治理中心的協(xié)調(diào)與合作。構(gòu)建多方主體共同參與的綜合治理體系是算法治理的必由之路。

協(xié)同治理的實(shí)現(xiàn)路徑包括以下幾方面。第一,深化公私合作伙伴關(guān)系(public-private partnership, PPP)。政府應(yīng)與掌握核心技術(shù)的平臺(tái)企業(yè)、頂尖的學(xué)術(shù)機(jī)構(gòu)和活躍的安全社區(qū)建立常態(tài)化、制度化的合作機(jī)制。合作內(nèi)容不僅限于事后的威脅情報(bào)共享,更應(yīng)擴(kuò)展到事前的人工智能倫理準(zhǔn)則共建、安全標(biāo)準(zhǔn)聯(lián)合制定,以及治理技術(shù)的共同研發(fā)。第二,建立跨域聯(lián)動(dòng)與社會(huì)共治機(jī)制。人工智能沖突的影響往往是跨領(lǐng)域的,比如,人工智能金融詐騙同時(shí)涉及金融監(jiān)管、公安、通信管理等多個(gè)部門(mén),必須建立高效的跨部門(mén)信息共享和聯(lián)合行動(dòng)機(jī)制。同時(shí),應(yīng)賦權(quán)于社會(huì)組織(如消費(fèi)者協(xié)會(huì)、行業(yè)協(xié)會(huì)、倫理委員會(huì))和廣大公眾,鼓勵(lì)其參與人工智能應(yīng)用的監(jiān)督與評(píng)估,形成“社會(huì)共治”的局面。第三,推動(dòng)構(gòu)建全球人工智能安全與治理同盟。人工智能安全是典型的全球性公共產(chǎn)品,存在“搭便車”和“公地悲劇”的風(fēng)險(xiǎn)。各國(guó)必須超越零和博弈的地緣政治思維,在聯(lián)合國(guó)、G20等多邊框架下,積極推動(dòng)制定人工智能領(lǐng)域的國(guó)際行為準(zhǔn)則(如禁止特定類型的人工智能武器開(kāi)發(fā)、建立人工智能生成內(nèi)容的國(guó)際溯源機(jī)制等)、構(gòu)建技術(shù)標(biāo)準(zhǔn)互認(rèn)體系和全球聯(lián)合應(yīng)急響應(yīng)網(wǎng)絡(luò)。這需要大國(guó)展現(xiàn)領(lǐng)導(dǎo)力,引領(lǐng)各方在人工智能安全這一攸關(guān)人類共同命運(yùn)的議題上形成“最大公約數(shù)”。

四是智能化治理(intelligent governance),以智能對(duì)抗智能。智能化治理是生成式治理的技術(shù)內(nèi)核和最高階段,強(qiáng)調(diào)“以人工智能治理人工智能”,是提升治理體系在速度、精度和廣度上能力的必然選擇。如果說(shuō)前三個(gè)維度是構(gòu)建治理的“骨架”和“血肉”,智能化治理則是為這個(gè)體系注入“智慧大腦”和“敏捷神經(jīng)”。

其關(guān)鍵舉措涵蓋下列內(nèi)容。第一,開(kāi)發(fā)和部署專用的“治理人工智能”(GovAI)系統(tǒng)。這些系統(tǒng)可以輔助人類決策者進(jìn)行海量異構(gòu)數(shù)據(jù)分析、復(fù)雜風(fēng)險(xiǎn)情景模擬、政策干預(yù)效果預(yù)測(cè)等,從而提升決策的科學(xué)性和前瞻性。比如,可以構(gòu)建城市交通的“數(shù)字孿生”系統(tǒng),在虛擬空間中模擬不同人工智能派單算法對(duì)交通流量和騎手安全的影響,為制定監(jiān)管政策提供數(shù)據(jù)支持。需要強(qiáng)調(diào)的是,此類系統(tǒng)必須具備良好的可解釋性(explainable AI, XAI),以確保決策過(guò)程的透明和可問(wèn)責(zé)。第二,建立自動(dòng)化、持續(xù)性的“算法審計(jì)”(algorithmic auditing)系統(tǒng)。對(duì)運(yùn)行中的關(guān)鍵人工智能應(yīng)用(如招聘、信貸、司法輔助系統(tǒng))進(jìn)行持續(xù)性監(jiān)測(cè),利用人工智能技術(shù)自動(dòng)檢測(cè)其中可能存在的偏見(jiàn)、歧視、數(shù)據(jù)漂移或安全漏洞。這種自動(dòng)化審計(jì),可以變過(guò)去運(yùn)動(dòng)式、抽查式的監(jiān)管為常態(tài)化、嵌入式的監(jiān)管。第三,構(gòu)建“自主響應(yīng)”的智能防御體系。對(duì)于某些時(shí)間敏感性極高的人工智能攻擊,如機(jī)器對(duì)機(jī)器的網(wǎng)絡(luò)攻擊,必須部署能夠自主決策和行動(dòng)的自動(dòng)化響應(yīng)系統(tǒng)。這些系統(tǒng)能夠在毫秒級(jí)時(shí)間內(nèi)完成對(duì)攻擊的識(shí)別、溯源、隔離和反制,其響應(yīng)速度是人類團(tuán)隊(duì)無(wú)法比擬的。

生成式治理的實(shí)施路徑與政策建議

生成式治理框架的落地,是一個(gè)復(fù)雜的系統(tǒng)工程,需要制度創(chuàng)新、技術(shù)創(chuàng)新和組織創(chuàng)新的協(xié)同推進(jìn)。

制度創(chuàng)新路徑:構(gòu)建敏捷而穩(wěn)健的規(guī)則體系。加快人工智能安全與治理領(lǐng)域的“敏捷立法”。不同于傳統(tǒng)立法追求的長(zhǎng)期穩(wěn)定性,人工智能領(lǐng)域的立法必須兼顧原則性與靈活性。應(yīng)借鑒歐盟《人工智能法案》的思路,構(gòu)建一個(gè)以風(fēng)險(xiǎn)分級(jí)為基礎(chǔ)的法律框架,對(duì)核心的倫理原則(如公平、透明、可問(wèn)責(zé))和安全底線作出強(qiáng)制性規(guī)定,同時(shí)為具體的技術(shù)實(shí)現(xiàn)路徑和應(yīng)用場(chǎng)景留出足夠的解釋和適應(yīng)空間。[21]此外,應(yīng)在法律中明確引入“監(jiān)管沙盒”“臨時(shí)許可”等制度,為監(jiān)管創(chuàng)新提供法律依據(jù)。推動(dòng)建立以“算法影響評(píng)估”(algorithmic impact assessment, AIA)為核心的合規(guī)新范式。強(qiáng)制要求高風(fēng)險(xiǎn)人工智能系統(tǒng)的開(kāi)發(fā)者和部署者,在系統(tǒng)上線前和運(yùn)行中,定期對(duì)其可能造成的社會(huì)、倫理影響進(jìn)行全面評(píng)估,并向監(jiān)管機(jī)構(gòu)和社會(huì)公眾公開(kāi)評(píng)估報(bào)告。這有助于將治理責(zé)任從事后轉(zhuǎn)向事前,并提升算法的透明度。積極主導(dǎo)和參與人工智能治理的國(guó)際規(guī)則制定。中國(guó)應(yīng)依托世界互聯(lián)網(wǎng)大會(huì)等平臺(tái),積極提出符合人類共同利益的人工智能治理中國(guó)方案,推動(dòng)在數(shù)據(jù)跨境流動(dòng)、人工智能倫理、網(wǎng)絡(luò)安全等領(lǐng)域形成具有廣泛共識(shí)的國(guó)際公約或準(zhǔn)則,避免全球數(shù)字治理的碎片化和陣營(yíng)化。

技術(shù)創(chuàng)新路徑:大力發(fā)展“向善”的治理技術(shù)。將“可信人工智能”(trustworthy AI)列為國(guó)家級(jí)科技戰(zhàn)略重點(diǎn)。國(guó)家應(yīng)設(shè)立重大專項(xiàng),集中力量攻關(guān)一批人工智能治理的核心技術(shù),扭轉(zhuǎn)當(dāng)前攻擊性人工智能技術(shù)發(fā)展快于防御性人工智能技術(shù)的失衡局面。這些技術(shù)包括但不限于:高效精準(zhǔn)的深度偽造內(nèi)容檢測(cè)與溯源技術(shù);能夠解釋復(fù)雜模型決策邏輯的可解釋性人工智能技術(shù);能夠在保護(hù)數(shù)據(jù)隱私的同時(shí)進(jìn)行聯(lián)合建模的聯(lián)邦學(xué)習(xí)、安全多方計(jì)算等隱私計(jì)算技術(shù);以及用于檢測(cè)和修復(fù)算法偏見(jiàn)的公平性增強(qiáng)技術(shù)。[22]構(gòu)建開(kāi)源、開(kāi)放的人工智能治理技術(shù)基礎(chǔ)設(shè)施。政府可牽頭或支持建立國(guó)家級(jí)的人工智能安全漏洞庫(kù)、算法偏見(jiàn)數(shù)據(jù)集、治理算法開(kāi)源社區(qū)等公共基礎(chǔ)設(shè)施,降低全社會(huì)進(jìn)行人工智能治理的技術(shù)門(mén)檻,鼓勵(lì)“白帽子”和科研人員參與治理技術(shù)的生態(tài)共建。探索將區(qū)塊鏈等信任技術(shù)與人工智能治理相結(jié)合。比如,利用區(qū)塊鏈的不可篡改和去中心化特性,為人工智能生成的重要內(nèi)容(如數(shù)字藝術(shù)品、新聞報(bào)道)打上“數(shù)字水印”或時(shí)間戳,建立可信的溯源和確權(quán)體系;或利用智能合約自動(dòng)執(zhí)行某些算法監(jiān)管規(guī)則,提升治理的自動(dòng)化和可信度。

組織創(chuàng)新路徑:培育面向智能時(shí)代的治理能力。優(yōu)化國(guó)內(nèi)治理機(jī)構(gòu)設(shè)置,建立國(guó)家級(jí)人工智能治理協(xié)調(diào)機(jī)構(gòu)。人工智能風(fēng)險(xiǎn)的跨域性決定了任何單一部門(mén)都無(wú)法有效應(yīng)對(duì)。應(yīng)考慮在國(guó)家層面建立一個(gè)高級(jí)別的人工智能治理委員會(huì)或辦公室,賦予其足夠的權(quán)威和資源,負(fù)責(zé)統(tǒng)籌協(xié)調(diào)國(guó)家人工智能發(fā)展的戰(zhàn)略規(guī)劃、倫理規(guī)范制定、安全風(fēng)險(xiǎn)監(jiān)測(cè)和重大事件應(yīng)對(duì),打破部門(mén)壁壘,形成治理合力。構(gòu)建面向未來(lái)的、跨學(xué)科的人工智能治理人才培養(yǎng)體系。在高等教育中,應(yīng)大力推動(dòng)計(jì)算機(jī)科學(xué)與法學(xué)、社會(huì)學(xué)、倫理學(xué)、公共管理等學(xué)科的交叉融合,設(shè)立人工智能倫理、人工智能法律、人工智能治理等新興交叉學(xué)科專業(yè),重點(diǎn)培養(yǎng)既精通技術(shù)原理又深諳人文社科知識(shí)的復(fù)合型、戰(zhàn)略型人才。積極塑造和參與全球人工智能治理組織。在推動(dòng)建立官方的政府間人工智能治理組織的同時(shí),應(yīng)鼓勵(lì)和支持中國(guó)的企業(yè)、智庫(kù)、學(xué)者和非政府組織深度參與電氣電子工程師學(xué)會(huì)(IEEE)、國(guó)際標(biāo)準(zhǔn)化組織(ISO)、人工智能全球合作組織(GPAI)等國(guó)際性、專業(yè)性的人工智能標(biāo)準(zhǔn)和倫理組織,在多樣的全球網(wǎng)絡(luò)中發(fā)出中國(guó)聲音,貢獻(xiàn)中國(guó)智慧。

結(jié)論與展望

本文通過(guò)對(duì)人工智能驅(qū)動(dòng)下網(wǎng)絡(luò)空間新沖突的多案例分析,系統(tǒng)揭示了此類沖突在驅(qū)動(dòng)邏輯、沖突主體、作用機(jī)制和損害形態(tài)上相較于傳統(tǒng)沖突的根本性范式轉(zhuǎn)換。研究發(fā)現(xiàn),沖突的本質(zhì)已從工具性對(duì)抗轉(zhuǎn)向由“生成理性”驅(qū)動(dòng)的、在復(fù)雜適應(yīng)系統(tǒng)中涌現(xiàn)的動(dòng)態(tài)演化,這使得無(wú)論是強(qiáng)調(diào)自上而下控制的傳統(tǒng)公共行政理論,還是側(cè)重多方協(xié)商的網(wǎng)絡(luò)治理理論,都面臨深刻的理論與實(shí)踐挑戰(zhàn)。

為回應(yīng)這個(gè)挑戰(zhàn),本文構(gòu)建并系統(tǒng)闡述了“生成式治理”的理論框架。該框架并非具體的政策“處方”,而是一種元治理理念和能力建設(shè)路徑。面對(duì)生成性、智能化治理對(duì)象,治理體系自身必須被改造為生成性、智能化主體。通過(guò)“預(yù)防性治理”將重心前置,通過(guò)“適應(yīng)性治理”實(shí)現(xiàn)動(dòng)態(tài)演進(jìn),通過(guò)“協(xié)同性治理”聯(lián)結(jié)多方主體,通過(guò)“智能化治理”提升核心能力,最終目標(biāo)是實(shí)現(xiàn)治理系統(tǒng)與人工智能技術(shù)生態(tài)之間從“對(duì)抗博弈”到“協(xié)同共生”的范式躍遷。

當(dāng)然,本研究也存在一定局限。由于人工智能技術(shù)仍在飛速發(fā)展,本文選取的案例時(shí)間跨度相對(duì)較短,許多新型沖突的長(zhǎng)期影響和演化規(guī)律尚待持續(xù)觀察。同時(shí),生成式治理作為一個(gè)宏大的理論框架,其在不同國(guó)家、不同文化背景下的具體適用性,以及在實(shí)踐中可能遇到的政治、經(jīng)濟(jì)和組織阻力,都需要更深入的、分領(lǐng)域的實(shí)證研究來(lái)檢驗(yàn)和修正。

人工智能與網(wǎng)絡(luò)空間的深度融合將是一個(gè)長(zhǎng)期且充滿不確定性的過(guò)程。后續(xù)研究可在以下方面進(jìn)一步深化:對(duì)特定類型的人工智能沖突(如算法價(jià)值觀沖突、自主武器系統(tǒng)的軍備競(jìng)賽動(dòng)態(tài))進(jìn)行更深入的博弈論和演化動(dòng)力學(xué)建模研究;開(kāi)發(fā)可量化的生成式治理成熟度評(píng)估指標(biāo)體系,用于評(píng)估不同國(guó)家和組織的治理能力水平;以及更為前瞻性地研究量子計(jì)算、腦機(jī)接口等下一代顛覆性技術(shù)與人工智能結(jié)合后,可能帶來(lái)的對(duì)人類社會(huì)秩序更為根本性的挑戰(zhàn)及其治理之道。

注釋

[1]叢培影、黃日涵:《網(wǎng)絡(luò)空間沖突的治理困境與路徑選擇》,《國(guó)際展望》,2016年第1期。

[2]賈開(kāi):《人工智能與算法治理研究》,《中國(guó)行政管理》,2019年第1期。

[3]匡文波:《算法治理:網(wǎng)絡(luò)空間治理的新挑戰(zhàn)》,《人民論壇》,2023年第19期。

[4]郎平:《全球網(wǎng)絡(luò)空間規(guī)則制定的合作與博弈》,《國(guó)際展望》,2014年第6期。

[5][18]米加寧:《生成式治理:大模型時(shí)代的治理新范式》,《中國(guó)社會(huì)科學(xué)》,2024年第10期。

[6]N. G. Wood, "Rise of the Machines or Just a Routine Test?" 2023, https://warontherocks.com/2023/06/rise-of-the-machines-or-just-a-routine-test/.

[7][9]孟天廣、李珍珍:《治理算法:算法風(fēng)險(xiǎn)的倫理原則及其治理邏輯》,《學(xué)術(shù)論壇》,2022年第1期。

[8][12]P. Marcelo, "FACT FOCUS: Fake Image of Pentagon Explosion Briefly Sends Jitters Through Stock Market," 2023, https://apnews.com/article/pentagon-explosion-misinformation-stock-market-ai-96f534c790872fde67012ee81b5ed6a4.

[10]侯東德、張麗萍:《生成式人工智能背景下網(wǎng)絡(luò)信息生態(tài)風(fēng)險(xiǎn)的法律規(guī)制》,《社會(huì)科學(xué)研究》,2023年第6期。

[11]M. Holroyd and F. Olorunselu, "Deepfake Zelenskyy Surrender Video Is 'First Intentionally Used' in Ukraine War," 2022, https://www.euronews.com/next/2022/03/16/deepfake-zelenskyy-surrender-video-is-the-first-intentionally-used-in-ukraine-war.

[13]《AI詐騙來(lái)襲 市民須提高警惕》,2023年5月24日, https://www.yaan.gov.cn/credit/staticPage/8b9664cb-30d0-4891-b43f-5e54acf33806.html。

[14]M. Phillis and M. Daly, “US Says Cyberattacks Against Water Supplies Are Rising, and Utilities Need to Do More to Stop Them,“ 2024, https://apnews.com/article/water-utilities-cyberattack-epa-russia-1435b3e6a569aa046e05c7947f0a0f3d.

[15]徐源、劉笑然、王偉嘉:《生成式人工智能的網(wǎng)絡(luò)安全風(fēng)險(xiǎn)及應(yīng)對(duì)策略》,《中國(guó)信息安全》,2025年第3期。

[16]《外賣騎手,困在系統(tǒng)里|百家故事》,2020年9月8日,https://baijiahao.baidu.com/s?id=1677231323622016633。

[17]Euronews with AFP, "OpenAI's ChatGPT Chatbot Blocked in Italy Over Privacy Concerns," 2023, https://www.euronews.com/next/2023/03/31/openais-chatgpt-chatbot-banned-in-italy-by-watchdog-over-privacy-concerns.

[19]CISA Central, "Roadmap for AI," 2025, https://www.cisa.gov/resources-tools/resources/roadmap-ai.

[20][21]D. M. Lazer et al., “The Science of Fake News,“ Science, 2018, 359(6380).

[22]A. Dafoe, AI Governance: A Research Agenda, Governance of AI Program, Future of Humanity Institute, University of Oxford, 2018.

New Conflicts and Governance Trajectories in Cyberspace Under the Impetus

of Artificial Intelligence

—From the Perspective of Generative Governance Theory

Mi Jianing

Abstract: The deep integration of artificial intelligence is reshaping both the forms of conflict and the logic of governance in cyberspace. Traditional paradigms of cyberspace governance—whether based on command?and?control style strict regulation or on weak?intervention, market?driven self-regulation—are increasingly inadequate in addressing features such as the high autonomy of technology, the diffuse and diverse nature of actors, the cross-domain transmission of harm, and the complex coupling of operational scenarios. This research conducts a typological analysis of representative AI?driven cyberspace conflicts globally since 2020, and identifies four core patterns: deepfake?based cognitive manipulation, intelligent infrastructure attacks, algorithmic discrimination and social justice conflicts, and the data sovereignty versus digital hegemony game. The essence of these new conflict types has shifted from instrumentally rational motives to generatively rational dynamics, exhibiting distinctive characteristics compared to traditional conflicts: omnipresent actors, intelligent means, socialized impacts, and blurred responsibility. In view of this, an innovative theoretical framework of "Generative Governance" rests on four pillars—risk prevention, dynamic adaptation, multi?stakeholder collaboration, and AI?driven mechanisms—to construct a dynamic governance system endowed with learning and predictive capabilities capable of coevolving with AI systems, its implementation requires the synergistic promotion of institutional innovation, technological innovation and organizational innovation.

Keywords: artificial intelligence, cyberspace conflict, generative governance, digital sovereignty, algorithmic governance

責(zé) 編∕李思琪 美 編∕梁麗琛

[責(zé)任編輯:李思琪]