在線客服系統(tǒng)

王一帆 姚洪:《國(guó)家治理中生成式人工智能發(fā)展的趨勢(shì)、挑戰(zhàn)與應(yīng)對(duì)》

2025-06-06

作者簡(jiǎn)介

王一帆,華中科技大學(xué)公共管理學(xué)院博士研究生;

姚洪(通訊作者),廣州大學(xué)公共管理學(xué)院講師,Email: yaohong@gzhu.edu.cn。

摘要

隨著生成式人工智能(Generative AI)的迅速發(fā)展,其在國(guó)家治理中的應(yīng)用正日益深化,推動(dòng)了治理方式的重大變革。本文基于生成式AI的發(fā)展歷程,深入探討了其在國(guó)家治理中的重要應(yīng)用場(chǎng)景,總結(jié)了當(dāng)前的關(guān)鍵趨勢(shì),包括決策智能化、服務(wù)響應(yīng)精準(zhǔn)化、治理結(jié)構(gòu)扁平化、人機(jī)協(xié)同化及監(jiān)督透明化。然而,生成式AI的廣泛應(yīng)用也帶來(lái)了數(shù)據(jù)隱私與安全、算法透明度不足、倫理道德風(fēng)險(xiǎn)、數(shù)字主權(quán)等核心挑戰(zhàn)。針對(duì)這些問(wèn)題,本文提出了包括雙軌治理模式、加強(qiáng)算法透明與問(wèn)責(zé)、平衡數(shù)據(jù)共享與隱私保護(hù)等應(yīng)對(duì)策略,力求在保障國(guó)家安全與社會(huì)信任的前提下,推動(dòng)生成式AI的可持續(xù)發(fā)展。本文的研究對(duì)生成式AI在國(guó)家治理中的負(fù)責(zé)任應(yīng)用提供了理論支持和實(shí)踐指導(dǎo)。

關(guān)鍵詞

生成式人工智能;國(guó)家治理;智能決策;倫理治理

一、引言

生成式人工智能(Generative AI)隨著數(shù)字化、智能化的深入發(fā)展,在國(guó)家治理中迅速崛起并成為重要工具。生成式AI不同于傳統(tǒng)人工智能,其核心在于能夠基于數(shù)據(jù)生成包括文本、圖像、聲音等多種模態(tài)在內(nèi)的新內(nèi)容,因此在多個(gè)國(guó)家治理領(lǐng)域展現(xiàn)出了巨大的潛力。生成式AI目前已初步應(yīng)用于多個(gè)方面(詳見(jiàn)表1),包括政策決策支持、公共服務(wù)、社會(huì)安全和市場(chǎng)監(jiān)管等。比如,在公共服務(wù)領(lǐng)域,生成式人工智能能夠幫助政府提供更多個(gè)性化和智能化的服務(wù)方案;生成式AI在社會(huì)安全管理中,能夠協(xié)助政府通過(guò)風(fēng)險(xiǎn)預(yù)測(cè)、輿情監(jiān)控等手段,對(duì)突發(fā)事件做出快速反應(yīng);在政策制定上,生成式AI可以為決策提供數(shù)據(jù)支持,從而使政策更科學(xué)、更高效。近年來(lái),全球多個(gè)國(guó)家已將生成式AI技術(shù)納入國(guó)家治理體系,探索其在提高治理效率、優(yōu)化資源配置等方面的作用。然而,高速發(fā)展的生成式AI在帶來(lái)技術(shù)進(jìn)步的同時(shí),也引發(fā)了數(shù)據(jù)隱私泄露、算法偏見(jiàn)、倫理道德風(fēng)險(xiǎn)等諸多治理問(wèn)題。推動(dòng)生成式AI在國(guó)家治理中的合理應(yīng)用,既面臨機(jī)遇,又充滿(mǎn)挑戰(zhàn),現(xiàn)實(shí)緊迫性極高,這些問(wèn)題直接關(guān)系到政府治理的穩(wěn)定性和公眾信任度。

表1 生成式人工智能在國(guó)家治理中的應(yīng)用場(chǎng)景

為明確本文的研究對(duì)象,首先需要對(duì)“國(guó)家治理”和“生成式人工智能”這兩個(gè)核心概念進(jìn)行界定。國(guó)家治理是指國(guó)家通過(guò)各種政府機(jī)構(gòu)、法律法規(guī)、公共政策和社會(huì)資源的協(xié)調(diào)運(yùn)作,確保社會(huì)穩(wěn)定、公共利益和經(jīng)濟(jì)發(fā)展的過(guò)程。它涵蓋政策決策、公共服務(wù)、市場(chǎng)監(jiān)管、社會(huì)安全等多方面內(nèi)容,是國(guó)家運(yùn)轉(zhuǎn)的重要支柱。國(guó)家治理不僅僅是單一的管理活動(dòng),還包括多主體的協(xié)同運(yùn)作、跨部門(mén)的數(shù)據(jù)共享和信息交換,目的是實(shí)現(xiàn)社會(huì)的長(zhǎng)治久安和公民的福祉。在現(xiàn)代化的國(guó)家治理體系中,人工智能逐漸成為提升治理效能的重要技術(shù)手段。生成式人工智能則是基于深度學(xué)習(xí)技術(shù)的AI分支,具備生成內(nèi)容的能力,與傳統(tǒng)的AI主要用于分析和識(shí)別不同,它能夠通過(guò)對(duì)已有數(shù)據(jù)的學(xué)習(xí)生成具有創(chuàng)新性和結(jié)構(gòu)性的新數(shù)據(jù)。生成式AI的發(fā)展歷程可以劃分為四個(gè)階段:萌芽階段(20世紀(jì)50年代至2000年)、初步發(fā)展階段(2000年至2014年)、快速提升階段(2014年至2020年)、大規(guī)模應(yīng)用與創(chuàng)新階段(2020年至今),目前已進(jìn)入大規(guī)模實(shí)用化階段(詳見(jiàn)表2)。在當(dāng)前階段,生成式AI憑借其內(nèi)容生成和數(shù)據(jù)處理的高效能力,已逐漸應(yīng)用于文本生成、智能決策、內(nèi)容創(chuàng)作等多個(gè)領(lǐng)域。該類(lèi)生成式人工智能技術(shù)相對(duì)于傳統(tǒng)人工智能而言,具有較強(qiáng)的自主生成能力與創(chuàng)新性,在政策扶持方面、在服務(wù)優(yōu)化和社會(huì)安定性方面,能夠?yàn)閲?guó)家治理中復(fù)雜任務(wù)的開(kāi)展提供一個(gè)強(qiáng)有力的技術(shù)支持。

表2 生成式人工智能的發(fā)展歷程

在上述研究背景下,值得深入探討的核心問(wèn)題有三個(gè):第一,生成式人工智能在國(guó)家治理中的發(fā)展有哪些重要趨勢(shì)?第二,國(guó)家治理中的生成式人工智能面臨什么核心挑戰(zhàn)?第三,對(duì)于生成式AI的合理應(yīng)用,政府應(yīng)該采取怎樣的應(yīng)對(duì)策略才能有效推進(jìn)?圍繞著這些問(wèn)題,本文旨在揭示生成式人工智能的應(yīng)用現(xiàn)狀和在國(guó)家治理中的潛在問(wèn)題,并期望以新的視角為該領(lǐng)域提出相應(yīng)的應(yīng)對(duì)措施。從研究意義上講,這篇文章理論價(jià)值很大,實(shí)踐價(jià)值也很大。首先,理論意義在于,本文結(jié)合了國(guó)家治理和生成式AI兩個(gè)領(lǐng)域,對(duì)生成式AI如何重塑?chē)?guó)家治理體系進(jìn)行了探索,拓寬了生成式AI在社會(huì)科學(xué)研究中的應(yīng)用范圍,同時(shí)也為國(guó)家治理提供了一條新的研究路徑。其次,實(shí)踐意義在于,本文分析了生成式AI在國(guó)家治理中的潛力和風(fēng)險(xiǎn),為政府部門(mén)在保障數(shù)據(jù)隱私、安全和社會(huì)公平的同時(shí),如何合理利用生成式AI,幫助政府實(shí)現(xiàn)生成式AI負(fù)責(zé)任的發(fā)展,提供了政策建議。

二、國(guó)家治理中生成式人工智能發(fā)展的重要趨勢(shì)

(一)決策智能化與數(shù)據(jù)驅(qū)動(dòng)化

生成式人工智能在政府決策中的應(yīng)用加速了決策的智能化與數(shù)據(jù)驅(qū)動(dòng)化轉(zhuǎn)型,通過(guò)對(duì)海量數(shù)據(jù)的處理和分析,生成式AI大幅提升了政府在決策過(guò)程中的科學(xué)性和數(shù)據(jù)支持能力。隨著生成式AI的廣泛應(yīng)用,數(shù)據(jù)驅(qū)動(dòng)的決策模式逐步成為政府管理的常態(tài)化方式。政策制定從以往依賴(lài)主觀經(jīng)驗(yàn)、感知判斷為主,逐漸向基于海量數(shù)據(jù)、深度分析的科學(xué)決策轉(zhuǎn)型,促使政府能夠在政策制定中更全面、精準(zhǔn)地把握社會(huì)態(tài)勢(shì)。

在生成式AI的輔助下,政府能夠從龐大的信息資源中提取有價(jià)值的見(jiàn)解,識(shí)別出潛在的風(fēng)險(xiǎn)、機(jī)遇和趨勢(shì)。例如,通過(guò)對(duì)社會(huì)經(jīng)濟(jì)數(shù)據(jù)的全面分析,生成式AI可以預(yù)測(cè)經(jīng)濟(jì)發(fā)展中的風(fēng)險(xiǎn)節(jié)點(diǎn),提前規(guī)劃干預(yù)措施。這種數(shù)據(jù)驅(qū)動(dòng)式的決策模式,在加快決策過(guò)程、使政府在應(yīng)對(duì)突發(fā)事件及應(yīng)對(duì)復(fù)雜社會(huì)問(wèn)題上更加靈活高效的同時(shí),也使政策的精準(zhǔn)度得到提高,使政策對(duì)現(xiàn)實(shí)需求實(shí)現(xiàn)更好的回應(yīng)。另外,在多部門(mén)數(shù)據(jù)協(xié)作中生成式AI還可以實(shí)現(xiàn)數(shù)據(jù)共享,將各部門(mén)資源及數(shù)據(jù)整合在一起,形成一個(gè)促進(jìn)政策跨部門(mén)協(xié)調(diào)和資源最優(yōu)配置的更全面的分析視角。

生成式AI的引進(jìn)使決策的透明度和客觀性都得到了加強(qiáng)。數(shù)據(jù)驅(qū)動(dòng)的決策減少了主觀判斷對(duì)政策的影響,使政策制定過(guò)程更多地建立在事實(shí)的基礎(chǔ)上,以客觀數(shù)據(jù)為基礎(chǔ),以算法為支持,減少人為因素造成的偏見(jiàn)與干擾?;跀?shù)據(jù)的智能決策還可以支持決策過(guò)程的溯源和驗(yàn)證,從而有助于增強(qiáng)公眾對(duì)政策透明度和決策公正性的信任,通過(guò)生成式AI輔助分析,政府可以對(duì)政策執(zhí)行效果進(jìn)行實(shí)時(shí)監(jiān)控,并對(duì)政策方向和力度進(jìn)行動(dòng)態(tài)調(diào)整,使治理與社會(huì)發(fā)展變化更加適應(yīng)。

(二)服務(wù)個(gè)性化與響應(yīng)精準(zhǔn)化

在公共服務(wù)領(lǐng)域中生成式人工智能促進(jìn)了服務(wù)個(gè)性化和響應(yīng)精準(zhǔn)化的發(fā)展,從而使政府對(duì)不同人群的特定需求提供有針對(duì)性的服務(wù)。基于歷史資料的分析及實(shí)時(shí)回饋,生成式AI能夠?qū)γ總€(gè)個(gè)體或者群體需求的特點(diǎn)加以準(zhǔn)確的識(shí)別從而為公共服務(wù)的個(gè)性化提供技術(shù)支持。比如,在社會(huì)保障領(lǐng)域當(dāng)中,基于國(guó)民年齡、健康狀況以及收入水平的數(shù)據(jù),生成式人工智能就可以對(duì)其將來(lái)可能需要的社會(huì)福利進(jìn)行預(yù)測(cè)從而事先準(zhǔn)備相關(guān)的資源,保證服務(wù)的時(shí)效性和準(zhǔn)確度。

生成式AI的個(gè)性化服務(wù)在醫(yī)療教育和其他重點(diǎn)領(lǐng)域尤其突出。跟據(jù)病人的病歷、藥物歷史、生活習(xí)慣等因素,AI系統(tǒng)可向其提出健康管理的個(gè)性化建議及診療方案,從而為病人提供較為精確的公共醫(yī)療服務(wù)。在教育領(lǐng)域中,基于學(xué)生的學(xué)習(xí)習(xí)慣、興趣愛(ài)好以及弱勢(shì)科目所生成的學(xué)習(xí)方案、輔導(dǎo)計(jì)劃,從而使每個(gè)學(xué)生的個(gè)性化教育方案得到有力支撐。這種基于生成式AI的精準(zhǔn)反應(yīng),不但提高了資源的利用率,而且在時(shí)間上和成本上都減少了浪費(fèi),讓公共服務(wù)的效能有了明顯提升。

此外,通過(guò)對(duì)資源進(jìn)行智能化配置從而對(duì)服務(wù)流程加以?xún)?yōu)化,生成式人工智能使得政府可以在突發(fā)情況下或緊急需要時(shí)做出快速響應(yīng)。AI系統(tǒng)通過(guò)對(duì)各種數(shù)據(jù)的實(shí)時(shí)監(jiān)視和分析,能夠?qū)Y源需求的波動(dòng)進(jìn)行識(shí)別從而對(duì)資源配置進(jìn)行動(dòng)態(tài)的調(diào)整。比如說(shuō),在應(yīng)對(duì)流感等公共衛(wèi)生問(wèn)題時(shí)就可以將醫(yī)療資源在疾病高發(fā)期優(yōu)先配置,從而保證了高需求時(shí)期資源的充足性和服務(wù)的高質(zhì)量。同時(shí),生成式AI還能通過(guò)預(yù)測(cè)模型預(yù)判服務(wù)需求高峰,提前做好準(zhǔn)備,確保公共服務(wù)的穩(wěn)定性和高效性。

(三)結(jié)構(gòu)扁平化與協(xié)作高效化

生成式人工智能正推動(dòng)傳統(tǒng)治理結(jié)構(gòu)向扁平化和協(xié)作高效化轉(zhuǎn)型,使政府逐步擺脫對(duì)科層制管理的依賴(lài),向更加靈活的治理模式邁進(jìn)。生成式AI通過(guò)跨部門(mén)的數(shù)據(jù)共享和信息流動(dòng),使各部門(mén)之間的溝通和協(xié)作更加高效、透明,從而減少了“信息孤島”現(xiàn)象,促進(jìn)了治理資源的最優(yōu)配置。例如,生成式AI可以快速分析來(lái)自不同部門(mén)的數(shù)據(jù),整合出跨領(lǐng)域的洞見(jiàn),使各部門(mén)可以在同一信息基礎(chǔ)上制定和執(zhí)行政策,從而避免了由于信息分散導(dǎo)致的決策延遲和效率低下。

生成式AI還增強(qiáng)了政府部門(mén)間的無(wú)縫協(xié)作能力。在傳統(tǒng)的科層制管理模式下,跨部門(mén)協(xié)作往往涉及復(fù)雜的審批流程和信息傳遞,導(dǎo)致執(zhí)行效率降低。但是在生成式AI的輔助下,各部門(mén)之間依靠智能平臺(tái)和數(shù)據(jù)共享體系就能夠?qū)崿F(xiàn)無(wú)延遲的信息交換與決策協(xié)調(diào)。不管是針對(duì)突發(fā)公共事件中還是推進(jìn)大型的跨部門(mén)項(xiàng)目,生成式AI都能夠?qū)⒂嘘P(guān)資料進(jìn)行自動(dòng)化的整合,輔助部門(mén)之間任務(wù)的分配、進(jìn)度的協(xié)調(diào),從而使協(xié)作過(guò)程變得靈活、高效起來(lái)。這種協(xié)作的高效化除了降低溝通成本之外,還能提高政府適應(yīng)變化、滿(mǎn)足大眾需求的治理響應(yīng)速度。

此外,生成式人工智能所帶來(lái)的這種結(jié)構(gòu)扁平化趨勢(shì)也簡(jiǎn)化了政府內(nèi)部的層級(jí)流程,使得信息在各個(gè)層級(jí)上的傳輸加速加快。高層決策者可以直接從基層中獲取信息并通過(guò)生成式AI的實(shí)時(shí)數(shù)據(jù)分析及可視化功能,做出更加快速的、精確的決定。通過(guò)智能化的任務(wù)分配以及自動(dòng)化的反饋機(jī)制,生成式人工智能還可以使基層工作人員與上級(jí)部門(mén)的指令實(shí)現(xiàn)較為直接的對(duì)接,減少了中間層級(jí)的冗余,并縮短了指令傳達(dá)的鏈條,從而可以提高政策實(shí)施的效率和精度。

(四)人機(jī)協(xié)同化與操作智慧化

在國(guó)家治理中,人機(jī)協(xié)同化和操作智能化在生成式人工智能應(yīng)用之后正逐步成為一種重要的走向。作為信息處理工具的生成式AI,已經(jīng)融入了治理過(guò)程中的各個(gè)環(huán)節(jié)中,成為支持決策、預(yù)測(cè)風(fēng)險(xiǎn)、執(zhí)行管理的關(guān)鍵力量。通過(guò)與人類(lèi)的相互協(xié)作,生成式人工智能可以為政府提供更加智慧的操作支持,推動(dòng)國(guó)家治理的高效化。

生成式AI在海量數(shù)據(jù)分析及風(fēng)險(xiǎn)預(yù)測(cè)中所表現(xiàn)出強(qiáng)大能力,為政府部門(mén)提供了更加可靠的決策基礎(chǔ)。比如在突發(fā)事件管理中,生成式人工智能可以幫助人類(lèi)決策者制訂一個(gè)高效科學(xué)的應(yīng)對(duì)預(yù)案從而縮短反應(yīng)時(shí)間,提高應(yīng)急管理的精準(zhǔn)性。這種強(qiáng)大功能的實(shí)現(xiàn)依靠的是AI系統(tǒng)對(duì)歷史資料、實(shí)時(shí)信息和外部情報(bào)的總和分析。生成式人工智能的這種實(shí)時(shí)分析及預(yù)測(cè)能力使政府對(duì)風(fēng)險(xiǎn)的預(yù)防以及資源的調(diào)度能夠具有前瞻性,從而使得治理過(guò)程的智能化水平大幅提升。

在人機(jī)協(xié)同的模式下,生成式人工智能既是決策的輔助性工具,又是執(zhí)行的重要“合作者”。人工智能能夠承擔(dān)高度重復(fù)型、數(shù)據(jù)密集型的工作,從而為人類(lèi)工作人員減輕負(fù)擔(dān),使后者能夠更多地投入到創(chuàng)造性、戰(zhàn)略性的工作中來(lái)。例如生成式人工智能可以完全自動(dòng)化地處理公文、分析大眾反饋以及跟蹤政策的實(shí)施效果,為人類(lèi)管理者提供即時(shí)的數(shù)據(jù)反饋以及戰(zhàn)略性的建議。這種智能化操作支持,使得公共服務(wù)的工作效率有了很大提高,也使政策執(zhí)行變得更準(zhǔn)確,更加具有可控性。

此外,生成式人工智能促使治理方式的智能化程度加深,讓復(fù)雜化問(wèn)題的解決更具綜合性和高效性。人工智能不但可對(duì)現(xiàn)有資料做深度分析還可以將多源資料結(jié)合起來(lái)進(jìn)行預(yù)測(cè)及情景模擬,從而幫助政府部門(mén)的決策過(guò)程更加科學(xué),最終確保政策的可行性與適應(yīng)性。政府在應(yīng)對(duì)復(fù)雜社會(huì)問(wèn)題時(shí)通過(guò)這種智慧化的操作支持可以更加靈活和精準(zhǔn)地做出反應(yīng), 從而有助于增強(qiáng)國(guó)家治理的綜合性及科學(xué)性。

(五)參與多元化與監(jiān)督透明化

生成式人工智能的應(yīng)用正在推動(dòng)國(guó)家治理中的參與多元化和監(jiān)督透明化,逐步構(gòu)建以公眾廣泛參與為核心的共治模式,生成式AI通過(guò)智能交互系統(tǒng)、在線平臺(tái)和自動(dòng)反饋機(jī)制,拓展了公眾參與的渠道,突破了時(shí)空限制,使各類(lèi)人群都能輕松參與政策討論、表達(dá)意見(jiàn),進(jìn)一步豐富了公共治理的多元參與形式。例如,基于生成式AI的在線平臺(tái),公眾可以在政策形成的各個(gè)階段隨時(shí)提交意見(jiàn)或建議,反饋迅速傳達(dá)至相關(guān)部門(mén),增強(qiáng)了政策制定的開(kāi)放性和包容性。

生成式AI還能夠?qū)?lái)自不同群體的大量反饋進(jìn)行快速、精準(zhǔn)的分析,自動(dòng)分類(lèi)和匯總公眾的意見(jiàn),將數(shù)據(jù)化的見(jiàn)解提供給決策者。該類(lèi)智能反饋機(jī)制不但增強(qiáng)了政府認(rèn)識(shí)民意的深度與廣度,而且讓更多聲音能夠更有效地參與到政策討論中,為決策提供多維度的數(shù)據(jù)支撐。在公共意見(jiàn)搜集及資料分析方面,AI技術(shù)的優(yōu)勢(shì)有利于打破信息壁壘使不同利益群體的需求得到較為及時(shí)的反映,從而實(shí)現(xiàn)較為全面有效的治理過(guò)程。

同時(shí),監(jiān)督的透明性也受到生成式AI應(yīng)用的促進(jìn)。AI技術(shù)能夠使決策過(guò)程中的政府行為能夠被實(shí)時(shí)跟蹤和記錄在案,也能使政府行為在政策執(zhí)行過(guò)程中保持公開(kāi)化和透明性,以便于公眾和媒體的監(jiān)督。比如,生成式AI可以通過(guò)視覺(jué)化的形式來(lái)呈現(xiàn)政策執(zhí)行的進(jìn)度、問(wèn)題的反饋以及調(diào)整的情況,為大眾所查閱,從而使得政策執(zhí)行更加的透明和可追溯。另外,人工智能系統(tǒng)還可以分析公共政策實(shí)施的效果以及公眾的反饋,來(lái)幫助政府識(shí)別可能出現(xiàn)的問(wèn)題以及存在的薄弱部分,從而對(duì)政策過(guò)程做進(jìn)一步地優(yōu)化。

三、國(guó)家治理中生成式人工智能發(fā)展的核心挑戰(zhàn)

(一)數(shù)據(jù)隱私與安全風(fēng)險(xiǎn)

生成式人工智能在國(guó)家治理中的廣泛應(yīng)用,依賴(lài)于大量的個(gè)人和敏感數(shù)據(jù)進(jìn)行模型訓(xùn)練和優(yōu)化,雖然這一特點(diǎn)對(duì)治理效率的提升起到了積極作用,但在數(shù)據(jù)隱私和安全方面也帶來(lái)了重大隱患。首先,生成式AI需要分析大量的個(gè)人數(shù)據(jù),這些數(shù)據(jù)往往包含高度隱私的信息,如身份信息、行為記錄、健康狀況等,以實(shí)現(xiàn)精準(zhǔn)、個(gè)性化的決策支持。這些敏感信息在數(shù)據(jù)的收集、存儲(chǔ)和處理過(guò)程中,極易被泄露或?yàn)E用,一旦產(chǎn)生疏漏或管理不善等情況,就會(huì)造成對(duì)個(gè)人隱私的嚴(yán)重侵犯。

其次,生成式AI為了整合多元信息,提高決策的全面性和準(zhǔn)確性,在應(yīng)用中需要跨部門(mén)的數(shù)據(jù)共享。但跨部門(mén)的數(shù)據(jù)流轉(zhuǎn)往往增加了數(shù)據(jù)管理的復(fù)雜性,尤其是在數(shù)據(jù)安全措施不統(tǒng)一、保護(hù)機(jī)制不到位的情況下,數(shù)據(jù)傳輸過(guò)程中很可能發(fā)生數(shù)據(jù)泄露或篡改。此外,不同部門(mén)對(duì)于數(shù)據(jù)存取權(quán)限的控制差異也可能導(dǎo)致數(shù)據(jù)被濫用,使得數(shù)據(jù)隱私風(fēng)險(xiǎn)進(jìn)一步加劇。尤其是在涉及多層級(jí)、多系統(tǒng)的復(fù)雜治理場(chǎng)景中,數(shù)據(jù)的頻繁交換和重復(fù)存儲(chǔ)增加了泄露的概率。

另外,生成式AI模型本身也可能無(wú)意中泄露敏感信息。AI模型在訓(xùn)練時(shí)會(huì)提取數(shù)據(jù)中的特征并學(xué)習(xí)模式,但在生成新內(nèi)容時(shí),AI可能將訓(xùn)練數(shù)據(jù)中的隱私信息“帶出”模型,尤其是在模型復(fù)雜度較高的情況下,這種隱性泄露更為難以察覺(jué)。一旦被惡意利用,這些輸出的隱私信息可能對(duì)個(gè)人造成不可估量的損害,甚至引發(fā)社會(huì)安全問(wèn)題。

最后,生成式AI的高數(shù)據(jù)依賴(lài)性為網(wǎng)絡(luò)攻擊提供了新的途徑。生成式AI系統(tǒng)需要持續(xù)接入和更新數(shù)據(jù),頻繁的網(wǎng)絡(luò)交互在一定程度上增大了網(wǎng)絡(luò)安全的風(fēng)險(xiǎn)。攻擊者可能通過(guò)網(wǎng)絡(luò)漏洞竊取、篡改或操控?cái)?shù)據(jù),直接影響到生成式AI的決策準(zhǔn)確性和可靠性,甚至導(dǎo)致錯(cuò)誤的公共決策。這種潛在的安全威脅不僅會(huì)使個(gè)體隱私暴露于風(fēng)險(xiǎn)中,更可能危及國(guó)家的數(shù)據(jù)安全和社會(huì)穩(wěn)定。因此,生成式AI在國(guó)家治理中的數(shù)據(jù)隱私和安全風(fēng)險(xiǎn)日益緊迫,需要引起高度重視。

(二)算法透明度與問(wèn)責(zé)缺失

生成式人工智能的“黑箱”特性,使國(guó)家治理中的透明性、問(wèn)責(zé)機(jī)制面臨嚴(yán)峻的挑戰(zhàn)。由于生成式人工智能系統(tǒng)通常采用由大量層級(jí)和節(jié)點(diǎn)組成的復(fù)雜深度學(xué)習(xí)模型,其內(nèi)部計(jì)算過(guò)程很難解釋?zhuān)虼怂木唧w決策邏輯和依據(jù)很難被外界所了解。這種不透明性限制了公眾對(duì)AI系統(tǒng)的認(rèn)識(shí)和信任,特別是生成式AI用于涉及公眾利益的決策場(chǎng)景時(shí),透明度的缺乏使得公眾對(duì)人工智能決策的合理性、公正性難以確定,甚至?xí)a(chǎn)生懷疑、不信任等情況。

在國(guó)家治理中,責(zé)任劃分的模糊是由于透明度不夠造成的。生成式AI系統(tǒng)發(fā)生差錯(cuò)或偏差時(shí),具體責(zé)任方難以被清晰地追溯。在傳統(tǒng)決策中,人類(lèi)決策者需要為自己的決策承擔(dān)責(zé)任,但在AI決策中,由于模型訓(xùn)練過(guò)程中的數(shù)據(jù)偏差、算法設(shè)計(jì)的缺陷、模型參數(shù)的設(shè)置不當(dāng),甚至算法本身的局限性等多重因素都有可能導(dǎo)致錯(cuò)誤的產(chǎn)生,從而導(dǎo)致責(zé)任的界定異常復(fù)雜。這種模糊的責(zé)任歸屬,讓AI一旦決策失誤,就很難確定到底該追究誰(shuí)的責(zé)任,不僅可能造成追責(zé)難的現(xiàn)實(shí)問(wèn)題,也會(huì)讓國(guó)家治理的公信力大打折扣。

生成式人工智能缺乏透明度的問(wèn)題在公共服務(wù)領(lǐng)域特別明顯。公共服務(wù)需要保證公平性與公開(kāi)性,但是生成式人工智能的“黑箱”性質(zhì)使公眾很難知道其決策的依據(jù)從而導(dǎo)致公共決策的公信力下降。例如,在政府資源分配或社會(huì)保障決策中,如果人工智能在決策時(shí)采用了偏見(jiàn)數(shù)據(jù)或訓(xùn)練中出現(xiàn)誤差,那么某些群體將會(huì)遭到不公正的對(duì)待,并且由于算法不透明,公眾很難識(shí)別或者質(zhì)疑這些決策依據(jù)的合理性。

更嚴(yán)重的是,外部對(duì)其進(jìn)行監(jiān)管的可能性受到生成式AI復(fù)雜性的限制。對(duì)一般公眾乃至專(zhuān)業(yè)人士而言,生成式AI系統(tǒng)運(yùn)行的原理很難理解,這就造成了公眾在質(zhì)疑AI決策時(shí)缺乏基本的監(jiān)督能力。一方面,大眾是無(wú)法辨認(rèn)AI決策的潛在問(wèn)題的;另一方面,即使出現(xiàn)了問(wèn)題,也很難弄清原因或提出質(zhì)疑,這使得“黑箱”效應(yīng)進(jìn)一步加劇,使公共服務(wù)透明度、公信力受到損害。

(三)倫理與道德風(fēng)險(xiǎn)

生成式人工智能在國(guó)家治理中應(yīng)用會(huì)帶來(lái)倫理、道德方面的顯著危險(xiǎn)。首先,由于生成式人工智能系統(tǒng)的決策和內(nèi)容強(qiáng)烈依賴(lài)于歷史數(shù)據(jù),后者往往包括性別、種族、年齡等現(xiàn)實(shí)社會(huì)中的隱性偏見(jiàn)。這些偏見(jiàn)和不公平因素在AI的訓(xùn)練過(guò)程當(dāng)中可能會(huì)被納入到一個(gè)決策模型中來(lái),從而在應(yīng)用中產(chǎn)生一種歧視性或者不公正的決策。這種偏見(jiàn)在公共服務(wù)的應(yīng)用當(dāng)中,不僅僅會(huì)使得特定人群受到歧視,而且加劇社會(huì)的不公平,從而影響到社會(huì)的包容性和公正性。

此外,生成式AI在國(guó)家治理中的普遍運(yùn)用,或使政府過(guò)分依賴(lài)技術(shù),而對(duì)治理中應(yīng)有的人性化因素置之不理。AI的高效與自動(dòng)化特性,使很多政府部門(mén)為了追求管理效率,往往會(huì)傾向于通過(guò)技術(shù)手段簡(jiǎn)化決策流程,但這種傾向容易忽略公眾的個(gè)體需求和特殊情況,造成決策與服務(wù)缺乏人性化考量。比如基于算法的決策,在面對(duì)突發(fā)狀況或個(gè)體差異時(shí),不能真正體現(xiàn)社會(huì)治理的包容性與多元化,就可能表現(xiàn)出刻板、機(jī)械的處理方式。

生成式AI的倫理風(fēng)險(xiǎn)也表現(xiàn)為誤導(dǎo)和操縱信息方面。人工智能的生成能力可以被用于內(nèi)容的自動(dòng)生產(chǎn),從而方便了虛假信息的生成。如果生成式人工智能被用于制造虛假新聞、誤導(dǎo)性宣傳或操縱社會(huì)輿論,就有可能?chē)?yán)重威脅到公眾的知情權(quán)、判斷力和社會(huì)信任。這種操控性的應(yīng)用方式可能破壞社會(huì)信任,甚至引發(fā)社會(huì)不安和沖突,影響國(guó)家治理的穩(wěn)定性和合法性。

最后,生成式AI系統(tǒng)的應(yīng)用還可能引發(fā)責(zé)任歸屬的倫理難題。AI在決策和執(zhí)行過(guò)程中若出現(xiàn)錯(cuò)誤或帶來(lái)負(fù)面后果,責(zé)任的劃分會(huì)變得復(fù)雜且模糊。生成式AI的決策偏差可能來(lái)源于數(shù)據(jù)質(zhì)量、算法設(shè)計(jì)或外部環(huán)境等多種因素,而不同于傳統(tǒng)的人工決策,這些因素往往難以追溯和歸責(zé)。這種不清晰的責(zé)任歸屬不僅影響公共治理的透明度,也可能引發(fā)公眾對(duì)AI決策的不信任,使得社會(huì)各界在面對(duì)AI錯(cuò)誤時(shí)難以獲得公正的問(wèn)責(zé)和補(bǔ)償。

(四)數(shù)字主權(quán)與國(guó)際競(jìng)爭(zhēng)壓力

生成式人工智能的發(fā)展使數(shù)字主權(quán)問(wèn)題和國(guó)際技術(shù)競(jìng)爭(zhēng)壓力日益凸顯。作為新興的技術(shù)領(lǐng)域,生成式AI被各國(guó)視為增強(qiáng)國(guó)家競(jìng)爭(zhēng)力的關(guān)鍵資源,因此圍繞數(shù)據(jù)主權(quán)、技術(shù)自主和標(biāo)準(zhǔn)制定權(quán)展開(kāi)了激烈的全球競(jìng)爭(zhēng)。首先,生成式AI在數(shù)據(jù)處理和分析中高度依賴(lài)海量數(shù)據(jù),而這些數(shù)據(jù)的流動(dòng)和存儲(chǔ)直接關(guān)系到國(guó)家的數(shù)據(jù)主權(quán)和安全。為了確保對(duì)數(shù)據(jù)資源的控制力,許多國(guó)家實(shí)施了嚴(yán)格的數(shù)據(jù)本土化政策,力圖在國(guó)際數(shù)據(jù)流動(dòng)中保障自身的主權(quán)利益。這種政策措施雖然有效保護(hù)了本國(guó)數(shù)據(jù)資源,但也增加了跨國(guó)數(shù)據(jù)合作的復(fù)雜性。

此外,生成式AI的核心技術(shù)和算法開(kāi)發(fā)是掌握技術(shù)主導(dǎo)權(quán)的關(guān)鍵所在,而這正成為全球技術(shù)競(jìng)爭(zhēng)中的重要戰(zhàn)場(chǎng)。擁有領(lǐng)先的AI技術(shù)不僅意味著更強(qiáng)的經(jīng)濟(jì)實(shí)力和創(chuàng)新能力,也意味著在國(guó)際技術(shù)標(biāo)準(zhǔn)制定中占據(jù)主導(dǎo)地位。技術(shù)壟斷和標(biāo)準(zhǔn)輸出正成為各國(guó)競(jìng)爭(zhēng)的焦點(diǎn),一些技術(shù)領(lǐng)先的國(guó)家通過(guò)專(zhuān)利、技術(shù)封鎖等手段限制其他國(guó)家進(jìn)入核心技術(shù)領(lǐng)域,從而在生成式AI的標(biāo)準(zhǔn)制定中掌握話(huà)語(yǔ)權(quán)。這種技術(shù)壟斷不僅限制了新興國(guó)家的技術(shù)發(fā)展,也使許多國(guó)家在生成式AI應(yīng)用中受制于人,削弱了其在國(guó)際競(jìng)爭(zhēng)中的自主性。

與此同時(shí),生成式AI在國(guó)家治理中的應(yīng)用還面臨數(shù)據(jù)保護(hù)和技術(shù)標(biāo)準(zhǔn)獨(dú)立性的雙重挑戰(zhàn)。國(guó)際技術(shù)競(jìng)爭(zhēng)的加劇使得各國(guó)在數(shù)據(jù)保護(hù)和網(wǎng)絡(luò)安全方面加強(qiáng)防護(hù)措施,以防止數(shù)據(jù)泄露和信息被竊取。但在這一過(guò)程中,部分國(guó)家過(guò)度依賴(lài)外國(guó)技術(shù)的局面也愈加明顯。對(duì)于技術(shù)依賴(lài)性較強(qiáng)的國(guó)家來(lái)說(shuō),一旦關(guān)鍵技術(shù)被限制,可能直接影響到生成式AI的正常運(yùn)行和發(fā)展,甚至威脅到國(guó)家的數(shù)字主權(quán)。因此,如何在國(guó)際技術(shù)競(jìng)爭(zhēng)中既保持技術(shù)獨(dú)立性又確保數(shù)據(jù)安全,已成為當(dāng)前數(shù)字主權(quán)面臨的核心難題。

(五)公共服務(wù)中的數(shù)字鴻溝與社會(huì)不平等

盡管生成式AI在提升公共服務(wù)效率和響應(yīng)速度方面展現(xiàn)了顯著優(yōu)勢(shì),但其廣泛應(yīng)用也可能加劇數(shù)字鴻溝,進(jìn)一步擴(kuò)大社會(huì)不平等。生成式AI依靠的是應(yīng)用和理解數(shù)字技術(shù)的能力,所以它對(duì)大眾的數(shù)字素養(yǎng)要求更高。但社會(huì)上存在著極其不均衡的數(shù)字素養(yǎng)差異,對(duì)于在適應(yīng)以AI為基礎(chǔ)的公共服務(wù)模式時(shí)面臨著顯著障礙的老年人、偏遠(yuǎn)地區(qū)居民和低收入人群而言,他們的數(shù)字素養(yǎng)可能使其難以適應(yīng)智能服務(wù)流程,這將導(dǎo)致他們?cè)谙硎芄卜?wù)時(shí)處于嚴(yán)重劣勢(shì)。

這種數(shù)字鴻溝不僅影響到個(gè)體在獲取服務(wù)方面的便利性,還可能加劇社會(huì)資源分配的不平等程度。舉例來(lái)說(shuō),生成式AI可以在智能醫(yī)療、在線教育和公眾信息獲取等領(lǐng)域提供個(gè)性化、精準(zhǔn)化的服務(wù),但不熟悉技術(shù)的群體不僅難以將這些服務(wù)有效地利用起來(lái),甚至連所需的基礎(chǔ)信息都不能得到。特別是在重要的民生領(lǐng)域,如公共衛(wèi)生、社會(huì)救助等方面,數(shù)字鴻溝會(huì)導(dǎo)致一些弱勢(shì)群體在社會(huì)經(jīng)濟(jì)上處于更加不利的地位,無(wú)法獲取同等的資源與救助。

此外,生成式AI技術(shù)的應(yīng)用往往集中在城市和經(jīng)濟(jì)發(fā)達(dá)地區(qū),而偏遠(yuǎn)地區(qū)和經(jīng)濟(jì)欠發(fā)達(dá)地區(qū)基礎(chǔ)設(shè)施的不完善,導(dǎo)致AI技術(shù)的全面覆蓋在這些地區(qū)難以實(shí)現(xiàn)。這不僅造成了資源在城鄉(xiāng)間的不均衡分配,而且也加劇了區(qū)域間數(shù)字差距。生成式AI帶來(lái)的新型公共服務(wù),由于缺乏必要的設(shè)備和網(wǎng)絡(luò)支持,難以被一些偏遠(yuǎn)地區(qū)的居民所使用,使得后者在社會(huì)和經(jīng)濟(jì)上形成一個(gè)“信息孤島”。這種區(qū)域性的數(shù)字鴻溝阻礙了生成式AI的普及應(yīng)用,也使得公共服務(wù)在國(guó)家治理中的普惠性目標(biāo)受到限制。

社會(huì)不平等在生成式AI的應(yīng)用過(guò)程中可能進(jìn)一步固化甚至擴(kuò)大。例如,在就業(yè)市場(chǎng)中,生成式AI的普及對(duì)高技術(shù)人群帶來(lái)了更多的就業(yè)機(jī)會(huì)和職業(yè)發(fā)展,而低技能勞動(dòng)者的工作機(jī)會(huì)可能被自動(dòng)化系統(tǒng)所取代,導(dǎo)致其在經(jīng)濟(jì)上的競(jìng)爭(zhēng)力進(jìn)一步減弱。生成式AI帶來(lái)的這種結(jié)構(gòu)性差異將加劇經(jīng)濟(jì)不平等,使得社會(huì)的各階層在資源和機(jī)會(huì)獲取上愈加不均。

(六)國(guó)家安全與意識(shí)形態(tài)風(fēng)險(xiǎn)

生成式人工智能的廣泛應(yīng)用在國(guó)家安全和意識(shí)形態(tài)層面帶來(lái)了顯著的風(fēng)險(xiǎn)。首先,生成式AI具備強(qiáng)大的內(nèi)容生成能力,這一特性使其在輿論操控和虛假信息傳播方面成為潛在的威脅。生成式AI可以自動(dòng)生成大量的文字、圖片、視頻等內(nèi)容,易于偽造和傳播虛假信息。例如,通過(guò)生成虛假新聞或深度偽造的視頻,生成式AI能夠誤導(dǎo)公眾,對(duì)社會(huì)認(rèn)知形成錯(cuò)誤引導(dǎo)。這類(lèi)虛假信息在社交媒體上快速傳播,可能引發(fā)社會(huì)恐慌、激化群體沖突,甚至破壞社會(huì)信任,嚴(yán)重影響國(guó)家的意識(shí)形態(tài)穩(wěn)定。

此外,生成式AI的操控性也使其成為境內(nèi)外勢(shì)力影響輿論和干預(yù)內(nèi)政的工具。由于生成式AI的內(nèi)容生成具有高度的隱蔽性,敵對(duì)勢(shì)力可以利用AI生成的信息在特定事件上煽動(dòng)情緒、混淆視聽(tīng),削弱公眾對(duì)國(guó)家政策的信任。這種外部干預(yù)通過(guò)生成式AI的廣泛傳播,可能改變公眾的認(rèn)知,甚至顛覆主流意識(shí)形態(tài),給國(guó)家治理帶來(lái)巨大的挑戰(zhàn)。

在網(wǎng)絡(luò)安全方面,生成式AI的應(yīng)用也帶來(lái)了新的攻擊手段,成為網(wǎng)絡(luò)攻擊的潛在風(fēng)險(xiǎn)。生成式AI能夠讓欺騙性較強(qiáng)的釣魚(yú)郵件、惡意代碼或自動(dòng)化攻擊手段,更容易被黑客或其他惡意分子使用,從而使網(wǎng)絡(luò)攻擊更加難以防范。例如,AI產(chǎn)生的惡意內(nèi)容可以騙取用戶(hù)的敏感信息或在誘使系統(tǒng)實(shí)施惡意操作,增加了網(wǎng)絡(luò)攻擊的隱蔽性和危害性。一旦遇到基于AI的網(wǎng)絡(luò)攻擊,對(duì)關(guān)鍵信息基礎(chǔ)設(shè)施和政府?dāng)?shù)據(jù)庫(kù)而言將造成十分嚴(yán)重的后果,并可能導(dǎo)致敏感數(shù)據(jù)外泄、系統(tǒng)坍塌等,對(duì)國(guó)家安全基本穩(wěn)定構(gòu)成威脅。

此外,生成式AI的濫用有可能造成安全管控難度的加大。人工智能生成的內(nèi)容與真實(shí)信息難以被區(qū)分開(kāi)來(lái),使國(guó)家對(duì)信息的監(jiān)管變得復(fù)雜起來(lái),增加了公共信息流通的篩選驗(yàn)證成本。同時(shí),生成式AI的高度智能化使得信息監(jiān)管和安全保護(hù)措施很難迅速適應(yīng)新的威脅,也削弱了國(guó)家安全體系的抗風(fēng)險(xiǎn)能力。

生成式人工智能在國(guó)家安全和意識(shí)形態(tài)方面的風(fēng)險(xiǎn),不僅局限于網(wǎng)絡(luò)安全,而且包括信息操縱、輿論介入和敵對(duì)勢(shì)力的潛在利用等。生成式人工智能的應(yīng)用一旦脫離監(jiān)管,就會(huì)嚴(yán)重威脅到國(guó)家安全和社會(huì)穩(wěn)定,使維護(hù)信息安全和意識(shí)形態(tài)穩(wěn)定的難度大大增加,最終會(huì)對(duì)國(guó)家安全和社會(huì)穩(wěn)定的嚴(yán)重威脅。

四、國(guó)家治理中生成式人工智能發(fā)展的應(yīng)對(duì)策略

(一)雙軌治理:結(jié)合“硬法”約束與“軟法”引導(dǎo)

在國(guó)家治理中,為確保生成式AI的有效和可控應(yīng)用,雙軌治理的“硬法”與“軟法”結(jié)合策略是關(guān)鍵,首先,硬法治理通過(guò)強(qiáng)制性立法和政策約束來(lái)規(guī)范AI技術(shù)的使用和發(fā)展。具體而言,硬法手段包括制定嚴(yán)格的法律條款,明確數(shù)據(jù)保護(hù)、隱私管理、算法透明等方面的要求,為生成式AI的開(kāi)發(fā)、應(yīng)用和監(jiān)管設(shè)定統(tǒng)一的法律標(biāo)準(zhǔn)。此外,硬法治理還需建立專(zhuān)門(mén)的監(jiān)管機(jī)構(gòu),通過(guò)例行檢查、技術(shù)審核和數(shù)據(jù)合規(guī)性審查等方式,定期監(jiān)督生成式AI在政府治理中的實(shí)際運(yùn)作。監(jiān)管機(jī)構(gòu)可以依據(jù)法律規(guī)定實(shí)施處罰、限制甚至叫停未達(dá)標(biāo)的AI應(yīng)用項(xiàng)目,從而保障硬性規(guī)制的執(zhí)行效果,使生成式AI的應(yīng)用過(guò)程合規(guī)且透明。

同時(shí),軟法治理以靈活的管理方式,輔以道德準(zhǔn)則、技術(shù)標(biāo)準(zhǔn)和行業(yè)自律等非強(qiáng)制性手段,增強(qiáng)AI治理的適應(yīng)性。軟法治理中,行業(yè)協(xié)會(huì)、學(xué)術(shù)機(jī)構(gòu)等可制定生成式AI的行為準(zhǔn)則和技術(shù)規(guī)范,推動(dòng)行業(yè)自律,確保AI系統(tǒng)符合道德底線和社會(huì)責(zé)任。例如,對(duì)于行業(yè)協(xié)會(huì)而言可以頒布倫理準(zhǔn)則來(lái)指導(dǎo)人工智能開(kāi)發(fā)企業(yè)在技術(shù)上的運(yùn)用中主動(dòng)考慮社會(huì)責(zé)任、規(guī)避潛在的不利作用。另外通過(guò)倡導(dǎo)企業(yè)自愿采用行業(yè)的最佳實(shí)踐及標(biāo)準(zhǔn),軟法手段不需要依靠立法的漫長(zhǎng)過(guò)程就可以在迅速變化的技術(shù)環(huán)境中就形成為一個(gè)有規(guī)范的系統(tǒng),這種柔性管理機(jī)制在保證生成式AI不會(huì)偏離社會(huì)價(jià)值觀和倫理要求的同時(shí)又能夠很快地適應(yīng)新的技術(shù)改變和應(yīng)用情景,使生成式AI能夠快速地滿(mǎn)足社會(huì)價(jià)值和倫理的要求。

硬法與軟法在雙軌治理模式中是相補(bǔ)充的:硬法以法律約束提供基礎(chǔ)保障,保證了生成式人工智能的應(yīng)用不違背基本法律和合規(guī)的要求;另一方面,軟法通過(guò)行業(yè)標(biāo)準(zhǔn)及道德準(zhǔn)則,為生成式人工智能的發(fā)展提供方向指導(dǎo)及倫理保證。如在數(shù)據(jù)使用以及隱私保護(hù)方面,硬法可以強(qiáng)制性地要求數(shù)據(jù)加密、去標(biāo)識(shí)化等技術(shù)措施,而軟法則對(duì)行業(yè)采用最佳做法加以引導(dǎo),從而促使企業(yè)自覺(jué)地提高數(shù)據(jù)處理、保護(hù)方面的能力。通過(guò)這種組合式的治理方式,不僅保證了生成式AI的法律合規(guī),而且增強(qiáng)了它的適應(yīng)性,保證了在國(guó)家治理中生成式AI技術(shù)能夠做到高效、安全,實(shí)現(xiàn)穩(wěn)健發(fā)展。

(二)算法透明與公眾問(wèn)責(zé)機(jī)制

確立算法透明化及公眾問(wèn)責(zé)制,是保障生成式人工智能在國(guó)家治理中得到公開(kāi)、公正應(yīng)用的關(guān)鍵一步。首先,強(qiáng)化人工智能系統(tǒng)可信度的核心是促使算法透明性。政府要保證生成式人工智能有足夠的決策透明度,尤其是要公開(kāi)決策過(guò)程中的輸入數(shù)據(jù)、決策邏輯、最終結(jié)果。公眾可以較為全面地理解生成式人工智能運(yùn)行方式,通過(guò)公開(kāi)算法的關(guān)鍵原理來(lái)降低公眾的不信任度。另外,政府要制訂相關(guān)準(zhǔn)則來(lái)限制敏感或者高度依賴(lài)數(shù)據(jù)的應(yīng)用,要求其必須具備可解釋性,從而確保公眾在知情的基礎(chǔ)上來(lái)評(píng)估生成式人工智能的運(yùn)作。

在透明度的基礎(chǔ)上建立問(wèn)責(zé)機(jī)制顯得格外重要。政府可成立專(zhuān)門(mén)負(fù)責(zé)處理生成式人工智能應(yīng)用問(wèn)題的部門(mén)或工作組,對(duì)生成式人工智能的責(zé)任劃分加以明確。一旦生成式人工智能的決策引起質(zhì)疑或是造成不良影響的,公眾可以通過(guò)專(zhuān)門(mén)的反饋渠道進(jìn)行投訴或報(bào)告,問(wèn)責(zé)部門(mén)需要及時(shí)回應(yīng)并進(jìn)行調(diào)查,從而使得公眾的監(jiān)督權(quán)得到保障。同時(shí)政府應(yīng)建立包括事前評(píng)估、事中監(jiān)視及事后審查在內(nèi)的一套完善的問(wèn)責(zé)流程,以確保錯(cuò)誤發(fā)生時(shí),能夠及時(shí)采取糾正措施,并實(shí)現(xiàn)快速的追責(zé)。

算法透明與責(zé)任追究機(jī)制的有效結(jié)合,還需賦予公眾適當(dāng)?shù)馁|(zhì)疑權(quán)和參與權(quán)。例如,政府可組織算法審查會(huì)或討論會(huì),邀請(qǐng)專(zhuān)家及公眾代表參加對(duì)算法的評(píng)審,確保AI系統(tǒng)的設(shè)計(jì)及應(yīng)用符合公共利益。還可定期發(fā)布生成式AI系統(tǒng)的應(yīng)用報(bào)告,披露AI系統(tǒng)的決策精確性、錯(cuò)誤率及改善情況等內(nèi)容。通過(guò)對(duì)AI系統(tǒng)的定期披露及審查,可以進(jìn)一步提高算法透明性,并且使問(wèn)責(zé)制更加有效地發(fā)揮作用。

(三)跨部門(mén)數(shù)據(jù)共享與隱私保護(hù)的平衡

在國(guó)家治理中,生成式AI的高效應(yīng)用依賴(lài)跨部門(mén)的數(shù)據(jù)共享,但隱私保護(hù)也是確保其安全運(yùn)行的關(guān)鍵。為此,政府需要在數(shù)據(jù)共享過(guò)程中采用先進(jìn)的數(shù)據(jù)保護(hù)技術(shù),以實(shí)現(xiàn)數(shù)據(jù)的安全流通。首先,數(shù)據(jù)加密技術(shù)是保障數(shù)據(jù)傳輸安全的重要手段,通過(guò)加密數(shù)據(jù)在不同部門(mén)之間的傳輸過(guò)程,能有效防止數(shù)據(jù)被未經(jīng)授權(quán)的人員截取和訪問(wèn)。基于密鑰的加密技術(shù)以及多層加密協(xié)議可以確保數(shù)據(jù)在傳輸中的安全性,即便在數(shù)據(jù)傳輸路徑上遭遇安全風(fēng)險(xiǎn),也能最大程度上減少數(shù)據(jù)泄露的風(fēng)險(xiǎn)。

其次,去標(biāo)識(shí)化和差分隱私技術(shù)能夠在跨部門(mén)數(shù)據(jù)共享時(shí)確保隱私信息不被泄露。去標(biāo)識(shí)化處理可以在數(shù)據(jù)共享之前移除或模糊敏感信息,使數(shù)據(jù)在脫離個(gè)體信息的情況下仍具備分析價(jià)值。而差分隱私技術(shù)則通過(guò)向數(shù)據(jù)中引入噪聲,使數(shù)據(jù)分析結(jié)果無(wú)法識(shí)別出個(gè)人信息,這樣即使在數(shù)據(jù)分析過(guò)程中共享的聚合數(shù)據(jù)也能在隱私保護(hù)和信息提取之間實(shí)現(xiàn)平衡。這些技術(shù)手段有助于在多部門(mén)數(shù)據(jù)共享時(shí)既能保障分析精度,又不會(huì)因個(gè)體信息的泄露而侵犯隱私。

此外,政府應(yīng)設(shè)立專(zhuān)門(mén)的數(shù)據(jù)保護(hù)和隱私管理機(jī)構(gòu),對(duì)跨部門(mén)的數(shù)據(jù)共享行為進(jìn)行監(jiān)督和管理。此類(lèi)機(jī)構(gòu)可以對(duì)每個(gè)部門(mén)的數(shù)據(jù)共享申請(qǐng)進(jìn)行審查,確保數(shù)據(jù)的使用范圍合理合法,同時(shí)設(shè)立嚴(yán)格的訪問(wèn)權(quán)限控制系統(tǒng),防止數(shù)據(jù)的非法使用。定期開(kāi)展數(shù)據(jù)共享的審查活動(dòng),包括訪問(wèn)日志審查、數(shù)據(jù)使用情況追蹤等措施,可以有效防止數(shù)據(jù)濫用和隱私泄露,確保各部門(mén)的數(shù)據(jù)共享行為始終處于規(guī)范之中。

為進(jìn)一步確保隱私保護(hù)和數(shù)據(jù)共享的平衡,政府還可以建立跨部門(mén)的數(shù)據(jù)共享協(xié)議,明確數(shù)據(jù)共享的準(zhǔn)入條件、使用范圍和責(zé)任分配。該協(xié)議可以規(guī)范各部門(mén)在共享和使用數(shù)據(jù)時(shí)的行為,同時(shí)也為數(shù)據(jù)泄露或隱私風(fēng)險(xiǎn)提供追責(zé)依據(jù)。通過(guò)這些制度保障,跨部門(mén)的數(shù)據(jù)共享能夠在法律和技術(shù)的雙重支持下穩(wěn)健進(jìn)行,既能發(fā)揮生成式AI的治理效能,又能最大程度地保護(hù)公民的隱私權(quán)利,實(shí)現(xiàn)數(shù)據(jù)流動(dòng)與隱私保護(hù)的雙贏。

(四)倫理與價(jià)值導(dǎo)向的規(guī)范框架:倡導(dǎo)“善智”發(fā)展

在生成式AI的國(guó)家治理應(yīng)用中,確保AI技術(shù)與社會(huì)道德相一致的關(guān)鍵是建立以倫理道德和價(jià)值導(dǎo)向?yàn)楹诵牡囊?guī)范框架。為此,政府可以明確主張“善智”的發(fā)展原則,確保生成式AI應(yīng)用的道德性和公正性,建立“不傷害人,不歧視人,不操縱人,不代替人”的準(zhǔn)則。首先,AI應(yīng)用的嚴(yán)格倫理評(píng)估可以通過(guò)引入倫理審查機(jī)制來(lái)實(shí)現(xiàn)。這一機(jī)制可以在AI應(yīng)用的前、中、后各個(gè)階段進(jìn)行審查,以確保在實(shí)際操作過(guò)程中不會(huì)出現(xiàn)偏見(jiàn)或決策不公的情況。例如,在AI算法上線前,需要進(jìn)行道德影響測(cè)試,檢查其是否會(huì)因數(shù)據(jù)或模型的偏差而導(dǎo)致不公平現(xiàn)象,從而最大程度地避免由于AI帶來(lái)的歧視或道德風(fēng)險(xiǎn)。

同時(shí),建立專(zhuān)門(mén)的AI倫理委員會(huì)是強(qiáng)化治理的一項(xiàng)重要措施。倫理委員會(huì)可邀請(qǐng)學(xué)術(shù)界人士、法律專(zhuān)家、科技公司代表和公眾代表以組建多層次社會(huì)監(jiān)督體系。該委員會(huì)可以制定倫理準(zhǔn)則,并對(duì)人工智能的應(yīng)用進(jìn)行定期審核和評(píng)估,及時(shí)發(fā)現(xiàn)和糾正AI系統(tǒng)中的倫理缺陷,確保人工智能應(yīng)用過(guò)程符合公認(rèn)的社會(huì)倫理準(zhǔn)則。另外,倫理委員會(huì)還可以接受公眾的反饋和舉報(bào),幫助政府及時(shí)發(fā)現(xiàn)AI技術(shù)在治理方面的潛在倫理問(wèn)題,從而使生成式AI的應(yīng)用更加具有透明度,也更加具有公眾的信任度。

為加強(qiáng)“善智”原則的貫徹落實(shí),政府也可以制定適用于生成式AI的倫理規(guī)范和技術(shù)標(biāo)準(zhǔn),以促進(jìn)道德規(guī)范的標(biāo)準(zhǔn)化。這些標(biāo)準(zhǔn)要涵蓋AI開(kāi)發(fā)、數(shù)據(jù)使用、算法設(shè)計(jì)、應(yīng)用過(guò)程等內(nèi)容,并對(duì)任何可能帶來(lái)不公平或歧視性結(jié)果的行為予以明確禁止。例如,在設(shè)計(jì)生成式AI系統(tǒng)時(shí),為了保證系統(tǒng)輸出達(dá)到倫理要求,就要求在模型中避免使用包含偏見(jiàn)的數(shù)據(jù),或者通過(guò)技術(shù)手段消除模型中的偏見(jiàn)。

最后,政府可以通過(guò)宣傳和教育,提升各部門(mén)和AI從業(yè)者的倫理意識(shí)。通過(guò)開(kāi)展倫理培訓(xùn)和宣傳活動(dòng),向相關(guān)人員普及AI倫理知識(shí)和“善智”原則,使AI開(kāi)發(fā)和應(yīng)用團(tuán)隊(duì)在實(shí)際操作中時(shí)刻保持道德自覺(jué),主動(dòng)規(guī)避可能的倫理風(fēng)險(xiǎn)。這一系列措施不僅可以為生成式AI的應(yīng)用提供可靠的倫理保障,還能夠在國(guó)家治理中形成一個(gè)具備道德底線和社會(huì)責(zé)任感的技術(shù)應(yīng)用環(huán)境,使生成式AI的發(fā)展符合人類(lèi)價(jià)值觀,朝著“善智”發(fā)展方向邁進(jìn)。

(五)提升數(shù)字主權(quán)和技術(shù)自主創(chuàng)新

為了在生成式AI的國(guó)際競(jìng)爭(zhēng)中確保國(guó)家的數(shù)字主權(quán)和技術(shù)自主性,政府應(yīng)當(dāng)采取系統(tǒng)性的政策和支持措施,推動(dòng)技術(shù)自主創(chuàng)新,確保關(guān)鍵技術(shù)不受制于人。首先,政府應(yīng)大幅增加對(duì)生成式AI技術(shù)研發(fā)的財(cái)政投入,尤其在基礎(chǔ)研究、核心算法開(kāi)發(fā)和數(shù)據(jù)處理等領(lǐng)域,設(shè)立專(zhuān)項(xiàng)資金支持科研項(xiàng)目,鼓勵(lì)高校和科研機(jī)構(gòu)加強(qiáng)對(duì)生成式AI技術(shù)的深入攻關(guān)。這些資金支持不僅有助于培育一批擁有自主知識(shí)產(chǎn)權(quán)的核心技術(shù),還能吸引頂尖人才投入AI研發(fā),提升國(guó)家在該領(lǐng)域的技術(shù)自主性。

其次,構(gòu)建本土的AI技術(shù)創(chuàng)新生態(tài)系統(tǒng)是推動(dòng)技術(shù)自主的關(guān)鍵。政府可以通過(guò)補(bǔ)貼政策支持企業(yè)與研究單位及產(chǎn)業(yè)鏈上的合作伙伴,合作建立一條包含基礎(chǔ)性研發(fā)、技術(shù)應(yīng)用及營(yíng)銷(xiāo)的創(chuàng)新鏈條。比如為促進(jìn)生成式人工智能技術(shù)在本土進(jìn)行多方面的合作發(fā)展,可以提供包括研發(fā)稅收減免、創(chuàng)新性補(bǔ)貼及技術(shù)型人才培養(yǎng)資助在內(nèi)的激勵(lì)性措施。該種生態(tài)系統(tǒng)不但有利于國(guó)家在核心AI技術(shù)方面實(shí)現(xiàn)自主控制,而且有助于構(gòu)建人工智能的多層次、多領(lǐng)域的應(yīng)用場(chǎng)景,加快生成式人工智能在國(guó)家治理中的廣泛應(yīng)用。

同時(shí),國(guó)際技術(shù)合作是提高數(shù)字主體地位的有效手段。政府可主動(dòng)建立同各國(guó)的技術(shù)合作伙伴關(guān)系,聯(lián)合研究數(shù)據(jù)安全及隱私保護(hù)等問(wèn)題,制訂數(shù)字主權(quán)保護(hù)政策及國(guó)際技術(shù)合作框架。通過(guò)參與制訂國(guó)際規(guī)則來(lái)增強(qiáng)話(huà)語(yǔ)權(quán),從而保證本國(guó)技術(shù)及數(shù)據(jù)安全不受外部干涉。同時(shí)與友好國(guó)家簽訂雙邊或多邊的科技協(xié)定,來(lái)開(kāi)展跨國(guó)技術(shù)的研發(fā)和交流,一起來(lái)應(yīng)對(duì)生成式人工智能技術(shù)的全球性挑戰(zhàn)。

最后,政府還需加大對(duì)技術(shù)型人才的培養(yǎng),以形成具有國(guó)際競(jìng)爭(zhēng)能力的技術(shù)型人才隊(duì)伍。可以與國(guó)內(nèi)外著名高校合作設(shè)立專(zhuān)門(mén)的人工智能技術(shù)研究所,培養(yǎng)具有尖端AI技術(shù)的專(zhuān)業(yè)人才,另外還要增加高水平科研平臺(tái)和實(shí)驗(yàn)條件,來(lái)鼓勵(lì)本土科技術(shù)人才創(chuàng)新從而減少對(duì)外部人才以及技術(shù)的依靠。這一系列措施不但可以提高本土人才研發(fā)的能力,而且通過(guò)人才的創(chuàng)新能力以及專(zhuān)業(yè)素質(zhì)為國(guó)家在生成式AI領(lǐng)域建立永久性的技術(shù)優(yōu)勢(shì),從而在國(guó)際競(jìng)爭(zhēng)中強(qiáng)化國(guó)家的數(shù)字主權(quán)并占據(jù)更加重要的位置。

(六)動(dòng)態(tài)風(fēng)險(xiǎn)評(píng)估與安全監(jiān)控機(jī)制

為確保國(guó)家治理中生成式人工智能的安全應(yīng)用,應(yīng)建立動(dòng)態(tài)風(fēng)險(xiǎn)評(píng)估和安全監(jiān)控機(jī)制,以應(yīng)對(duì)潛在的技術(shù)風(fēng)險(xiǎn)。首先,建立一套完整的安監(jiān)流程是安全監(jiān)控工作的要訣。政府要在新的生成式人工智能系統(tǒng)上線之前對(duì)其開(kāi)展全面的技術(shù)、倫理方面的風(fēng)險(xiǎn)評(píng)估,識(shí)別出安全隱患。風(fēng)險(xiǎn)評(píng)估工作的重點(diǎn)放在數(shù)據(jù)的使用、算法的正義性、隱私的保護(hù)以及系統(tǒng)的可控性方面。另外,評(píng)估過(guò)程還要依托獨(dú)立的第三方機(jī)構(gòu)來(lái)開(kāi)展,以保證評(píng)估的客觀性和全面性。

其次,對(duì)于生成式AI系統(tǒng)而言,政府需要建立一個(gè)持續(xù)監(jiān)視的實(shí)時(shí)預(yù)警系統(tǒng)。政府可以通過(guò)監(jiān)視系統(tǒng)來(lái)及時(shí)識(shí)別出存在于人工智能系統(tǒng)運(yùn)行過(guò)程中的缺陷以及異常行為,從而對(duì)潛在的危險(xiǎn)提前作出反應(yīng)。例如,可以通過(guò)建立異常行為偵測(cè)機(jī)制來(lái)監(jiān)視系統(tǒng)的運(yùn)行狀態(tài)、識(shí)別出偏離預(yù)期的數(shù)據(jù)與決策,從而達(dá)到防微杜漸的目的。建立預(yù)警系統(tǒng)不但能夠?yàn)橄到y(tǒng)的長(zhǎng)效性提供保障,而且可以使突發(fā)危機(jī)所帶來(lái)的不利沖擊大大降低。

此外,政府要在生成式人工智能的高風(fēng)險(xiǎn)應(yīng)用領(lǐng)域?qū)嵭袊?yán)苛的審批程序。對(duì)涉及國(guó)家安全、金融安全及敏感數(shù)據(jù)的應(yīng)用場(chǎng)景,政府要建立多層次審批制度來(lái)對(duì)其設(shè)計(jì)、測(cè)試、運(yùn)維進(jìn)行嚴(yán)格監(jiān)督,確保生成式AI的應(yīng)用不會(huì)給國(guó)家安全及社會(huì)穩(wěn)定造成威脅。審批流程應(yīng)包括安全性試驗(yàn)、倫理評(píng)價(jià)及可靠性驗(yàn)證等。對(duì)于高風(fēng)險(xiǎn)AI系統(tǒng)的定期審查也是必要措施,政府要對(duì)人工智能系統(tǒng)的性能和安全性予以定期的復(fù)審,以保證系統(tǒng)隨著環(huán)境的變化而不斷做出調(diào)整,以以維持其運(yùn)行的合規(guī)性及安全性。

最后,為使生成式AI系統(tǒng)按照監(jiān)控、評(píng)價(jià)結(jié)果及時(shí)地改進(jìn)、優(yōu)化,應(yīng)由政府建立反饋和更新機(jī)制。為了應(yīng)對(duì)不斷出現(xiàn)的新風(fēng)險(xiǎn),政府可通過(guò)動(dòng)態(tài)風(fēng)險(xiǎn)評(píng)估及連續(xù)的安全監(jiān)視,不斷地調(diào)整人工智能系統(tǒng)參數(shù)、優(yōu)化算法結(jié)構(gòu)、完善數(shù)據(jù)管理過(guò)程。該機(jī)制的建立使各種安全威脅及技術(shù)變化在生成式AI的應(yīng)用中得到及時(shí)有效的應(yīng)對(duì),從而確保其在國(guó)家治理中實(shí)現(xiàn)長(zhǎng)效性、穩(wěn)定性、安全性。

五、結(jié)論

國(guó)家治理中生成式人工智能的普遍運(yùn)用在促進(jìn)治理模式的深度改變的同時(shí)帶來(lái)了新的挑戰(zhàn)和應(yīng)對(duì)策略。從趨勢(shì)上看,生成式人工智能不但加快了決策的智能化和數(shù)據(jù)驅(qū)動(dòng)化,在實(shí)現(xiàn)公共服務(wù)的個(gè)性化及反應(yīng)精準(zhǔn)化的同時(shí),也促進(jìn)了政府結(jié)構(gòu)扁平化與協(xié)作高效化,進(jìn)一步促進(jìn)了人機(jī)協(xié)同化、操作智慧化,另外,生成式人工智能的廣泛應(yīng)用還促進(jìn)了參與的多元化與監(jiān)督的透明化。這些趨勢(shì)為國(guó)家治理效能帶來(lái)了顯著進(jìn)步,在生成式人工智能的推動(dòng)下國(guó)家治理正朝著智能化、透明化及協(xié)作化的方向發(fā)展。

與此同時(shí),生成式AI的應(yīng)用也帶來(lái)了不可忽視的重大挑戰(zhàn)。國(guó)家治理中生成式人工智能的應(yīng)用所面臨的核心挑戰(zhàn)是數(shù)據(jù)隱私與安全風(fēng)險(xiǎn)、算法透明度與問(wèn)責(zé)缺失、倫理與道德困境、數(shù)字主權(quán)的壓力、社會(huì)不平等以及國(guó)家安全與意識(shí)形態(tài)風(fēng)險(xiǎn)。目前亟待解決的關(guān)鍵課題是如何在國(guó)家治理中平衡生成式人工智能的技術(shù)進(jìn)步和潛在風(fēng)險(xiǎn),確保其在國(guó)家治理中的正向作用。

要應(yīng)對(duì)這些挑戰(zhàn),需要采取包括建立雙軌治理模式、結(jié)合硬法約束和軟法引導(dǎo)進(jìn)行治理的多層次治理策略,推動(dòng)生成式AI的規(guī)范應(yīng)用;為確保AI決策的可理解性和責(zé)任歸屬清晰,需要強(qiáng)化算法透明和責(zé)任追究機(jī)制;在跨部門(mén)共享數(shù)據(jù)和保護(hù)隱私之間取得平衡;建立以倫理道德和價(jià)值導(dǎo)向?yàn)榛A(chǔ)的“善智”發(fā)展框架;提升數(shù)字主權(quán)和技術(shù)自主創(chuàng)新水平以維護(hù)生成式AI領(lǐng)域的國(guó)家獨(dú)立性;以及建立確保敏感領(lǐng)域生成式AI安全應(yīng)用的動(dòng)態(tài)風(fēng)險(xiǎn)評(píng)估和安全監(jiān)測(cè)機(jī)制。通過(guò)這些綜合戰(zhàn)略,生成式AI在國(guó)家治理中的運(yùn)用將會(huì)更加安全、也會(huì)更加穩(wěn)健。

總之,作為一種創(chuàng)新性技術(shù),生成式人工智能為國(guó)家治理帶來(lái)了前所未有的機(jī)遇、帶來(lái)了深刻的挑戰(zhàn)。為了實(shí)現(xiàn)生成式人工智能可持續(xù)發(fā)展,使其成為國(guó)家治理能力提升、社會(huì)進(jìn)步的一個(gè)重要工具,就必須充分認(rèn)識(shí)到它的潛在危險(xiǎn)并且采取有效的治理措施。面向未來(lái),為了在國(guó)家治理中發(fā)揮生成式人工智能的積極作用、促進(jìn)國(guó)家治理體系的現(xiàn)代化轉(zhuǎn)型,政府應(yīng)該在技術(shù)、法律、倫理以及政策的多維度下,不斷完善人工智能的治理框架,保障生成式人工智能在國(guó)家治理中的積極作用。

(參考文獻(xiàn)從略)

來(lái)源:信息技術(shù)與管理應(yīng)用雜志

上一篇:

下一篇:

返回
目錄