在線客服系統(tǒng)

王一帆 姚洪:《國家治理中生成式人工智能發(fā)展的趨勢、挑戰(zhàn)與應(yīng)對》

2025-06-06

作者簡介

王一帆,華中科技大學(xué)公共管理學(xué)院博士研究生;

姚洪(通訊作者),廣州大學(xué)公共管理學(xué)院講師,Email: yaohong@gzhu.edu.cn。

摘要

隨著生成式人工智能(Generative AI)的迅速發(fā)展,其在國家治理中的應(yīng)用正日益深化,推動了治理方式的重大變革。本文基于生成式AI的發(fā)展歷程,深入探討了其在國家治理中的重要應(yīng)用場景,總結(jié)了當(dāng)前的關(guān)鍵趨勢,包括決策智能化、服務(wù)響應(yīng)精準(zhǔn)化、治理結(jié)構(gòu)扁平化、人機(jī)協(xié)同化及監(jiān)督透明化。然而,生成式AI的廣泛應(yīng)用也帶來了數(shù)據(jù)隱私與安全、算法透明度不足、倫理道德風(fēng)險、數(shù)字主權(quán)等核心挑戰(zhàn)。針對這些問題,本文提出了包括雙軌治理模式、加強(qiáng)算法透明與問責(zé)、平衡數(shù)據(jù)共享與隱私保護(hù)等應(yīng)對策略,力求在保障國家安全與社會信任的前提下,推動生成式AI的可持續(xù)發(fā)展。本文的研究對生成式AI在國家治理中的負(fù)責(zé)任應(yīng)用提供了理論支持和實踐指導(dǎo)。

關(guān)鍵詞

生成式人工智能;國家治理;智能決策;倫理治理

一、引言

生成式人工智能(Generative AI)隨著數(shù)字化、智能化的深入發(fā)展,在國家治理中迅速崛起并成為重要工具。生成式AI不同于傳統(tǒng)人工智能,其核心在于能夠基于數(shù)據(jù)生成包括文本、圖像、聲音等多種模態(tài)在內(nèi)的新內(nèi)容,因此在多個國家治理領(lǐng)域展現(xiàn)出了巨大的潛力。生成式AI目前已初步應(yīng)用于多個方面(詳見表1),包括政策決策支持、公共服務(wù)、社會安全和市場監(jiān)管等。比如,在公共服務(wù)領(lǐng)域,生成式人工智能能夠幫助政府提供更多個性化和智能化的服務(wù)方案;生成式AI在社會安全管理中,能夠協(xié)助政府通過風(fēng)險預(yù)測、輿情監(jiān)控等手段,對突發(fā)事件做出快速反應(yīng);在政策制定上,生成式AI可以為決策提供數(shù)據(jù)支持,從而使政策更科學(xué)、更高效。近年來,全球多個國家已將生成式AI技術(shù)納入國家治理體系,探索其在提高治理效率、優(yōu)化資源配置等方面的作用。然而,高速發(fā)展的生成式AI在帶來技術(shù)進(jìn)步的同時,也引發(fā)了數(shù)據(jù)隱私泄露、算法偏見、倫理道德風(fēng)險等諸多治理問題。推動生成式AI在國家治理中的合理應(yīng)用,既面臨機(jī)遇,又充滿挑戰(zhàn),現(xiàn)實緊迫性極高,這些問題直接關(guān)系到政府治理的穩(wěn)定性和公眾信任度。

表1 生成式人工智能在國家治理中的應(yīng)用場景

為明確本文的研究對象,首先需要對“國家治理”和“生成式人工智能”這兩個核心概念進(jìn)行界定。國家治理是指國家通過各種政府機(jī)構(gòu)、法律法規(guī)、公共政策和社會資源的協(xié)調(diào)運作,確保社會穩(wěn)定、公共利益和經(jīng)濟(jì)發(fā)展的過程。它涵蓋政策決策、公共服務(wù)、市場監(jiān)管、社會安全等多方面內(nèi)容,是國家運轉(zhuǎn)的重要支柱。國家治理不僅僅是單一的管理活動,還包括多主體的協(xié)同運作、跨部門的數(shù)據(jù)共享和信息交換,目的是實現(xiàn)社會的長治久安和公民的福祉。在現(xiàn)代化的國家治理體系中,人工智能逐漸成為提升治理效能的重要技術(shù)手段。生成式人工智能則是基于深度學(xué)習(xí)技術(shù)的AI分支,具備生成內(nèi)容的能力,與傳統(tǒng)的AI主要用于分析和識別不同,它能夠通過對已有數(shù)據(jù)的學(xué)習(xí)生成具有創(chuàng)新性和結(jié)構(gòu)性的新數(shù)據(jù)。生成式AI的發(fā)展歷程可以劃分為四個階段:萌芽階段(20世紀(jì)50年代至2000年)、初步發(fā)展階段(2000年至2014年)、快速提升階段(2014年至2020年)、大規(guī)模應(yīng)用與創(chuàng)新階段(2020年至今),目前已進(jìn)入大規(guī)模實用化階段(詳見表2)。在當(dāng)前階段,生成式AI憑借其內(nèi)容生成和數(shù)據(jù)處理的高效能力,已逐漸應(yīng)用于文本生成、智能決策、內(nèi)容創(chuàng)作等多個領(lǐng)域。該類生成式人工智能技術(shù)相對于傳統(tǒng)人工智能而言,具有較強(qiáng)的自主生成能力與創(chuàng)新性,在政策扶持方面、在服務(wù)優(yōu)化和社會安定性方面,能夠為國家治理中復(fù)雜任務(wù)的開展提供一個強(qiáng)有力的技術(shù)支持。

表2 生成式人工智能的發(fā)展歷程

在上述研究背景下,值得深入探討的核心問題有三個:第一,生成式人工智能在國家治理中的發(fā)展有哪些重要趨勢?第二,國家治理中的生成式人工智能面臨什么核心挑戰(zhàn)?第三,對于生成式AI的合理應(yīng)用,政府應(yīng)該采取怎樣的應(yīng)對策略才能有效推進(jìn)?圍繞著這些問題,本文旨在揭示生成式人工智能的應(yīng)用現(xiàn)狀和在國家治理中的潛在問題,并期望以新的視角為該領(lǐng)域提出相應(yīng)的應(yīng)對措施。從研究意義上講,這篇文章理論價值很大,實踐價值也很大。首先,理論意義在于,本文結(jié)合了國家治理和生成式AI兩個領(lǐng)域,對生成式AI如何重塑國家治理體系進(jìn)行了探索,拓寬了生成式AI在社會科學(xué)研究中的應(yīng)用范圍,同時也為國家治理提供了一條新的研究路徑。其次,實踐意義在于,本文分析了生成式AI在國家治理中的潛力和風(fēng)險,為政府部門在保障數(shù)據(jù)隱私、安全和社會公平的同時,如何合理利用生成式AI,幫助政府實現(xiàn)生成式AI負(fù)責(zé)任的發(fā)展,提供了政策建議。

二、國家治理中生成式人工智能發(fā)展的重要趨勢

(一)決策智能化與數(shù)據(jù)驅(qū)動化

生成式人工智能在政府決策中的應(yīng)用加速了決策的智能化與數(shù)據(jù)驅(qū)動化轉(zhuǎn)型,通過對海量數(shù)據(jù)的處理和分析,生成式AI大幅提升了政府在決策過程中的科學(xué)性和數(shù)據(jù)支持能力。隨著生成式AI的廣泛應(yīng)用,數(shù)據(jù)驅(qū)動的決策模式逐步成為政府管理的常態(tài)化方式。政策制定從以往依賴主觀經(jīng)驗、感知判斷為主,逐漸向基于海量數(shù)據(jù)、深度分析的科學(xué)決策轉(zhuǎn)型,促使政府能夠在政策制定中更全面、精準(zhǔn)地把握社會態(tài)勢。

在生成式AI的輔助下,政府能夠從龐大的信息資源中提取有價值的見解,識別出潛在的風(fēng)險、機(jī)遇和趨勢。例如,通過對社會經(jīng)濟(jì)數(shù)據(jù)的全面分析,生成式AI可以預(yù)測經(jīng)濟(jì)發(fā)展中的風(fēng)險節(jié)點,提前規(guī)劃干預(yù)措施。這種數(shù)據(jù)驅(qū)動式的決策模式,在加快決策過程、使政府在應(yīng)對突發(fā)事件及應(yīng)對復(fù)雜社會問題上更加靈活高效的同時,也使政策的精準(zhǔn)度得到提高,使政策對現(xiàn)實需求實現(xiàn)更好的回應(yīng)。另外,在多部門數(shù)據(jù)協(xié)作中生成式AI還可以實現(xiàn)數(shù)據(jù)共享,將各部門資源及數(shù)據(jù)整合在一起,形成一個促進(jìn)政策跨部門協(xié)調(diào)和資源最優(yōu)配置的更全面的分析視角。

生成式AI的引進(jìn)使決策的透明度和客觀性都得到了加強(qiáng)。數(shù)據(jù)驅(qū)動的決策減少了主觀判斷對政策的影響,使政策制定過程更多地建立在事實的基礎(chǔ)上,以客觀數(shù)據(jù)為基礎(chǔ),以算法為支持,減少人為因素造成的偏見與干擾?;跀?shù)據(jù)的智能決策還可以支持決策過程的溯源和驗證,從而有助于增強(qiáng)公眾對政策透明度和決策公正性的信任,通過生成式AI輔助分析,政府可以對政策執(zhí)行效果進(jìn)行實時監(jiān)控,并對政策方向和力度進(jìn)行動態(tài)調(diào)整,使治理與社會發(fā)展變化更加適應(yīng)。

(二)服務(wù)個性化與響應(yīng)精準(zhǔn)化

在公共服務(wù)領(lǐng)域中生成式人工智能促進(jìn)了服務(wù)個性化和響應(yīng)精準(zhǔn)化的發(fā)展,從而使政府對不同人群的特定需求提供有針對性的服務(wù)?;跉v史資料的分析及實時回饋,生成式AI能夠?qū)γ總€個體或者群體需求的特點加以準(zhǔn)確的識別從而為公共服務(wù)的個性化提供技術(shù)支持。比如,在社會保障領(lǐng)域當(dāng)中,基于國民年齡、健康狀況以及收入水平的數(shù)據(jù),生成式人工智能就可以對其將來可能需要的社會福利進(jìn)行預(yù)測從而事先準(zhǔn)備相關(guān)的資源,保證服務(wù)的時效性和準(zhǔn)確度。

生成式AI的個性化服務(wù)在醫(yī)療教育和其他重點領(lǐng)域尤其突出。跟據(jù)病人的病歷、藥物歷史、生活習(xí)慣等因素,AI系統(tǒng)可向其提出健康管理的個性化建議及診療方案,從而為病人提供較為精確的公共醫(yī)療服務(wù)。在教育領(lǐng)域中,基于學(xué)生的學(xué)習(xí)習(xí)慣、興趣愛好以及弱勢科目所生成的學(xué)習(xí)方案、輔導(dǎo)計劃,從而使每個學(xué)生的個性化教育方案得到有力支撐。這種基于生成式AI的精準(zhǔn)反應(yīng),不但提高了資源的利用率,而且在時間上和成本上都減少了浪費,讓公共服務(wù)的效能有了明顯提升。

此外,通過對資源進(jìn)行智能化配置從而對服務(wù)流程加以優(yōu)化,生成式人工智能使得政府可以在突發(fā)情況下或緊急需要時做出快速響應(yīng)。AI系統(tǒng)通過對各種數(shù)據(jù)的實時監(jiān)視和分析,能夠?qū)Y源需求的波動進(jìn)行識別從而對資源配置進(jìn)行動態(tài)的調(diào)整。比如說,在應(yīng)對流感等公共衛(wèi)生問題時就可以將醫(yī)療資源在疾病高發(fā)期優(yōu)先配置,從而保證了高需求時期資源的充足性和服務(wù)的高質(zhì)量。同時,生成式AI還能通過預(yù)測模型預(yù)判服務(wù)需求高峰,提前做好準(zhǔn)備,確保公共服務(wù)的穩(wěn)定性和高效性。

(三)結(jié)構(gòu)扁平化與協(xié)作高效化

生成式人工智能正推動傳統(tǒng)治理結(jié)構(gòu)向扁平化和協(xié)作高效化轉(zhuǎn)型,使政府逐步擺脫對科層制管理的依賴,向更加靈活的治理模式邁進(jìn)。生成式AI通過跨部門的數(shù)據(jù)共享和信息流動,使各部門之間的溝通和協(xié)作更加高效、透明,從而減少了“信息孤島”現(xiàn)象,促進(jìn)了治理資源的最優(yōu)配置。例如,生成式AI可以快速分析來自不同部門的數(shù)據(jù),整合出跨領(lǐng)域的洞見,使各部門可以在同一信息基礎(chǔ)上制定和執(zhí)行政策,從而避免了由于信息分散導(dǎo)致的決策延遲和效率低下。

生成式AI還增強(qiáng)了政府部門間的無縫協(xié)作能力。在傳統(tǒng)的科層制管理模式下,跨部門協(xié)作往往涉及復(fù)雜的審批流程和信息傳遞,導(dǎo)致執(zhí)行效率降低。但是在生成式AI的輔助下,各部門之間依靠智能平臺和數(shù)據(jù)共享體系就能夠?qū)崿F(xiàn)無延遲的信息交換與決策協(xié)調(diào)。不管是針對突發(fā)公共事件中還是推進(jìn)大型的跨部門項目,生成式AI都能夠?qū)⒂嘘P(guān)資料進(jìn)行自動化的整合,輔助部門之間任務(wù)的分配、進(jìn)度的協(xié)調(diào),從而使協(xié)作過程變得靈活、高效起來。這種協(xié)作的高效化除了降低溝通成本之外,還能提高政府適應(yīng)變化、滿足大眾需求的治理響應(yīng)速度。

此外,生成式人工智能所帶來的這種結(jié)構(gòu)扁平化趨勢也簡化了政府內(nèi)部的層級流程,使得信息在各個層級上的傳輸加速加快。高層決策者可以直接從基層中獲取信息并通過生成式AI的實時數(shù)據(jù)分析及可視化功能,做出更加快速的、精確的決定。通過智能化的任務(wù)分配以及自動化的反饋機(jī)制,生成式人工智能還可以使基層工作人員與上級部門的指令實現(xiàn)較為直接的對接,減少了中間層級的冗余,并縮短了指令傳達(dá)的鏈條,從而可以提高政策實施的效率和精度。

(四)人機(jī)協(xié)同化與操作智慧化

在國家治理中,人機(jī)協(xié)同化和操作智能化在生成式人工智能應(yīng)用之后正逐步成為一種重要的走向。作為信息處理工具的生成式AI,已經(jīng)融入了治理過程中的各個環(huán)節(jié)中,成為支持決策、預(yù)測風(fēng)險、執(zhí)行管理的關(guān)鍵力量。通過與人類的相互協(xié)作,生成式人工智能可以為政府提供更加智慧的操作支持,推動國家治理的高效化。

生成式AI在海量數(shù)據(jù)分析及風(fēng)險預(yù)測中所表現(xiàn)出強(qiáng)大能力,為政府部門提供了更加可靠的決策基礎(chǔ)。比如在突發(fā)事件管理中,生成式人工智能可以幫助人類決策者制訂一個高效科學(xué)的應(yīng)對預(yù)案從而縮短反應(yīng)時間,提高應(yīng)急管理的精準(zhǔn)性。這種強(qiáng)大功能的實現(xiàn)依靠的是AI系統(tǒng)對歷史資料、實時信息和外部情報的總和分析。生成式人工智能的這種實時分析及預(yù)測能力使政府對風(fēng)險的預(yù)防以及資源的調(diào)度能夠具有前瞻性,從而使得治理過程的智能化水平大幅提升。

在人機(jī)協(xié)同的模式下,生成式人工智能既是決策的輔助性工具,又是執(zhí)行的重要“合作者”。人工智能能夠承擔(dān)高度重復(fù)型、數(shù)據(jù)密集型的工作,從而為人類工作人員減輕負(fù)擔(dān),使后者能夠更多地投入到創(chuàng)造性、戰(zhàn)略性的工作中來。例如生成式人工智能可以完全自動化地處理公文、分析大眾反饋以及跟蹤政策的實施效果,為人類管理者提供即時的數(shù)據(jù)反饋以及戰(zhàn)略性的建議。這種智能化操作支持,使得公共服務(wù)的工作效率有了很大提高,也使政策執(zhí)行變得更準(zhǔn)確,更加具有可控性。

此外,生成式人工智能促使治理方式的智能化程度加深,讓復(fù)雜化問題的解決更具綜合性和高效性。人工智能不但可對現(xiàn)有資料做深度分析還可以將多源資料結(jié)合起來進(jìn)行預(yù)測及情景模擬,從而幫助政府部門的決策過程更加科學(xué),最終確保政策的可行性與適應(yīng)性。政府在應(yīng)對復(fù)雜社會問題時通過這種智慧化的操作支持可以更加靈活和精準(zhǔn)地做出反應(yīng), 從而有助于增強(qiáng)國家治理的綜合性及科學(xué)性。

(五)參與多元化與監(jiān)督透明化

生成式人工智能的應(yīng)用正在推動國家治理中的參與多元化和監(jiān)督透明化,逐步構(gòu)建以公眾廣泛參與為核心的共治模式,生成式AI通過智能交互系統(tǒng)、在線平臺和自動反饋機(jī)制,拓展了公眾參與的渠道,突破了時空限制,使各類人群都能輕松參與政策討論、表達(dá)意見,進(jìn)一步豐富了公共治理的多元參與形式。例如,基于生成式AI的在線平臺,公眾可以在政策形成的各個階段隨時提交意見或建議,反饋迅速傳達(dá)至相關(guān)部門,增強(qiáng)了政策制定的開放性和包容性。

生成式AI還能夠?qū)碜圆煌后w的大量反饋進(jìn)行快速、精準(zhǔn)的分析,自動分類和匯總公眾的意見,將數(shù)據(jù)化的見解提供給決策者。該類智能反饋機(jī)制不但增強(qiáng)了政府認(rèn)識民意的深度與廣度,而且讓更多聲音能夠更有效地參與到政策討論中,為決策提供多維度的數(shù)據(jù)支撐。在公共意見搜集及資料分析方面,AI技術(shù)的優(yōu)勢有利于打破信息壁壘使不同利益群體的需求得到較為及時的反映,從而實現(xiàn)較為全面有效的治理過程。

同時,監(jiān)督的透明性也受到生成式AI應(yīng)用的促進(jìn)。AI技術(shù)能夠使決策過程中的政府行為能夠被實時跟蹤和記錄在案,也能使政府行為在政策執(zhí)行過程中保持公開化和透明性,以便于公眾和媒體的監(jiān)督。比如,生成式AI可以通過視覺化的形式來呈現(xiàn)政策執(zhí)行的進(jìn)度、問題的反饋以及調(diào)整的情況,為大眾所查閱,從而使得政策執(zhí)行更加的透明和可追溯。另外,人工智能系統(tǒng)還可以分析公共政策實施的效果以及公眾的反饋,來幫助政府識別可能出現(xiàn)的問題以及存在的薄弱部分,從而對政策過程做進(jìn)一步地優(yōu)化。

三、國家治理中生成式人工智能發(fā)展的核心挑戰(zhàn)

(一)數(shù)據(jù)隱私與安全風(fēng)險

生成式人工智能在國家治理中的廣泛應(yīng)用,依賴于大量的個人和敏感數(shù)據(jù)進(jìn)行模型訓(xùn)練和優(yōu)化,雖然這一特點對治理效率的提升起到了積極作用,但在數(shù)據(jù)隱私和安全方面也帶來了重大隱患。首先,生成式AI需要分析大量的個人數(shù)據(jù),這些數(shù)據(jù)往往包含高度隱私的信息,如身份信息、行為記錄、健康狀況等,以實現(xiàn)精準(zhǔn)、個性化的決策支持。這些敏感信息在數(shù)據(jù)的收集、存儲和處理過程中,極易被泄露或濫用,一旦產(chǎn)生疏漏或管理不善等情況,就會造成對個人隱私的嚴(yán)重侵犯。

其次,生成式AI為了整合多元信息,提高決策的全面性和準(zhǔn)確性,在應(yīng)用中需要跨部門的數(shù)據(jù)共享。但跨部門的數(shù)據(jù)流轉(zhuǎn)往往增加了數(shù)據(jù)管理的復(fù)雜性,尤其是在數(shù)據(jù)安全措施不統(tǒng)一、保護(hù)機(jī)制不到位的情況下,數(shù)據(jù)傳輸過程中很可能發(fā)生數(shù)據(jù)泄露或篡改。此外,不同部門對于數(shù)據(jù)存取權(quán)限的控制差異也可能導(dǎo)致數(shù)據(jù)被濫用,使得數(shù)據(jù)隱私風(fēng)險進(jìn)一步加劇。尤其是在涉及多層級、多系統(tǒng)的復(fù)雜治理場景中,數(shù)據(jù)的頻繁交換和重復(fù)存儲增加了泄露的概率。

另外,生成式AI模型本身也可能無意中泄露敏感信息。AI模型在訓(xùn)練時會提取數(shù)據(jù)中的特征并學(xué)習(xí)模式,但在生成新內(nèi)容時,AI可能將訓(xùn)練數(shù)據(jù)中的隱私信息“帶出”模型,尤其是在模型復(fù)雜度較高的情況下,這種隱性泄露更為難以察覺。一旦被惡意利用,這些輸出的隱私信息可能對個人造成不可估量的損害,甚至引發(fā)社會安全問題。

最后,生成式AI的高數(shù)據(jù)依賴性為網(wǎng)絡(luò)攻擊提供了新的途徑。生成式AI系統(tǒng)需要持續(xù)接入和更新數(shù)據(jù),頻繁的網(wǎng)絡(luò)交互在一定程度上增大了網(wǎng)絡(luò)安全的風(fēng)險。攻擊者可能通過網(wǎng)絡(luò)漏洞竊取、篡改或操控數(shù)據(jù),直接影響到生成式AI的決策準(zhǔn)確性和可靠性,甚至導(dǎo)致錯誤的公共決策。這種潛在的安全威脅不僅會使個體隱私暴露于風(fēng)險中,更可能危及國家的數(shù)據(jù)安全和社會穩(wěn)定。因此,生成式AI在國家治理中的數(shù)據(jù)隱私和安全風(fēng)險日益緊迫,需要引起高度重視。

(二)算法透明度與問責(zé)缺失

生成式人工智能的“黑箱”特性,使國家治理中的透明性、問責(zé)機(jī)制面臨嚴(yán)峻的挑戰(zhàn)。由于生成式人工智能系統(tǒng)通常采用由大量層級和節(jié)點組成的復(fù)雜深度學(xué)習(xí)模型,其內(nèi)部計算過程很難解釋,因此它的具體決策邏輯和依據(jù)很難被外界所了解。這種不透明性限制了公眾對AI系統(tǒng)的認(rèn)識和信任,特別是生成式AI用于涉及公眾利益的決策場景時,透明度的缺乏使得公眾對人工智能決策的合理性、公正性難以確定,甚至?xí)a(chǎn)生懷疑、不信任等情況。

在國家治理中,責(zé)任劃分的模糊是由于透明度不夠造成的。生成式AI系統(tǒng)發(fā)生差錯或偏差時,具體責(zé)任方難以被清晰地追溯。在傳統(tǒng)決策中,人類決策者需要為自己的決策承擔(dān)責(zé)任,但在AI決策中,由于模型訓(xùn)練過程中的數(shù)據(jù)偏差、算法設(shè)計的缺陷、模型參數(shù)的設(shè)置不當(dāng),甚至算法本身的局限性等多重因素都有可能導(dǎo)致錯誤的產(chǎn)生,從而導(dǎo)致責(zé)任的界定異常復(fù)雜。這種模糊的責(zé)任歸屬,讓AI一旦決策失誤,就很難確定到底該追究誰的責(zé)任,不僅可能造成追責(zé)難的現(xiàn)實問題,也會讓國家治理的公信力大打折扣。

生成式人工智能缺乏透明度的問題在公共服務(wù)領(lǐng)域特別明顯。公共服務(wù)需要保證公平性與公開性,但是生成式人工智能的“黑箱”性質(zhì)使公眾很難知道其決策的依據(jù)從而導(dǎo)致公共決策的公信力下降。例如,在政府資源分配或社會保障決策中,如果人工智能在決策時采用了偏見數(shù)據(jù)或訓(xùn)練中出現(xiàn)誤差,那么某些群體將會遭到不公正的對待,并且由于算法不透明,公眾很難識別或者質(zhì)疑這些決策依據(jù)的合理性。

更嚴(yán)重的是,外部對其進(jìn)行監(jiān)管的可能性受到生成式AI復(fù)雜性的限制。對一般公眾乃至專業(yè)人士而言,生成式AI系統(tǒng)運行的原理很難理解,這就造成了公眾在質(zhì)疑AI決策時缺乏基本的監(jiān)督能力。一方面,大眾是無法辨認(rèn)AI決策的潛在問題的;另一方面,即使出現(xiàn)了問題,也很難弄清原因或提出質(zhì)疑,這使得“黑箱”效應(yīng)進(jìn)一步加劇,使公共服務(wù)透明度、公信力受到損害。

(三)倫理與道德風(fēng)險

生成式人工智能在國家治理中應(yīng)用會帶來倫理、道德方面的顯著危險。首先,由于生成式人工智能系統(tǒng)的決策和內(nèi)容強(qiáng)烈依賴于歷史數(shù)據(jù),后者往往包括性別、種族、年齡等現(xiàn)實社會中的隱性偏見。這些偏見和不公平因素在AI的訓(xùn)練過程當(dāng)中可能會被納入到一個決策模型中來,從而在應(yīng)用中產(chǎn)生一種歧視性或者不公正的決策。這種偏見在公共服務(wù)的應(yīng)用當(dāng)中,不僅僅會使得特定人群受到歧視,而且加劇社會的不公平,從而影響到社會的包容性和公正性。

此外,生成式AI在國家治理中的普遍運用,或使政府過分依賴技術(shù),而對治理中應(yīng)有的人性化因素置之不理。AI的高效與自動化特性,使很多政府部門為了追求管理效率,往往會傾向于通過技術(shù)手段簡化決策流程,但這種傾向容易忽略公眾的個體需求和特殊情況,造成決策與服務(wù)缺乏人性化考量。比如基于算法的決策,在面對突發(fā)狀況或個體差異時,不能真正體現(xiàn)社會治理的包容性與多元化,就可能表現(xiàn)出刻板、機(jī)械的處理方式。

生成式AI的倫理風(fēng)險也表現(xiàn)為誤導(dǎo)和操縱信息方面。人工智能的生成能力可以被用于內(nèi)容的自動生產(chǎn),從而方便了虛假信息的生成。如果生成式人工智能被用于制造虛假新聞、誤導(dǎo)性宣傳或操縱社會輿論,就有可能嚴(yán)重威脅到公眾的知情權(quán)、判斷力和社會信任。這種操控性的應(yīng)用方式可能破壞社會信任,甚至引發(fā)社會不安和沖突,影響國家治理的穩(wěn)定性和合法性。

最后,生成式AI系統(tǒng)的應(yīng)用還可能引發(fā)責(zé)任歸屬的倫理難題。AI在決策和執(zhí)行過程中若出現(xiàn)錯誤或帶來負(fù)面后果,責(zé)任的劃分會變得復(fù)雜且模糊。生成式AI的決策偏差可能來源于數(shù)據(jù)質(zhì)量、算法設(shè)計或外部環(huán)境等多種因素,而不同于傳統(tǒng)的人工決策,這些因素往往難以追溯和歸責(zé)。這種不清晰的責(zé)任歸屬不僅影響公共治理的透明度,也可能引發(fā)公眾對AI決策的不信任,使得社會各界在面對AI錯誤時難以獲得公正的問責(zé)和補償。

(四)數(shù)字主權(quán)與國際競爭壓力

生成式人工智能的發(fā)展使數(shù)字主權(quán)問題和國際技術(shù)競爭壓力日益凸顯。作為新興的技術(shù)領(lǐng)域,生成式AI被各國視為增強(qiáng)國家競爭力的關(guān)鍵資源,因此圍繞數(shù)據(jù)主權(quán)、技術(shù)自主和標(biāo)準(zhǔn)制定權(quán)展開了激烈的全球競爭。首先,生成式AI在數(shù)據(jù)處理和分析中高度依賴海量數(shù)據(jù),而這些數(shù)據(jù)的流動和存儲直接關(guān)系到國家的數(shù)據(jù)主權(quán)和安全。為了確保對數(shù)據(jù)資源的控制力,許多國家實施了嚴(yán)格的數(shù)據(jù)本土化政策,力圖在國際數(shù)據(jù)流動中保障自身的主權(quán)利益。這種政策措施雖然有效保護(hù)了本國數(shù)據(jù)資源,但也增加了跨國數(shù)據(jù)合作的復(fù)雜性。

此外,生成式AI的核心技術(shù)和算法開發(fā)是掌握技術(shù)主導(dǎo)權(quán)的關(guān)鍵所在,而這正成為全球技術(shù)競爭中的重要戰(zhàn)場。擁有領(lǐng)先的AI技術(shù)不僅意味著更強(qiáng)的經(jīng)濟(jì)實力和創(chuàng)新能力,也意味著在國際技術(shù)標(biāo)準(zhǔn)制定中占據(jù)主導(dǎo)地位。技術(shù)壟斷和標(biāo)準(zhǔn)輸出正成為各國競爭的焦點,一些技術(shù)領(lǐng)先的國家通過專利、技術(shù)封鎖等手段限制其他國家進(jìn)入核心技術(shù)領(lǐng)域,從而在生成式AI的標(biāo)準(zhǔn)制定中掌握話語權(quán)。這種技術(shù)壟斷不僅限制了新興國家的技術(shù)發(fā)展,也使許多國家在生成式AI應(yīng)用中受制于人,削弱了其在國際競爭中的自主性。

與此同時,生成式AI在國家治理中的應(yīng)用還面臨數(shù)據(jù)保護(hù)和技術(shù)標(biāo)準(zhǔn)獨立性的雙重挑戰(zhàn)。國際技術(shù)競爭的加劇使得各國在數(shù)據(jù)保護(hù)和網(wǎng)絡(luò)安全方面加強(qiáng)防護(hù)措施,以防止數(shù)據(jù)泄露和信息被竊取。但在這一過程中,部分國家過度依賴外國技術(shù)的局面也愈加明顯。對于技術(shù)依賴性較強(qiáng)的國家來說,一旦關(guān)鍵技術(shù)被限制,可能直接影響到生成式AI的正常運行和發(fā)展,甚至威脅到國家的數(shù)字主權(quán)。因此,如何在國際技術(shù)競爭中既保持技術(shù)獨立性又確保數(shù)據(jù)安全,已成為當(dāng)前數(shù)字主權(quán)面臨的核心難題。

(五)公共服務(wù)中的數(shù)字鴻溝與社會不平等

盡管生成式AI在提升公共服務(wù)效率和響應(yīng)速度方面展現(xiàn)了顯著優(yōu)勢,但其廣泛應(yīng)用也可能加劇數(shù)字鴻溝,進(jìn)一步擴(kuò)大社會不平等。生成式AI依靠的是應(yīng)用和理解數(shù)字技術(shù)的能力,所以它對大眾的數(shù)字素養(yǎng)要求更高。但社會上存在著極其不均衡的數(shù)字素養(yǎng)差異,對于在適應(yīng)以AI為基礎(chǔ)的公共服務(wù)模式時面臨著顯著障礙的老年人、偏遠(yuǎn)地區(qū)居民和低收入人群而言,他們的數(shù)字素養(yǎng)可能使其難以適應(yīng)智能服務(wù)流程,這將導(dǎo)致他們在享受公共服務(wù)時處于嚴(yán)重劣勢。

這種數(shù)字鴻溝不僅影響到個體在獲取服務(wù)方面的便利性,還可能加劇社會資源分配的不平等程度。舉例來說,生成式AI可以在智能醫(yī)療、在線教育和公眾信息獲取等領(lǐng)域提供個性化、精準(zhǔn)化的服務(wù),但不熟悉技術(shù)的群體不僅難以將這些服務(wù)有效地利用起來,甚至連所需的基礎(chǔ)信息都不能得到。特別是在重要的民生領(lǐng)域,如公共衛(wèi)生、社會救助等方面,數(shù)字鴻溝會導(dǎo)致一些弱勢群體在社會經(jīng)濟(jì)上處于更加不利的地位,無法獲取同等的資源與救助。

此外,生成式AI技術(shù)的應(yīng)用往往集中在城市和經(jīng)濟(jì)發(fā)達(dá)地區(qū),而偏遠(yuǎn)地區(qū)和經(jīng)濟(jì)欠發(fā)達(dá)地區(qū)基礎(chǔ)設(shè)施的不完善,導(dǎo)致AI技術(shù)的全面覆蓋在這些地區(qū)難以實現(xiàn)。這不僅造成了資源在城鄉(xiāng)間的不均衡分配,而且也加劇了區(qū)域間數(shù)字差距。生成式AI帶來的新型公共服務(wù),由于缺乏必要的設(shè)備和網(wǎng)絡(luò)支持,難以被一些偏遠(yuǎn)地區(qū)的居民所使用,使得后者在社會和經(jīng)濟(jì)上形成一個“信息孤島”。這種區(qū)域性的數(shù)字鴻溝阻礙了生成式AI的普及應(yīng)用,也使得公共服務(wù)在國家治理中的普惠性目標(biāo)受到限制。

社會不平等在生成式AI的應(yīng)用過程中可能進(jìn)一步固化甚至擴(kuò)大。例如,在就業(yè)市場中,生成式AI的普及對高技術(shù)人群帶來了更多的就業(yè)機(jī)會和職業(yè)發(fā)展,而低技能勞動者的工作機(jī)會可能被自動化系統(tǒng)所取代,導(dǎo)致其在經(jīng)濟(jì)上的競爭力進(jìn)一步減弱。生成式AI帶來的這種結(jié)構(gòu)性差異將加劇經(jīng)濟(jì)不平等,使得社會的各階層在資源和機(jī)會獲取上愈加不均。

(六)國家安全與意識形態(tài)風(fēng)險

生成式人工智能的廣泛應(yīng)用在國家安全和意識形態(tài)層面帶來了顯著的風(fēng)險。首先,生成式AI具備強(qiáng)大的內(nèi)容生成能力,這一特性使其在輿論操控和虛假信息傳播方面成為潛在的威脅。生成式AI可以自動生成大量的文字、圖片、視頻等內(nèi)容,易于偽造和傳播虛假信息。例如,通過生成虛假新聞或深度偽造的視頻,生成式AI能夠誤導(dǎo)公眾,對社會認(rèn)知形成錯誤引導(dǎo)。這類虛假信息在社交媒體上快速傳播,可能引發(fā)社會恐慌、激化群體沖突,甚至破壞社會信任,嚴(yán)重影響國家的意識形態(tài)穩(wěn)定。

此外,生成式AI的操控性也使其成為境內(nèi)外勢力影響輿論和干預(yù)內(nèi)政的工具。由于生成式AI的內(nèi)容生成具有高度的隱蔽性,敵對勢力可以利用AI生成的信息在特定事件上煽動情緒、混淆視聽,削弱公眾對國家政策的信任。這種外部干預(yù)通過生成式AI的廣泛傳播,可能改變公眾的認(rèn)知,甚至顛覆主流意識形態(tài),給國家治理帶來巨大的挑戰(zhàn)。

在網(wǎng)絡(luò)安全方面,生成式AI的應(yīng)用也帶來了新的攻擊手段,成為網(wǎng)絡(luò)攻擊的潛在風(fēng)險。生成式AI能夠讓欺騙性較強(qiáng)的釣魚郵件、惡意代碼或自動化攻擊手段,更容易被黑客或其他惡意分子使用,從而使網(wǎng)絡(luò)攻擊更加難以防范。例如,AI產(chǎn)生的惡意內(nèi)容可以騙取用戶的敏感信息或在誘使系統(tǒng)實施惡意操作,增加了網(wǎng)絡(luò)攻擊的隱蔽性和危害性。一旦遇到基于AI的網(wǎng)絡(luò)攻擊,對關(guān)鍵信息基礎(chǔ)設(shè)施和政府?dāng)?shù)據(jù)庫而言將造成十分嚴(yán)重的后果,并可能導(dǎo)致敏感數(shù)據(jù)外泄、系統(tǒng)坍塌等,對國家安全基本穩(wěn)定構(gòu)成威脅。

此外,生成式AI的濫用有可能造成安全管控難度的加大。人工智能生成的內(nèi)容與真實信息難以被區(qū)分開來,使國家對信息的監(jiān)管變得復(fù)雜起來,增加了公共信息流通的篩選驗證成本。同時,生成式AI的高度智能化使得信息監(jiān)管和安全保護(hù)措施很難迅速適應(yīng)新的威脅,也削弱了國家安全體系的抗風(fēng)險能力。

生成式人工智能在國家安全和意識形態(tài)方面的風(fēng)險,不僅局限于網(wǎng)絡(luò)安全,而且包括信息操縱、輿論介入和敵對勢力的潛在利用等。生成式人工智能的應(yīng)用一旦脫離監(jiān)管,就會嚴(yán)重威脅到國家安全和社會穩(wěn)定,使維護(hù)信息安全和意識形態(tài)穩(wěn)定的難度大大增加,最終會對國家安全和社會穩(wěn)定的嚴(yán)重威脅。

四、國家治理中生成式人工智能發(fā)展的應(yīng)對策略

(一)雙軌治理:結(jié)合“硬法”約束與“軟法”引導(dǎo)

在國家治理中,為確保生成式AI的有效和可控應(yīng)用,雙軌治理的“硬法”與“軟法”結(jié)合策略是關(guān)鍵,首先,硬法治理通過強(qiáng)制性立法和政策約束來規(guī)范AI技術(shù)的使用和發(fā)展。具體而言,硬法手段包括制定嚴(yán)格的法律條款,明確數(shù)據(jù)保護(hù)、隱私管理、算法透明等方面的要求,為生成式AI的開發(fā)、應(yīng)用和監(jiān)管設(shè)定統(tǒng)一的法律標(biāo)準(zhǔn)。此外,硬法治理還需建立專門的監(jiān)管機(jī)構(gòu),通過例行檢查、技術(shù)審核和數(shù)據(jù)合規(guī)性審查等方式,定期監(jiān)督生成式AI在政府治理中的實際運作。監(jiān)管機(jī)構(gòu)可以依據(jù)法律規(guī)定實施處罰、限制甚至叫停未達(dá)標(biāo)的AI應(yīng)用項目,從而保障硬性規(guī)制的執(zhí)行效果,使生成式AI的應(yīng)用過程合規(guī)且透明。

同時,軟法治理以靈活的管理方式,輔以道德準(zhǔn)則、技術(shù)標(biāo)準(zhǔn)和行業(yè)自律等非強(qiáng)制性手段,增強(qiáng)AI治理的適應(yīng)性。軟法治理中,行業(yè)協(xié)會、學(xué)術(shù)機(jī)構(gòu)等可制定生成式AI的行為準(zhǔn)則和技術(shù)規(guī)范,推動行業(yè)自律,確保AI系統(tǒng)符合道德底線和社會責(zé)任。例如,對于行業(yè)協(xié)會而言可以頒布倫理準(zhǔn)則來指導(dǎo)人工智能開發(fā)企業(yè)在技術(shù)上的運用中主動考慮社會責(zé)任、規(guī)避潛在的不利作用。另外通過倡導(dǎo)企業(yè)自愿采用行業(yè)的最佳實踐及標(biāo)準(zhǔn),軟法手段不需要依靠立法的漫長過程就可以在迅速變化的技術(shù)環(huán)境中就形成為一個有規(guī)范的系統(tǒng),這種柔性管理機(jī)制在保證生成式AI不會偏離社會價值觀和倫理要求的同時又能夠很快地適應(yīng)新的技術(shù)改變和應(yīng)用情景,使生成式AI能夠快速地滿足社會價值和倫理的要求。

硬法與軟法在雙軌治理模式中是相補充的:硬法以法律約束提供基礎(chǔ)保障,保證了生成式人工智能的應(yīng)用不違背基本法律和合規(guī)的要求;另一方面,軟法通過行業(yè)標(biāo)準(zhǔn)及道德準(zhǔn)則,為生成式人工智能的發(fā)展提供方向指導(dǎo)及倫理保證。如在數(shù)據(jù)使用以及隱私保護(hù)方面,硬法可以強(qiáng)制性地要求數(shù)據(jù)加密、去標(biāo)識化等技術(shù)措施,而軟法則對行業(yè)采用最佳做法加以引導(dǎo),從而促使企業(yè)自覺地提高數(shù)據(jù)處理、保護(hù)方面的能力。通過這種組合式的治理方式,不僅保證了生成式AI的法律合規(guī),而且增強(qiáng)了它的適應(yīng)性,保證了在國家治理中生成式AI技術(shù)能夠做到高效、安全,實現(xiàn)穩(wěn)健發(fā)展。

(二)算法透明與公眾問責(zé)機(jī)制

確立算法透明化及公眾問責(zé)制,是保障生成式人工智能在國家治理中得到公開、公正應(yīng)用的關(guān)鍵一步。首先,強(qiáng)化人工智能系統(tǒng)可信度的核心是促使算法透明性。政府要保證生成式人工智能有足夠的決策透明度,尤其是要公開決策過程中的輸入數(shù)據(jù)、決策邏輯、最終結(jié)果。公眾可以較為全面地理解生成式人工智能運行方式,通過公開算法的關(guān)鍵原理來降低公眾的不信任度。另外,政府要制訂相關(guān)準(zhǔn)則來限制敏感或者高度依賴數(shù)據(jù)的應(yīng)用,要求其必須具備可解釋性,從而確保公眾在知情的基礎(chǔ)上來評估生成式人工智能的運作。

在透明度的基礎(chǔ)上建立問責(zé)機(jī)制顯得格外重要。政府可成立專門負(fù)責(zé)處理生成式人工智能應(yīng)用問題的部門或工作組,對生成式人工智能的責(zé)任劃分加以明確。一旦生成式人工智能的決策引起質(zhì)疑或是造成不良影響的,公眾可以通過專門的反饋渠道進(jìn)行投訴或報告,問責(zé)部門需要及時回應(yīng)并進(jìn)行調(diào)查,從而使得公眾的監(jiān)督權(quán)得到保障。同時政府應(yīng)建立包括事前評估、事中監(jiān)視及事后審查在內(nèi)的一套完善的問責(zé)流程,以確保錯誤發(fā)生時,能夠及時采取糾正措施,并實現(xiàn)快速的追責(zé)。

算法透明與責(zé)任追究機(jī)制的有效結(jié)合,還需賦予公眾適當(dāng)?shù)馁|(zhì)疑權(quán)和參與權(quán)。例如,政府可組織算法審查會或討論會,邀請專家及公眾代表參加對算法的評審,確保AI系統(tǒng)的設(shè)計及應(yīng)用符合公共利益。還可定期發(fā)布生成式AI系統(tǒng)的應(yīng)用報告,披露AI系統(tǒng)的決策精確性、錯誤率及改善情況等內(nèi)容。通過對AI系統(tǒng)的定期披露及審查,可以進(jìn)一步提高算法透明性,并且使問責(zé)制更加有效地發(fā)揮作用。

(三)跨部門數(shù)據(jù)共享與隱私保護(hù)的平衡

在國家治理中,生成式AI的高效應(yīng)用依賴跨部門的數(shù)據(jù)共享,但隱私保護(hù)也是確保其安全運行的關(guān)鍵。為此,政府需要在數(shù)據(jù)共享過程中采用先進(jìn)的數(shù)據(jù)保護(hù)技術(shù),以實現(xiàn)數(shù)據(jù)的安全流通。首先,數(shù)據(jù)加密技術(shù)是保障數(shù)據(jù)傳輸安全的重要手段,通過加密數(shù)據(jù)在不同部門之間的傳輸過程,能有效防止數(shù)據(jù)被未經(jīng)授權(quán)的人員截取和訪問。基于密鑰的加密技術(shù)以及多層加密協(xié)議可以確保數(shù)據(jù)在傳輸中的安全性,即便在數(shù)據(jù)傳輸路徑上遭遇安全風(fēng)險,也能最大程度上減少數(shù)據(jù)泄露的風(fēng)險。

其次,去標(biāo)識化和差分隱私技術(shù)能夠在跨部門數(shù)據(jù)共享時確保隱私信息不被泄露。去標(biāo)識化處理可以在數(shù)據(jù)共享之前移除或模糊敏感信息,使數(shù)據(jù)在脫離個體信息的情況下仍具備分析價值。而差分隱私技術(shù)則通過向數(shù)據(jù)中引入噪聲,使數(shù)據(jù)分析結(jié)果無法識別出個人信息,這樣即使在數(shù)據(jù)分析過程中共享的聚合數(shù)據(jù)也能在隱私保護(hù)和信息提取之間實現(xiàn)平衡。這些技術(shù)手段有助于在多部門數(shù)據(jù)共享時既能保障分析精度,又不會因個體信息的泄露而侵犯隱私。

此外,政府應(yīng)設(shè)立專門的數(shù)據(jù)保護(hù)和隱私管理機(jī)構(gòu),對跨部門的數(shù)據(jù)共享行為進(jìn)行監(jiān)督和管理。此類機(jī)構(gòu)可以對每個部門的數(shù)據(jù)共享申請進(jìn)行審查,確保數(shù)據(jù)的使用范圍合理合法,同時設(shè)立嚴(yán)格的訪問權(quán)限控制系統(tǒng),防止數(shù)據(jù)的非法使用。定期開展數(shù)據(jù)共享的審查活動,包括訪問日志審查、數(shù)據(jù)使用情況追蹤等措施,可以有效防止數(shù)據(jù)濫用和隱私泄露,確保各部門的數(shù)據(jù)共享行為始終處于規(guī)范之中。

為進(jìn)一步確保隱私保護(hù)和數(shù)據(jù)共享的平衡,政府還可以建立跨部門的數(shù)據(jù)共享協(xié)議,明確數(shù)據(jù)共享的準(zhǔn)入條件、使用范圍和責(zé)任分配。該協(xié)議可以規(guī)范各部門在共享和使用數(shù)據(jù)時的行為,同時也為數(shù)據(jù)泄露或隱私風(fēng)險提供追責(zé)依據(jù)。通過這些制度保障,跨部門的數(shù)據(jù)共享能夠在法律和技術(shù)的雙重支持下穩(wěn)健進(jìn)行,既能發(fā)揮生成式AI的治理效能,又能最大程度地保護(hù)公民的隱私權(quán)利,實現(xiàn)數(shù)據(jù)流動與隱私保護(hù)的雙贏。

(四)倫理與價值導(dǎo)向的規(guī)范框架:倡導(dǎo)“善智”發(fā)展

在生成式AI的國家治理應(yīng)用中,確保AI技術(shù)與社會道德相一致的關(guān)鍵是建立以倫理道德和價值導(dǎo)向為核心的規(guī)范框架。為此,政府可以明確主張“善智”的發(fā)展原則,確保生成式AI應(yīng)用的道德性和公正性,建立“不傷害人,不歧視人,不操縱人,不代替人”的準(zhǔn)則。首先,AI應(yīng)用的嚴(yán)格倫理評估可以通過引入倫理審查機(jī)制來實現(xiàn)。這一機(jī)制可以在AI應(yīng)用的前、中、后各個階段進(jìn)行審查,以確保在實際操作過程中不會出現(xiàn)偏見或決策不公的情況。例如,在AI算法上線前,需要進(jìn)行道德影響測試,檢查其是否會因數(shù)據(jù)或模型的偏差而導(dǎo)致不公平現(xiàn)象,從而最大程度地避免由于AI帶來的歧視或道德風(fēng)險。

同時,建立專門的AI倫理委員會是強(qiáng)化治理的一項重要措施。倫理委員會可邀請學(xué)術(shù)界人士、法律專家、科技公司代表和公眾代表以組建多層次社會監(jiān)督體系。該委員會可以制定倫理準(zhǔn)則,并對人工智能的應(yīng)用進(jìn)行定期審核和評估,及時發(fā)現(xiàn)和糾正AI系統(tǒng)中的倫理缺陷,確保人工智能應(yīng)用過程符合公認(rèn)的社會倫理準(zhǔn)則。另外,倫理委員會還可以接受公眾的反饋和舉報,幫助政府及時發(fā)現(xiàn)AI技術(shù)在治理方面的潛在倫理問題,從而使生成式AI的應(yīng)用更加具有透明度,也更加具有公眾的信任度。

為加強(qiáng)“善智”原則的貫徹落實,政府也可以制定適用于生成式AI的倫理規(guī)范和技術(shù)標(biāo)準(zhǔn),以促進(jìn)道德規(guī)范的標(biāo)準(zhǔn)化。這些標(biāo)準(zhǔn)要涵蓋AI開發(fā)、數(shù)據(jù)使用、算法設(shè)計、應(yīng)用過程等內(nèi)容,并對任何可能帶來不公平或歧視性結(jié)果的行為予以明確禁止。例如,在設(shè)計生成式AI系統(tǒng)時,為了保證系統(tǒng)輸出達(dá)到倫理要求,就要求在模型中避免使用包含偏見的數(shù)據(jù),或者通過技術(shù)手段消除模型中的偏見。

最后,政府可以通過宣傳和教育,提升各部門和AI從業(yè)者的倫理意識。通過開展倫理培訓(xùn)和宣傳活動,向相關(guān)人員普及AI倫理知識和“善智”原則,使AI開發(fā)和應(yīng)用團(tuán)隊在實際操作中時刻保持道德自覺,主動規(guī)避可能的倫理風(fēng)險。這一系列措施不僅可以為生成式AI的應(yīng)用提供可靠的倫理保障,還能夠在國家治理中形成一個具備道德底線和社會責(zé)任感的技術(shù)應(yīng)用環(huán)境,使生成式AI的發(fā)展符合人類價值觀,朝著“善智”發(fā)展方向邁進(jìn)。

(五)提升數(shù)字主權(quán)和技術(shù)自主創(chuàng)新

為了在生成式AI的國際競爭中確保國家的數(shù)字主權(quán)和技術(shù)自主性,政府應(yīng)當(dāng)采取系統(tǒng)性的政策和支持措施,推動技術(shù)自主創(chuàng)新,確保關(guān)鍵技術(shù)不受制于人。首先,政府應(yīng)大幅增加對生成式AI技術(shù)研發(fā)的財政投入,尤其在基礎(chǔ)研究、核心算法開發(fā)和數(shù)據(jù)處理等領(lǐng)域,設(shè)立專項資金支持科研項目,鼓勵高校和科研機(jī)構(gòu)加強(qiáng)對生成式AI技術(shù)的深入攻關(guān)。這些資金支持不僅有助于培育一批擁有自主知識產(chǎn)權(quán)的核心技術(shù),還能吸引頂尖人才投入AI研發(fā),提升國家在該領(lǐng)域的技術(shù)自主性。

其次,構(gòu)建本土的AI技術(shù)創(chuàng)新生態(tài)系統(tǒng)是推動技術(shù)自主的關(guān)鍵。政府可以通過補貼政策支持企業(yè)與研究單位及產(chǎn)業(yè)鏈上的合作伙伴,合作建立一條包含基礎(chǔ)性研發(fā)、技術(shù)應(yīng)用及營銷的創(chuàng)新鏈條。比如為促進(jìn)生成式人工智能技術(shù)在本土進(jìn)行多方面的合作發(fā)展,可以提供包括研發(fā)稅收減免、創(chuàng)新性補貼及技術(shù)型人才培養(yǎng)資助在內(nèi)的激勵性措施。該種生態(tài)系統(tǒng)不但有利于國家在核心AI技術(shù)方面實現(xiàn)自主控制,而且有助于構(gòu)建人工智能的多層次、多領(lǐng)域的應(yīng)用場景,加快生成式人工智能在國家治理中的廣泛應(yīng)用。

同時,國際技術(shù)合作是提高數(shù)字主體地位的有效手段。政府可主動建立同各國的技術(shù)合作伙伴關(guān)系,聯(lián)合研究數(shù)據(jù)安全及隱私保護(hù)等問題,制訂數(shù)字主權(quán)保護(hù)政策及國際技術(shù)合作框架。通過參與制訂國際規(guī)則來增強(qiáng)話語權(quán),從而保證本國技術(shù)及數(shù)據(jù)安全不受外部干涉。同時與友好國家簽訂雙邊或多邊的科技協(xié)定,來開展跨國技術(shù)的研發(fā)和交流,一起來應(yīng)對生成式人工智能技術(shù)的全球性挑戰(zhàn)。

最后,政府還需加大對技術(shù)型人才的培養(yǎng),以形成具有國際競爭能力的技術(shù)型人才隊伍??梢耘c國內(nèi)外著名高校合作設(shè)立專門的人工智能技術(shù)研究所,培養(yǎng)具有尖端AI技術(shù)的專業(yè)人才,另外還要增加高水平科研平臺和實驗條件,來鼓勵本土科技術(shù)人才創(chuàng)新從而減少對外部人才以及技術(shù)的依靠。這一系列措施不但可以提高本土人才研發(fā)的能力,而且通過人才的創(chuàng)新能力以及專業(yè)素質(zhì)為國家在生成式AI領(lǐng)域建立永久性的技術(shù)優(yōu)勢,從而在國際競爭中強(qiáng)化國家的數(shù)字主權(quán)并占據(jù)更加重要的位置。

(六)動態(tài)風(fēng)險評估與安全監(jiān)控機(jī)制

為確保國家治理中生成式人工智能的安全應(yīng)用,應(yīng)建立動態(tài)風(fēng)險評估和安全監(jiān)控機(jī)制,以應(yīng)對潛在的技術(shù)風(fēng)險。首先,建立一套完整的安監(jiān)流程是安全監(jiān)控工作的要訣。政府要在新的生成式人工智能系統(tǒng)上線之前對其開展全面的技術(shù)、倫理方面的風(fēng)險評估,識別出安全隱患。風(fēng)險評估工作的重點放在數(shù)據(jù)的使用、算法的正義性、隱私的保護(hù)以及系統(tǒng)的可控性方面。另外,評估過程還要依托獨立的第三方機(jī)構(gòu)來開展,以保證評估的客觀性和全面性。

其次,對于生成式AI系統(tǒng)而言,政府需要建立一個持續(xù)監(jiān)視的實時預(yù)警系統(tǒng)。政府可以通過監(jiān)視系統(tǒng)來及時識別出存在于人工智能系統(tǒng)運行過程中的缺陷以及異常行為,從而對潛在的危險提前作出反應(yīng)。例如,可以通過建立異常行為偵測機(jī)制來監(jiān)視系統(tǒng)的運行狀態(tài)、識別出偏離預(yù)期的數(shù)據(jù)與決策,從而達(dá)到防微杜漸的目的。建立預(yù)警系統(tǒng)不但能夠為系統(tǒng)的長效性提供保障,而且可以使突發(fā)危機(jī)所帶來的不利沖擊大大降低。

此外,政府要在生成式人工智能的高風(fēng)險應(yīng)用領(lǐng)域?qū)嵭袊?yán)苛的審批程序。對涉及國家安全、金融安全及敏感數(shù)據(jù)的應(yīng)用場景,政府要建立多層次審批制度來對其設(shè)計、測試、運維進(jìn)行嚴(yán)格監(jiān)督,確保生成式AI的應(yīng)用不會給國家安全及社會穩(wěn)定造成威脅。審批流程應(yīng)包括安全性試驗、倫理評價及可靠性驗證等。對于高風(fēng)險AI系統(tǒng)的定期審查也是必要措施,政府要對人工智能系統(tǒng)的性能和安全性予以定期的復(fù)審,以保證系統(tǒng)隨著環(huán)境的變化而不斷做出調(diào)整,以以維持其運行的合規(guī)性及安全性。

最后,為使生成式AI系統(tǒng)按照監(jiān)控、評價結(jié)果及時地改進(jìn)、優(yōu)化,應(yīng)由政府建立反饋和更新機(jī)制。為了應(yīng)對不斷出現(xiàn)的新風(fēng)險,政府可通過動態(tài)風(fēng)險評估及連續(xù)的安全監(jiān)視,不斷地調(diào)整人工智能系統(tǒng)參數(shù)、優(yōu)化算法結(jié)構(gòu)、完善數(shù)據(jù)管理過程。該機(jī)制的建立使各種安全威脅及技術(shù)變化在生成式AI的應(yīng)用中得到及時有效的應(yīng)對,從而確保其在國家治理中實現(xiàn)長效性、穩(wěn)定性、安全性。

五、結(jié)論

國家治理中生成式人工智能的普遍運用在促進(jìn)治理模式的深度改變的同時帶來了新的挑戰(zhàn)和應(yīng)對策略。從趨勢上看,生成式人工智能不但加快了決策的智能化和數(shù)據(jù)驅(qū)動化,在實現(xiàn)公共服務(wù)的個性化及反應(yīng)精準(zhǔn)化的同時,也促進(jìn)了政府結(jié)構(gòu)扁平化與協(xié)作高效化,進(jìn)一步促進(jìn)了人機(jī)協(xié)同化、操作智慧化,另外,生成式人工智能的廣泛應(yīng)用還促進(jìn)了參與的多元化與監(jiān)督的透明化。這些趨勢為國家治理效能帶來了顯著進(jìn)步,在生成式人工智能的推動下國家治理正朝著智能化、透明化及協(xié)作化的方向發(fā)展。

與此同時,生成式AI的應(yīng)用也帶來了不可忽視的重大挑戰(zhàn)。國家治理中生成式人工智能的應(yīng)用所面臨的核心挑戰(zhàn)是數(shù)據(jù)隱私與安全風(fēng)險、算法透明度與問責(zé)缺失、倫理與道德困境、數(shù)字主權(quán)的壓力、社會不平等以及國家安全與意識形態(tài)風(fēng)險。目前亟待解決的關(guān)鍵課題是如何在國家治理中平衡生成式人工智能的技術(shù)進(jìn)步和潛在風(fēng)險,確保其在國家治理中的正向作用。

要應(yīng)對這些挑戰(zhàn),需要采取包括建立雙軌治理模式、結(jié)合硬法約束和軟法引導(dǎo)進(jìn)行治理的多層次治理策略,推動生成式AI的規(guī)范應(yīng)用;為確保AI決策的可理解性和責(zé)任歸屬清晰,需要強(qiáng)化算法透明和責(zé)任追究機(jī)制;在跨部門共享數(shù)據(jù)和保護(hù)隱私之間取得平衡;建立以倫理道德和價值導(dǎo)向為基礎(chǔ)的“善智”發(fā)展框架;提升數(shù)字主權(quán)和技術(shù)自主創(chuàng)新水平以維護(hù)生成式AI領(lǐng)域的國家獨立性;以及建立確保敏感領(lǐng)域生成式AI安全應(yīng)用的動態(tài)風(fēng)險評估和安全監(jiān)測機(jī)制。通過這些綜合戰(zhàn)略,生成式AI在國家治理中的運用將會更加安全、也會更加穩(wěn)健。

總之,作為一種創(chuàng)新性技術(shù),生成式人工智能為國家治理帶來了前所未有的機(jī)遇、帶來了深刻的挑戰(zhàn)。為了實現(xiàn)生成式人工智能可持續(xù)發(fā)展,使其成為國家治理能力提升、社會進(jìn)步的一個重要工具,就必須充分認(rèn)識到它的潛在危險并且采取有效的治理措施。面向未來,為了在國家治理中發(fā)揮生成式人工智能的積極作用、促進(jìn)國家治理體系的現(xiàn)代化轉(zhuǎn)型,政府應(yīng)該在技術(shù)、法律、倫理以及政策的多維度下,不斷完善人工智能的治理框架,保障生成式人工智能在國家治理中的積極作用。

(參考文獻(xiàn)從略)

來源:信息技術(shù)與管理應(yīng)用雜志

上一篇:

下一篇:

返回
目錄