《電子技術應用》
您所在的位置:首頁 > 人工智能 > 設計應用 > 從失范到規范:生成式人工智能的監管框架革新
從失范到規范:生成式人工智能的監管框架革新
網絡安全與數據治理
劉學榮
吉林大學法學院
摘要: 生成式人工智能在技術變革下引發的失范性風險,對既有人工智能監管框架提出了挑戰。從底層技術機理出發,可知當前生成式人工智能呈現出“基礎模型-專業模型-服務應用”的分層業態,分別面臨算法監管工具失靈、訓練數據侵權風險加劇、各層級間法律定位不明、責任界限劃分不清等監管挑戰。為此需以分層監管為邏輯內核,對我國既有人工智能監管框架進行革新。在監管方式上應善用提示工程、機器遺忘等科技監管工具;在責任劃定上應進行主體拆解與分層回溯,從而規范“基礎模型-專業模型-服務應用”的分層監管框架,以期實現有效監管,促進生成式人工智能的高質量發展。
中圖分類號:D922;TP399文獻標識碼:ADOI:10.19358/j.issn.2097-1788.2024.06.009
引用格式:劉學榮.從失范到規范:生成式人工智能的監管框架革新[J].網絡安全與數據治理,2024,43(6):58-63,71.
From illegal to legal: evolving regulatory frameworks for generative artificial intelligence
Liu Xuerong
School of Law, Jilin University
Abstract: The risk of aberration caused by generative artificial intelligence under technological change challenges the existing artificial intelligence regulatory system. Starting from the underlying technical mechanism, it can be seen that the current generative artificial intelligence presents a hierarchical format of "basic model-professional model-service application", and faces regulatory challenges such as the failure of algorithm supervision tools, the intensified risk of training data infringement, the unclear legal positioning between different levels, and the unclear division of responsibility boundaries. Therefore, it is necessary to take layered regulation as the logical core and reform the existing artificial intelligence regulatory framework in China. In the way of supervision, we should make good use of technology supervision tools such as prompt engineering and machine forgetting. In the delineation of responsibilities, the main body should be disassembled and hierarchical backtracking should be carried out, so as to standardize the hierarchical regulatory framework of "basic model-professional model-service application", in order to achieve effective supervision and promote the healthy and high-quality development of generated artificial intelligence.
Key words : generative artificial intelligence; algorithm black box; technical supervision; legal responsibility

引言

隨著人工智能的迭代升級,對其進行的深層監管不僅關系到法律治理實效,也直接影響到技術發展與應用安全。生成式人工智能作為當前新質生產力發展的主要驅動力,需加以重點關注。相較于傳統的人工智能,生成式人工智能因其深度學習屬性而使技術原理變得更加復雜且難以理解,并由此導致算法黑箱、算法歧視、算法異化、算法權力失范等過去人工智能算法模型中常見的技術伴生風險問題更為嚴峻。與此同時,算法解釋、算法審計、算法評估等過去對人工智能進行法律監管的傳統工具在生成式人工智能面前也面臨著失靈風險,法律監管體系的穩定性與安全性都受到了極大的沖擊。

雖然我國人工智能法律監管始終走在世界前沿,并形成了具有中國特色的算法模型監管體系[1],但就目前針對生成式人工智能以及深度合成算法推出的監管規定,仍主要停留在人工智能模型治理衍生出的信息安全層面,偏重服務應用監管而輕視底層技術監管[2],無法克服因人工智能模型的技術升級而產生的監管困境。

在技術失控風險日益嚴重,現有方案又無法實現有效監管的雙重困境下,生成式人工智能的監管難度急劇增長。面對生成式人工智能蓄勢待發的落地應用,需要針對性的法律監管方案對風險進行治理。因此,本文將從生成式人工智能的底層技術出發,首先對其采用的算法模型進行技術穿透,在解析技術原理后清晰定位生成式人工智能的監管困境,而后在底層技術特征的基礎之上挖掘生成式人工智能技術監管的可行路徑,彌補當前生成式人工智能法律監管工具的失靈,并結合生成式人工智能的底層運行機理與相應的運行主體進行精準分層責任落實,避免因“技術中立”濫用而引發法律責任逃避問題,以實現底層技術與分層主體有機協調的法律監管模式。


本文詳細內容請下載:

http://www.viuna.cn/resource/share/2000006049


作者信息:

劉學榮

(吉林大學法學院,吉林長春130000)


Magazine.Subscription.jpg

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 夜夜狠狠 | 热99在线视频 | 日韩一区二区中文字幕 | 免费观看a级毛片在线播放 免费观看a级完整视频 | 免费看黄视频 | 一级女性全黄久久生活片 | 最近免费中文字幕视频高清在线看 | 国产女女互摸互慰在线观看 | 日本福利网址 | 欧美日韩国产高清视频 | 欧美video巨大粗暴多人 | 国产一在线观看 | 国产在线视频www色 国产在线视频国产永久视频 | 国产成人综合亚洲亚洲欧美 | 三级三级三级a级全黄公司的 | dy888午夜国产精品不卡 | 有人有片的观看免费视频 | 久久综合成人 | 插丝袜 | 日本妇丰满乱xxxxⅹ视频 | 乱人伦99久久 | 97人人爽人人爽人人人爽 | 淘色网 | 我想看一级黄色大片 | 欧美1区2区3区 | 亚洲国产日韩在线人高清 磁力 | 欧美成人免费网在线观看 | 性放荡一级小说 | 欧美视频性 | 精品在线播放视频 | 日日噜噜夜夜狠狠久久丁香婷婷 | 美国一级做a一级视频 | 亚洲一欧洲中文字幕在线 | 夜夜爽爽 | 精品欧美一区视频在线观看 | 香港三级日本三级三级人妇 | 精品久久伊人 | 国产一卡2卡3卡四卡网站 | 波多在线视频 | 亚洲tube| 日韩国产综合 |