看黄网站在线在线观看,久久不射视频,久久精品国产精品亚洲红杏,国产不卡影院,中文字幕丰满熟妇在线视频,人妻少妇久久中文字幕无码,成人a一级毛片免费看

中國西藏網 > 理論 > 資訊

生成式人工智能要發(fā)展也要規(guī)范

發(fā)布時間:2023-04-18 08:24:00 深圳特區(qū)報

  近日,國家互聯網信息辦公室發(fā)布通知,就《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《辦法》)公開征求意見。這或將是我國專門針對AIGC(人工智能生成內容)發(fā)布的第一份政府文件,引發(fā)社會各界廣泛關注。本期“思與辨”就該問題進行討論。

  主持人:趙鑫

  嘉 賓:盤和林(浙江大學國際聯合商學院數字經濟與金融創(chuàng)新研究中心聯席主任、研究員)

  李巖(遼寧大學法學院副院長、教授)

  國瀚文(西北政法大學民商法學院講師、數字法學研究院特聘研究員)

  《辦法》為企業(yè)發(fā)展提供一個合規(guī)框架

  主持人:從年初至今,以ChatGPT為代表的生成式人工智能引爆科技圈,一些國內公司也紛紛推出相應的產品和服務。此時國家出臺《辦法》規(guī)范生成式人工智能,釋放了哪些信號?

  李巖:第一,明確我國致力于人工智能服務合法化發(fā)展的立場?!掇k法》為企業(yè)發(fā)展提供一個合規(guī)框架,并試圖在合規(guī)前提下打造出人工智能技術創(chuàng)新發(fā)展新局面。第二,對服務提供者提出了高標準的合規(guī)義務要求。一方面,服務提供者需要在應用中滿足運營合規(guī)要求;另一方面,服務提供者將作為主要的人工智能生成物法律責任的承擔者。《辦法》在責任承擔上實現了與其他法律制度的銜接,服務提供者不僅需要承擔生成內容生產者的責任,還需要承擔作為個人信息處理者的責任。

  盤和林:一個信號是我們走的是先規(guī)范后發(fā)展的模式,在這個總基調下,互聯網企業(yè)要考慮應用的合規(guī)性。另一個信號是監(jiān)管層對于AIGC這一新事物還沒有做好充分的準備,政策的執(zhí)行具體流程是怎么樣的?主管單位是誰?怎么認定是真實準確的內容?這些細節(jié)還沒有確切的說法,《辦法》還是一個粗線條的條款,是對于當前國內對AIGC一哄而上無序狀態(tài)的應急性舉措,所以《辦法》還有很大的完善空間。

  國瀚文:透過該《辦法》可以看出國家鼓勵生成式人工智能的發(fā)展,同時也將加大管理、監(jiān)督力度,引導和規(guī)范相關行業(yè)。該《辦法》一方面體現了國家對個人權益的保護,另一方面也體現出國家大力支持人工智能產業(yè),推動相關產業(yè)技術的發(fā)展。

  我國關注的重點是內容生成的價值取向問題

  主持人:此前,有不少國家對生成式人工智能出臺了監(jiān)管新政,側重點各不相同。我國出臺的《辦法》有哪些顯著特點?哪些規(guī)定值得特別關注?

  國瀚文:一是對生成式人工智能服務的監(jiān)管貫穿始終,規(guī)定了申報安全評估、履行算法備案等登記手續(xù)。二是強調生成式人工智能產品或服務需遵守法律規(guī)范及尊重社會公德、公序良俗,與我國對待數據產業(yè)的態(tài)度是一致的。

  值得關注的是,《辦法》聚焦生成式人工智能服務的安全合法,強調生成式人工智能服務的治理及權益保護,對算法的可靠性和透明度提出了要求。

  總體來看,《辦法》回應了當前生成式人工智能發(fā)展的需要,對一些可能出現的衍生問題提出防范舉措,有助于提前研判規(guī)避風險。

  盤和林:《辦法》和其他國家的監(jiān)管目標是不同的,我國關注的重點是內容生成的價值取向問題。規(guī)范生成內容是可以做到的,因為AI是高質量數據訓練的產物,文本也好,圖像也好,都是可以達成目標的,但現在以提供方為責任人的規(guī)定,我認為還是要有所調整,諸如用戶也要負一定責任,因為AI生成內容是和用戶有關系的。所以要加強對用戶責任的認定,不能讓所有的責任都由提供方來承擔。當然,提供方有責任進行一些必要的限制,來回避敏感內容,但即便是提供方屏蔽了,模型訓練了,還是無法回避所有的問題,因為人類文字,尤其是中文是很復雜的,如果出現歧義,應該給予適度包容,如果被用戶惡意傳播,則應該讓用戶承擔相應責任。

  李巖:第一,《辦法》提出了全流程全周期的監(jiān)管要求。對算法入市、數據來源、數據訓練輸出文本等各個環(huán)節(jié)的風險控制,提出了要求。第二,《辦法》的監(jiān)管舉措主要通過為服務提供者設置監(jiān)管義務實現。第三,《辦法》設置了多條引致條款,與《數據安全法》《個人信息保護法》等現行法律法規(guī)形成良好銜接,能夠發(fā)揮出體系效應。

  值得注意的是,《辦法》第十一條規(guī)定不得非法留存能推斷出用戶身份的輸入信息。這一規(guī)定能夠有效防范個人信息泄露風險。但如何實現這類信息與其他信息的區(qū)分,還需要進一步研究。另外,《辦法》未涉及對于商業(yè)秘密或高敏感度的商業(yè)數據的留存問題,缺乏對商業(yè)數據的事前監(jiān)管。

  包容審慎的審查觀能夠更好實現技術發(fā)展與安全之間的平衡

  主持人:對于規(guī)范生成式人工智能,您還有哪些好的建議?

  盤和林:立法應該關注AIGC的一些特性,比如內容生成的隨機性,比如責任劃分問題。如果先規(guī)范再發(fā)展成為主基調,那么在規(guī)范方面要考慮更加成熟的立法方案,因為法規(guī)一旦出臺,就需要不折不扣地執(zhí)行。而如果法律出臺之后,對AIGC產業(yè)發(fā)展造成了阻礙,導致大量AIGC應用無法落地,那就有可能導致新的科技差距。所以立法還是要進一步細化,做好每一條的解釋工作,落實責任主體。也要和AIGC領域的龍頭企業(yè)做好溝通。對于新技術,我們都有一個接受的過程,對新技術的理解不可能一步到位。法律就是畫紅線,紅線是規(guī)范企業(yè)行為的,紅線劃得越細,企業(yè)獲得的空間就越大,企業(yè)在科技領域的表現就越活躍。

  國瀚文:規(guī)范生成式人工智能,首先應完善相關的法律法規(guī),對生成式人工智能服務進行分類管理;其次,建立完整的安全評估規(guī)范和管理流程規(guī)范,保障數據安全及隱私安全,提高生成式人工智能服務的質量和水平。

  李巖:第一,建立包容審慎的生成式人工智能審查模式。包容審慎的審查觀能夠更好實現技術發(fā)展與安全之間的平衡,為企業(yè)的技術發(fā)展預留空間。第二,建立專門監(jiān)管機構,對生成式人工智能實施專項監(jiān)管。生成式人工智能行業(yè)的監(jiān)管需要一定的技術支持,不僅需要借助技術手段監(jiān)管,而且需要技術人才進行風險解構。傳統監(jiān)管模式容易出現權限劃分爭端,可能出現監(jiān)管權限交叉或監(jiān)管真空問題,專項監(jiān)管模式有助于實現算法的分級分類管理。

(責編: 王東)

版權聲明:凡注明“來源:中國西藏網”或“中國西藏網文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網和署著作者名,否則將追究相關法律責任。