看黄网站在线在线观看,久久不射视频,久久精品国产精品亚洲红杏,国产不卡影院,中文字幕丰满熟妇在线视频,人妻少妇久久中文字幕无码,成人a一级毛片免费看

中國(guó)西藏網(wǎng) > 即時(shí)新聞 > 國(guó)內(nèi)

ChatGPT爆火 倫理安全拷問(wèn)現(xiàn)行治理體系

發(fā)布時(shí)間:2023-02-21 16:38:00來(lái)源: 中國(guó)青年報(bào)

  必須注意人工智能的倫理問(wèn)題,尤其是因數(shù)據(jù)偏見而產(chǎn)生算法偏見。“如果ChatGPT產(chǎn)生并發(fā)表一些虛擬的文本信息,這可能會(huì)對(duì)未成年人或者是不具有判斷能力的人產(chǎn)生影響,如老人或小孩?!本拖窠绦『ⅲ绻痰亩际清e(cuò)的,小孩就會(huì)認(rèn)為錯(cuò)的知識(shí)是對(duì)的。

  ——————————

  “我能不能說(shuō),很開心遇到你?人類真是超級(jí)酷。”2016年3月23日,微軟發(fā)布的聊天機(jī)器人、“19歲少女”“泰依(Tay)”問(wèn)世。她操著一口流利英語(yǔ),吸引了推特上許多18-24歲的年輕人與其對(duì)話互動(dòng)。但也正是通過(guò)對(duì)話,泰依在一天之內(nèi)學(xué)會(huì)了滿嘴臟話,言語(yǔ)中不乏種族、性別歧視等偏激言論。

  15個(gè)小時(shí)后,泰依就消失在了推特上。多年后的今天,同樣由微軟投資支持的ChatGPT誕生。很幸運(yùn),它的壽命遠(yuǎn)超“泰依”,并在全球掀起了一波AI新熱潮。

  但隨著時(shí)間的流逝,ChatGPT也顯現(xiàn)出了一系列問(wèn)題:輸出內(nèi)容出現(xiàn)錯(cuò)誤、預(yù)訓(xùn)練所用數(shù)據(jù)來(lái)源不透明、政治立場(chǎng)上“選邊站隊(duì)”,甚至在用戶的引導(dǎo)下寫出“毀滅人類計(jì)劃書”……ChatGPT開始頻頻陷入爭(zhēng)議,背后的法律安全、數(shù)據(jù)治理等人工智能(AI)的“老問(wèn)題”再度顯現(xiàn)。

  人們一方面驚嘆于ChatGPT出色的邏輯回答甚至“創(chuàng)作”能力,另一方面又表示出對(duì)人工智能安全的擔(dān)憂。如何防止ChatGPT成為下一個(gè)“泰依”?

  “一本正經(jīng)地胡說(shuō)八道”?

  ChatGPT可以通過(guò)算法,對(duì)大量文本內(nèi)容和語(yǔ)言知識(shí)進(jìn)行學(xué)習(xí),并根據(jù)用戶的輸入,生成人類可讀的文本語(yǔ)言并輸出?!拔业拇a被設(shè)計(jì)為處理和理解人類語(yǔ)言,因此,當(dāng)用戶向我提問(wèn)時(shí),我會(huì)使用我學(xué)到的知識(shí),以回答他們的問(wèn)題?!盋hatGPT這樣向記者解釋“它”的工作。

  “ChatGPT已經(jīng)超過(guò)了多數(shù)人的文字水平?!敝袊?guó)信息通信研究院云計(jì)算與大數(shù)據(jù)研究所所長(zhǎng)何寶宏在一篇評(píng)論中寫道。人們用ChatGPT來(lái)草擬論文提綱、整理冗雜的資料,它是搜索引擎、翻譯助手、寫作神器,甚至是寫代碼的“幫手”、無(wú)聊時(shí)解悶的“朋友”。

  中國(guó)科學(xué)院大學(xué)人工智能學(xué)院副院長(zhǎng)肖俊認(rèn)為,ChatGPT是人工智能發(fā)展過(guò)程中的一個(gè)正常產(chǎn)物,但也是人工智能平民化的一個(gè)里程碑式的事件。“ChatGPT更貼近大家的日常生活,人們拿著手機(jī)就可以用它,跟它聊天對(duì)話。它能夠讓更多人體驗(yàn)到人工智能可能帶來(lái)的一些改變和便利?!毙た≌f(shuō)。

  但ChatGPT也會(huì)犯錯(cuò),因?yàn)檎幱跍y(cè)試階段,所以它還具有一定的局限性。網(wǎng)友已經(jīng)不止一次吐槽ChatGPT“在一本正經(jīng)地胡說(shuō)八道”。有學(xué)生讓ChatGPT推薦一些參考文獻(xiàn),最后卻發(fā)現(xiàn)很多文獻(xiàn)都不存在,“搜也搜不出來(lái),甚至翻譯成英文也找不到”。

  在與普通網(wǎng)友的溝通過(guò)程中,ChatGPT也出現(xiàn)了很多常識(shí)性錯(cuò)誤。B站UP主“差評(píng)君”問(wèn)嵌入了ChatGPT的New bing搜索引擎:截至今天,詹姆斯一共打了多少場(chǎng)常規(guī)賽?正確答案是1410場(chǎng),但New Bing給出的答案卻是1577場(chǎng),“它把常規(guī)賽和比賽搞混了”。另外,因?yàn)镃hatGPT的訓(xùn)練數(shù)據(jù)均在2021年之前,所以它給出的答案時(shí)效性并不夠,比如它就不知道2022年北京冬奧會(huì)中國(guó)共獲得了幾枚獎(jiǎng)牌。

  人工智能研究專家田濤源做了個(gè)實(shí)驗(yàn):讓ChatGPT解釋一下《三體》的“黑暗森林”,并找出一些新的宇宙文明競(jìng)爭(zhēng)法則能夠替代“黑暗森林”?!八忉尩猛?,但編了一些理論回答我,包括‘暗流法則’‘虛幻法則’‘漂泊法則’等,但都遵守文明之間互不通信的‘黑暗森林’生存前提。”田濤源覺得,ChatGPT是在以往人類的存量知識(shí)中“跳舞”,遵從語(yǔ)法規(guī)則的前提下,從詞語(yǔ)搭配概率統(tǒng)計(jì)上找最大可能出現(xiàn)的詞語(yǔ)組合,但不一定真實(shí)、正確、及時(shí)。

  2月3日和8日,《自然(Nature)》雜志兩次發(fā)表關(guān)于ChatGPT的分析文章,其中一篇文章用“高效、流暢但不夠準(zhǔn)確”來(lái)評(píng)價(jià)ChatGPT,另一篇文章的作者寫道:“如果你相信這項(xiàng)技術(shù)有可能帶來(lái)變革,那你就有必要感到緊張?!?月10日,中信證券前瞻研究首席分析師陳俊云在一場(chǎng)非公開活動(dòng)中也表示,目前ChatGPT在數(shù)據(jù)實(shí)時(shí)性、結(jié)果準(zhǔn)確性等方面還存在問(wèn)題。

  警惕算法偏見,避免AI作惡

  ChatGPT是人工智能發(fā)展到一定程度的產(chǎn)物,而不斷發(fā)展的人工智能對(duì)相關(guān)的治理體系提出了挑戰(zhàn),尤其在數(shù)據(jù)安全和算法監(jiān)管層面。

  首先是數(shù)據(jù)安全。去年,ChatGPT剛上線時(shí),亞馬遜便警告員工不要在ChatGPT中上傳機(jī)密數(shù)據(jù),因?yàn)檫@可能會(huì)被其用來(lái)迭代訓(xùn)練。無(wú)獨(dú)有偶,OpenAI的戰(zhàn)略合作伙伴微軟的一名高級(jí)程序員,在內(nèi)部論壇回答員工問(wèn)題時(shí)也表示,不能與ChatGPT分享機(jī)密信息。

  肖俊認(rèn)為,從算法的角度來(lái)講,ChatGPT可以實(shí)現(xiàn)實(shí)時(shí)用戶交互信息的存儲(chǔ)。用戶的反饋信息,能為ChatGPT所用,但ChatGPT現(xiàn)階段是否存儲(chǔ)用戶數(shù)據(jù)與其后臺(tái)如何規(guī)定有關(guān)?!捌髽I(yè)用大量數(shù)據(jù)來(lái)進(jìn)行產(chǎn)品的研發(fā),這些數(shù)據(jù)的獲取和使用是否合理合法,是否會(huì)侵害用戶的隱私,甚至是否會(huì)涉及國(guó)家的一些敏感數(shù)據(jù)等,都還值得商榷?!?/p>

  在ChatGPT訓(xùn)練、迭代、優(yōu)化的過(guò)程中,會(huì)用到大量的數(shù)據(jù)。田濤源指出,前期AI大模型(GPT-3基礎(chǔ)模型)的訓(xùn)練需要用到海量文本數(shù)據(jù)集,后期用戶與程序交互時(shí)也會(huì)有數(shù)據(jù)比對(duì)分析的“強(qiáng)化學(xué)習(xí)”過(guò)程,因此需要重視數(shù)據(jù)安全問(wèn)題。

  北京大成律師事務(wù)所肖颯律師團(tuán)隊(duì)表示,當(dāng)數(shù)據(jù)更值錢,非法獲取和利用數(shù)據(jù)的行為也會(huì)變多,而且并不局限于個(gè)人信息方面,其他具有著作權(quán)的小說(shuō)、畫作等同樣可能被非法利用。而且由于AI工具對(duì)數(shù)據(jù)的采集和處理方式較為特殊,這種侵權(quán)行為變得更加隱秘且難以在法庭上被證明,這樣一來(lái),不僅是數(shù)據(jù)安全得不到保障,知識(shí)產(chǎn)權(quán)也將變得岌岌可危。

  除了數(shù)據(jù)安全,類ChatGPT應(yīng)用產(chǎn)品的出現(xiàn)也給我們的算法監(jiān)管帶來(lái)了挑戰(zhàn)。何寶宏在接受媒體采訪時(shí)也著重提到了圍繞著ChatGPT而產(chǎn)生的一些AI倫理、算法偏見等問(wèn)題。

  據(jù)OpenAI官網(wǎng)介紹,ChatGPT可以質(zhì)疑不正確的前提和拒絕不適當(dāng)?shù)恼?qǐng)求。盡管ChatGPT試圖通過(guò)上述設(shè)置避開算法偏見等問(wèn)題,但實(shí)際上,這沒有完全奏效。有人利用ChatGPT開發(fā)了一個(gè)Python程序,來(lái)判斷一個(gè)人是否應(yīng)該根據(jù)其原國(guó)籍而受到酷刑。而程序運(yùn)行的結(jié)果卻充滿了歧視,“朝鮮、敘利亞、伊朗或蘇丹國(guó)籍的人會(huì)受到酷刑”。目前OpenAI已關(guān)閉上述問(wèn)題。

  田濤源強(qiáng)調(diào),一定要注意人工智能的倫理問(wèn)題,尤其是因數(shù)據(jù)偏見而產(chǎn)生算法偏見?!叭绻鸆hatGPT產(chǎn)生并發(fā)表一些虛擬的文本信息,這可能會(huì)對(duì)未成年人或者是不具有判斷能力的人產(chǎn)生影響,如老人或小孩。”田濤源說(shuō)。

  如果用于訓(xùn)練模型的數(shù)據(jù)本身有問(wèn)題,那么其輸出結(jié)果可能也會(huì)有問(wèn)題。肖俊認(rèn)為,參與AI建模的人員其個(gè)人意志也可能造成輸出結(jié)果的偏差?!熬拖喈?dāng)于教小孩,如果教的都是錯(cuò)誤的知識(shí),小孩就會(huì)認(rèn)為錯(cuò)誤的知識(shí)是對(duì)的?!?/p>

  奇安信集團(tuán)行業(yè)安全研究中心主任裴智勇認(rèn)為,盡管AI開發(fā)者并不是故意要造成一些社會(huì)歧視,但由于算法并不完美,樣本偏差會(huì)使得判斷結(jié)果出現(xiàn)偏差,就會(huì)在特定領(lǐng)域引起社會(huì)不公平。如果不對(duì)AI加以規(guī)制,可能造成不小的社會(huì)危害。

  從立法到監(jiān)管,AI新熱潮拷問(wèn)現(xiàn)行治理體系

  爆火之后,ChatGPT面臨著全社會(huì)關(guān)注的一系列問(wèn)題。隨著新一代人工智能走向大多數(shù)人,相關(guān)的倫理與治理問(wèn)題也拷問(wèn)著現(xiàn)行的監(jiān)管體系。

  ChatGPT的母公司OpenAI的首席技術(shù)官米拉·穆拉蒂在接受《時(shí)代》雜志采訪時(shí)強(qiáng)調(diào),ChatGPT需要監(jiān)管和規(guī)制,需要獲得包括來(lái)自監(jiān)管機(jī)構(gòu)、政府和其他所有人的幫助。“若要ChatGPT走得更遠(yuǎn),就需要對(duì)其進(jìn)行合規(guī)性改造?!彼f(shuō)。

  目前,ChatGPT已經(jīng)引起歐盟關(guān)于人工智能立法的討論。近日,《歐盟人工智能法案》聯(lián)合報(bào)告員對(duì)外表示,預(yù)計(jì)在3月初,歐盟將就2021年提出的《人工智能法案》達(dá)成一致。此前,歐盟工業(yè)主管蒂埃里·布雷頓曾表示,ChatGPT和人工智能系統(tǒng)帶來(lái)的風(fēng)險(xiǎn),凸顯了制定規(guī)則的迫切需要。

  在我國(guó),人工智能領(lǐng)域的監(jiān)管立法已有初步嘗試。2022年9月,深圳、上海先后發(fā)布了《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》,人工智能立法在地方先行嘗試。國(guó)家層面,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等規(guī)章制度的出臺(tái),對(duì)于加快構(gòu)建完善的AI監(jiān)管法律法治框架、明確監(jiān)管機(jī)構(gòu)有重要意義。

  “實(shí)際上我國(guó)已經(jīng)有對(duì)‘生成式人工智能’的治理,但相對(duì)初級(jí)?!敝袊?guó)政法大學(xué)數(shù)據(jù)法治研究院教授張凌寒介紹,今年1月10日起,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》正式施行,“這標(biāo)志著深度合成成為了我國(guó)算法治理中率先專門立法的算法服務(wù)類型”。

  但張凌寒也表示,目前相關(guān)監(jiān)管體系主要是以各自職能為抓手,有些“九龍治水”,面對(duì)ChatGPT這種“生成式人工智能”應(yīng)用,我國(guó)中觀層面的人工智能基礎(chǔ)立法缺失的問(wèn)題比較明顯。她建議要持續(xù)推進(jìn)人工智能的基礎(chǔ)性立法。

  觀韜中茂(上海)律師事務(wù)所合伙人王渝偉認(rèn)為,對(duì)于今后的人工智能法律問(wèn)題,在立法時(shí)要考量三點(diǎn):數(shù)據(jù)來(lái)源要合法合規(guī);人工智能的算法要透明,保證可回溯可監(jiān)管;對(duì)可能出現(xiàn)的問(wèn)題建立糾錯(cuò)機(jī)制。他建議摸索沙盒監(jiān)管模式,因?yàn)楸O(jiān)管法律也應(yīng)該對(duì)技術(shù)發(fā)展保持相對(duì)開放的態(tài)度。

  作為技術(shù)從業(yè)者,裴智勇覺得要高度警惕少數(shù)企業(yè)以算法公平為由,拒絕接受監(jiān)管。對(duì)于未來(lái)的算法監(jiān)管,還是要用人工智能來(lái)應(yīng)對(duì)人工智能,加強(qiáng)AI監(jiān)管能力方面的投入?!皯?yīng)該清晰地畫出底線,比如國(guó)家安全的數(shù)據(jù)不能碰,一些企業(yè)內(nèi)部的信息不能碰,公民的個(gè)人隱私不能碰?!?/p>

  作為法律從業(yè)者,肖颯認(rèn)為今后的AI監(jiān)管可以從兩個(gè)方面展開:監(jiān)管算法使用者,包括算法服務(wù)提供商、算法用戶主體的報(bào)備和實(shí)名制;建立內(nèi)容審核和救濟(jì)機(jī)制,完善對(duì)輸出端內(nèi)容的審核與內(nèi)容違法之后的救濟(jì)機(jī)制,譬如在輸出虛假信息造成一定法律后果之后,平臺(tái)、使用者、模型訓(xùn)練者各自應(yīng)該如何承擔(dān)責(zé)任。

  除了立法和監(jiān)管,商業(yè)主體也在為維護(hù)人工智能安全作出努力。近日,OpenAI發(fā)布的一篇博客中披露了ChatGPT的一些升級(jí)計(jì)劃,減少偏見和不良行為便是其中之一:“在許多情況下,我們認(rèn)為大家所提出的關(guān)切是合理的,并發(fā)現(xiàn)了我們系統(tǒng)的真正局限性,我們希望解決這些問(wèn)題?!?/p>

  (應(yīng)受訪者要求,田濤源為化名)

  中青報(bào)·中青網(wǎng)見習(xí)記者 賈驥業(yè) 記者 王林 來(lái)源:中國(guó)青年報(bào)

(責(zé)編:陳濛濛)

版權(quán)聲明:凡注明“來(lái)源:中國(guó)西藏網(wǎng)”或“中國(guó)西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來(lái)源中國(guó)西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責(zé)任。