最近中文高清MV免费版_无码任你躁久久久久久老妇_AV一区AV久久AV无码_国产精品亚洲欧美大片在线观看_久久人人爽人人爽人人片亞洲_国产成人精品日本亚洲77美色_JLZZJLZZ亚洲乱熟无码_成人免费看黄网站yyy456_午夜精品久久久久久99热_2015av天堂网

聊城市科學(xué)技術(shù)協(xié)會(huì)
arrow
    聯(lián)系方式
  • 郵箱:lcskx@lc.shandong.cn
arrow
周一至周五 8:00 - 17:00
arrow
qrcode
微信公眾號(hào)

【聚焦】AI快速發(fā)展,立一部“根本大法”時(shí)機(jī)到了嗎?專家熱議

瀏覽 :
中國(guó)政法大學(xué)比較法學(xué)研究院教授劉文杰表示,目前法律法規(guī)并未對(duì)用戶輸入內(nèi)容是否能用于模型訓(xùn)練作出直接規(guī)定,在實(shí)踐中,用戶為讓AI更好回答問題,相關(guān)提示詞可能涉及個(gè)人信息

今年政府工作報(bào)告提出,持續(xù)推進(jìn)“人工智能+”行動(dòng),將數(shù)字技術(shù)與制造優(yōu)勢(shì)、市場(chǎng)優(yōu)勢(shì)更好結(jié)合起來(lái),支持大模型廣泛應(yīng)用。近年來(lái),我國(guó)人工智能產(chǎn)業(yè)取得長(zhǎng)足進(jìn)步,逐漸成為驅(qū)動(dòng)新質(zhì)生產(chǎn)力的重要引擎。與此同時(shí),人工智能技術(shù)的每一步創(chuàng)新也不斷引發(fā)法律與倫理方面的深刻思考。

用戶數(shù)據(jù)如何規(guī)范用于模型訓(xùn)練?AI生成內(nèi)容的版權(quán)歸屬如何確定?如何促進(jìn)AI產(chǎn)業(yè)健康發(fā)展?為探尋技術(shù)創(chuàng)新與風(fēng)險(xiǎn)防范之間的平衡點(diǎn),近日,中國(guó)政法大學(xué)民商經(jīng)濟(jì)法學(xué)院民法研究所、走出去智庫(kù)、《互聯(lián)網(wǎng)法律評(píng)論》聯(lián)合主辦“人工智能版權(quán)前沿問題”研討會(huì),來(lái)自法學(xué)、經(jīng)濟(jì)學(xué)、公共政策等領(lǐng)域的專家學(xué)者齊聚一堂,就當(dāng)前AI領(lǐng)域的前沿問題展開熱議。

減少“數(shù)據(jù)污染”,用戶須負(fù)責(zé)任地使用模型

當(dāng)前,大模型訓(xùn)練依賴海量數(shù)據(jù),而用戶數(shù)據(jù)通常會(huì)被用于模型的優(yōu)化。如果未明確告知用戶將使用哪些數(shù)據(jù)或者數(shù)據(jù)的使用范圍過于模糊,可能引發(fā)對(duì)于數(shù)據(jù)被濫用風(fēng)險(xiǎn)的擔(dān)憂。會(huì)上多位專家提到,增強(qiáng)AI大模型透明度,切實(shí)保護(hù)個(gè)人隱私安全,已成為大模型企業(yè)的一道必答題。

中國(guó)人民大學(xué)法學(xué)院副教授姚歡慶提出,各種單一數(shù)據(jù)對(duì)于個(gè)人而言沒有太多利用價(jià)值,但科技公司卻能通過不同數(shù)據(jù)庫(kù)的匯集和碰撞,迅速拼湊推導(dǎo)出更多的個(gè)人信息,比如近期受到熱議的“開盒”便是一個(gè)例子。由于個(gè)人用戶對(duì)數(shù)據(jù)價(jià)值的認(rèn)知水平往往與技術(shù)公司的利用能力不對(duì)等,當(dāng)前“用戶同意”機(jī)制仍有待完善,涉及個(gè)人隱私的“知情同意”應(yīng)做到明白、清楚、仔細(xì)。

中國(guó)政法大學(xué)比較法學(xué)研究院教授劉文杰表示,目前法律法規(guī)并未對(duì)用戶輸入內(nèi)容是否能用于模型訓(xùn)練作出直接規(guī)定,在實(shí)踐中,用戶為讓AI更好回答問題,相關(guān)提示詞可能涉及個(gè)人信息。根據(jù)《個(gè)人信息保護(hù)法》,信息輸入后,如果服務(wù)商想要儲(chǔ)存、再加工,需要向用戶明示并征求其同意。關(guān)于敏感個(gè)人信息,我國(guó)法律還有“一事一議”的特殊規(guī)定,即處理敏感個(gè)人信息不能采用概括同意或推定同意的授權(quán)模式,而必須獲得個(gè)人明確的、單獨(dú)的同意。

北京理工大學(xué)智能科技法律研究中心研究員王磊則指出,大型平臺(tái)企業(yè)的數(shù)據(jù)利用大多合法合規(guī),但黑灰產(chǎn)對(duì)大數(shù)據(jù)的非法運(yùn)用十分猖獗,須通過政府監(jiān)管、技術(shù)平臺(tái)和社會(huì)多方形成合力進(jìn)行打擊。他指出,當(dāng)前高質(zhì)量數(shù)據(jù)的結(jié)構(gòu)性匱乏已成為制約大模型發(fā)展的瓶頸,尤以醫(yī)療、交通、金融等領(lǐng)域?yàn)榇怼?/span>

另外,中國(guó)政法大學(xué)民商經(jīng)濟(jì)法學(xué)院知識(shí)產(chǎn)權(quán)法研究所講師郝明英認(rèn)為,在后端規(guī)制方面,除了重視“告知同意”,還應(yīng)賦予用戶撤回和退出的權(quán)利。南都數(shù)字經(jīng)濟(jì)治理研究中心去年發(fā)布的《生成式AI用戶風(fēng)險(xiǎn)感知與信息披露透明度報(bào)告(2024)》曾在實(shí)測(cè)15款頭部國(guó)產(chǎn)大模型時(shí)發(fā)現(xiàn),僅有騰訊元寶、智譜清言等4家大模型在協(xié)議中提及允許用戶拒絕相關(guān)數(shù)據(jù)被用于AI訓(xùn)練。

針對(duì)當(dāng)前模型訓(xùn)練的數(shù)據(jù)訴求,與會(huì)專家討論指出,模型優(yōu)化有時(shí)缺乏常識(shí)和判斷邏輯,與用戶提供的訓(xùn)練數(shù)據(jù)質(zhì)量有關(guān)。如果用戶不斷投喂錯(cuò)誤觀點(diǎn)和結(jié)論,模型將可能賦予錯(cuò)誤內(nèi)容更優(yōu)先權(quán)重。此外,數(shù)據(jù)標(biāo)注環(huán)節(jié)若由非專業(yè)人員完成,標(biāo)注錯(cuò)誤往往引發(fā)“數(shù)據(jù)污染”,導(dǎo)致模型輸出產(chǎn)生“幻覺”。為了構(gòu)建良好的生態(tài)系統(tǒng),其中用戶負(fù)責(zé)任地使用模型也是重要一環(huán)。

AI生成內(nèi)容權(quán)利、義務(wù)及責(zé)任應(yīng)當(dāng)相適應(yīng)

生成式人工智能在各領(lǐng)域被廣泛應(yīng)用以來(lái),其生成內(nèi)容的版權(quán)糾紛也密集涌現(xiàn)。從2023年至今,我國(guó)已涌現(xiàn)一批相關(guān)司法判例,為AI生成內(nèi)容的權(quán)利和責(zé)任歸屬問題提供了支撐。

郝明英指出,中國(guó)現(xiàn)有判例表明,如用戶在提示輸入、結(jié)果篩選等環(huán)節(jié)體現(xiàn)“獨(dú)創(chuàng)性勞動(dòng)”,即認(rèn)定生成內(nèi)容受版權(quán)保護(hù)。這與日本文化廳最新意見相近,結(jié)合產(chǎn)業(yè)實(shí)踐,OpenAI、Midjourney等海外平臺(tái)也大多在用戶協(xié)議中將生成內(nèi)容權(quán)利歸屬于用戶,強(qiáng)調(diào)“人類創(chuàng)作性貢獻(xiàn)”的核心地位,“指令的具體性”是影響認(rèn)定的因素之一。

劉文杰則指出,當(dāng)前司法實(shí)踐中對(duì)AI生成內(nèi)容場(chǎng)景中用戶“作者”身份的判定其實(shí)不同于傳統(tǒng)著作權(quán)法理論。以北京互聯(lián)網(wǎng)法院相關(guān)判決為例,法院雖認(rèn)可用戶對(duì)AI生成圖片的著作權(quán),卻要求該用戶在作品上標(biāo)注所使用的AI技術(shù),這說(shuō)明此處的用戶與傳統(tǒng)著作權(quán)法理論中的“作者”并不完全等同。用戶提供提示詞觸發(fā)模型運(yùn)行,進(jìn)而由模型輸出內(nèi)容,此時(shí)用戶對(duì)生成作品的貢獻(xiàn)更接近于工具操作者或“制作者”,而非“創(chuàng)作者”。

談及AI生成侵權(quán)內(nèi)容時(shí)的責(zé)任問題,郝明英表示,目前基本各國(guó)都認(rèn)同AI無(wú)法成為權(quán)利主體的觀點(diǎn),這就意味著一旦出現(xiàn)侵權(quán)問題,它無(wú)法承擔(dān)相應(yīng)責(zé)任。在生成內(nèi)容權(quán)利歸屬于用戶的情況下,如果由平臺(tái)承擔(dān)侵權(quán)責(zé)任,就會(huì)違背“權(quán)責(zé)統(tǒng)一”的基本原則。

她強(qiáng)調(diào),基于AI生成內(nèi)容的權(quán)利、義務(wù)及責(zé)任應(yīng)當(dāng)相適應(yīng),在發(fā)生侵權(quán)行為時(shí)衡量平臺(tái)責(zé)任,需主要考慮其注意義務(wù)的邊界。劉文杰也認(rèn)為,如果人工智能生成內(nèi)容受《著作權(quán)法》保護(hù),就存在責(zé)任區(qū)分問題。只有承認(rèn)生成內(nèi)容相當(dāng)程度上來(lái)自于平臺(tái)運(yùn)營(yíng)的人工智能模型,才能要求平臺(tái)承擔(dān)責(zé)任。

對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)政府管理學(xué)院講師馮昕瑞表示,AI對(duì)人類社會(huì)一大沖擊的體現(xiàn)是秩序被打破后帶來(lái)的混亂,從秩序維護(hù)的角度看,她傾向于給予使用者端更多的版權(quán)和責(zé)任。反之如果讓模型端承擔(dān)更多權(quán)利責(zé)任,一方面可操作性更低,另一方面過多的規(guī)制可能降低模型能力,從而影響產(chǎn)業(yè)效益。

國(guó)研新經(jīng)濟(jì)研究院創(chuàng)始院長(zhǎng)朱克力則指出,經(jīng)濟(jì)學(xué)強(qiáng)調(diào)“成本—收益”邏輯。工業(yè)時(shí)代,創(chuàng)作者投入大量時(shí)間、智力等成本,所以其著作權(quán)受法律保護(hù)以便獲得收益;但在人工智能時(shí)代,用戶進(jìn)行文字、圖片等產(chǎn)出的投入成本明顯降低,且相關(guān)產(chǎn)品具有普惠性,在探討權(quán)益問題時(shí)需將如何平衡投入、產(chǎn)出也考慮進(jìn)去。

AI法律監(jiān)管應(yīng)包容審慎,“讓子彈飛一會(huì)兒”

如今,人工智能的飛速發(fā)展正推動(dòng)人類社會(huì)生產(chǎn)從自動(dòng)生產(chǎn)向智能生產(chǎn)轉(zhuǎn)變,面對(duì)其為“創(chuàng)作經(jīng)濟(jì)學(xué)”帶來(lái)的巨大沖擊,我國(guó)現(xiàn)有的法律框架是否還能解釋和適應(yīng)AI對(duì)創(chuàng)造力本質(zhì)的改變?

朱克力表示,過去的版權(quán)法律體系完全是基于人類作為創(chuàng)作主體而構(gòu)建的,如今創(chuàng)作主體已經(jīng)發(fā)生了變化,不僅包括人,還有“人機(jī)協(xié)作”等情形。這一背景下,原有法律框架與生產(chǎn)生活必然產(chǎn)生沖撞,如今對(duì)相關(guān)法律框架進(jìn)行前瞻性調(diào)整的時(shí)機(jī)已經(jīng)到來(lái)。

那么,如何從監(jiān)管角度規(guī)范和促進(jìn)AI發(fā)展?王磊提出兩點(diǎn)更適合現(xiàn)階段AI監(jiān)管政策的觀察。一是“小步快跑”——就個(gè)人信息保護(hù)、生成式人工智能、深度合成偽造等具體問題,相關(guān)主管部門以敏捷治理方式給出監(jiān)管要求,如十條到二十條左右的規(guī)定,具有很強(qiáng)針對(duì)性和靈活性。

二是,“讓子彈飛一會(huì)兒”——以共享經(jīng)濟(jì)為例,在討論共享經(jīng)濟(jì)要不要立法的過程中,共享經(jīng)濟(jì)就已經(jīng)不具備立法規(guī)制相應(yīng)的規(guī)模了。這說(shuō)明“市場(chǎng)有自我糾偏能力,要兼顧考慮法律框架,也要充分發(fā)揮產(chǎn)業(yè)和市場(chǎng)的力量。”在他看來(lái),緩步推進(jìn)立法新進(jìn)程,對(duì)AI產(chǎn)業(yè)發(fā)展持開放性態(tài)度,對(duì)于科技企業(yè)及高新技術(shù)發(fā)展或更有利。

劉文杰認(rèn)為,從ChatGPT到DeepSeek、Manus,目前人工智能還處于飛速發(fā)展階段,其將對(duì)人類生活及國(guó)際競(jìng)爭(zhēng)產(chǎn)生哪些長(zhǎng)遠(yuǎn)影響,仍待深入觀察。同時(shí),目前我國(guó)行政主管部門通過規(guī)章、規(guī)范性文件等多種方式對(duì)人工智能產(chǎn)業(yè)進(jìn)行監(jiān)管,可根據(jù)實(shí)際情況及時(shí)調(diào)整監(jiān)管力度。這種靈活監(jiān)管模式有利于產(chǎn)業(yè)發(fā)展,相較于通過一部AI“根本大法”解決所有問題的設(shè)想更切合實(shí)際。

他建議在不侵害人基本權(quán)利的前提下,采用更加包容的監(jiān)管方式,“不是用大量禁止條款管它,用提倡的方法、促進(jìn)的方法。”在相關(guān)應(yīng)用落地時(shí),對(duì)其進(jìn)行審慎的安全評(píng)估,同時(shí)充分發(fā)揮市場(chǎng)力量,“如果你(應(yīng)用)真的不好的話,不用開發(fā)商創(chuàng)造什么風(fēng)險(xiǎn),市場(chǎng)自然會(huì)給你‘清場(chǎng)’。”

郝明英也表示,如今人工智能、知識(shí)產(chǎn)權(quán)等都已成為國(guó)際競(jìng)爭(zhēng)的抓手,甚至已經(jīng)成為部分國(guó)家的“武器”。在這一背景下,未來(lái)法律進(jìn)行適應(yīng)性調(diào)整,既要從人類命運(yùn)共同體角度出發(fā),也要有國(guó)家競(jìng)爭(zhēng)的因素考量。在全球視角與國(guó)際競(jìng)爭(zhēng)層面,AI發(fā)展領(lǐng)域須加快提出“中國(guó)方案”,發(fā)出“中國(guó)聲音”。