最近中文高清MV免费版_无码任你躁久久久久久老妇_AV一区AV久久AV无码_国产精品亚洲欧美大片在线观看_久久人人爽人人爽人人片亞洲_国产成人精品日本亚洲77美色_JLZZJLZZ亚洲乱熟无码_成人免费看黄网站yyy456_午夜精品久久久久久99热_2015av天堂网

聊城市科學技術協(xié)會
arrow
    聯(lián)系方式
  • 郵箱:lcskx@lc.shandong.cn
arrow
周一至周五 8:00 - 17:00
arrow
qrcode
微信公眾號

【聚焦】AI快速發(fā)展,立一部“根本大法”時機到了嗎?專家熱議

瀏覽: 作者:樊文揚 來源:南都記者 時間:2025-03-26 分類:媒體掃描
中國政法大學比較法學研究院教授劉文杰表示,目前法律法規(guī)并未對用戶輸入內(nèi)容是否能用于模型訓練作出直接規(guī)定,在實踐中,用戶為讓AI更好回答問題,相關提示詞可能涉及個人信息

今年政府工作報告提出,持續(xù)推進“人工智能+”行動,將數(shù)字技術與制造優(yōu)勢、市場優(yōu)勢更好結合起來,支持大模型廣泛應用。近年來,我國人工智能產(chǎn)業(yè)取得長足進步,逐漸成為驅(qū)動新質(zhì)生產(chǎn)力的重要引擎。與此同時,人工智能技術的每一步創(chuàng)新也不斷引發(fā)法律與倫理方面的深刻思考。

用戶數(shù)據(jù)如何規(guī)范用于模型訓練?AI生成內(nèi)容的版權歸屬如何確定?如何促進AI產(chǎn)業(yè)健康發(fā)展?為探尋技術創(chuàng)新與風險防范之間的平衡點,近日,中國政法大學民商經(jīng)濟法學院民法研究所、走出去智庫、《互聯(lián)網(wǎng)法律評論》聯(lián)合主辦“人工智能版權前沿問題”研討會,來自法學、經(jīng)濟學、公共政策等領域的專家學者齊聚一堂,就當前AI領域的前沿問題展開熱議。

減少“數(shù)據(jù)污染”,用戶須負責任地使用模型

當前,大模型訓練依賴海量數(shù)據(jù),而用戶數(shù)據(jù)通常會被用于模型的優(yōu)化。如果未明確告知用戶將使用哪些數(shù)據(jù)或者數(shù)據(jù)的使用范圍過于模糊,可能引發(fā)對于數(shù)據(jù)被濫用風險的擔憂。會上多位專家提到,增強AI大模型透明度,切實保護個人隱私安全,已成為大模型企業(yè)的一道必答題。

中國人民大學法學院副教授姚歡慶提出,各種單一數(shù)據(jù)對于個人而言沒有太多利用價值,但科技公司卻能通過不同數(shù)據(jù)庫的匯集和碰撞,迅速拼湊推導出更多的個人信息,比如近期受到熱議的“開盒”便是一個例子。由于個人用戶對數(shù)據(jù)價值的認知水平往往與技術公司的利用能力不對等,當前“用戶同意”機制仍有待完善,涉及個人隱私的“知情同意”應做到明白、清楚、仔細。

中國政法大學比較法學研究院教授劉文杰表示,目前法律法規(guī)并未對用戶輸入內(nèi)容是否能用于模型訓練作出直接規(guī)定,在實踐中,用戶為讓AI更好回答問題,相關提示詞可能涉及個人信息。根據(jù)《個人信息保護法》,信息輸入后,如果服務商想要儲存、再加工,需要向用戶明示并征求其同意。關于敏感個人信息,我國法律還有“一事一議”的特殊規(guī)定,即處理敏感個人信息不能采用概括同意或推定同意的授權模式,而必須獲得個人明確的、單獨的同意。

北京理工大學智能科技法律研究中心研究員王磊則指出,大型平臺企業(yè)的數(shù)據(jù)利用大多合法合規(guī),但黑灰產(chǎn)對大數(shù)據(jù)的非法運用十分猖獗,須通過政府監(jiān)管、技術平臺和社會多方形成合力進行打擊。他指出,當前高質(zhì)量數(shù)據(jù)的結構性匱乏已成為制約大模型發(fā)展的瓶頸,尤以醫(yī)療、交通、金融等領域為代表。

另外,中國政法大學民商經(jīng)濟法學院知識產(chǎn)權法研究所講師郝明英認為,在后端規(guī)制方面,除了重視“告知同意”,還應賦予用戶撤回和退出的權利。南都數(shù)字經(jīng)濟治理研究中心去年發(fā)布的《生成式AI用戶風險感知與信息披露透明度報告(2024)》曾在實測15款頭部國產(chǎn)大模型時發(fā)現(xiàn),僅有騰訊元寶、智譜清言等4家大模型在協(xié)議中提及允許用戶拒絕相關數(shù)據(jù)被用于AI訓練。

針對當前模型訓練的數(shù)據(jù)訴求,與會專家討論指出,模型優(yōu)化有時缺乏常識和判斷邏輯,與用戶提供的訓練數(shù)據(jù)質(zhì)量有關。如果用戶不斷投喂錯誤觀點和結論,模型將可能賦予錯誤內(nèi)容更優(yōu)先權重。此外,數(shù)據(jù)標注環(huán)節(jié)若由非專業(yè)人員完成,標注錯誤往往引發(fā)“數(shù)據(jù)污染”,導致模型輸出產(chǎn)生“幻覺”。為了構建良好的生態(tài)系統(tǒng),其中用戶負責任地使用模型也是重要一環(huán)。

AI生成內(nèi)容權利、義務及責任應當相適應

生成式人工智能在各領域被廣泛應用以來,其生成內(nèi)容的版權糾紛也密集涌現(xiàn)。從2023年至今,我國已涌現(xiàn)一批相關司法判例,為AI生成內(nèi)容的權利和責任歸屬問題提供了支撐。

郝明英指出,中國現(xiàn)有判例表明,如用戶在提示輸入、結果篩選等環(huán)節(jié)體現(xiàn)“獨創(chuàng)性勞動”,即認定生成內(nèi)容受版權保護。這與日本文化廳最新意見相近,結合產(chǎn)業(yè)實踐,OpenAI、Midjourney等海外平臺也大多在用戶協(xié)議中將生成內(nèi)容權利歸屬于用戶,強調(diào)“人類創(chuàng)作性貢獻”的核心地位,“指令的具體性”是影響認定的因素之一。

劉文杰則指出,當前司法實踐中對AI生成內(nèi)容場景中用戶“作者”身份的判定其實不同于傳統(tǒng)著作權法理論。以北京互聯(lián)網(wǎng)法院相關判決為例,法院雖認可用戶對AI生成圖片的著作權,卻要求該用戶在作品上標注所使用的AI技術,這說明此處的用戶與傳統(tǒng)著作權法理論中的“作者”并不完全等同。用戶提供提示詞觸發(fā)模型運行,進而由模型輸出內(nèi)容,此時用戶對生成作品的貢獻更接近于工具操作者或“制作者”,而非“創(chuàng)作者”。

談及AI生成侵權內(nèi)容時的責任問題,郝明英表示,目前基本各國都認同AI無法成為權利主體的觀點,這就意味著一旦出現(xiàn)侵權問題,它無法承擔相應責任。在生成內(nèi)容權利歸屬于用戶的情況下,如果由平臺承擔侵權責任,就會違背“權責統(tǒng)一”的基本原則。

她強調(diào),基于AI生成內(nèi)容的權利、義務及責任應當相適應,在發(fā)生侵權行為時衡量平臺責任,需主要考慮其注意義務的邊界。劉文杰也認為,如果人工智能生成內(nèi)容受《著作權法》保護,就存在責任區(qū)分問題。只有承認生成內(nèi)容相當程度上來自于平臺運營的人工智能模型,才能要求平臺承擔責任。

對外經(jīng)濟貿(mào)易大學政府管理學院講師馮昕瑞表示,AI對人類社會一大沖擊的體現(xiàn)是秩序被打破后帶來的混亂,從秩序維護的角度看,她傾向于給予使用者端更多的版權和責任。反之如果讓模型端承擔更多權利責任,一方面可操作性更低,另一方面過多的規(guī)制可能降低模型能力,從而影響產(chǎn)業(yè)效益。

國研新經(jīng)濟研究院創(chuàng)始院長朱克力則指出,經(jīng)濟學強調(diào)“成本—收益”邏輯。工業(yè)時代,創(chuàng)作者投入大量時間、智力等成本,所以其著作權受法律保護以便獲得收益;但在人工智能時代,用戶進行文字、圖片等產(chǎn)出的投入成本明顯降低,且相關產(chǎn)品具有普惠性,在探討權益問題時需將如何平衡投入、產(chǎn)出也考慮進去。

AI法律監(jiān)管應包容審慎,“讓子彈飛一會兒”

如今,人工智能的飛速發(fā)展正推動人類社會生產(chǎn)從自動生產(chǎn)向智能生產(chǎn)轉(zhuǎn)變,面對其為“創(chuàng)作經(jīng)濟學”帶來的巨大沖擊,我國現(xiàn)有的法律框架是否還能解釋和適應AI對創(chuàng)造力本質(zhì)的改變?

朱克力表示,過去的版權法律體系完全是基于人類作為創(chuàng)作主體而構建的,如今創(chuàng)作主體已經(jīng)發(fā)生了變化,不僅包括人,還有“人機協(xié)作”等情形。這一背景下,原有法律框架與生產(chǎn)生活必然產(chǎn)生沖撞,如今對相關法律框架進行前瞻性調(diào)整的時機已經(jīng)到來。

那么,如何從監(jiān)管角度規(guī)范和促進AI發(fā)展?王磊提出兩點更適合現(xiàn)階段AI監(jiān)管政策的觀察。一是“小步快跑”——就個人信息保護、生成式人工智能、深度合成偽造等具體問題,相關主管部門以敏捷治理方式給出監(jiān)管要求,如十條到二十條左右的規(guī)定,具有很強針對性和靈活性。

二是,“讓子彈飛一會兒”——以共享經(jīng)濟為例,在討論共享經(jīng)濟要不要立法的過程中,共享經(jīng)濟就已經(jīng)不具備立法規(guī)制相應的規(guī)模了。這說明“市場有自我糾偏能力,要兼顧考慮法律框架,也要充分發(fā)揮產(chǎn)業(yè)和市場的力量。”在他看來,緩步推進立法新進程,對AI產(chǎn)業(yè)發(fā)展持開放性態(tài)度,對于科技企業(yè)及高新技術發(fā)展或更有利。

劉文杰認為,從ChatGPT到DeepSeek、Manus,目前人工智能還處于飛速發(fā)展階段,其將對人類生活及國際競爭產(chǎn)生哪些長遠影響,仍待深入觀察。同時,目前我國行政主管部門通過規(guī)章、規(guī)范性文件等多種方式對人工智能產(chǎn)業(yè)進行監(jiān)管,可根據(jù)實際情況及時調(diào)整監(jiān)管力度。這種靈活監(jiān)管模式有利于產(chǎn)業(yè)發(fā)展,相較于通過一部AI“根本大法”解決所有問題的設想更切合實際。

他建議在不侵害人基本權利的前提下,采用更加包容的監(jiān)管方式,“不是用大量禁止條款管它,用提倡的方法、促進的方法。”在相關應用落地時,對其進行審慎的安全評估,同時充分發(fā)揮市場力量,“如果你(應用)真的不好的話,不用開發(fā)商創(chuàng)造什么風險,市場自然會給你‘清場’。”

郝明英也表示,如今人工智能、知識產(chǎn)權等都已成為國際競爭的抓手,甚至已經(jīng)成為部分國家的“武器”。在這一背景下,未來法律進行適應性調(diào)整,既要從人類命運共同體角度出發(fā),也要有國家競爭的因素考量。在全球視角與國際競爭層面,AI發(fā)展領域須加快提出“中國方案”,發(fā)出“中國聲音”。