1. <th id="yfq0g"></th>
    2. <em id="yfq0g"></em>

      <tbody id="yfq0g"><center id="yfq0g"></center></tbody>
      1. 優勝從選擇開始,我們是您最好的選擇!—— 中州期刊聯盟(新鄉市博翰文化傳媒有限公司)
        0373-5939925
        2851259250@qq.com
        我要檢測 我要投稿 合法期刊查詢
        您的位置:網站首頁 > 優秀論文 > 科技論文 > 正文

        試論生成式人工智能侵權的責任主體---以ChatGPT為例

        作者:張高源來源:《產品可靠性報告》日期:2024-02-05人氣:373

        一、問題提出

        作為討論規范治理的邏輯起點,法律主體資格是指在法律關系中享有權利、履行義務、承擔責任的資格或能力。隨著人工智能時代的到來,以聊天機器人ChatGPT為代表的生成式人工智能將廣泛應用于各大場景中,在豐富與便利生產生活,創造更多創新發展機會的同時,也引發了諸多侵權損害與法律挑戰,如數據合規風險、生成內容濫用風險、算法濫用風險、隱私保護風險等。其中最大的風險是數據來源與生成內容以假亂真等引發的侵權問題,需要我們在法律上做出必要的回應。以AI孫燕姿侵權案為例,從生成式人工智能的技術邏輯和行為特征可以看出,其內容的輸入與輸出都是基于對海量數據樣本的分析、訓練和學習,這就可能涉及包含個人信息、知識產權等內容的數據。故在其數據收集或內容生成的過程中,就可能對他人的隱私權、人格尊嚴、知識產權等構成侵權。[1]另外,以布萊恩·胡德訴ChatGPT誹謗案為例,生成式人工智能對海量多源數據的分析與學習既無法真正實現全部由人工檢查、標注和監督,在運行時也無法保證每一次都能識別使用者的惡意誘導,從而導致可能生成侵犯他人名譽的虛假文本、圖片、視頻信息。

        有損害就要有救濟,那么為切實保障受到侵害的合法權益,應當由誰來承擔侵權責任就成為一個不可避免的問題。然而,我國以往關于人工智能的法治研究與規范,主要集中在自動駕駛和智慧醫療等領域。近年來,學者們對生成式人工智能的研究也主要集中在風險治理方面,侵權責任方面的研究較少。另外,生成式人工智能領域的相關法律規范尚未健全。2023年7月發布的《生成式人工智能服務管理暫行辦法》盡管規定了生成式人工智能服務提供者的責任,即明確了生成式人工智能的技術開發商、提供可編程接口等接入服務的組織和個人均需對其生成的內容承擔責任,但并未對生成式人工智能侵權的具體責任承擔主體進行細化和規范。因此,對生成式人工智能侵權責任主體的研究具有現實意義?;诖?,本文將從對生成式人工智能非責任主體的論證出發,進一步剖析賦予生成式人工智能服務提供者、使用者與第三方責任主體地位的合理性,以期學界能有更深入的研究與規范。

        二、生成式人工智能的非責任主體地位

        隨著人工智能的出現、應用與發展,其智能性、自主性、創造性日益增強。其中人工智能是否具有法律主體地位,能否承擔侵權責任,是責任劃分的前提性條件,也是世人關注的焦點。因此,在這一問題上,理論界就人工智能的法律主體資格展開了激烈討論,各有不同觀點。通過梳理有關文獻資料,可發現國內學者大致分為兩種流派。

        第一種是否定說,即人工智能不具備類似自然人的思維和獨立自由的意識,也不存在似法人一般的社會價值,人工智能只能作為法律客體,不具備成為法律主體的條件。這也是國內法學界的主流意見。譬如,白玉杰和張昱提出法律制度的核心始終在于以人為中心,而人工智能本質上仍只是一種機器,不具備作為法律主體的資格。[2] 

        第二種是肯定說,即不同于否定說對人工智能的保守看法,它認為應突破“二元主體論”,在自然人和法人之外將人工智能設立為新的法律主體。但對于賦予人工智能以何種法律主體資格的問題上,學者們各抒己見,主要包括完全人格說、擬制人格說、電子人格說、有限主體資格說等。例如,2017年沙特阿拉伯確認機器人索菲亞與自然人同等的公民地位,享有與履行和自然人同等的權利與義務。袁曾主張生成式人工智能已經具備類人類意識能力與行為能力特征,在法人這一擬制主體的現實借鑒下,可考慮給予它以特殊的法律主體地位,但由于其智能機器的身份限制以及以人為本的倫理基礎,決定了其自身法律人格的限度。[3]

        無論否定說,還是肯定說,都從理論邏輯出發展開了較為深入的研究并具有一定的說服力。以筆者之見,人工智能作為提升人們生活水平和生產效率的技術工具,現階段無論其多么智能,本質上仍只是受人支配的輔助物,并不具備享有法律主體資格的條件。主要基于如下幾點考慮:

        第一,人工智能缺乏自然人的理性自主意識。在判斷人工智能的法律主體資格時,其是否具備理性自主意識是其中的核心要素。當前,以ChatGPT為代表的生成式人工智能相比傳統人工智能自主性和智能性都有了明顯提升,可以在與人類交流互動的同時,“創作”出文本、繪畫、視頻等內容物。但結合其技術邏輯和運行原理可知,其行為完全是基于數據樣本及算法模型下實施的,而原始數據離不開人類的采集和整理,算法模型是由人類預先設計且建構而成的,其運作也依賴于人類下達指令。因此,生成式人工智能本身內在價值觀的產生及其基本行為方式的選擇,完全可以歸咎于該人工智能的設計研發者、服務提供者等。換句話說,其并不具備像自然人一樣的獨立自主意識,體現的只是背后設計開發者與服務提供者的主觀判斷和價值取向,這也是目前AIGC普遍帶有偏見與歧視風險的原因之一。此外,以ChatGPT為代表的大語言模型之所以會出現“幻覺”通病,主要原因就在于其并無所謂的人類思維與理性意識,對于情感抒發與語言表達,它并非能像人類一樣理解,而只能是基于訓練數據的高度模仿。因此,不可避免地會出現一本正經的胡說八道,編造“看起來合理,本質上卻不正確或不存在”的信息。

        第二,人工智能與法人組織不同,不能自主承擔法律責任。法人是擬制的法律主體,是由人集合而成的實體,它的意志是由下轄的組織機關及其成員共同形成,獨立財產也由其成員共同出資構成。與此同時,即便法人憑其獨有財產獨立承擔了法律責任,從實踐中可以看出,歸根結底也只是由其成員承受被懲罰的痛苦。相反,人工智能是人為了滿足生活和工作需要而創造的機械工具。以ChatGPT為例,其只是由GPT3.5模型架構的、能與使用者進行對話互動的智能應用,并非由人組合而成。也就說,設計研發者、服務提供者、使用者等并非是其成員。同時,人工智能也不像法人擁有負擔法律責任的獨立財產,也沒有規范認識和理解能力,即不會認識到所犯錯誤,更無法感知懲罰帶來的痛苦,故若讓其承擔法律責任則沒有任何意義。一方面,無法發揮法律的救濟作用,不能讓受害人得到實質性的彌補。另一方面,無法實現法律的懲戒效用,難以避免再犯罪的危險。

        綜上,人工智能不應被賦予法律主體資格。究其根本,人工智能作為新時代信息技術革命的產物,無論是傳統人工智能,抑或是生成式人工智能始終都以服務人類、服務社會而非實現自我為目標,正如張凌寒所言:“在鼓勵我國生成式人工智能發展的思路下,應將生成式人工智能定位為基礎設施,”[4]而非人類社會中法律主體中的一員,否則人類將沒有理由把人工智能作為一種服務工具來使用。

        三、生成式人工智能服務提供者、使用者和第三方的責任主體地位

        在生成式人工智能不具備法律主體資格的前提下,需要重新考慮其侵權的責任承擔者。在傳統網絡侵權中,根據《民法典》第七編的相關規定往往涉及三方侵權責任主體,即網絡用戶、網絡服務提供者和第三人。對應到生成式人工智能領域中,可歸責之主體可以細分為生成式人工智能服務提供者、使用者、第三方等多方責任承擔者。首先,數據來源與算法設計等是決定人工智能生成內容質量與可信度的關鍵,生成式人工智能服務提供者在這一核心要素上充當著把關人和決定者的角色。因此,根據“誰支配,誰負責”的原則,明確其是生成式人工智能侵權行為的責任主體具有合理性,理由如下。

        一是,由于生成式人工智能輸出結果的準確性依賴于海量多源的數據,而根據《辦法》第七條規定,高質量的數據離不開人為干預,服務提供者應當落實《網絡安全法》、《數據安全法》、《個人信息保護法》等法律法規的監管要求,對生成式人工智能的預訓練數據、優化訓練數據等訓練數據類型與來源的合法性負責。同時,《辦法》第九條強調服務提供者對輸出內容承擔生產者責任和個人信息處理者責任,故當篩選數據和輸出內容過程中出現了合法性與真實性偏差時,監管者可依據責任規范來判定有關主體的責任。

        二是,以ChatGPT為例,生成式人工智能所依賴的基礎數據和算法使用方式由其服務提供者控制和決定,其可以在對數據進行標注或設計算法時,將某些價值觀嵌入其中。故而,在生成式人工智能自身缺乏理性意識的前提下,其生成行為本質上仍體現著數據把關者和算法程序編制者---生成式人工智能服務提供者的主觀意志與價值選擇。具而言之,生成式人工智能服務提供者在很大程度上可以決定和支配人工智能輸出成果的合法合規性。如此,可以將生成式人工智能與其服務提供者之間的關系類比為“委托-代理”的法律關系,其中人工智能的生成行為可以視為“代理”其服務提供者從事行為或作出決定。據《民法典》第162條,相應的就應當由服務提供者對人工智能的侵權行為承擔法律責任。

        其次,以ChatGPT為例,生成式人工智能內容的輸出不僅依賴于系統本身的訓練數據和算法邏輯,亦取決于不同使用者的個性化需求以及對生成內容所作的反饋。加之,即便生成式人工智能服務提供者履行了審慎注意義務,因其沒有審查監管生成內容全過程的能力,從而無法避免不良用心的使用者利用其服務制造侵犯他人權益的內容。例如,據美國新聞可信度評估與研究機構對ChatGPT所做的測試,虛假信息研究人員對它提出充滿誤導性敘述的問題,發現它能在極短時間內對信息進行改編,生成大量有說服力但又不真實的信息。[5]這一特點可能導致ChatGPT被有心之人所利用,成為高效的犯罪工具,侵害個人權益,甚至可能會引發整個社會信任體系的崩潰。故不僅存在生成式人工智能自動侵權的情況,也有使用者輸入相關指令“調教”生成式人工智能對外生成含有違法性內容的情況。根據“誰的行為支配生成式AI引發了侵害結果,誰就應當對該結果負責”的責任承擔機制,在使用者故意誘導致侵權結果發生的情形下,使用者作為過錯一方,理應承擔侵權的責任。

        另外,生成式人工智能侵權風險與各環節主體均有關系,包括貌似無關的第三方。如智能系統遭遇黑客侵入,并被惡意操控與篡改,使得系統程序紊亂而無法按照正當的程序設計運行,正常且合理問題下出現了仇視性或暴力攻擊性言論,通過傳播由此給他人造成了嚴重威脅。聊天機器人Meta AI便有類似經歷。[4]在這種情況下,據《民法典》第1175條規定,黑客作為造成損害的第三人,理應承擔侵權責任。

        四、結語

        科學技術是把雙刃劍。人們在享受以ChatGPT為代表的生成式人工智能為人類社會提供便利的同時,也要正視其帶來的多樣性侵權風險,以及復雜的責任承擔問題。本文基于對我國現行法律基礎和法律價值的考慮,結合ChatGPT等的技術邏輯和運行原理論證生成式人工智能侵權的責任主體。一方面,生成式人工智能作為數字時代的產物,缺乏獨立自主意識和責任承擔能力,其存在只是為了服務于現實人類的生存與發展。因此,應將其定位為法律客體,不享有責任主體地位。另一方面,根據“誰支配,誰負責”原則,綜合分析服務提供者、使用者和第三方對侵權行為的實質作用,合理承擔責任,為目前法律體系下無法賦予生成式人工智能獨立法律主體地位的問題提供解決途徑;也為進一步構建安全有序、科學合理、惠及人民的未來智能生態系統提供了法律保障。


        本文來源:《產品可靠性報告》http://www.12-baidu.cn/w/kj/32519.html

        網絡客服QQ: 沈編輯

        投訴建議:0373-5939925????投訴建議QQ:

        招聘合作:2851259250@qq.com (如您是期刊主編、文章高手,可通過郵件合作)

        地址:河南省新鄉市金穗大道東段266號中州期刊聯盟 ICP備案號:豫ICP備2020036848

        【免責聲明】:中州期刊聯盟所提供的信息資源如有侵權、違規,請及時告知。

        版權所有:中州期刊聯盟(新鄉市博翰文化傳媒有限公司)

        關注”中州期刊聯盟”公眾號
        了解論文寫作全系列課程

        核心期刊為何難發?

        論文發表總嫌貴?

        職院單位發核心?

        掃描關注公眾號

        論文發表不再有疑惑

        論文寫作全系列課程

        掃碼了解更多

        輕松寫核心期刊論文

        在線留言
        中文在线视频_精品无码av无码免费专区_欧美小屁孩cao大人XXXX_欧美激情视频观看一区