(網(wǎng)經(jīng)社訊)21世紀以來,搭乘著大數(shù)據(jù)和云計算的快車,人工智能技術(shù)在各個領(lǐng)域迅速發(fā)展,不斷被投入應(yīng)用于醫(yī)療、互聯(lián)網(wǎng)采集服務(wù)、自動駕駛汽車、金融保險行業(yè)、工業(yè)和服務(wù)業(yè)等行業(yè)。
人工智能,也就是人們常說的為AI(Artificial Intelligence)。它是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學。此前需要要人腦來承擔的繁重的科學和工程計算,如今靠AI不但能完成這種計算,而且能夠比人腦做得更省時、更準確,人工智能已經(jīng)完全滲透入人們的生活。
研發(fā)人工智能的企業(yè)創(chuàng)造了很多震驚世界的經(jīng)典歷史時刻。1997年,IBM公司的深藍系統(tǒng)成為第一個打敗世界象棋冠軍加里·卡斯帕羅夫的計算機象棋手。 2005年,一臺斯坦福無人駕駛機器人未經(jīng)“踩點兒”,便在一條沙漠道路上自動駕駛131英里,贏得了DARPA自動駕駛機器人挑戰(zhàn)賽。2011年3月,一支以數(shù)學模型進行交易并啟用機器人作為經(jīng)理人的基金,僅靠6個電腦程序就創(chuàng)造出1.9%的回報率,擊敗了日本最優(yōu)秀的基金公司。2016年谷歌旗下DeepMind公司的AlphaGo戰(zhàn)勝了人類頂級職業(yè)旗手李世石的人機對弈比賽。
根據(jù)艾媒咨詢2017年的研究報告顯示,2016年中國人工智能產(chǎn)業(yè)規(guī)模已達100.60億元,增長率為43.3%。2017年市場規(guī)模達到237億元,同比增長67%。計算機視覺、語音、自然語言處理的市場規(guī)模分別占34.9%、24.8%、21%,而硬件和算法的市場規(guī)模合計不足20%,預(yù)計2018年中國人工智能市場增速將達到75%,并于2019年增至344.30億元。需要關(guān)注的是,2019年3月4日,十三屆全國人大二次會議舉行新聞發(fā)布會,大會發(fā)言人張業(yè)遂表示,已將與人工智能密切相關(guān)的立法項目列入立法規(guī)劃。
2016年11月18日,深圳舉辦的中國國際高新科技成果交易展覽會上,機器人“小胖”突然失控,在并沒有接收到任何指令的情況下,自行砸破展臺玻璃,造成現(xiàn)場觀眾受傷,被視作國內(nèi)首起機器人傷人事件。
值得警醒的是,人工智能隨著時代的變化而發(fā)展,它一方面不斷獲得科學上新的進展,另一方面也帶來了更多不確定危險,所以更加急迫的確定法律責任歸屬問題。那么本文對人工智能產(chǎn)品的侵權(quán)責任作簡要分析。
首先,需要討論人工智能產(chǎn)品如智能機器人究竟是法律關(guān)系中的主體還是客體。根據(jù)《中華人民共和國侵權(quán)法》,侵權(quán)責任主體只能是民事主體。法律關(guān)系主體,也即法律關(guān)系的參加者,是指在法律關(guān)系中享受權(quán)利、承擔義務(wù)的人。在中國,根據(jù)各種法律的規(guī)定,能夠參與法律關(guān)系的主體包括以下幾類:公民;機構(gòu)和組織;國家。法律關(guān)系的客體,又稱權(quán)利客體,是指法律關(guān)系主體的權(quán)利和義務(wù)指向的對象。一般來說,法律關(guān)系的客體包括物、非物質(zhì)財富和行為結(jié)果三類。以當前科技所研發(fā)出的智能產(chǎn)品的智能程度來說,大部分普通型人工智能遵從人類的命令、受人類智慧控制,無獨立意志。所以,目前學術(shù)界及司法實踐中較多的將其認定為權(quán)利客體。因此,可以按照我國現(xiàn)有制度以人類行為者為中心的侵權(quán)責任和以產(chǎn)品生產(chǎn)者為中心的產(chǎn)品責任法律制度來解決人工智能侵權(quán)責任問題。
其次,需要考慮人工智能侵權(quán)責任的歸責原則,可能更多涉及危險責任或無過錯責任。如,對于無人機等高度危險型智能機器,可考慮適用高度危險作業(yè)致害責任;對于一般智能機器,可參考《侵權(quán)責任法》、《產(chǎn)品質(zhì)量法》、《消費者保護法》等法律關(guān)于產(chǎn)品責任之規(guī)定,按照無過錯原則處理。
目前人工智能產(chǎn)品的具體行為處于受編程等程序控制的階段,發(fā)生侵權(quán)時,責任原則的確定相對容易。但隨著科學技術(shù)的發(fā)展,更多高度發(fā)展的人工智能產(chǎn)品(可簡稱為高智能產(chǎn)品)產(chǎn)生,則責任原則的確定則難度增大。
以醫(yī)療業(yè)為例,智能醫(yī)療機器人在輔助診療、醫(yī)學影像、藥物挖掘、健康管理等領(lǐng)域具有廣闊的應(yīng)用前景。如達芬奇手術(shù)機器人能完成11445例手術(shù);科大訊飛研發(fā)的訊飛智醫(yī)助手以高分通過了2017年臨床執(zhí)業(yè)醫(yī)師綜合筆試。在目前法律體系下,若智能醫(yī)療機器人發(fā)生侵權(quán)時,可考慮的歸責原則主要有以下三種:1.一般過錯責任模式。如醫(yī)務(wù)人員在操作智能醫(yī)療機器人未盡到合理注意義務(wù)時,應(yīng)認定為醫(yī)療機構(gòu)存在過錯。2.產(chǎn)品責任模式。因智能醫(yī)療機器人存在質(zhì)量或程序運行問題時,應(yīng)當適用產(chǎn)品責任,追究相關(guān)責任人責任。該兩種模式均建立在智能機器人尚未完全達到完全自主的高智能階段。3.高度危險責任模式。當醫(yī)療機器人產(chǎn)生獨立意識和自主決策能力時,風險的不可預(yù)測性則高度契合高度危險責任的適用。但目前,這三種模式尚不能完全單獨解決智能醫(yī)療機器人的侵權(quán)責任問題。
第三,需要討論人工智能侵權(quán)責任的承擔者。從AI技術(shù)生命周期看,AI程序通常由實體開發(fā)、購買、運營、訓練四個階段,涉及所有者、生產(chǎn)者、網(wǎng)絡(luò)服務(wù)提供者、軟件研發(fā)者、使用者等多主體。如果損害能夠歸因于有過錯的使用者,或存在可歸因于所有者、生產(chǎn)者、網(wǎng)絡(luò)服務(wù)提供者、軟件研發(fā)者或銷售者的過錯所造成的產(chǎn)品缺陷,以上責任人需要承擔相應(yīng)責任。但人工智能發(fā)展到高智能階段,則責任的承擔者則如何界定,這應(yīng)當是未來人工智能立法中應(yīng)當值得商榷之重點。
筆者認為,在如今經(jīng)濟高速發(fā)展的時代,科技的發(fā)展都將會打破固有穩(wěn)定的格局,帶來一些危險性。為了不讓沉重的法律責任打壓創(chuàng)新型、科技型生產(chǎn)、研發(fā)等相關(guān)高新企業(yè)的積極性,連帶責任過重,建議未來立法者應(yīng)優(yōu)先考慮按份責任;但是,為了保障消費者的利益,應(yīng)適當在程序法上由侵權(quán)責任人承擔舉證責任,證明自己的過錯程度及免責要件。
需要進一步思考的是,如果用未來的眼光看待科研的發(fā)展,高智能產(chǎn)品如自動駕駛汽車領(lǐng)域在不同情境中的反應(yīng)和決策可能不是其創(chuàng)造者可以預(yù)料或者事先控制的,因而其再被定義為傳統(tǒng)法律意義上的物或為人類所使用的被動工具、產(chǎn)品,顯然已不恰當。在就此類智能機器的侵害行為分配法律責任時,對行為者的過錯進行舉證,對設(shè)計、制造缺陷或設(shè)計制造與事故發(fā)生的因果關(guān)系進行舉證將是很復雜的程序法問題。
如今,侵權(quán)責任究竟如何承擔已經(jīng)是個全球性的討論熱點。在德國,已有監(jiān)管機構(gòu)提出在智能機器人上安裝黑匣子,以保證事故責任的可追溯性。國外保險公司也試圖通過采取保險理賠制度,建立一個全新解決、保障智能機器人侵權(quán)損害賠償?shù)臋C制。
人工智能本身就是超前研究,但我們更需要用發(fā)展的眼光,針對可能沖突的法律利益進行先行平衡,增強法律的前沿性。促進人工智能企業(yè)科技創(chuàng)新,提高人民生活質(zhì)量,帶動國家經(jīng)濟發(fā)展。(來源:微信公眾號盈科互聯(lián)網(wǎng)法律事務(wù)團隊 文/高祺 編選:網(wǎng)經(jīng)社-電子商務(wù)研究中心)