人工智能发展中的法律问题研究 (2020-01-24)
●应当赋予人工智能“有限的”民事主体地位,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担相应的义务。同时,应否定人工智能的刑事主体资格,最终的刑事责任应由人来承担。
●目前由人工智能生成的内容不适合获得版权保护。具有创作功能的人工智能软件本身就是商品,而开发者许可他人利用人工智能生成相应内容的本质是服务,让开发者销售商品和服务行为回归市场本身,通过价格机制调节,才是人工智能产业发展的一般途径。
●人工智能市场领域作为新兴发展领域,应从反不正当竞争以及反垄断这两个公法上的规制入手,为人工智能寻求一个健康的市场环境。在反不正当竞争的公法规制方面,应迎接三个方面的挑战,即《反不正当竞争法》一般性条款的泛化运用、商业秘密及数据反不正当竞争保护的不足。在反垄断的公法规制上,应对通过算法共谋的垄断协议行为、通过数据垄断滥用市场支配地位行为以及未达到申报标准的经营者集中行为加强规制。
人工智能发展中的法律问题研究[①]
课题组长:童 潇
课题主要成员:董笃笃 王 哲 李 爽 夏海斌
课题参与成员:贾雯婷 尹丽湘 尤文韵 吴俊燕 殷明君 王雪原 毕 明 张 冰 褚宏俐 陈 杨
引 言
自1956年人工智能(Artificial Intelligence,AI)的概念首次提出至今,人工智能在制造业、金融业、医疗行业、服务业、交通运输、安全防御等领域的应用成果有目共睹,深刻地改变了人类的生活、生产和工作方式。随着第三次人工智能浪潮的开启,人工智能的发展正进入新阶段,呈现出深度学习、跨界融合、人机协同、群智开放和智能操作等新的模式特征。然而,与之相伴而生的是,人工智能时代也不可避免将对社会秩序的维持产生不容忽视的冲击,作为维护社会秩序屏障的传统法律体系,已不足以调和新的冲突与矛盾,在民事主体法、著作权法、侵权责任法、人格权法、交通法、劳动法等现有法律体系均同人工智能所带来的生产生活变化形成相应冲突的同时,相关人工智能的法律问题也引发了法学界的重点讨论和研究。
在人工智能的法律问题研究广泛展开之后,课题组通过对现有文献的梳理,发现目前的研究方向总体更趋向于以法律作为一个外部框架来探讨法律如何应对人工智能发展形成的各种新型法律问题及如何对于人工智能的发展进行规制。在这一方面的研究中,既包括针对目前的弱人工智能(ANI)的实际应用进行法律规制的相关研究,也包括对于未来的强人工智能(AGI)可能在人类社会所引发的问题进行预测性的研究,甚至还包含了对于未来的超人工智能(ASI)会造成什么样的颠覆性后果、是否对其进行严格法律约束的相关思考。对比三个层次的研究,由于弱人工智能事实上已出现在生产生活的方方面面,相关法律问题已逐步出现并急需得到解决。同时,对弱人工智能在具体应用实践中所作出的法律体系回应也比较容易整合入现有的法律体系框架当中。因此,本课题所立足的人工智能语境,并非比较超前且理想化的强人工智能范畴,而是基于当下现实的弱人工智能范畴,不将强人工智能乃至超人工智能纳入讨论范围,而仅限于探讨分析弱人工智能时代对现有法律体系可能造成的影响与挑战。
在此背景下,本课题重点选取人工智能法律主体资格、人工智能著作权保护及人工智能的市场准入和规制这三个较为突出的重点法律问题进行逐一分析,并提出一定的应对构想与思路,以进一步促进我国人工智能产业健康发展和相关法律体系的进一步完善。
一、人工智能的概念和发展现状研究
(一)人工智能的概念和特征
要在法律的框架中讨论人工智能,首先要明确的是其法律地位问题,人工智能享有何种法律地位,直接影响着如何对人工智能进行保护和规范,进而影响着人工智能和人类的未来。在讨论人工智能法律地位问题之前,应先对人工智能的相关概念加以界定,以为后文相关问题的展开和研究打下基础。
1.人工智能的概念
(1)人工智能的定义
2017年7月,我国发布《新一代人工智能发展规划》,从顶层设计上为人工智能的发展铺路。人工智能经过半个多世纪的发展,目前仍缺乏通用定义。人工智能的一个比较流行的定义,也是该领域较早的定义,是由约翰·麦卡锡在1956年的达特矛斯会议上提出的:人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。但是这个定义似乎忽略了强人工智能的可能性。自20世纪90年代以来,国内外学者从不同角度,对人工智能的定义做了大量研究。课题组通过对相关人工智能定义进行总结,将人工智能定义分为三类:“功能相仿说”、“智能模拟说”和“生物构建说”。
1)功能相仿说
功能相仿说侧重对人工智能产出效果的重视,即以人工智能最终实现的智能产出能够满足人类生产生活需求为核心目标,至于其智能衍生的过程是否根据人类智能活动来进行模仿,不是该学说关注的重点。其代表人物如美国计算机科学家Peter Norvig,其将人工智能定义为:对计算机系统如何能够履行那些只有依靠人类智慧才能完成的任务的理论研究。[②]美国斯坦福大学尼尔逊教授将其定义为:怎样表示知识以及怎样获得知识并使用知识的科学;美国麻省理工学院的温斯顿教授将其定义为:研究如何使计算机去做过去只有人才能做的智能工作。[③]我国钟义信教授认为:人工智能就是探索人类智能(自然智能的最佳代表)的工作机理,并在此基础上研制各种具有人类智能水平的人工智能机器,为人类各种活动提供智能服务;[④]美国高盛集团发布的《2016高盛人工智能(AI)生态报告》将其定义为:制造智能机器、可学习计算程序和需要人类智慧解决问题的科学和工程。
2)智能模拟说
智能模拟说侧重于认为人工智能中智能的实现过程需要模拟人类的思维方式来进行,即相关认识、心理和决策等思维过程是模仿人类的思考方式进行的。相关代表人物中,闫志明教授等认为,人工智能是一个模拟人类能力和智慧行为,涉及计算机科学、控制论、信息论、神经生理学、语言学、心理学等的跨领域学科。[⑤]蔡曙山等认为,人工智能,就是让机器或人所创造的其他人工方法或系统来模拟人类智能;[⑥]阿里云研究中心2016年发布的《人工智能:未来制胜之道》将其定义为:研究、开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学;北京36氪研究院2017年发布的《人工智能行业研究报告》将其定义为:使用机器代替人类实现认知、识别、分析、决策等功能,其本质是对人的意识与思维的信息过程的模拟,是一门综合了计算机科学、生理学、哲学的交叉学科。
3)生物构建说
生物构建说侧重于认为人工智能不仅思维模式需要模拟人类,连其相关产品的结构也应模仿人类的构造来生成。其代表观点中,卡内基梅隆大学认为,人工智能,即当人造物展现智能行为时,它的表现基于人类所使用的相同方法。[⑦]例如,考虑一个具有听觉的系统,弱人工智能仅仅关注系统的表现,而强人工智能支持者的目标在于,通过模拟人类听觉系统,使用等效的耳蜗、听力管、耳膜和耳朵其他部分的部件(每个部件都可以在系统中执行其所需执行的任务)来成功地获得听觉。弱人工智能的支持者单单基于系统的表现来衡量系统是否成功,而强人工智能的支持者关注他们所构建系统的结构。
课题组偏向支持功能模仿说,即人工智能主要是为了解决目前实际困难和需求而存在的,人工智能只是在大多数时候会用上人的智能的模拟,但并不全是模拟人脑的思维的。课题组认为可将人工智能定义为:人工智能是为了进一步提升生产效率及丰富人类生活,研究、开发接近或超过人类智能水平的计算机系统和技术,并广泛应用于人类生产、生活的科学和工程。
(2)强弱人工辨析
目前,多数观点认为强人工智能有可能制造出真正能推理和解决问题的智能机器,并且,这样的机器能被认为是有知觉的,有自我意识的。强人工智能可以进一步分为两类:一是类人的人工智能,即机器的思考和推理就像人的思维一样;二是非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。多数观点认为弱人工智能技术不可能制造出能真正推理和解决问题的智能应用,这些应用只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。主流科研集中在弱人工智能上,且一般认为这一研究领域已经取得可观的成就。强人工智能的研究则处于停滞不前的状态下。
课题组认为,强人工智能和弱人工智能最本质的区别在于意识的自主性和创造力,在于其处理逻辑的模式,前者是主动获取的,后者则是被动接受的。
强人工智能是以自身为主体,通过观察、总结、尝试、验证等一系列学习活动,从环境中抽取出合适的逻辑,来解决相似的输入、输出问题,同时对处理结果进行评估,修正原有的处理逻辑,其处理逻辑是可以在线动态完善的,其不仅可以向他人学习,还可以直接向大自然学习。因此,强人工智能一定程度上可以不接受人类制约,拥有独立发展的能力。就像许多科幻电影和小说中所描述的那样,强人工智能充分体现了人类在人工智能相关研究上的探索和追求。强人工智能不仅在哲学上存在巨大争论(涉及到思维与意识等根本问题的讨论),在技术上的研究也具有极大的挑战性。强人工智能当前鲜有进展,美国私营部门的专家及国家科技委员会比较支持的观点是,至少在未来几十年内强人工智能难以实现突破。
弱人工智能是以自身为客体,软件工程师为主体,根据市场应用需求,设计出相应的处理逻辑,并写成程序,直接灌注到系统之中,形成系统的处理逻辑。当环境发生改变,即输入、输出不再契合时,弱人工智能处理逻辑的改变只能依靠软件工程师来更新、修复。弱人工智能的智能和行为一般为人类所控制,其根本没有意向状态,只是受电路和程序支配简单地来回运动而已。[⑧]迄今为止的人工智能系统都还是实现特定功能的专用智能,如拟合股票市场的某个规律并做出预测、拟合用户偏好并做出推荐,或者像Alfago拟合围棋的取胜规律。目前的主流研究仍然集中于弱人工智能,并取得了显著进步,在语音识别、图像处理和物体分割、机器翻译等方面取得了重大突破,甚至可以接近或超越人类水平。
法律的制定可能超前于现实但不能偏离现实,基于以下几点现状考量,本文探讨人工智能发展中的法律问题主要集中于弱人工智能时代发展将带来的法律问题,并提出解决方案。究其缘由,其一,从逻辑上来说,课题组认为强人工智能弊大于利,将会给社会带来不可估量的道德伦理风险。如以强人工智能机器人犯罪为例,如果一台先进的机器人犯了罪,那么它应该如何接受法律制裁?律师如何去证明非人类的机器人有“犯罪心理”?这一点可以通过借鉴或调整现有的法律原则来实现吗?其二,从技术上来说,主流人工智能研究的方向从来就不是朝向强人工智能方向发展,现有技术的发展也不会自动地使强人工智能成为可能。目前我们所处的阶段,人工智能依然依赖于专家设置的系统结构体系,人工智能的学习性也依赖于人所拟制的算法来运作,如智能法律机器人、特斯拉的辅助驾驶等应用,这与强人工智能(有意识的、能知觉)还存在着巨大的断层。其三,从市场方面来说,在现实层面,人工智能技术取得的成绩都是弱人工智能领域的,如苹果的Siri在语音识别、实时翻译等方面取得的成功,IBM的“深蓝”在运算方面取得的成绩等。即使谷歌制造的AlphaGo在深度学习层次取得了进步,也是某种特定类型的智能行为。正如专家所说,“人机大战对于人工智能的发展意义很有限。解决了围棋问题,并不代表类似技术可以解决其他问题,自然语言理解、图像理解、推理、决策等问题依然存在,人工智能的进步被夸大了。”强人工智能的提出者约翰·罗杰斯·希尔勒本人亦不相信计算机能像人一样思考。
2.人工智能发展的特征
最近几年,随着人工智能技术的突破,以及互联网、大数据、并行计算等相关技术群的成批成熟,人工智能技术在快速的更替换代中不断发展。我国专家认为,人工智能技术发展和产业应用正在双双进入临界点,人工智能正在进入2.0新阶段。当前,人工智能发展呈现突飞猛进的势头,具有以下三个方面的显著特征。
(1)智能高效性
人工智能同其他机器及相关产品的最主要区别在于人工智能具有了一定的人类的智能,相关算法、数据和基础硬件使人工智能的智能性得以实现,是人工智能技术的灵魂。目前在人工智能的多个研究领域都在向认知智能挑战,如图像内容理解、语义理解、知识表达与推理、情感分析等,这些认知智能问题的突破,将再次引发人工智能技术的飞跃式发展。Facebook提出在未来5至10年,让人工智能完成某些需要“理性思维”的任务;“微软小冰”通过理解对话的语境与语义,建立用于情感计算的框架方法;IBM的认知计算平台Watson在智力竞猜电视节目中击败了优秀的人类选手,并进一步应用于医疗诊断、法律助理等领域。
(2)成长自主性
人工智能发展另一显著特征在于其成长自主性,不同于其他产品和设备需要完全通过人类的指令和系统的更新来完成产品的升级,人工智能通过深度学习和自主学习等算法便可以在提供基础数据养料的情况下不断适应和成长。人工智能技术虽然目前无法像人类一样思考问题,但其具有学习能力,其智能的实现依托于大量的学习,可能一开始也经常出现错误,但它能吸取教训,这样就保证了人工智能能应对更多的复杂情况。2016年初,谷歌AlphaGo战胜韩国围棋世界冠军李世石的围棋人机大战,成为人工智能领域的重大里程碑性事件,人工智能自主学习应用系统的智能水平再次实现跃升,初步具备了直觉、大局观、棋感等认知能力。
(3)产品颠覆性
人工智能发展的第三显著特征在于其相关应用产品对目前生产生活具有颠覆性冲击。目前,人工智能应用系统已经在多个领域启动并取得重要进展,包括:计算机科学、金融贸易、医药、诊断、重工业、运输、远程通讯、线和电话服务、法律、科学发现、玩具和游戏、音乐等诸多方面。应用系统是最直接的生产力工具,能利用人工智能技术优化工作流程,大大提高生产效率;同时,在人类社会生活中,人工智能的应用也会改变甚至颠覆人们的生活方式。例如,无人驾驶技术难点不断突破,自动驾驶汽车已经得到美、英政府上路许可;各类语音控制类家电产品和脸部识别应用在生活中已随处可见;德勤会计师事务所发布财务机器人,开始代替人类阅读合同和文件;IBM的沃森智能认知系统也已经在医疗诊断领域表现出了惊人的潜力,诸多人工智能产品都显示出对传统生产、生活的巨大冲击力和影响力。
(二)人工智能对传统法治体系带来的冲击与挑战
人工智能是一种新兴技术,在我国将其作为提升综合国力、占领未来科技主导权的重要发展战略的同时,我们不可忽略人工智能技术发展对传统法律体系的冲击。本课题将从人工智能法律主体资格、人工智能创作物的著作权归属及人工智能的市场准入和规制等三个方面论述人工智能对我国法治建设可能带来的相应冲击,以及我国法治建设应如何做出相应的回应。
1.人工智能对法律主体资格的冲击与挑战
机器人是机器还是人,在法理上涉及主客体二分法的基本问题。在民法体系中,主体(人)与客体(物)是民法总则的两大基本范畴。主体与客体、人与物之间有着严格的区别。凡是人以外的不具有精神、意思的生物归属于物,是为权利的客体。若将机器人视为“人”,赋予其相应的主体资格,难以在现有的民法理论中得到合理的解释。民法意义上的人,须具有独立之人格(权利能力),该主体既包括具有自然属性的人(自然人),也包括法律拟制的人(法人)。然而,在人工智能背景下,上述观点正遭受不断冲击,实际上,呼吁赋予高度自主的人工智能产品以拟制人格的主张已屡见不鲜。
当人工智能自主作出决策,并影响人类的自由意志和生活方式这种情况出现时,如何控制人工智能系统,使它们在积极的社会活动中不会干扰人类的权利;在人工智能造成损害时,即便是出于善意的驱使,如何确保这些损害得到弥补或赔偿等问题,都值得人类思考。随着人工智能尤其是强人工智能的拟人化或者说智能化程度的不断提高,它不仅仅是外在表现形式和语言行为越来越像人,有时它也会不受人的控制自主行动,一个不可避免的问题摆在人类面前,我们该如何对待智能机器人;当人工智能产生法律纠纷时,人工智能是否可以独立承担部分主体责任。机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,是否可以将其作为拟制之人以享有法律主体资格值得人类思考。
2.人工智能对著作权归属带来的冲击与变革
传统理念中,知识产权法为人类的精神劳动产生的智力成果提供保护,通过赋予垄断性权利来激励创新活动与知识分享,从而促进整体社会效益的提升。劳动价值论、功利主义说等知识产权的基础理论,主要围绕着人类自身展开。而人工智能产生的创造性成果由于缺少人类智慧性因素的充分融入,能否成为著作权法保护的客体引发了学界和理论界的广泛讨论。[⑨]
人工智能作品的出现,颠覆了人们对于作者与版权、发明家与专利等带有人身性质的知识产权权利义务关系的传统认识。例如美国媒体盘点了2016年世界范围内计算机创意项目,发现人工智能已经可以谱写流行歌曲,撰写小说、电影剧本,甚至绘画,乃至生成诗篇和散文。人工智能用于文艺创作,无论在表现手段、创作格局,还是拓展想象空间方面,都值得重视。人工智能创作物的诞生,无疑打破了以往仅能由人类创作作品的规律。
虽然使用人工智能进行创作设计研发阶段的成本高,但投入使用后创作周期短、创作数量大,其在艺术创作领域的活跃发展引发了关于人工智能创作物著作权保护的争议。不管是保护还是不保护人工智能的创作物都有一定的弊端,如果给予人工智能创作物版权保护,可能会导致版权作品数量急剧增长,并在某些领域对人类作品造成冲击,且人工智能作为创作主体的资格亦备受质疑;如果不保护人工智能的创作物,则会出现人工智能创作物大量涌入市场,有可能助长抄袭、搭便车等不正之风。[⑩]
3.人工智能对市场带来的冲击与变革
拥有海量数据资源和强大算法支持的人工智能系统正在影响甚至替代个体进行决策,然而在算法偏差和机器歧视的影响下,社会问题的出现屡见不鲜。例如,由科技巨头微软公司研发的人工智能机器人Tay,能够模仿人类用户的评论,并根据互动情况去发表自己的评论,在首日投入使用中就吸引了众多用户的关注,但Tay在某些用户的“指引”下,不仅辱骂用户,还发表种族歧视和性别歧视的言论。同时,谷歌的算法歧视问题早已引起人们注意,相关调查发现,在谷歌搜索中,搜索黑人的名字会比搜索拜仁的名字更容易出现暗示具有犯罪历史的广告;在谷歌的广告服务中,男性会比女性看到更多高薪招聘广告。
人工智能在各个领域的运用,当前还只能说是刚刚起步。但从效率这一出发点来看,无论是国家还是市场都有较强的推动力来进一步推广人工智能的运用,在这个过程中,技术的进步也将以更高的速度表现出来。当人工智能被应用于本来就充满流动性、风险与不确定性的市场时,便可能带来既无创新价值,又危害巨大的灾难性后果。例如2010年5月6日,美国股市发生了“闪电崩盘”,一万亿的资产价值瞬间蒸发,美国证券交易委员会(SEC)花了半年的时间才搞清楚原来是不同炒家的计算机程序在相互竞争的过程中导致了失控。在这个被称为高频交易的神秘世界里,这些系统可以“迅雷不及掩耳”地收割小型获利机会,还可以相互探测和利用彼此的交易策略。像这样的人工智能对决不仅存在于股票市场,还存在于任何投机性的多方博弈市场。事后追责型的法律对策,无法阻止人们在巨大利益的引诱下,利用人工智能进行这种损害范围无法控制的赌博式行为。[11]因此,未来有关人工智能的市场准入及市场规制问题,也值得广泛的关注和思考。
二、人工智能主体资格问题研究
在目前法律界对人工智能探讨的问题中,人工智能的法律主体资格问题一直是研究的焦点之一。课题组将分别从民事主体资格和刑事主体资格两个角度,对学术界的代表性观点进行梳理和总结,并就其中的法律问题进行探讨和分析。
(一)民事主体资格
在民法体系中,主体(人)与客体(物)是民法总则的两大基本范畴。随着人类社会进入到智能时代,传统民法的主、客体框架已受到人工智能带来的相应冲击。一方面,人工智能与传统机器的区别在于其具有“人”的自主性;另一方面,人工智能与人的区别又在于其不能完全脱离人的控制而呈现出来的“物”性,因此,如何对人工智能的民事主体资格进行确认显得尤为重要。
1.学界观点
对人工智能相关产品的民法地位,即其是否具有人格属性的讨论比较多,代表性观点如下:
(1)电子人说
欧盟委员会法律事务委员会已于 2016 年 5 月31 日向欧盟委员会提交动议,要求将最先进的自动化机器“工人”的身份定义为“电子人”(electronic person),并通过法律赋予其劳动权等特定的权利和义务,同时建议为“电子人”开立资金帐户以使其享受劳动者的相关权利、履行相关义务。人工智能对民事主体制度的挑战,已经从劳动者的定义及劳动权利主体制度中拉开帷幕。2017 年 10 月,欧盟议会法律事务委员会发布的《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics)中,就涉及重构责任规则和考虑赋予复杂自主机器人以“电子人”的法律地位。
(2)代理说
“电子代理人”一词最早见于美国法学会和美国统一州法全国委员会拟订的《统一计算机信息交易法》。代理说认为,人工智能的行为均来自于其管理人的意思表示,行为后果归责于被代理人,相当于管理人的代理人。这种学说无疑承认了人工智能的法律地位,但是它只能实施法律行为,在造成侵权时无法履行赔偿义务,其机器属性亦决定了它不能完全享有代理人相应的法律权利。
(3)有限人格说
有限人格观点认为,首先,人工智能已经是一种“真实”“独立”且“自主”的存在。人工智能已经应用于自驾领域、教育医疗健康领域、金融领域、安防领域以及电商零售领域等,它可以借助人类提供的基础硬件设备对人类的生活造成各种各样的影响,特别是人工智能具备的自主学习能力将加速这种独立性和自主性。所以,赋予人工智能独立法律人格是其发展的内在要求。
其次,人工智能具有独立自主的行为能力和责任能力。虽然人工智能的诞生依赖于人类的预先设定,但是当人类预先设定之后,它可以在给定的框架内进行自我思考和自主学习,甚至有可能发展为类人主体。单纯以人工智能的存在是以人类智力活动为前提这一理由,并不能否定人工智能的自我意志。
再次,赋予人工智能法律人格是有效管控人工智能风险的必要手段。[12]人工智能的出现极大地改变了人类生活,它在很多领域会将人类从繁琐劳动中解放出来,使得人类实现自由的程度得以上升。但同时,在它的应用过程中,必然会引发对传统道德和价值观的冲击。所以,必须赋予人工智能法律人格,将人工智能纳入到统一的技术和伦理规范体系之中进行规制,并建立相应的法律制度机制来消解人工智能可能带来的风险和危害。
(4)否定说
否定说认为,机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处。[13]弱人工智能时代下模拟和扩展“人类智能”的机器人虽具有相当智性,但不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的。本质上属于“工具”的人工智能体并不能拥有民事权利能力。其次,尚无自由意志的人工智能所做的行为没有动机,无法产生一个以发生私法上效果为目的的意思表示,即人工智能和特定权利人之间也不可能存在代理关系,更不能适用限制行为能力人或无权代理人所做出的意思表示需要被追认的法律规则,即人工智能并不具有民事行为能力。
2.课题组观点
课题认为,强人工智能时代的到来将遥遥无期或许也并不可能实现。而即使强人工智能存在理论上的可能性,人类也很难同意世界上存在威胁人类生存的另一个高智慧群体的存在。因此仍限定于在弱人工智能的范围讨论是否赋予其民事主体的地位。本课题观点认为应赋予人工智能“有限”民事主体地位。
首先,需要明确的是,人工智能不同于以往的计算机。其不仅能够实现自己的任务,并且“当存在不确定的结果时,它能够实现最好的结果,而这个结果正是所希望实现的”。人工智能的行为与以往利用计算机所为的行为的本质区别就在于:人所起到的作用不同。以往计算机完全听命于人的操作指令,可以理解为是设计者辨认能力和控制能力的延伸。而人工智能基于机器学习和深度学习,已经能够自行判断、收集和学习新的数据。某种程度上已经不再局限于设计者最初预定的程式,能够自行衍生出新的决定并实施。人所制定的算法规则或数据输入不再是人工智能行为的唯一来源。即人工智能机器人的行为存在着一定程度的自主性。这也正是我们讨论人工智能法律主体地位的必要原因之一。
其次,在一定程度上赋予人工智能民事主体地位符合现实社会需求。课题组认为,学界有观点直接从伦理和哲学层面否认人工智能民事主体地位而忽略了现实因素。民事主体资格的承认尽管要考虑到伦理性,但法律人格区别于伦理人格,法律发展到今天,伦理因素已经被弱化。法律人格的确立标准中,伦理性并不成为唯一因素,财产和责任基础的独立性以及社会功能的重要性已然成为重要考量因素。例如公司、合伙企业人格的确立,实质上是一种功利主义视角下特定自然人利益的延伸。民事主体赋予的衡量标准在于法律接纳该类主体应满足社会效益最大化和当事人利益最大化的要求,或者至少不会对特定人群的利益产生不利影响。[14]而对于人工智能的发展前景来看,可以预见到的是,在未来人工智能将更广泛地参与到民事活动中,改变甚至颠覆人类现存生产工作和交往方式,由此出现一个以新的技术结构支撑新的社会结构的人类新时代。但是正如本文开头所强调的,智能机器人归根结底依旧是由人类创造并服务于人类社会发展的智慧型工具,这从根本上决定了智能机器人的发展必须遵循“以人为本”的价值原则,必须以保护、不侵犯人类权利为基本底线。
综上所述,课题组赞同赋予人工智能“有限的”民事主体地位。这种有限性主要体现在:其一,行为能力的有限性,其行为应当受到使用者或占有者的最终控制。其二,权利义务的有限性,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担义务。例如,机器人能够签订合同等等。其三,责任能力的有限性,很显然,基于人工智能被发明的目的和从目前可以预见的未来来看,人工智能不可能像自然人和法人一样拥有属于自己的财产。因人工智能无独立的财产,其承担法律后果的能力是不充分的,另一方面如何证明智能机器人的侵权行为事实上已经脱离人的控制,是来自其自我学习、自我感知,进行相应的独立判断下的行为也存在着相当大的举证困难,也有可能引发转嫁责任的道德风险。因此部分责任后果最终还是要由人来承担。课题组认为可以以产品责任为原则,适用《侵权责任法》《产品质量法》等的相关规定追究销售者和制造者的责任。
3.人工智能参与民事活动配套机制构建
法律规范应当与人工智能技术发展相适应。在肯定人工智能具有有限的民事法律人格的条件下,也应在民事活动领域及时建立完善的配套机制。
(1)设立专门的人工智能监管机构
人工智能对于技术知识的要求比较高,需要有专业技术人才及监管部门配合才可有力监管。而现有的监管体制不足以对人工智能进行有效监管,因此需要建立新的监管部门,例如美国“机器人委员会”等对人工智能及相关产品进行专业监管。另外由于人工智能种类与功能繁多,无法保证每一类人工智能都被准确划归到某一行业进行监管,课题组建议可以将人工智能监管部门划分为多个片区进行精准化管理,比如分为家用型人工智能和公用类人工智能。
(2)建立人工智能登记制度
课题组建议建立人工智能登记制度,每一台人工智能产品都需到监管部门强制登记,获得“身份证”,同时确定其专属管理人。在登记时明确其生产应用的目的或用途,进而将其民事行为能力限制于其目的范围内。当人工智能产品从事超越其预定目的之外的行为致使他人损害构成侵权的,可借鉴公司法中“刺破公司面纱”理论的归责原则确定责任主体,即除智能机器人以其自身财产承担责任外,还可根据具体情况要求其设计者、制造者、所有者或使用者承担责任。
(3)建立人工智能强制保险或赔偿基金制度
人工智能技术一方面为人类造福,而另一方面也增加了人类无法预测的风险。鉴于此,为分散人类面临的智能机器人的侵权风险,课题组建议构建强制保险或赔偿基金制度。可要求智能机器人的所有者购买强制责任保险,用以补充智能机器人对受害人的赔偿。另外,也可以在引入强制保险的基础上,根据受益人共摊风险的原则,在包括人工智能投资者、开发者、生产者、使用者等多方受益人中构建人工智能保赔协会,当出现登记在保赔协会名下的人工智能侵权时,受害者可以要求保赔协会承担相应的责任。
此外,也有相关专家建议,在国家有关机关的主导下,构建人工智能赔偿责任基金。通过人工智能损害风险分摊机制,在满足一定条件的情况下,动用人工智能赔偿责任基金,按规定对受害人予以赔偿。这不仅有利于更好地保护受害人的权益,维护正常的社会秩序,而且为人工智能参与人类生产、生活活动提供了更好的保障。
(二)刑事主体资格
黑格尔认为,犯罪被视为理性存在者的行为,违法者通过他的行为表明其同意适用法的惩罚。现代刑法在犯罪构成认定方面亦坚持主客观相统一的认定标准,在犯罪主观方面强调认识因素与意志因素。认识因素是指行为人对自己行为及其结果的社会危害性的认识以及对犯罪的基本事实情况的认识。意识因素是指行为人根据对事物的认识,决定控制自己行为的心理因素。可以说,犯罪是犯罪人自由意志的体现,只有从犯罪人的自由意志中才能找到刑罚的正当根据。对于不具有认识因素的“无知”行为或是受到强制的“无选择”的非自愿行为不应当受到刑罚的谴责。[15]
因此,人工智能可否像法人一样作为又一新兴主体进入刑法视野成为被规制的对象,其核心在于分析客观上造成法益侵害结果的人工智能是否具备可追究刑事责任的主体意志自由。[16]
1.学界观点
人工智能在刑法领域引发的问题,引起了刑法学界对人工智能的刑事主体地位的一系列争论。目前,就人工智能能否成为刑事法律上的责任主体、能否对人工智能单独施加刑罚措施等问题有着不同的观点。
(1)肯定说
据报道,2017年10月25日一个名叫索菲亚(Sophia)的“女性”机器人被授予沙特阿拉伯国籍,该机器人成为史上首个被授予国籍的机器人。有观点认为,[17]沙特赋予机器人 Sophia 以国籍,很好地解决了人工智能刑事主体资格的问题,因为此时Sophia 具有公民身份,无论是她对别人造成伤害还是别人对她造成伤害都需要依据刑法的规定进行处罚。人工智能的机器人不仅可以直接对他人人体造成侵害,而且在认识能力和意志能力方面,都可能接近甚至超越人类,因此完全有成为犯罪主体的余地。
对于此观点,本课题组并不认同。虽然Sophia被授予了国籍,但是在法律角度并不具有现实的可行性。因为就现在的人工智能技术发展看来,自然语言处理水平尚未发展至Sophia在电视节目中表现的程度。Sophia的言论可能全部都是由其背后的团队提前预设好的台词和剧本,根本不具有自由意志。也有学者曾对此进行过进一步的讨论,认为Sophia并无可能对其性自主意志进行实质判断,其也没有实际的感知力,如果男性自然人对其实施猥亵、强奸等行为,并无法进行相应罪名的认定。
另外,学界也有观点从另一角度肯定了人工智能的主体地位。[18]提出以智能机器人为代表的人工智能可以通过深度学习产生自主意识和意志,并在自主意识和意志的支配下实施严重危害社会的犯罪行为,此时智能机器人已经具备刑法中犯罪主体的主要条件,确实需要承担相应的刑事责任。
该观点认为,首先,若智能机器人在设计和编制程序范围内实施行为时,不应承担刑事责任。从目前人工智能发展水平来看,智能机器人的行为仍在人类设计和编制的程序范围之内,即使智能机器人已经可以通过学习根据自主判断实施相关行为,但这些行为均受到人类设计和编制程序的控制或者限制,且完全符合人类设计和编制程序的目的。就此而言,人类是智能机器人的创造者,完全可以在智能机器人产生自主的意识和意志之前通过程序给智能机器人设定行为目的和行为边界。此时,人工智能只是不法分子实施非法目的的“工具”,而不应当对其实施的行为承担刑事责任。
但该观点同时提出,随着时代的发展,人类不应忽略这种已经可能产生和人类一样甚至超过人类智商的新事物的存在。若人工智能真的开始具有独立的辨认能力与控制能力,那么就应当认为人工智能可以成为刑事责任主体并需要承担刑事责任。认为智能机器人完全可以通过不断学习规则建立“自省”与“道德感”,这已经远远超出了自然行为论、因果行为论、目的行为论、社会行为论、人格行为论所能预见并认识的范围。
(2)否定说
目前也有观点直接否认了人工智能的刑事主体地位。认为人工智能不具有刑法评价意义上的行为认识与控制要素的自主性,也就不具有人的目的理性所支配的可问责基础,欠缺作为刑事责任主体的本质要素。[19]
首先,人工智能对自身行为不具有认识能力。人工智能在预先设定的程序指令中运行,即使通过深度学习使程序摆脱了人类的控制并在客观上造成法益侵害结果,但人工智能本身缺乏对外在行为的真实理解,无法认知自身行为对客观世界产生的影响,因而无法认识自身行为的社会属性,也就不具有规范评价意义上的行为“目的性”与独立控制行为的意志自由可言。
其次,人工智能不具有理解并遵从法规范的能力。人工智能本身对刑法规范既没有理性的认识与遵从能力,也无法感知违反规范所造成社会否定性评价所带来的消极后果,其单纯依据程序设定实施的行为,或者因为出现故障导致人工智能未依据事先设定的程序运行,欠缺刑法所要求的对法规范遵从的意志自由。
再次,人工智能行为属性判断无客观标准。例如在当前人工智能应用最广泛的自动驾驶领域,自动驾驶系统只是一套机器系统,它们并不会作出真正的决策,它们只是根据对环境的感知,按照某种特定的原则和设计做出反应,而人类在驾驶时对于整套系统的感知和反馈模式拥有完全的控制权。不论自动驾驶汽车是符合人类预设的程序处于正常行驶状态还是造成了客观的事故损害,并无明确标准判断其是基于自主意志实施的行为还是基于人类本身的程序控制状况所出现的不同结果,唯一能作出的合理解释仍应回归于人类当前技术手段的缺陷使得作为辅助工具的人工智能出现目的偏差进而造成损害后果。
2.课题组观点
综合上文中列举的不同的学术观点,本课题组支持人工智能刑事主体资格的否定说。
回归本部分前述首要观点,分析人工智能是否具有刑事法律主体地位的核心应在于分析人工智能是否具备可追究刑事责任的主体意志自由。目前人工智能的发展处于弱人工智能的初级阶段,尚不具备主体意志自由。智能机器人的行为还限制在人类设计和编制的程序范围内,智能机器人实现的是人的意志而非自主的意志,因而人工智能相关“刑事犯罪”最后的责任始终应由人来承担。具体而言,可以分为两种情况进行讨论:第一,若危害行为是人工智能完全在人类控制下实施的,此时人工智能的客观危害行为应归责于使用者本身。第二,如人工智能的行为超过了人预设的界限而造成危害行为,由于人工智能本身尚不具有意识性和目的性,该行为的性质类似于“微波炉爆炸”,可以适用产品责任解决,追究生产者等责任。例如,目前国外有关人工智能立法的草案对于特殊场景下机器人实施侵害行为规定了刑事责任,但利用机器人实施侵害行为的刑事责任承担者仍是机器人的设计者或制造者,机器作为实施犯罪的工具本身并不是犯罪主体。
进一步而言,假设人工智能相关产品具备行为辨认能力,最多是指通过算法和深度学习,具有对行为结果的计算和确定能力,在此方面人工智能体可能达到甚至超越人类的水平。然而,刑法上所说的行为辨认能力不仅是指对行为后果的把握,更是指对行为意义的认知。正如一个精神病人杀死一个人的时候,即使他知道要用枪杀死这个人,甚至也知道他枪杀一个人的后果,但是他却不能像正常人一样认知杀死这个人的真正意义。正因为此,刑法上认为这样的人不具有辨认自己行为的能力,因而不能承担刑事责任,即在刑法上不具有可罚性。所以,将对行为结果的辨认能力视为对行为的辨认能力实际上是限缩了行为辨认能力的外延,是不恰当的。
正如肯定说中有学者所提出的,若时代真的发展进入了强人工智能时代,人工智能开始产生了自主的意识和意志,又该如何抉择?本课题组观点是,人工智能如果真的产生了意识,给人类带来的将是诸多无法预测的场景。从目前人类社会来看,作为“工具”的弱人工智能已经完全够用了,强人工智能时代的到来总体而言是弊大于利,应该禁止强人工智能相关技术和产品的研发应用,从源头上将它放入“潘多拉魔盒”,那么也就不存在主体的认定问题了。
同时,根据民事责任、行政处罚以及刑罚的惩治严厉程度来看,在当前人工智能机器人无法通过民事、行政手段予以追责处罚的情况下,刑法的社会防卫功能不应过于积极主动,当人工智能致使公私财产损失或者致他人人身侵权损害后果时,刑法不应越过前置性规制法律直接规定相应刑事责任,否则违背了刑法二次保障法的地位,也有违刑法的谦抑性品格。综上所述,课题组认为就目前现状看来,不应给予人工智能刑事主体资格的认定。
三、人工智能著作权问题研究
人工智能在新闻和视觉艺术领域参与创作活动的现象虽然在如今已成常态,但如何认定由此生成内容的可版权性及其权利归属,在法律上却并未形成统一意见。因此围绕人工智能生成内容的可版权性和版权归属问题成为近些年来学界讨论最多的问题之一。
当前国内研究人工智能创作物保护的主要争议有二:一是人工智能创作物能否成为作品,二是人工智能能否成为作者或者著作权主体。二者都关系到人工智能创作物能否获得著作权法保护。[20]之所以存在上述争议,原因在于人工智能创作颠覆了著作权视野中关于作者的基本理解,也颠覆了法律关于主客体不能互换的基本原理。在此本课题组将从人工智能生成内容可版权性和市场自由两个角度对人工智能生成内容的可版权性做出探讨。
(一)学界关于人工智能生成内容可版权性的主要观点
我国目前关于人工智能生成内容的可版权性问题主要存在两种观点,一种观点认为人工智能创作物不能成为作品而排除著作权保护,而另一种观点则认为人工智能创作物著作权保护具有可行性,而在主张可版权性的一方中,又衍生出例如邻接权保护、法人作品保护等不同的保护模式。
世界各国著作权法多以独创性作为作品的核心要素,只有具备相应独创性的智力创作成果才可成为著作权客体,受著作权法保护。[21]除独创性外,可复制性也是各国著作权法给予作品保护的基本条件。[22]从独创性的视角出发,学界对人工智能创作物是否具有独创性形成了各种不同的认识,并基于各自不同的认识对人工智能创作物的保护路径提出了不同的看法,归纳起来主要包括以下几种:
1.不具独创性说及其保护路径主张
人工智能因具备深度学习能力而被应用到创作领域。有学者将其生成内容的过程表述成一个不断迭代、不断抽象的计算过程,以便确定最优算法。[23]尽管人工智能创作软件基于各种深度学习技术已经具备一定“创作力”,但这种“创作力”实际为计算。[24]计算是利用算法和规则的过程,其结果可以重现。而创作是个性化的表达,需要一定灵感。因此,人工智能生成内容的过程是计算而非创作,利用相同的算法采用相同操作可以重复内容。另外,整个计算过程是自主运行的,使用人无法在创作物生成过程中添加自己的个性表达。[25]这种计算从根本上抹杀了人类使用过程的创作空间,排除了处理结果具有个性化特征的可能性。但否定人工智能创作物独创性,并非同时否定人工智能创作物的利用价值。因此,也有学者主张,著作权法保护的是人类的表达,对于机器的表达可以由不正当竞争法来保护。[26]也有学者提出,对于人工智能创作物可以选择单独立法进行特殊保护。[27]
2.具有独创性说及其保护路径主张
以深度学习为代表的新一代智能学习算法技术的运用,[28]使得人工智能创作物不仅是基于既定算法、程序作出的指令性输出,且能够在没有预先算法或者规则的设定下,通过主动学习来进行创作。[29]基于此,有人认为,人工智能程序可以利用随机数生成器,使不同次运行的创作物各具个性。[30]人工智能创作物的创作过程能够满足独立创作和独具特色的要求。在对人工智能创作物的保护路径问题上,由于区分人工智能创作物与人类作品的成本较高,通常需要完备的登记制度和监管机制,[31]因此,在不区分来源的情况下,基于创作物表现形式和其独立创作过程,人工智能创作物可以成为著作权客体而受到法律保护。[32]可将人工智能生成内容视为人工智能程序的编程者的人类创作,[33]该创作物是否构成作品可以适用与人类作品一样的独创性标准进行判断,权利归属也可以适用著作权法中的法人作品制度。[34]
3.独创性不足说及其保护路径主张
该观点认为,人工智能利用公共领域作品以及不构成作品的素材,学习先有作品的风格进行创作,创作物与在先作品不构成实质性相似,其在作品类型中最为接近于演绎作品。基于著作权法不保护思想,而在先作品风格属于思想的范畴,因此人工智能创作物并非对在先作品的演绎。[35]考虑到人工智能创作软件对创作物不可替代的作用,可以尝试比照“剧本”作品进行分析。具体而言,可把人工智能创作软件当作“剧本”,把使用人视为“表演者”,人工智能创作物系使用人对“剧本”进行“表演”后的作品。基于此,人工智能创作物应为演绎作品,权利归属可以参照现行著作权法中的演绎作品制度处理。另亦有主张独创性不足的学者认为尽管人工智能创作物与人类作品形式上相似,但其本质上属于信息产品,其法律属性不同于民事法律关系的传统客体,既不是典型的物或行为,也非人类的智力成果或人身利益,该种独创性不足的生成内容(人类在其中起到的作用有限)可以通过邻接权进行保护。[36]
4.课题组观点
课题组在总结学者关于人工智能生成内容的可版权问题中发现,人工智能创作软件是生成创作物的根本,对于具有“创作力”的人工智能本身,能否作为创作物的作者或者权利主体问题,即使是认为人工智能生成内容可受版权保护的大部分学者的答案也是否定的。
立法应当未雨绸缪,同时也要注意前瞻性的限度,不能针对过于遥远的未来作远景规划。固然,民事主体经历了从“人可非人”到“非人可人”的历史变迁,[37]但这种历史变迁的背后,是经济交往的需要,而非泛滥的博爱情感。通过著作权法保护人工智能生成内容,不能与赋权给人工智能划等号。实际上,从科学技术层面来看,目前的人工智能尚不具备产生独立意志的可能性,功能与能耗的限制消解了人工智能之主体地位的现实基础。库兹韦尔笔下的人工智能发展的“奇点”是否真的存在及何时到来,没有人能给出确切、可靠的答案。[38]人工智能不具有独立意志,不能真正认识到自己行为的法律后果,不具备承担责任的可能性和必要性,主体身份无从获得。相比之下,法人或者其他组织之所以能被视为作者,法人作品之所以能受到著作权法保护,就在于法人作品是代表法人或者其他组织意志创作,并由法人或者其他组织承担责任。[39]承认人工智能的主体地位,步子迈得过于大,远离法理、逻辑和常识。从立法的实效来看,赋权给人工智能达不到预期的激励创作的立法目的。人工智能本身没有利益需求,不存在物质方面的刺激和精神方面的满足,赋权给人工智能不会对内容生成产生任何影响。著作权制度不能对人工智能本身提供任何激励,在赋权给人工智能的模式中,人工智能都只扮演招牌幌子和敲门砖的角色。
(二)市场自由视角下人工智能生成物保护
虽然学界对于人工智能生成内容的可版权性做出了初步的探讨,但是各派观点也在不同程度上存在着完善空间。
1.现有理论的反思
站在人工智能生成内容需要保护的立场下,不具有独创性说中,对人工智能创作物进行单行立法保护,似乎是一种更为可取的保护路径。但是,一方面,人工智能创作物仅仅是人工智能应用产出的一种,由于当前商业模式创新有限,对人工智能创作物采用单行立法保护,似乎时机还不够成熟。只有当人工智能技术发展到一定的程度,对包括人工智能创作物在内的应用产出有充分的了解和认识后,专门的立法似乎才会有必要和可能。此外,即便是专门立法,以何种方式对人工智能创作物进行保护,也是必须回答的问题。
在此前提下,反不正当竞争法的保护路径似乎回避了对人工智能创作物定性、归属等基本法律问题。诚然,反不正当竞争法对著作权及其客体商业运用过程中权利人的利益保护具有不可替代的作用。但是如果对人工智能创作物的法律属性等基本问题缺乏明确的认识,一方面,对人工智能创作物的法律保护难免会失之周全,另一方面,在人工智能创作物法律属性不明确的前提下,通过反不正当竞争法对其进行保护也无法正常实现。即便是在市场运行领域,要适度保护人工智能创作物,也必须以明确谁对其享有权利,享有什么权利,该权利与其他相关权利的界限在哪。
此外,演绎作品的保护路径具有一定的合理性,但人工智能创作物与演绎作品具有明显的区别,将其作为演绎作品而给予保护,似乎在制度安排上也很难与法律对其他演绎作品的保护相协调。再次,著作权法中的演绎作品同样是人类的作品,而非机器的作品,将人工智能创作物作为演绎作品进行保护同样绕不开保护对象性质差异性这个基本的问题。
2.跳出作品观看人工智能生成内容的保护
围绕人工智能的生成内容是否构成作品的核心无疑是对于独创性的判断,即人工智能的生成内容是否体现了最低限度的智力创作。该种判断事实上所要确认的是人工智能能否获得和作品相同的或者类似的保护。在回应人工智能生成内容是否具有独创性上,一种观点认为,从目前有关人工智能的各种报道和描述来看,至少在现阶段,人工智能生成的内容只是应用某种算法、规则和模板的结果,与为形成作品所需的智力创作相去甚远。[40]另一种观点认为,独创性的判断对象是已经形成的表达本身,判断时只需要对表达作形式上的审查,独创性的判断是一个纯客观的过程,是表达形成后的事后判断。[41]当我们已无法区分所欣赏的作品为人类创作还是机器生成时,就意味着该内容应被认定为作品,所以人工智能生成内容客观上应视为满足独创性要件中对最低创造性的要求。[42]
本课题组认为在回应人工智能生成内容的保护方面,并非只有将其生成内容认定为作品这一条途径。强行突破著作权法以人为核心的保护,抑或一方面承认人工智能生成物具有独创性,而又不将该种独创性归因于生成内容的过程,强调人在创作中的作用都是不合逻辑的。独创性或者说作品应该体现某种选择,这是人之为人,人之创作的作品之所以为作品的缘由,如果某位艺术家在自己家门无意打翻一桶颜料,而颜料正好在地上绘制出了一个精美的形状,第二天邻居看到以为是艺术家的新作,于是纷纷前来拍照,参观,这时在地上由于偶然产生的精美图像,在现在著作权的基本理论下很难认定为作品。同理,人类在无意识选择下生成的内容都尚不能构成著作权法下所保护的作品,弱人工智能根据算法、模板和程序生成的内容,完全没有任何的意志表达,又何能称之为作品呢?
因而对于人工智能生成内容的保护,应该回归到保护之目的说,并设计出一套合理的保护方案,方为正途。目前,各国建立的以人为中心的著作权制度,均未将机器的表达纳入其中。各国司法实践建立起的独创性标准虽有不同,但都是建立在对人的智力成果的评价基础之上的。人工智能创作物并非人的创作,既不能称其为编程者的智力成果,也不能将其作为使用人的智力成果。[43]将人工之智能的创作物定性为作品,又将其权利划归为相应个人、法人或非法人组织是不合逻辑的。
3.人工智能保护的必要性分析
对于人工智能生成内容的保护,需要回归到保护的必要性中。课题组对于相关学者的观点进行总结,发现对于人工智能生成内容保护的必要性其实主要集中在两个方面,其一是,对于人工智能生产内容的保护有益于人工智能产业的发展,其二,若不保护,大量的流入公众领域的人工智能生成内容将导致整个版权产业的巨大不稳定。
针对以上理由,本课题组认为,首先,国家对于人工智能产业的支持和鼓励不是为人工智能生成内容提供版权保护的必然事由。对于人工智能产业的扶持和保护事实上可以通过政府和市场之关系进行调节,对于人工智能生成内容的立法保护则更需要进行严格的论证。正如习近平在《习近平谈治国理政》一书中所言,“市场决定资源配置是市场经济的一般规律,市场经济本质上就是市场决定资源配置的经济。” [44]而实际上,将人工智能产业交由市场本身进行资源的配置,发挥政府在市场经济中的调节作用,本身就是产业发展的基本路径和模式。。
其次,对于人工智能生成内容的著作权法保护并不能回应著作权法保护人的创作活动和推动文化传播的立法本意。人工智能软件的开发确实投入了一定的成本,如果软件开发者或者使用者对于人工智能生成的内容无法享有某一程度上的权利保护,会对开发者或者使用者的利益造成某程度上的损害,但是据此而赋予人工智能生成内容类似录音录像制品一样的邻接权,事实上和著作权法的保护本意是不相融洽的。以录音录像制品为例,录音录像制品的保护事实上存在这样的逻辑脉络,即若不赋予录音录像制作者相应的权利,将会导致大量盗版的录音录像制品存在,[45]如此一来便不会有人从事付出大量劳动和投资的录制工作,最后导致的后果将是作品的传播受到了极大的影响。一方面,邻接权是对于录音录像行业的保护,而更深层面上是对于著作权法立法本意的回归,即促进文化的传播[46]和对投入精神创作的作者的保护。而反观人工智能生成内容的保护,则无法回应立法保护的本意。人工智能生成内容的著作权或邻接权保护,虽然起到了对于人工智能开发者的保护,但是人工智能开发者背后并无投入精神创造的人类,或者说其背后的“投入精神创作”的主体和人工智能开发者相同。
再次,对于人工智能生成内容的著作权或邻接权保护,是否有利于文化传播是存在重大疑问的。目前人工智能生成的内容和人类创造的作品还存在一定质量上的差距,即便给予该种内容亦版权法上的保护,也并不利于优质文化的传播。而当人工智能可以生成和人类作品并无太大差别或者难以区别的内容时,我们面临的挑战不再是不保护人工智能作品将会造成版权秩序混乱、版权纠纷增加之风险[47]抑或劣币逐良币的效应将导致文艺市场失去高贵、深刻并让人感同身受的作品,[48]而是整个人类创作领域的重大变革。人工智能本身可以量产,这就意味着将会有源源不断的“作品”产生,人类的作品将不再有竞争力可言。从长远看,著作权法并没有必要对于这种未来会对人类创造本身造成巨大灾难和威胁的人工智能提供保护。
4.现状分析和应对之策
制度设计应该具有一定的前瞻性,无论是人工智能生成内容的过去和未来都不应该是著作权法保护的对象,我们亦不能因对人工智能创作的“非创作性投入”进行专用权保护可促进人工智能创作软件的的开发应用,推动相关产业链的形成[49]为由,而要求对于人工智能生成内容进行著作权法上的保护。事实上许可人工智能生成内容进入公有领域,并不会对于人工智能产业造成破坏性的打击,亦不会阻碍智能创作产业的发展。
首先,人工智能产业并不仅涉及人工智能的创作领域,人工智能在金融、公共安全、教育、手机、交通、医疗、零售、工业、智能软件等领域都发挥着越来越大的作用,将人类从繁琐的劳动中解放出来。[50]许可人工智能生成内容进入公共领域并不会对于人工智能产业本身造成太大的影响。
其次,人工智能的创造并不会因为智能生成内容被许可进入公有领域而止步不前,人工智能创作软件的开发成本完全可以在商品销售领域获得弥补。例如,美联社于2014年7月开始使用的人工智能软件Wordsmith,其由美国北卡罗来纳州的自动化洞察力公司(Automated Insights)开发,[51]开发者通过软件的销售完全可以实现公司盈利的目的。
最后,人工智能开发者仍然可以通过合同安排,在私有领域对于人工智能的生成内容进行专有权利的安排,进而推动人工智能企业开发面向个体的具有个性的人工智能生成内容,此亦无损人工智能开发者之利益。例如,“Jukedeck”是英国的一家人工智能音乐创作平台,该平台为用户设置了类型化创作通道,并通过服务合同的方式许可用户免费使用其人工智能创作软件进行创作,音乐版权归平台所有,用户若要下载使用该音乐,应支付相应费用。开发者可以通过和使用者的约定,明晰人工智能生成内容的归属和使用方式,而开发者并不当然享有生成内容的专有权利。
课题组认为,具有创作功能的人工智能软件本身就是商品,而开发者许可他人利用人工智能生成相应内容的本质是服务,让开发者销售商品和服务行为回归市场本身,通过价格机制调节,才是人工智能产业发展的一般途径。
四、人工智能市场准入和市场规制的法律问题
人工智能极大地便利和丰富了人们的日常生活,但人工智能带来的风险也不可小觑,如国家安全风险、个人隐私风险、伦理风险等等,[52]事实上,从人工智能进入市场的开端,到人工智能在市场中实际的商业运作,都少不了法律的规制。课题组将主要从三个方面展开,一是人工智能的市场准入,二是准入后人工智能的市场规制,三是国家在进行立法规制时应有的配套激励措施。
(一)人工智能市场准入原则
市场准入原则是贯穿于人工智能市场相关立法的整体思想准则,是对人工智能进行法律规制的宏观思路把握。在市场准入原则的把握上,我们应该对人工智能市场的一般和特殊、研发和应用,以及强弱人工智能进行区分。
1.对一般市场与特殊市场进行区别
目前,人工智能在诸如信息、金融、医疗、法律、电商等多个市场领域均有渗入与发展,而这些市场由于其行业特性,在发展人工智能时所面临的问题与风险不尽相同,因此针对人工智能的一般市场和特殊市场的准入原则也应有所不同。人工智能一般市场可以理解为人工智能的技术应用已经比较成熟或者不会涉及国家、社会或个人重大利益的市场,比如说日常的电子商务市场、教育市场或者一般家用的小型机器人市场、智能家居市场等。一般市场中人工智能的风险是较为可控的,因此为了鼓励中、小规模的主体进入市场,准入的门槛应该降低。
而对于特殊市场的准入原则则要基于市场的特殊性,对欲进入市场的主体提出特殊的条件,甚至严格制约人工智能的市场准入。第一,涉及国家安全或重大利益的特殊市场主要指有关军事、国防、国家重大经济安全等,在对国家安全造成重大威胁时甚至应该禁止人工智能的市场准入。第二,涉及社会重大公共利益的特殊市场包括无人驾驶系统和日后可能出现的医疗手术机器人等,在此类的市场领域中,如果没有比较明确的资质要求,则会使重大安全事故发生率成指数型上升,社会公众利益得不到保障。第三,涉及个人重大利益的特殊市场目前主要指与个人信息与隐私安全密切相关的市场。为了避免个人信息与隐私泄露给本人带来的潜在风险,针对某些靠收集整理个人信息数据为主要商业经济来源的市场领域来说,应该设定相应的准入要求。
2.对技术研发和市场应用进行区别
研究人员曾对人工智能的层次作出划分,将人工智能从下往上划分为基础设施层、算法层、技术层、应用层。基础设施、算法、技术方向以及具体技术都是属于技术的研发阶段,而被划分到应用层的行业解决方案则属于最终的市场应用阶段。[53]
不难理解,人工智能技术的研发不仅是应用的前一阶段,也是应用的根基。课题组认为,应给予人工智能基础层技术研发宽松的环境,原因有三:第一,从人工智能所依赖的底层算法看起,此阶段的研发还未分离出上层的不同领域,某些算法更是被大多数不同市场领域的人工智能引以为共同的本源,宽松的准入环境有利于促进技术更多方面的发展。第二,我国目前还处于人工智能技术的研发初期,部分关键的算法以及芯片技术还依赖于国外的进口,这可能会影响到我国“2025计划”的顺利实现。因此,从技术研发层面应鼓励不断创新与进化。[54]第三,由于只是技术的研发,其具有基层普遍性,但却暂未牵涉到上层应用层面的社会实际推广,因此可以采取较为宽松的准入原则。
在市场应用阶段上,课题组认为应该结合该行业的具体特性,为人工智能设置一定的准入要求,其原因依然有三:第一,相较于技术研发,应用阶段具有了更多的市场运营属性,将一项技术正式投入到具体应用中,显然对社会的影响也更大。第二,对于人工智能的市场应用层面来说,有可能面临着诸如社会伦理等更为深层次的忧虑,不排除某些人工智能会因为对社会伦理的冲击而被禁止进入市场。第三,应用也比技术研发有着更强的商业利益追求,比如可能某项技术还没有尽善尽美,但是经营者为了营利则希望尽早投入市场生产经营,这背后的道德风险不可小觑。综上所述,对于特定的技术应该设置特定的标准,除非达到了该标准,否则不能轻易投入市场使用。
3.对强弱人工智能等级进行区别
人工智能也有了“强”和“弱”的等级区分。谈到市场准入的监管原则,还必须在厘清本报告第一部分对于“强弱”人工智能的介绍,对二者进行区别。
课题组认为,强人工智能和弱人工智能最本质的区别在于创造力,在于其处理逻辑的形成,通俗来说,弱人工智能并不具有自主的创造力,其本质上还是供人们使用的一种工具,只不过由于一些特殊的编程或芯片技术而拥有了一些类人类的能力。事实上,我们目前所发展出的人工智能,都是属于弱人工智能的领域,监管也是谈论对弱人工智能的监管,因此将准入原则划定在弱人工智能领域范围内较有现实意义。但是在弱人工智能领域,也有较强和较弱的弱人工智能之分。那么显然对于更易于被普通人所使用操作的纯粹工具性质的较弱的弱人工智能的市场准入标准要偏低一些;而对于较强的弱人工智能,由于其相较难以控制或者背后暗含的伦理等问题,在设置准入标准时应该从严。
事实上,受目前科学技术水平的制约,人类还并没有真正发明出不受人类控制的强人工智能,但是可以预见,如果有一天强人工智能问世,那么将会给人类社会带来巨大的冲击。这种冲击不仅包括伦理道德、市场安全方面,更包括规则制定乃至整个社会秩序方面。因此,课题组认为强人工智能是弊大于利的,应该从立法上禁止强人工智能相关技术和产品的研发应用,禁止强人工智能的市场准入,从源头上将其放入潘多拉魔盒,在本部分中提及的对人工智能的规制也均指弱人工智能。
(二)人工智能市场规制
由于市场主体所惯有的逐利性,对于市场主体的规制显得十分重要,人工智能领域也不例外。本部分将主要从反不正当竞争以及反垄断这两个公法上的规制入手,以为人工智能产业发展寻求一个健康的市场环境。
1.人工智能反不正当竞争市场法律规制
不正当竞争虽然从市场主体的行为表现形式上来看与市场侵权行为十分类似,但是它并不等同于市场侵权行为,它们的规制对象有很大区别。德国曾将反不正当竞争纳入侵权法中,后来通过不断的案例分析与发展,逐渐明确了反不正当竞争法的特性,而将其独立立法并归入经济法范畴。人工智能的出现给我国《反不正当竞争法》带来了三个方面的挑战,其加剧了反不正当竞争法一般性条款的泛化运用,突显了以反不正当竞争法来保护人工智能相关的商业秘密的不足,更是在数据保护方面对反不正当竞争法提出了新的要求。
(1)反法一般性条款的泛化运用
我国《反不正当竞争法》第二章规定了包括混淆行为、虚假宣传、商业秘密等在内的七种类型化不正当竞争行为,却难以囊括新兴技术发展背景下频繁出现的各种不正当竞争行为。为了弥补列举式立法的缺陷,《反不正当竞争法》第2条规定:“经营者在生产经营活动中,应当遵循自愿、平等、公平、诚信的原则,遵守法律和商业道德。”该条款属于反不正当竞争法的一般性条款,也是兜底性条款,赋予了法官较大的自由裁量权。这种兜底性条款体现了较强的立法技术,能够在新的技术环境背景下处理瞬息万变的各种不正当竞争行为。但正因如此,法院在处理非类型化的不正当竞争行为时,侧重于依据该一般性条款,造成了一般性条款的泛化运用。[55]最新修改的《反不正当竞争法》为了应对互联网背景下一般性条款的泛化,增加了第12条有关互联网不正当竞争的条款,俗称“互联网专条”,以期缓解这种现状。例如在360诉搜狗恶意插入链接,强制进行目标跳转一案中,原本以“违反诚信原则和商业道德”这个一般性条款为判决依据的行为,就可以在新法实施后纳入互联网专条的管辖范围。
然而随着人工智能时代以不断创新的科技进步冲击着法律的稳定性,为了更好地规制不正当竞争行为,一般性条款的泛化运用必将加剧。以我国发生的首例大数据产品不正当竞争纠纷案为例,在该案中,原告淘宝公司开发并投入运营了一种为淘宝、天猫店铺商家提供大数据分析参考,帮助商家实时掌握相关类目商品的市场行情变化,改善经营水平的数据产品。原告诉称,被告美景公司组织、帮助他人低价获取淘宝公司涉案数据产品中的数据内容,从中牟利,构成了不正当竞争行为。本案中涉及的争议对象大数据正是人工智能的底层技术设计,但是由于缺乏相应的“人工智能专条”,法院在裁判时依然以被告“明显有悖公认的商业道德”为依据认定被告存在不正当竞争行为。一般性条款的泛化不仅不利于保障市场经营主体的合法权益,同时由于赋予法官的自由裁量权过大,行为主体的可预期性下降,也不利于健康良好的市场秩序。在人工智能时代,我们呼吁“人工智能专条”的出现。
(2)商业秘密的反不正当竞争保护
在人工智能时代,会产生海量的数据资源,这种数据资源如果被经营者收集、整理、分析而具有了一定的经济价值,并被经营者采取相应的保密措施,就会形成商业秘密。我国《反不正当竞争法》第十条规定了不得侵犯他人的商业秘密,可见如果数据经过处理并满足商业秘密的构成要件的话,可以通过商业秘密路径得到保护。但是不得不指出的是,通过《反不正当竞争法》对商业秘密形成的是一种“弱保护”,保护的是经营者的利益,而不是权利。即经营者对商业秘密的享有不是绝对排他性的权利,而仅是在受到他人侵犯时才能通过诉诸不正当竞争来间接保护。我们认为,人工智能时代仅靠反不正当竞争法对商业秘密进行保护已经远远不足了。
由于人工智能目前还处于发展初期,商业秘密给一个企业带来的市场竞争价值难以估量,这也是我们建议重视对商业秘密保护的原因之一。虽然我国《民法总则》已经将商业秘密纳入知识产权保护客体,但是在实践中缺乏配套的细则规定,目前仍主要靠反不正当竞争来保护经营者的商业秘密,这种保护实难称之为完善,与人工智能时代由数据形成的商业秘密的重要性与众多性难以匹配。因此除了《反不正当竞争法》对商业秘密的保护,可以将商业秘密作为经营者享有的绝对性权利,类比专利权、著作权等知识产权保护客体,单独进行立法保护。
(3)数据的反不正当竞争保护
目前看来,数据是目前大多数人工智能行业的基础,人工智能给我国《反不正当竞争法》带来的挑战集中体现在对数据的保护上。有些数据可能经过市场经营主体的整合分析研发形成了商业秘密,但是有些数据可能只是经过简单的收集处理,难以论证其经济价值或没有被采取保密措施,此时就难以归入商业秘密范畴,从而丧失了通过《反不正当竞争法》进行保护的可能。但是,对那些虽然不符合商业秘密和作品保护条件,同时经营者也投入了大量资金与劳动形成的、能给经营者带来竞争优势的数据信息,若被不当“盗用”或“扒取”,也会给经营者及市场竞争带来不利损害。[56]如果放任这种情况的发生,势必会挫伤数据开发者的积极性,阻碍人工智能技术的革新。
遗憾的是,我国《反不正当竞争法》并没有将此类数据信息纳入保护范围,也就是说,在反不正当竞争法第二章规定的七种类型化行为里,并没有侵犯数据权益的情形,虽然有反不正当竞争法一般性条款的兜底,但是对一般性条款的滥用必会造成人工智能市场的不稳定性。2018年5月,日本修改了其《不正当竞争防止法》,在第二条关于“不正当行为”定义的例举中新设了非法获取、使用和提供受用户账户和密码等系统管理方式保护的、仅向特定使用者提供的数据之情形。人工智能领域的数据信息可能构不成传统意义上的商业秘密,但基于数据的重要性十分有保护的必要,并且由于某些数据信息的价值性没有那么突出,也不必将保护力度提升至类似于商业秘密权的强保护。因此课题组认为,借鉴国外的做法,类比侵犯商业秘密的规定,将侵犯数据信息纳入不正当竞争保护范围,具有合理性。
2.人工智能反垄断市场法律规制
人工智能时代的到来催生了新型的垄断行为,使市场垄断更为隐秘,难以被监管机关察觉,或者难以落入《反垄断法》的适用范围。这些行为包括通过算法共谋的垄断协议行为、通过数据垄断滥用市场支配地位行为以及未达到申报标准的经营者集中行为。
(1)通过算法共谋的垄断协议行为
传统的垄断协议行为一般都是明示的,即行为主体间故意通过书面形式或口头形式达成一致的意愿协议,以固定价格、排除竞争等。这种明示的共谋行为比较容易留下证据,也比较容易能被监管机关分辨出来。但是随着人工智能的出现,垄断协议行为渐渐开始向默示化发展,即表面看来是由于计算机和算法运行而导致的垄断行为,其实是算法背后经营者的刻意操纵。
早有学者指出,算法已经成为经营者共谋达成垄断协议的工具,例如在美国,数位当事人就被指控共谋使用特殊定价算法,在亚马逊平台上在线固定海报画的销售价格。[57]据称,合谋者为实施协议,对招贴画的销售采用了特别的价格算法,目的是协调各自的价格变动,并编写了服务于价格算法软件的计算机代码,以便设定与协议一致的价格。这种利用大数据整合算法,达成统一的市场定价,在国内外已经屡见不鲜。通过迅速处理竞争对手的市场信息和其客户的专有数据,计算机可能会更有效地监测竞争对手的价格或客户,这虽然增加了市场透明度,但也增加了发生协同行为的风险。[58]同时,这种默示化的垄断协议行为没有明显的物理痕迹,不易于被发现,增加了监管的困难。针对这一现状,我们认为在未来反垄断法的司法实践中,可能不得不将“垄断协议”做扩大化解释。
(2)通过数据垄断滥用市场支配地位行为
企业拥有市场支配地位本身不会构成反垄断法的规制对象,关键点在于企业是否滥用了其市场支配地位,阻碍了其他经营者进入市场。在人工智能时代,具有行业优势性的企业对于数据的垄断已经是不争的事实。例如大型的搜索引擎企业或者网络购物平台,这些平台由于所经营的业务,对用户数据的抓取具有先天性的优势。对于控制大量数据的企业来说,具有市场支配地位不会构成垄断,但如果其利用收集到的大量市场数据,排除了下游经营者的市场进入,阻碍了其他经营者的市场竞争,就触及了垄断行为。利用数据进行垄断是人工智能时代比较显著的特征。
我国《反垄断法》第17条规定的滥用市场支配地位中并未涉及数据垄断行为,如果企业通过其市场支配地位收集到数据,但是并不向第三方开放,从而阻止了其他经营者进入市场,这是否会造成垄断行为值得思考,毕竟企业费力抓取来的数据信息在某些情况下也属于需要被保护的合法权益。欧洲法院(ECJ)曾在相关案例中针对该问题提出了“必需设施”理论,即如果市场经营主体垄断的数据属于市场的“必需设施”,则认为其构成垄断行为,反则反之。[59]我们认为当特定数据构成“必需设施”时,应该认为经营者通过数据垄断滥用了市场支配地位。
(3)未达到申报标准的经营者集中行为
经营者集中也是反垄断法加以规制的一种行为,它是指两个或者两个以上的企业相互合并,或者一个或多个个人或企业对其他企业全部或部分获得控制,经营者集中可能会造成经济力量过度集中,进而限制竞争。我国并未禁止经营者进行集中,而是采取了事前的强制申报制度。根据国务院颁布的《关于经营者集中申报标准的规定》,对于营业额达到一定标准的企业如果想进行集中就必须申报,即以营业额为申报标准。但是这一标准却在人工智能时代面临着风险,我国的人工智能企业刚刚处于起步阶段,许多企业的营业额并不高,市场价值难以在目前真实显现,如果此时拥有人工智能产业的企业进行集中,可能难以达到申报标准从而逃脱监管,但是这并不意味着未来这些企业的集中不会给竞争秩序造成损害。
这一问题也普遍存在于全球各个国家,德国等国家已经意识到这一问题,德国《反对限制竞争法》就引入了一项新的考虑交易价值的合并控制标准,即以交易额门槛补充基于营业额的法定事先申报门槛。[60]我国的申报标准也主要以营业额为依据,这可能会导致营业额较低但是未来价值较高的人工智能企业逃脱申报,因此在认定申报标准时是否可以参照合并时的交易额高低,而不是企业本身营业额的高低是值得思考的问题。
(三)人工智能市场激励政策
市场准入和市场规制本身就具有某种意义上的双向含义,既是通过限制某些人工智能的市场准入和市场竞争行为加强对人工智能风险的防范,也是对某些人工智能放宽准入标准以及维护市场良好竞争秩序以达到对于人工智能的激励效果。我国目前已经对人工智能的激励有了宏观的政策思路把握,但是通过上述对于市场准入和市场规制的分析,课题组拟再从细节方面提出以下三个方向性建议,包括促进技术研发的成果共享、完善对于商业秘密和数据的保护以及加强反垄断的执法力度。
1.技术研发的成果共享
从人工智能的结构层次来看,层级越高人工智能的领域技术分化就越明晰,而针对处于底层的算法设计和技术方向,则应该建立技术共享平台,促进技术研发的成果共享。对技术研发阶段的共享激励存在三个方面的现实意义。其一,就我国人工智能行业市场来看,企业比较倾向于从应用层入手直接进行市场运作,而对于比较核心的算法设计与芯片技术还过多地依赖着外国进口,促进技术研发成果的共享能够整体提升我国技术研发水平。其二,技术研发作为比较基础的人工智能,还没有具体地向某个行业进行分化,没有具体地被应用到行业解决方案上。不排除此阶段的人工智能被应用于各个领域的可能性,它具有更多的公益性而不是商业逐利性,促进共享比较合适。其三,核心技术研发属于创新的一部分,但创新则需要较大的成本,对于比较基础性的人工智能技术,只有建立技术共享平台,鼓励技术共享,才能提升创新发展的效率。
2.完善对商业秘密和数据的保护
如上文中市场规制部分所论述的,商业秘密和数据信息是人工智能时代需要重点关注的对象。正因为人工智能还属于发展初期,市场竞争还存在太多的不确定性,与人工智能相关的商业秘密往往倾注了市场经营主体较多的心血,甚至是一个企业的核心竞争力,商业秘密的意义被大大提升了。对于商业秘密,仅靠反不正当竞争法的保护已经不够了,而应该趁着在《民法总则》里商业秘密被纳入知识产权保护客体的契机,承认经营者对商业秘密享有的所有权,着重于从知识产权方面进行类似于著作权、专利权的保护。而数据信息是人工智能时代被赋予市场经济价值和市场竞争筹码的另一客体。有些数据信息可能因为经营者的整合研发和采取的保密措施而被纳入商业秘密保护范畴,但是对于其他的数据信息并不是没有保护的必要。目前数据的所有权问题尚且有较大争议,我们不便于直接确定数据信息的所有权问题,但是对于某些企业不正当地窃取他人数据的行为,可以很好地用《反不正当竞争法》进行规制。同时为了避免反法一般性条款泛用的加剧,我国可以在《反不正当竞争法》里增加与数据相关的类型化不正当竞争行为。
3.加强反垄断的执法力度
对于人工智能给反垄断带来的诸多挑战,我们可以通过行为类型化的分析一一解决。在市场经营主体利用默示化的算法进行垄断协议的行为上,我们可以拓宽“垄断协议”的内涵理解,例如如果某些算法可能会导致快速的反复的价格变动, 最终会促成统一的价格, 这就可以相当于商人之间的实际谈判协商达成共谋协议。[61]同时,可以将行为主体间没有达成共谋协议的证明责任转移给各个涉嫌的经营者。在市场经营主体利用数据滥用市场支配地位的行为上,我们要看到对于数据保护的矛盾性,何种数据需要给予经营者垄断性的保护,禁止他人的不正当竞争行为,何种数据需要禁止经营者的垄断,需要有一个较为明确的标准。为了加强对人工智能行业经营者的集中监管,课题组建议将申报标准由营业额标准修改为交易额标准,同时在交易额的认定上要符合通常的市场经济规律,避免诸如一元的名义交易额或者过低的交易额的出现。
结 语
人工智能技术的飞速发展催生了无人驾驶汽车、智能医疗、智能创作软件等新兴产业,亦暴露出一系列值得探究与思考的法律问题。本课题对人工智能法律主体资格、人工智能创作物的著作权保护及人工智能的市场准入和规制等问题进行了探析,充分认识到科学技术的新发展给法律滞后性带来的挑战。
首先,通过对人工智能的法律主体资格分析,课题组认为应当赋予人工智能“有限的”民事主体地位,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担义务。课题组认为应否定人工智能的刑事主体资格,最终的刑事责任应由人来承担。其次,对于人工智能创作物能否受到知识产权保护问题,虽然传统知识产权制度以人类的创新成果为保护对象是人工智能创造物受知识产权保护面临的障碍,但是课题组论证了目前由人工智能生成的内容不适合获得版权保护,人工智能生成物应当作为公共产品进入市场流通。最后,人工智能市场领域作为新兴发展领域,应从反不正当竞争以及反垄断这两个公法上的规制入手,以为人工智能寻求一个健康的市场环境。
我国的人工智能研究已走在世界前列,但与这一新兴技术相应的法律规范及制度尚不健全,相关问题目前主要由伦理道德和社会舆论进行约束,而缺少相应的监督机制,也无权威机构进行规范。有鉴于此,应当及早建立对人工智能问题的法律认识,及时采取相应的行动,为人工智能产业营造良好的社会市场环境,以进一步促进人工智能技术的良性发展,顺利实现智能化社会的转型。同时,我们必须谨记无论未来人工智能发展至何种程度,也永远不能取代人类的智慧,科学工作者的辛勤劳动和努力创新才是人类进步的主要动力。我们要合理利用人工智能为我们带来的各种便利,但不能过度依赖人工智能,同时也要认真思考人类社会与人工智能之间的关系,从而决定未来的法律是否应当适应人工智能的发展而做出相应的调整变化,相信未来法律与人工智能之间的平衡会越来越完善。
编后语:人工智能是引领新一轮科技革命和产业变革的战略性技术,是我国产业转型升级的战略抓手。在推动人工智能健康发展的现实需要下,人工智能与各行业全方位深度融合,催生了数据驱动、人机协同、跨界融合、共创分享的智能经济形态。如何妥善应对人工智能带来的挑战,为产业健康发展营造良好环境,有必要在法律制度层面进行深入研究。本课题分析了人工智能对传统法治体系带来的冲击和挑战,并着重对人工智能法律主体资格、人工智能创作物的著作权保护及人工智能的市场准入和规制三个问题进行了深入研究。课题成果具有现实针对性、观点具有一定参考价值,为促进人工智能发展的法律法规和政策体系建设提供了有益的指导。
课题组长简介:
童潇,男,华东政法大学互联网+法律大数据平台常务副主任,副教授。
(责任编辑:邓海娟 核稿:陈书笋)
[①] 2018年上海市人民政府决策咨询研究政府法制专项课题。
[②] (美)Stuart J.Russell, Peter Norvig著:《人工智能:一种现代的方法》(第3版),殷建平、祝恩、刘越等译,清华大学出版社2013年版,第3-5页。
[③] 王家祺、王赛:《人工智能技术的发展趋势探讨》,《通讯世界》2017年第8期。
[④] 钟义信:《人工智能:概念•方法•机遇》,《科学通报》2017年第22期。
[⑤] 闫志明、唐夏夏:《教育人工智能(EAI)的内涵、关键技术与应用趋势——美国《为人工智能的未来做好准备》和《国家人工智能研发战略规划》报告解析》,《远程教育杂志》,2017年第1期。
[⑥] 蔡曙山、薛小迪:《人工智能与人类智能——从认知科学五个层级的理论看人机大战》,《北京大学学报(哲学社会科学版)》2016年第4期。
[⑦] 【美】史蒂芬·卢奇、丹尼·科佩克著:《人工智能》(第二版),林赐译,人民邮电出版社2018年版,第11页。
[⑧]马修U.谢勒:《监管人工智能系统:风险、挑战、能力和策略》,曹建峰、李金磊译,《信息安全与通信保密》2017年第3期。
[⑨] 季冬梅:《人工智能发明成果对专利制度的挑战—以遗传编程为例》,《知识产权》2017年第11期。
[⑩] 雷悦:《人工智能发展中的法律问题探析》,《北京邮电大学学报》2018年第2期。
[11] 郑戈:《人工智能与法律的未来》,《时事观察》2017年第10期。
[12]杨清望、张磊:《论人工智能的拟制法律人格》,《湖南科技大学学报(社会科学版)》2018年第6期。
[13] 吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。
[14] 许中缘:《论智能机器人的工具性人格》,《法学评论》2018年第5期。
[15] 邱兴隆:《刑罚的哲理与法理》,法律出版社2003年版。
[16] 时方:《人工智能刑事主体地位之否定》”,《法律科学(西北政法大学学报)》2018年第6期。
[17] 姚万勤:《人工智能影响现行法律制度前瞻》,《人民法院报》2017年10月25日。
[18] 刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。
[19] 时方:《人工智能刑事主体地位之否定》,《法律科学(西北政法大学学报)》2018年第6期。
[20] 目前有关人工智能创作内容的术语有人工智能生成内容、人工智能作品、人工智能创作物、人工智能创作成果等不同的表达。
[21] 美国《版权法》第102条,日本《著作权法》第2条,意大利《版权及邻接权保护法》第1条。
[22] 《中华人民共和国著作权法实施条例》第2条。
[23] 蔡自兴等:《人工智能及其应用》,清华大学出版社2016年版,第290-291页。
[24] [加]Simon Haykin:《神经网络与机器学习》(原书第三版),申富饶等译,机械工业出版社2011 年版,第398页。
[25] See Philip Galanter,Thoughts on Computational Creativity,Dagstuhl Research Online Publication Server 2,( July 7,2009) ,http: //drops.dagstuhl.de /opus/volltexte/2009/2193/,2018年7月5日最后访问。
[26] 杨延超:《为人工智能筹划法律保护》,《经济参考报》2017年12月5日,第8版。
[27] See Jani McCutcheon,Curing the Authorless Void: Protecting Computer-Generated Works Following Ice TV and Phone Directories,37 Melbourne University Law Review 46,78-79 (2013).
[28] 腾讯研究院、中国信通院互联网法律研究中心:《人工智能:国家人工智能战略行动抓手》,中国人民大学出版社2017年版,第49页。
[29] 易继明:《人工智能创作物是作品吗?》,《法律科学》2017年第5期。
[30] See James Grimmelmann,Copyright for Literate Robots,101(2)Iowa Law Review 657,659 -660(2016) .
[31] 曹源:《人工智能创作物获得版权保护的合理性》,《科技与法律》2016年第3期。
[32] 吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。
[33] See Annemarie Bridy,Coding Creativity: Copyright and the Artificially Intelligent Author,5 Stanford Technology Law Review 1,21(2012).
[34] 易继明:《人工智能创作物是作品吗?》,《法律科学》2017年第5期。
[35] 陶乾:《论著作权法对人工智能生成成果的保护--作为邻接权的数据处理者权之证成》,《法学》2018年第4期。
[36] 许明月、谭玲:《论人工智能创作物的邻接权保护--理论证成与制度安排》,《比较法研究》2018年第6期。
[37] 李拥军:《从‘人可非人’到‘非人可人’:民事主体制度与理念的历史变迁--对法律‘人’的一种解析》,《法制与社会发展》2005年第2期。
[38] [英]玛格丽特·博登著:《AI:人工智能的本质与未来》,孙诗惠译,中国人民大学出版社2017年版,第85页。
[39] 《著作权法》第13条第3款。
[40] 王迁:《论人工智能生成的内容在著作权法中的定性》,《法律科学(西北政法大学学报)》2017年第5期。
[41] 孙山:《人工智能生成内容著作权法保护的困境与出路》,《知识产权》2018年第11期。
[42] 熊琦:《人工智能生成内容的著作权认定》,《知识产权》2017年第3期。
[43] 此处指的是第二类计算机生成内容和具有一定学习能力的可以脱离指令输入的人工智能生成内容。
[44] 习近平:《习近平谈治国理政》,北京外文出版社2014年版。
[45] 乔玉君:《论著作邻接权的法律保护》,《科技与法律》1997年第1期。
[46] 关于邻接权的传播功能,亦有学者指出,“传播功能”是邻接权客体所具备的核心功能,也是邻接权客体正当性的最有力证明。王国柱:《邻接权客体判断标准论》,《法律科学(西北政法大学报)》,2018年第5期。
[47] 李伟民:《人工智能智力成果在著作权法的正确定性--与王迁教授商榷》,《社会科学文摘》2018年第7期。
[48] 易继明:《人工智能创作物是作品吗?》”,《法律科学》2017年第5期。
[49] 许明月、谭玲:《论人工智能创作物的邻接权保护--理论证成与制度安排》,《比较法研究》2018年第6期。
[50] 《走向智能推荐:2018年中国人工智能行业研究报告》,http://baijiahao.baidu.com/s?id=1596679755391284602&wfr=spider&for=pc,最后访问日期2018年1月19日。
[51] 徐曼:《国外机器人新闻写手的发展与思考》,《中国报业》2015年第23期。
[52] 董妍:《人工智能的行政法规制》,《人民法治》2018年11期。在该文中作者总结了学者们所提到的人工智能的十大风险,包括意识形态和国家安全风险;军事风险;公共安全风险;社会不稳定风险;伦理风险;个人隐私风险;算法歧视和数据歧视;知识产权风险;信息安全风险;未成年人身心健康风险。
[53] 腾讯研究院:《人工智能》,中国人民大学出版社2017年版,第24页。该书中指出,基础设施层包括硬件/计算机和大数据;算法层包括各类机器学习算法、深度学习算法等;技术层包括计算机视觉、语音处理等多个技术方向和图像识别、语音合成等多个具体技术;应用层是指行业解决方案,包括金融、安防、交通、医疗、游戏等。
[54] 吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》2017年5期。
[55] 田小军、朱萸:《新修订《反不正当竞争法》‘互联网专条’评述》,《电子知识产权》2018年第1期。
[56] 管育鹰:《人工智能带来的知识产权法律新问题——国外发展动向与我国应对路径思考》,中国法学网。http://www.sohu.com/a/275639314_648952,最后访问日期:2018年12月29日。
[57] 黄晋:《人工智能会不会促进垄断》,《经济参考报》2018 年11 月。
[58] 韩伟:《数字市场竞争政策研究》,法律出版社2017年版。
[59] 转引自韩伟:《数字市场竞争政策研究》,法律出版社2017年版。
[60] 黄晋:《人工智能对反垄断法的挑战》,中国社会科学网:http://ex.cssn.cn/zx/bwyc/201810/t20181010_4666741.shtml,最后访问日期:2018年12月29日。
[61] 李振利、李毅:《论算法共谋的反垄断规制路径》,《学术交流》2018年第7期。