当前位置: 法务网 > 媒体报道 >

人工智能犯罪:先行预防还是事后严惩(2)

2019-08-25 17:27来源:正义网-检察日报浏览:手机版

  第四,“AI主体性—AI工具性”之悖论。人们本来是为了生活的便利化而研制AI,但赋予其刑事主体地位就等于必须承认其拥有一定的平等权利空间,那么就对人类权利的行使提出更多限制,这实际上为人类设立了一个新的竞争物种,结局是:人类必须时刻为保障人工智能的权利、为人工智能的健康运转而服务,这加重了个人生活负担,最终消解了前述便捷性。因此,不少肯定论者不承认AI与人类在法律面前平等。但法律的强大之处就在于将事实上的不平等以法律拟制的方式强行弥合,如果人类与AI在法律上都不平等,那么二者将在任何时空都不会平等,二者就不可能并存于某一法律主体系统内,而只能区分为“主体—工具”。此外,不少肯定论主张建构强制保险制度、建立赔偿基金等以弥补机器人造成的损害,可如果AI是法律主体,那么为何需要另一个主体(人类)为之缴纳保险费或基金?AI连独立的财产权都没有,其在致人损害时如何承担义务?最终而言,这些责任还是要被推到人类自身,这与当下的产品致损责任、汽车交强险制度并无不同。 
  第五,“消减风险(追求责任体系严密化)—加剧风险(转移人类责任)”之悖论。如果人类在制造这些机器人时设定的是“与人无害”模式,但在后期运行中机器人在编程外实施法益侵害行为,这难道不正表明人类的技术依然不成熟?人类为机器人设定的框架很容易被突破,继而在失控之后发生法益侵害,被非难对象难道不正是人类自己?如果我们把机器人的失控看作传统产品缺陷或管理过失等,即将责任归之于人类,则更有助于实现“风险防控”。例如,侵权责任法第41条有关产品缺陷责任规定实行无过错原则,民法正是以此升级对产品生产设计者的责任、降低产品缺陷及其损害风险。再如,刑法规定了多种生产不符合标准的产品犯罪,只要责任主体仍然是人类,人类在设计AI产品过程中就仍然受到刑罚威慑效果的影响,刑法在风险应对上仍有所作为。然而,当AI致人损害而由其自负刑事责任时,人类的上述责任便被转移,为机器人研发者、使用者推卸责任提供了绝佳的借口。当人类以“机器人已经有自我意识,其法益侵害行为与我无关”作为挡箭牌成功推卸掉法律责任时,如何期望他们严格控制人工智能研发风险、使用风险?只有将机器人失控之情形仍然作为产品缺陷范畴,才能够促进人类谨慎研制人工智能、不断提升人工智能技术,主动减少技术造福人类时的技术风险。如果研发者既能靠AI技术谋取利润,在发生侵权损害时又不用承担法律责任,他们内心不知得有多狂喜,被害人不知得有多倒霉。所以这里存在第五个悖论:以风险防控为由造就的“AI犯罪主体”,实际上加剧了源头风险;刑事责任体系表面上因新犯罪主体的加入而更严密,事实上宽纵了人类义务,得不偿失。 
  (作者为东南大学法学院讲师、法学博士)(责任编辑:刘晓方)


(本网站所发布文章只作为信息传播使用,不代表本网观点)