你会爱上机器人吗
近来,美国一家公司生产的超仿真机器人Sophia在电视节目上与人类对答如流,成为“网红”机器人。对话中,Sophia流露出的喜悦、惊奇、厌恶等表情真实得令人赞叹,网友惊呼:快和真人分不清了!
技术往往是一把双刃剑。人工智能在迅速发展的同时,也带来了一些困惑和挑战。人工智能会产生自主意识和情感吗?会不会因此给人类社会带来冲击?
法律争议
假设无人车伤了人,那么是开发者负责还是驾驶公司负责
关于人工智能带来的“伦理困境”,让很多专家感到纠结。尽管这样的场景在目前还只存在于设想中:一辆载满乘客的无人驾驶汽车正在行驶,遭遇一位孕妇横穿马路的突发状况,如果紧急刹车可能会翻车伤及乘客,但不紧急刹车可能会撞到孕妇。这种情况下,无人车会怎么做?
如果司机是人,那个瞬间完全取决于人的清醒判断,甚至是本能或直觉。可当人工智能陷入人类“伦理困境”的极端情景时,其每一步都是通过算法设定好了的。
“无人车依靠的是人工智能大脑,它目前不可能做超出人类算法中所设定范围的行为决策。”浙江大学计算机学院教授吴飞说,将全国每年的交通事故数据“喂”给计算机,人工智能可以学习海量数据里隐含的各种行为模式。简单来说,就是无人车会从以往案例数据库中选取一个与当前情景较相似案例,然后根据所选取案例来实施本次决策。
但遇到完全陌生的情景,计算机会怎么办?“无人车第一个选择仍然是搜索,即在‘大脑’中迅速搜索和当前场景相似度大于一定阈
值的过往场景,形成与之对应的决断。如果计算机搜索出来的场景相似度小于阈值,即找不到相似场景,则算法可约束无人车随机选择一种方式处理。”吴飞说。
“程序员可通过代码来约定无人车如何做,但这种约定始终要遵循普遍的社会伦理。这个过程中,程序员要和伦理学家一同参与把关,程序员要将符合伦理的决策用代码的形式体现出来,输入到系统中。”吴飞认为。
无人车伤害了人类,谁来负责呢?
“当前人工智能尚未达到类人智能或超人智能水平,不能将人工智能作为行为主体对待。”浙江大学教授盛晓明说,从技术角度看,现在技术实现层次还很低,行为体出了问题肯定只能找它的设计者。从哲学角度看,赋予人工智能“主体”地位很荒诞。“主体”概念有一系列限定,譬如具有反思能力、主观判断能力以及情感和价值目标设定等。人工智能不是严格意义上的“智能”。
“人工智能表现出来的智能以及对人类社会道德行为规范的掌握和遵循,是基于大数据学习结果的表现,和人类主观意识有本质的不同。人工智能不是生物,构不成行为主体,传统司法审判无法照搬到人工智能身上。因此,人工智能不可以作为社会责任的承担者。”中国社科院社会学研究所副研究员赵联飞持同样观点。 |
- 上一篇:共享经济助推治理升级
- 下一篇:可燃冰试开采 创多项世界纪录
- 2014年中国参与第四代核能系统国际论坛工作研讨会在合肥召开 03-21
- 2017年天津市创新创业大赛初赛成功举办 07-18
- AI你好 你要的人才,在路上 07-14
- 2014年度创新型产业集群试点(培育)工作座谈会在北京召开 11-26
- 教育部:真改实改彻底改确保深化整改任务落实处 05-10
- 教育部提醒家长确认学校已为学生建立电子学籍 03-17
- 流感肆虐,成都儿科门诊爆满!医生的提醒要注意 01-11
- 统筹国内国际资源 服务教育改革发展 12-21
- 科技部与白俄罗斯国家科学技术委员会关于在智能物流监控技术领域 01-30
- 太行山下听心声--革命老区西柏坡镇人民的喜与盼 10-15