当人工智能变得越来越像人,人工智能伦理问题成为了技术行业、监管机构和大众最为关注的问题。
当下,对于人工智能商业价值的极度崇拜与对伦理崩塌的深度隐忧,构成了讨论人工智能的两种相反论调:一方面,商业机构不断描绘人工智能时代的便利美好,而许多影视作品则提醒人们人工智能具有潜在危险。今天,上海市中国工程院院士咨询与学术活动中心召开“人工智能时代的伦理道德建设”院士沙龙,专家们提到,伦理研究并不是束缚人工智能发展的“绳索”,而是促其快速壮大“缰绳”,必须尽早将人工智能伦理研究提上日程。
“伦理困境”阻碍人工智能研发
从新闻客户端中越来越“懂你”的信息流,到开始尝试在封闭道路上自动驾驶的汽车,过去几年,各种包含人工智能技术的产品走入大众生活。据腾讯研究院院长司晓介绍,全球人工智能创业企业已经达到2000多家,在腾讯,有四个大实验室正在做人工智能相关项目。
事实上,有些人工智能商业场景迟迟不能落地,不是被技术“绊”住了,反而是伦理研究拖了后腿。司晓举例说,美国2016年的统计表明,自动驾驶的安全性已经明显高于人工驾驶,但自动驾驶中有一个著名的伦理困境,即当它无可避免要撞人时,撞向人多的一边还是人少的一边,如果这一问题不解决,自动驾驶汽车就无法上路。
复旦大学哲学系教授王国豫提出,全景监狱和数据歧视的伦理困境也值得警惕。全景监狱是指摄像头可以将你的所有行动构成一个行动路线图,搜索引擎可以给你画像,在强人工智能下,就等于有人盯着你的一举一动;数据歧视是指将数据转化为人们能够理解的信息过程中充斥着人为的解读因素,如果数据显示某个区域的人跳槽率较高,就会影响这个地区的人找工作。
伦理与科学应看成统一整体
有一种说法是,对人工智能人们可以先研发,等发现问题了再纠错,大不了拔了电线就行,上海纽约大学计算机学教授张铮并不赞同这个观点。
“必须打破的一个成见是,伦理监管是给科技发展画‘墙’,两者的关系应该从更全面的角度来看,我认为可以把它们视为‘一座新城’。”张铮说。
这个有点“烧脑”的概念赢得了王国豫的认同。她解释说,近年来,无论是工业机器人、家政机器人、还是航天机器人,都在自主性、意向性、情感性等“人格”要素上越来越形神兼备。可以说人工智能正在脱离工具的范畴,成为一种普遍存在的中介,越强大的人工智能,它的“存在感”就越低,直到它消失不见,完全融入我们的生活。“对于这种情况,我们就无法‘拔电线’,而应该把它们看成一个整体进行研究。”王国豫说。
作为整体,在制定伦理规范时,就要尽可能在技术早期进入。司晓说,当微软用粗俗语言数据“喂”聊天机器人时,机器就会脏话连篇,必须有强有力的规定在最初开发时就有“经设计的伦理”介入,才能保证人工智能的公平可控。
人文学科要对伦理研究有所贡献
人工智能伦理问题已经引起世界关注,2016年英国标准组织发布机器人伦理标准《伦理设计与应用机器人》、微软提出人工智能六大原则,都在一定程度上促进人工智能发展。我国《新一代人工智能发展规划》中,“人工智能伦理”这一字眼出现了十五次之多,表明制定人工智能伦理规范已迫在眉睫。
人工智能需要怎样的伦理规范?司晓表示,这一领域天然游走于科技与人文之间,既需要数学、统计学、计算机科学、神经科学等的贡献,也需要哲学、心理学、认知科学、法学、社会学等的参与。
王国豫说,为了促进人工智能理论研究,荷兰建立了人工智能价值设计联合实验中心,他们的做法就是,集合工程技术人员、哲学家、法学家、伦理学家的力量,发现社会主流价值,并将这些价值转化为计算机语音并将其嵌入人工智能之中。“当然,人工智能伦理不是固化的,它应该是开放的、可以修正的体系。”
中国工程院院士杨胜利表示,上海拥有优秀的人文学科,不妨抓住大力发展人工智能的契机,将伦理委员会做起来,促进人工智能“向善”发展。
关于人工智能与伦理问题,斯坦福人工智能实验室兼斯坦福视觉学习实验室负责人李飞飞在接受采访时也谈了一些自己的看法。
李飞飞认为,以人为本的人工智能由三大核心思想组成,这些核心思想指导着对人工智能未来的思考。第一个核心围绕受人类启发的下一代人工智能技术展开。尽管人工智能如此令人兴奋,但其实它还是个新兴领域,只经历了60年的发展。它的潜力实际上还很大。因此,我们应该继续发挥人类的创造力,发展人工智能,特别是在大脑、认知和行为科学等交叉领域。
第二个核心专注于一个词,“增强”,而不是“取代”。有很多人担心自动化与人类的工作相矛盾。李飞飞认为这是一个非常重要的话题,而且人工智能作为一项技术,在很多方面可以用来增强人类的能力,保护人类免受伤害,提高人类的劳动生产率。“以医疗保健为例,我最近在医院里陪了我母亲几个月,她刚做完一次大手术。这次经历挺有意思,因为我已经在医疗保健领域进行了六年的AI研究,但作为一个病人家属,这还是第一次。医生和护士需要时刻关注患者的状况,现在我们可以使用辅助技术来完成这一工作。我们可以使用AI在救援情况下让人类避免伤害,可以使用AI来增强个性化教育,还可以使用AI来做出更公平有效的决策。”李飞飞说。
第三个核心我称之为“人工智能的社会影响力”。“我们需要认识到人类社会的方方面面都会受到这项技术的影响,这一点至关重要。”李飞飞说,这意味着我们必须让包括社会科学家、经济学家、法律学者、伦理学家、历史学家、哲学家的社会各界人士来参与了解这项技术将产生何种影响,我们应该提出何种政策建议,应该如何引导这项技术使其没有偏见,以及我们在AI时代如何保护隐私。并不是只有技术专家才能解决这些问题,它需要全社会的对话和共同努力。
作者:记者 沈湫莎
编辑:金婉霞
责任编辑:姜澎
*文汇独家稿件,转载请注明出处。