本篇文章1241字,读完约3分钟
人工智能的应用可能是一项意义深远的社会伦理实验。智能机器应该通过算法嵌入人类的价值观和规范,以便它们拥有与人类相同的伦理。
不久前,包括特斯拉首席执行官马斯克(Tesla CEO Musk)在内的几位全球人工智能领域的顶级专家签署了承诺书,呼吁开发“人工智能自主武器”。这不是该行业第一次警告人工智能的潜在风险。尽管“弱人工智能”处理单一任务和完成人工指令的自主性仍然很低,但人们不能忽视新技术应用的潜在隐患。
高效智能的人工智能并不完美。例如,人工智能有算法缺陷。这种缺陷通常来自于机器学习中令人费解的过程。它的判断有时是在一个黑匣子里完成的,缺乏透明度。当无人驾驶汽车决定左转或右转时,人们并没有完全意识到转向过程。除了传感器故障,人们甚至不能准确地找到问题的原因,这给系统的有针对性的调整和责任的确定带来了障碍。正因为如此,最近生效的欧盟通用数据保护条例明确规定,人工智能公司必须让人们审查某些算法决策。
不仅有眼前的担忧,还有远见。展望未来,人工智能的应用正在模糊虚拟世界和物理世界的界限,这可能会重塑人类的生存环境和认知形式,从而引发一系列棘手的伦理、法律和安全问题。与历史上的其他技术创新相比,人工智能的伦理和法律问题受到了极大的关注。其中一个重要原因是,它期望在概念上实现可计算的感知、认知和行为,从而在功能上模拟人类的智能和行为,进而使机器具有准人格或准主体特征。人类现有的法律规范、概念框架和知识储备能否应对人工智能发展带来的新问题,是人们必须面对的挑战。
鉴于人工智能应用的潜在风险,国际社会提出了一系列在标准设计、伦理和道德方面控制智能机器系统的方案,并逐渐形成共识原则:通过算法将人类的价值观和规范嵌入智能机器中,使它们具有与人类相同的伦理道德,如同情、责任、羞耻等。希望人工智能算法在完成人类艰巨任务的同时,遵循“好方法”,吸收人类伦理中“好”的一面,从而达到控制机器风险的目的。毕竟,任何算法都只是实现目标的工具或手段,“好”的结果是人类追求的目标。
事实上,编写代码和算法来控制机器的想法并不新鲜。70多年前,美国科幻作家阿西莫夫提出了“机器人三定律”,并通过内置的“机器伦理调节器”构想出机器人不应伤害人类的原则。目前,计算机专家、伦理学家、社会学家、心理学家和其他人正在共同努力实现这一想法。
人类对人工智能发展的预见可能来得有点早,但正是人类的智慧和洞察力反映在未雨绸缪中。我们不能等到人工智能深深介入人类生活之后才考虑如何与之相处。与机器的和谐应该是人类发展和利用人工智能的重要尺度。毕竟,人工智能的应用不仅是一项技术创新,也是一项意义深远的社会伦理实验。
“人工智能的短期影响由控制它的人决定,而长期影响取决于人工智能是否完全被人控制。”这是著名物理学家霍金给人类的警告。我们不需要被人工智能的风险所吓倒,但是在享受人工智能的好处的同时,我们也需要划定诸如道德和法律规则之类的红线。(余思南)
《人民日报》(第18版,2018年9月3日)