智能机器人也得懂“人权”

转载 0

智能机器人

 

在不那么遥远的未来,人工智能(大概是以机器人的形式存在)很有可能将具备自己的意识。无论何种形式的人工智能,具有思维意识的智能机器都将会对人类社会产生深远的影响。

大多数人会对智能机器人可能背叛人类而心怀恐惧,但谁又能保护它们,防止它们自相残杀呢?一位学者问道。

微软联合创始人比尔·盖茨和物理学家史蒂芬·霍金近来警告人们,智能机器人有可能变得过于强大,以至于人类无法控制。智能机器的伦理难题以及它们和人类之间的关系一直都是科幻电影的主题,从1982年的《银翼杀手》到今年的《机械姬》(Ex Machina)中,无不凸显着此类主题。

对人工智能的理论分析和幻想都倾向于关注人机交互的问题:机器人会令我们的生活更便利吗?它们有危险吗?它们是否会对人类造成威胁?

  

然而,这些问题忽略了至关重要的一点。我们必须考虑到智能机器人自身之间的相互影响以及这种相互影响对它们的创造者——人类的影响。例如,如果我们允许有意识的机器人不公正地对待彼此——即使这些“犯罪”对人类权益没有直接影响——这或许也反映我们人性的弱点。这种哲学悖论为“机器权利”的概念打下基础。

有关机器人发展的讨论,大多会引用科幻小说家艾萨克·阿西莫夫所提出的机器人三定律:第一,机器人不得伤害人类;第二,机器人必须服从人类;第三,机器人必须能自我保护。但这些规则并未提及机器人之间如何相处。如果一个机器人懂得维护人权,却忽视另一个具有意识的智能机器的权利,无疑这将是不合理的。

一些展现出思考行为的动物已经享有被保护的权利,并且人类社会早已不耻于让动物厮打取悦观众的斗兽表演。按这个思路,有意识的机器人可能要比动物智慧得多,因此也不应被投入角斗场中相互残杀以取乐人类。

 

当然,军事机器人已经被用于局部冲突中。但除了合法战争,强迫人工智能和机器人参与战争或虐待他们,对人类的道德、伦理和心理健康是有害的。

虽然智能机器人目前还仅出现在科幻小说中,但现在讨论这些严肃的话题并非过于超前。如英国,已经为机器人设计者提出一套准则。这强调了机器人只是工厂制品,人类才是责任承担者,而不是机器人。

科学家、哲学家、投资者和政策制定者应该更进一步,并应该考虑到机器人之间以及人工智能之间的相互影响。他们应该为人工智能的国际宪章给出提案,类似于联合国世界人权宣言的那种宪章。这将促使人们从道德的层面出发,引导机器人和人工智能工程学的研究和发展。

国家和国际技术政策应当为当前旨在开发安全人工智能的程序中引入“人工智能面向人工智能”(AIonAI)的概念。我们必须参与到教育活动和研究中,并继续提升哲学意识。甚至设立一个年度‘最佳无私AI设计’的奖项。

 

社会科学家和哲学家应在机器人和计算机的研究前沿并肩作战。除了投资人工智能开发,技术投资者还可以支持相关的伦理研究。医疗投资者,如Wellcome Trust(卡斯特)早已遵循该模式:在大力支持前沿医疗研究的同时,也对伦理学和医学史研究提供资助。

目前以及未来的人工智能和机器人研究团体需要从人工智能之间的相互影响的角度考虑。通过交叉领域的学位课程,下一代的机器人工程师和人工智能研究人员应该承认并接受AIonAI准则。例如,许多想进英国政界的人会参加PPE(政治学,哲学和经济学)课程,而对于想在机器人和人工智能方面有所建树的学生来说,则应该参加CEP(计算机科学,工程学和哲学)课程学习。

此外,我们还应该把阿西莫夫的机器人三定律推广到人工智能之间的互动上。为此,我提出一个第四定律:所有具有人类一样逻辑思维和意识的机器人应该彼此和睦相处。

不要小看具有人造思维机器的潜能。人类正迎来一种新的智能种族的诞生。无论这种智能是不是“人造的”,这种新的数字化“公民”都应该享有尊严和权利,而建立保护他们的法律也是十分重要的。

 

本文来源  中国教育报 许镇义  译