服務創新電子報

[梁定澎]智慧机器人的道德逻辑

最近人工智慧,机器人和自动驾驶的车辆受到社会很大的关注,自动化及智慧化成为未来创新的必然趋势,而随着智慧设备(如自驾车)的普及,也面临越来越多智慧科技的伦理问题。最近Tesla的自驾车在美国道路测试时发生死亡车祸,引起大家对智慧科技所带来的社会问题的关注。

紧急状况两难如何抉择?

应用智慧科技在大多数情况下面临的是明确的决策,例如理财机器人以提高获利为目标,这种情况下不会有问题。但是有时候决策会面临两难的取舍决策,如何在自动化程式中设定相关规则,就成为伦理的问题。例如,在社会上我们常常看到的是「当妈妈和太太同时落水时,你要救哪一位」就是这样的情境。像自驾车这种科技,有时候会面临车祸时该如何让损失最小的取舍,常见的实验是当车辆遇到路障而煞车不及时,是该直接撞上去使车上乘客受伤,或是转弯而可能撞上无辜的路人(如下图所示)。

图:一个驾车伦理的情境

MIT伦理机器人实验

为了了解人们的选择,MIT在2016年开始做了个实验的网页叫做伦理机器(Moral Machine, http://moralmachine.mit.edu/) 设计了许多不同的情境,了解人们会如何取舍。根据400万人的测试结果,发现一些大多数人会遵循的规则,例如大部分人可能选择撞向年迈老人而选择避开儿童,选择撞动物而避开人类等,但是也有些情境会因为不同文化而有不同的选择,因此可见不同的人对伦理本身就有不同的价值观。因为人类本身就有不同的价值判断,要求智慧机器人要能够做最好的判断,当然也就非常的困难,因而就衍生出了机器伦理学(machine Ethics)。

机器人遵循三大法则

早在1942年,科幻小说作家艾萨克·阿西莫夫(Issac Asimov)就提出了“机器人三大法则”: (1)、机器人不可以伤害人类,或看到一个人将受到伤害而不作为;(2)、机器人必须服从人类的命令,除非这些命令与第一项法则矛盾;及(3)、在不违反第一、第二项法则的前提下,机器人必须保护自身生存。因为这些法则都涉及到机器人与人的关系,当面临利害冲突需要取舍时,这些法则有时候会互相矛盾,而让机器人无所适从,这是未来发展机器人科技时所面临的挑战。

Nao的人形机器人(图片取自:Wikipedia)

法国Nao机器人加入长照服务

对于缺乏情感的机器人是否能够具备伦理判断的能力仍有很多争议。后来在许多国家都分别进行大量研究,包括如何将相关的规则输入给机器人,让机器人可以进行利弊的权衡。法国Nao机器人公司就曾经在他们的人形机器人做实验,输入规则让机器人可以判断服药的效益及不服药的损害,还有相关的时间参数,让机器人可以判断何时该提醒病人吃药。当然,这样的智慧机器人是否能够像人一样的做出高品质的照护,仍有待观察,但是随着智慧科技的普及,机器人伦理的问题必然是创新服务所要解决的课题。(国立中山大学国家讲座教授 梁定澎 )

【延伸阅读】机器人也懂伦理,科学人,2010.11, 32-37页。

Share

名家簡介:

梁定澎

美国宾夕法尼亚大学决策科学博士,现职为:教育部国家讲座教授、国立中山大学国家讲座教授、国立政治大学资讯管理学系国家讲座教授、香港城市大学客座教授,现任台湾服务科学学会理事长、美国资讯管理学会( AIS)理事长。曾任美国伊利诺大学、美国普渡大学、香港中文大学教授、经济部产业电子化示范性计画指导委员、中华民国资讯管理学会常务理事。

2014年12月得到美国资讯管理学会(The Association for Information Systems ,AIS)肯定,获颁「Leo Award」终身杰出成就奖,表彰其对资管领域的创新与贡献,也是华人世界首位获此殊荣者。

Share
标签:, , , , ,

留下您的評論

Share