服務創新電子報

[梁定澎]智慧機器人的道德邏輯

最近人工智慧,機器人和自動駕駛的車輛受到社會很大的關注,自動化及智慧化成為未來創新的必然趨勢,而隨著智慧設備(如自駕車)的普及,也面臨越來越多智慧科技的倫理問題。最近Tesla的自駕車在美國道路測試時發生死亡車禍,引起大家對智慧科技所帶來的社會問題的關注。

緊急狀況兩難如何抉擇?

應用智慧科技在大多數情況下面臨的是明確的決策,例如理財機器人以提高獲利為目標,這種情況下不會有問題。但是有時候決策會面臨兩難的取捨決策,如何在自動化程式中設定相關規則,就成為倫理的問題。例如,在社會上我們常常看到的是「當媽媽和太太同時落水時,你要救哪一位」就是這樣的情境。像自駕車這種科技,有時候會面臨車禍時該如何讓損失最小的取捨,常見的實驗是當車輛遇到路障而煞車不及時,是該直接撞上去使車上乘客受傷,或是轉彎而可能撞上無辜的路人(如下圖所示)。

圖:一個駕車倫理的情境

MIT倫理機器人實驗

為了瞭解人們的選擇,MIT在2016年開始做了個實驗的網頁叫做倫理機器(Moral Machine, http://moralmachine.mit.edu/) 設計了許多不同的情境,瞭解人們會如何取捨。根據400萬人的測試結果,發現一些大多數人會遵循的規則,例如大部分人可能選擇撞向年邁老人而選擇避開兒童,選擇撞動物而避開人類等,但是也有些情境會因為不同文化而有不同的選擇,因此可見不同的人對倫理本身就有不同的價值觀。因為人類本身就有不同的價值判斷,要求智慧機器人要能夠做最好的判斷,當然也就非常的困難,因而就衍生出了機器倫理學(machine Ethics)。

機器人遵循三大法則

早在1942年,科幻小説作家艾薩克·阿西莫夫(Issac Asimov)就提出了“機器人三大法則”: (1)、機器人不可以傷害人類,或看到一個人將受到傷害而不作為;(2)、機器人必須服從人類的命令,除非這些命令與第一項法則矛盾;及(3)、在不違反第一、第二項法則的前提下,機器人必須保護自身生存。因為這些法則都涉及到機器人與人的關係,當面臨利害衝突需要取捨時,這些法則有時候會互相矛盾,而讓機器人無所適從,這是未來發展機器人科技時所面臨的挑戰。

Nao的人形機器人(圖片取自:Wikipedia)

法國Nao機器人加入長照服務

對於缺乏情感的機器人是否能夠具備倫理判斷的能力仍有很多爭議。後來在許多國家都分別進行大量研究,包括如何將相關的規則輸入給機器人,讓機器人可以進行利弊的權衡。法國Nao機器人公司就曾經在他們的人形機器人做實驗,輸入規則讓機器人可以判斷服藥的效益及不服藥的損害,還有相關的時間參數,讓機器人可以判斷何時該提醒病人吃藥。當然,這樣的智慧機器人是否能夠像人一樣的做出高品質的照護,仍有待觀察,但是隨著智慧科技的普及,機器人倫理的問題必然是創新服務所要解決的課題。(國立中山大學國家講座教授 梁定澎 )

【延伸閱讀】機器人也懂倫理,科學人,2010.11, 32-37頁。

Share

名家簡介:

梁定澎

美國賓夕法尼亞大學決策科學博士,現職為:教育部國家講座教授、國立中山大學國家講座教授、國立政治大學資訊管理學系國家講座教授、香港城市大學客座教授,現任台灣服務科學學會理事長、美國資訊管理學會( AIS)理事長。曾任美國伊利諾大學、美國普渡大學、香港中文大學教授、經濟部產業電子化示範性計畫指導委員、中華民國資訊管理學會常務理事。

2014年12月得到美國資訊管理學會(The Association for Information Systems ,AIS)肯定,獲頒「Leo Award」終身傑出成就獎,表彰其對資管領域的創新與貢獻,也是華人世界首位獲此殊榮者。

Share
標籤:, , , , ,

留下您的評論

Share