立場新聞 Stand News

【社交機械人倫理學】我不過想有個玩伴,但它真的像多啦A夢般美好嗎

2017/12/11 — 11:36

剛過去的十月, 沙特阿拉伯破天荒成為首個給予機械人公民權的國家,沙特亦因給予「女性」機械人 Sophia 國籍及公民權而引來大量討論。當中不止是因為作風一向保守的沙特突然讓「女性」機械人升格成為公民(別忘了沙特最近才決定於 2018 年 6 月將女性駕駛汽車合法化),亦是因為將機械人視為公民會帶來無法預測的法律後果。雖然我們幾乎可以肯定沙特把 Sophia 升格為公民的舉動只不過是個演給世界看的公關技倆,實際上未必因此帶來重大影響。但隨著人工智能及機械人科技的發展,我們可以預視世界即將要面對及回應機械人在我們的政治、社會及日常生活中帶來的各種問題。尤其是當機械人遂漸融入我們的生活,以及我們需要更常與機械人進行互動之際;這又會為我們帶來怎樣的價值挑戰?

機械人 Sophia,圖片來源:維基百科

機械人 Sophia,圖片來源:維基百科

廣告

最理想的社交機械人 — 多拉A夢

相信也沒有誰會對多拉A夢的故事感到陌生。一只來自未來世界的的機械貓和廢柴男主角大雄成為朋友;這個多拉A夢,其實應該就是世界各地機械人研究人員最渴望能夠研發出來的社交機械人 (social robot) 。

廣告

在現有研究裡面,有幾個不同概念幫助我們去介定何謂社交機械人[1],例如:

(1). 社交喚醒力 (socially evocative) : 機械人設計利用人類慣於把物件「擬人化」的特性促使他們對機械人投入感情。

(2). 社會境遇性 (socially situated) :機械人能夠理解與回應它所處身的社會情境,尤其是它需要能夠在行動時區別出社會行動者 (social agents) 與非社會行動者。

(3). 社交力 (sociable) :機械人能夠主動與人互動,並滿足人們的社交和心靈需要。

(4). 社交智慧 (socially intelligent) :機械人能夠展現出人類形式的社交智慧。

任以上任何一個概念,擁有自然感情、充斥自我意識,並能夠流暢地與各人互動,產生感情,以至結交朋友的多拉A夢肯定是最理想的社交機械人。

然而現實世界裡面,到底社交機械人會在多久的未來才會擁有接近人類的感情和知覺?甚至,到底它們有沒有可能達到這種形態?雖然社交機械人的發展方向和局限還是未知之數,但這毫不阻止各大生產商開發這類社交機械人的慾望。縱使現時有限的科技還未可以做出一只多拉A夢,但這些還未完全完美的社交機械人還是陸續的出現在我們面前;例如,SONY 即將推出的新一代 AIBO 機械人。

aibo

aibo

機械人朋友是種危險妄想?

為我們解決問題的多拉A夢,又怎會成為問題所在?社交機械人的出現並不簡單如一頭未來機械貓用時空機穿越到現代。在此,我們可以先看澳洲哲學家 Robert Sparrow 的看法。[2][3][4] Sparrow 斷定把社交機械人當成我們的玩伴是一種道德錯誤,因為社交機械人會成為我們切實地認識與接受世界的障礙。當然,他並不全完否定社交機械人可能為人們帶來便利,甚至(精神)健康及福祉;畢竟,能夠和社交機械人交談、分享及和與它玩遊戲,總比一個人寂寞來得愜意。但別忘記,社交機械人利用了人們慣於把感情投射到物件的特性使我們錯誤認為自己正在與它切實地交流,並給予它關心、視它為朋友。我們對社交機械人所表現出的關心和友誼,極其量是來自錯覺或欺騙。而且,人們對物件投入真感情亦似乎未見恰當。也難怪 Sparrow 認為,社交機械人生產商鼓勵人們去接受社交機械人為其玩伴是一種危險妄想。

再者,這些社交機械人更可能阻礙我們理解「關心」及「羈絆」的真正意義。事實上我們可以在有需要時才啟動社交機械人,並在感到煩躁、麻煩或再無需要的時候立即關掉它;但,真正的「關心」、「羈絆」並不是單向關係;這些必然雙向的關係亦是人與人(或,人與寵物)及人與社交機械人的最大分別。

社交機械人與社會政策

除了個人道德價值問題,Sparrow 指出社交機械人在政策層面亦會帶來負面影響。如果社交機械人被應用在解決兒童及長者照顧服務問題上,這不過是把照顧兒童及長者的責任視作一種技術性問題,並以一個純科技的方法作出解決。就算社交機械人緩解了兒童及長者的需要,這種以科技化解問題的方案卻無正視問題背後的各種因素;這種做法治標不治本。因為我們真切需要考慮的是:如何令家長及兒女有更多時間和心力去照顧孩子和長者,而並非單以機械人來取締人類。

社交機械人帶來的各種價值問題當然有值得爭議的地方。維也納大學的 Mark Coeckelbergh 指出,若人們與社交機械人的關係是妄想時,它的確會帶來負面的道德價值。但是,並非每個人都會誤把自己與機械人的關係當作人與人之間關係。一個神智清醒的正常人應該可以完全分辨出真實和虛擬情況。正因為大部分人都可以清楚區分社交機械人所給予的「關心」和「友誼」只是一種虛擬感情關係,因此 Sparrow 上述所提及的「社交機械人將是種危險妄想」亦不能成立;因為 Sparrow 的論證假設了用家們並不能夠分辨什麼是真實、什麼是虛擬。[5]

這個時候我們亦可提出另一個疑問:究竟是不是所有欺騙均在道德上不被允許?要是我們從義務論(尤其是康德式的義務論)觀點出發:所有的欺騙大抵都不被允許。但要是我們換成其他觀點,如效益主義式的思考來進行考慮,這些欺騙亦非完全不能接受,畢竟我們明白到(或不能否認)社會上的確有人能夠從與機械人的互動裡獲得快樂。我們甚至可以質疑健康的人際關係是否真的容不下欺騙,試想像:父母跟小朋友撒謊說藥水並不苦澀又是否代表父母對子女沒有表現出真正的關心?這個簡單的例子說明了關心與欺騙並非不能共存。[6]

當然,以上並沒有回應到社交機械人涉及的政策問題,而筆者亦認同我們有需要考慮使用社交機械人是否只是治標不治本。但這又是否一個禁止使用社交機械人的良好理由?要知道這些社交機械人的應用是多樣化的,因此,我們更需要考慮的是如何設計及應用社交機械人,使它們協助我們體現關心與友情的價值。

參考資料

[1] Kerstin Dautenhahn (2007). Socially intelligent robots: dimensions of human-robot interaction. Philosophical Transactions of the Royal Society B: Biological Sciences 362, 679-704.
[2] Robert Sparrow (2002). The march of the robot dogs. Ethics and Information Technology 4, 305-318.
[3] Robert Sparrow & Linda Sparrow (2006). In the hands of machines? The future of aged care. Minds and Machines 16, 141-161.
[4] 有關社交機械人來帶的其他倫理挑戰,可參考 Amanda Sharkey & Noel Sharkey (2012) Granny and the robots: ethical issues in robot care for the elderly. Ethics and Information Technology 14, 27-40.
[5] Mark Coeckelbergh (2012). Care robots, virtual virtue, and the best possible life. In The Good Life in a Technological Age,  New York/London: Routledge, 281-292.
[6] Mark Coeckelbergh (2016). Care robots and the future of ICT-mediated elderly care: a response to doom scenarios. AI & Society 31, 455-462.

發表意見