衛(wèi)報(bào)評(píng)馬斯克呼吁禁止機(jī)器人參戰(zhàn):無(wú)異于勸說(shuō)飲料商不榨橙汁
馬斯克等116名全球人工智能和機(jī)器人領(lǐng)域的專(zhuān)家近日在墨爾本舉行的人工智能?chē)?guó)際會(huì)議上發(fā)布聯(lián)名公開(kāi)信,呼吁聯(lián)合國(guó)采取行動(dòng)禁止機(jī)器人參戰(zhàn),引發(fā)廣泛熱議。《衛(wèi)報(bào)》發(fā)表評(píng)論文章,認(rèn)為勸說(shuō)國(guó)際武器貿(mào)易不要制造此類(lèi)機(jī)器人已經(jīng)太晚,無(wú)異于勸說(shuō)飲料制造商不要制造橙汁。
關(guān)于116名人工智能和機(jī)器人領(lǐng)域的專(zhuān)家發(fā)布公開(kāi)信,要求禁止機(jī)器人(killerrobots)參戰(zhàn),一個(gè)回應(yīng)是:你們難道不應(yīng)該早點(diǎn)想到嗎?
特斯拉CEO馬斯克(ElonMusk)是呼吁禁止機(jī)器人參戰(zhàn)的專(zhuān)家之一。我們沒(méi)有太多時(shí)間準(zhǔn)備了,公開(kāi)信中說(shuō),一旦這個(gè)潘多拉的魔盒被打開(kāi),就很難再次關(guān)上。但是,這樣的系統(tǒng)可以說(shuō)早已存在了,例如BAE等開(kāi)發(fā)的Taranis無(wú)人作戰(zhàn)飛機(jī)(UAV,UnmannedAerialVehicle),三星制造的SGR-A1哨戒炮,已經(jīng)部署在韓國(guó)國(guó)界。無(wú)人坦克也已經(jīng)正在研發(fā)中,而人類(lèi)對(duì)致命性無(wú)人機(jī)的控制只是何種程度的問(wèn)題。
然而,此類(lèi)機(jī)器人一直在精神上與我們同在,只不過(guò)是以機(jī)器人的形式。Karel?apek1920年在科幻舞臺(tái)劇RUR(Rossum’sUniversalRobots,羅梭的萬(wàn)能工人)中創(chuàng)造了robot這個(gè)詞(在捷克語(yǔ)中的意思是勞動(dòng)者)。他創(chuàng)造的類(lèi)人機(jī)器人,由與劇名同名的一家工廠制造,他們反叛人類(lèi),并最終滅亡人類(lèi)。從Cybermen到終結(jié)者(Terminator),此類(lèi)的故事層出不窮。
沒(méi)有機(jī)器人啟示錄正在逼近的背景,甚至很難去思考馬斯克等人簽署的公開(kāi)信所提出的問(wèn)題。即使人類(lèi)的滅亡不是處在生死攸關(guān),我們知道的是這些機(jī)器可能導(dǎo)致失控,其結(jié)果是《機(jī)械戰(zhàn)警》中OCP公司的機(jī)器人警察。
這樣的暗示似乎總是引出一些有關(guān)致命武器的嚴(yán)肅話題。好吧,所以一個(gè)機(jī)器人世界末日大決戰(zhàn)可能并不完全是空想的,但這些故事,以及它們?cè)斐傻纳羁痰娜祟?lèi)的恐懼,最終都是娛樂(lè)性質(zhì)的。盡管如此,類(lèi)似這樣的辯論,機(jī)器人維修,將科幻電影描述的技術(shù)的好和壞兩極化,伴隨帶來(lái)的意義在于,只要我們避免真正壞的那些技術(shù),剩下的都是好的。
法律專(zhuān)家對(duì)這個(gè)問(wèn)題的認(rèn)識(shí)無(wú)疑更加復(fù)雜。一方面,他們關(guān)心機(jī)器人倫理方面的更廣泛、而且越來(lái)越緊迫的問(wèn)題;另一方面,這些問(wèn)題關(guān)乎現(xiàn)代戰(zhàn)爭(zhēng)的性質(zhì),以及其商品化。
我們可以怎樣令自主技術(shù)系統(tǒng)更加安全,更符合道德規(guī)范?避免機(jī)器人對(duì)人類(lèi)造成傷害是IsaacAsimov的《我,機(jī)器人》(I,Robot)這部作品所探討的問(wèn)題,這是一部短篇故事集。這部作品對(duì)后世造成如此深遠(yuǎn)的影響,其中提出的阿西莫夫機(jī)器人三定律現(xiàn)在仍經(jīng)常被討論,其認(rèn)識(shí)度幾乎像牛頓的運(yùn)動(dòng)三定律一般。具有諷刺意味的是,阿西莫夫?qū)懙墓适轮饕顷P(guān)于這么動(dòng)機(jī)正確的定律如何被環(huán)境破壞。
無(wú)論如何,道德問(wèn)題很難有一刀切的原則。歷史學(xué)家YuvalNoahHarari指出,自動(dòng)駕駛汽車(chē)需要有一些原則來(lái)規(guī)定它們?cè)诿媾R不可避免、并且可能導(dǎo)致死亡的事故時(shí)應(yīng)該怎樣采取行動(dòng):機(jī)器應(yīng)該試圖保護(hù)什么?Harari說(shuō),www.sonanjido.com,也許我們會(huì)被提供兩種模式:利己主義(優(yōu)先保護(hù)駕駛員)和利他主義(優(yōu)先保護(hù)其他人)。
Photograph:MelindaSueGordon/Allstar/ParamountPictures
在2012年人權(quán)觀察組織一份有關(guān)機(jī)器人(killerrobots)的報(bào)告中,包含一些科幻小說(shuō)般的預(yù)想。報(bào)告寫(xiě)道:要區(qū)分恐懼的平民和具有威脅性的敵人,需要有一名士兵去了解人類(lèi)行動(dòng)背后的意圖,這是機(jī)器人做不到的事情。報(bào)告還寫(xiě)道:機(jī)器人不會(huì)受到人類(lèi)情感和人類(lèi)同情心的約束,工業(yè)機(jī)器人維修。但第一個(gè)論斷不夠令人信服機(jī)器人可以使用生物識(shí)別技術(shù),其判斷力或許比用肉眼判斷的戰(zhàn)戰(zhàn)兢兢的士兵更準(zhǔn)確。對(duì)于第二個(gè),或許某些時(shí)候是正確的。
我不是要反對(duì)這份報(bào)告中對(duì)自主機(jī)器人士兵的恐懼,因?yàn)槲乙彩沁@樣。相反,這使我們回到關(guān)鍵的問(wèn)題,不是關(guān)乎技術(shù),而是關(guān)乎戰(zhàn)爭(zhēng)。
我們對(duì)戰(zhàn)爭(zhēng)倫理問(wèn)題的敏感是非常任意的。人權(quán)觀察組織的報(bào)告說(shuō):完全自主的武器的使用提出了有關(guān)責(zé)任的問(wèn)題,這將削弱另一個(gè)已確立的保護(hù)平民的工具。這是一個(gè)公平的觀點(diǎn),但不可能放到任何一個(gè)已達(dá)成一致的倫理框架內(nèi),核武器在國(guó)際上就是合法的。此外,無(wú)人機(jī)戰(zhàn)爭(zhēng),士兵強(qiáng)化技術(shù)和法律之間是一個(gè)連續(xù)統(tǒng)一體,無(wú)法分解為人和機(jī)器。
自動(dòng)化軍事技術(shù)的問(wèn)題與戰(zhàn)爭(zhēng)本身性質(zhì)的不斷變化密切相關(guān),在恐怖主義和叛亂狀態(tài),戰(zhàn)爭(zhēng)并沒(méi)有開(kāi)始和結(jié)束的時(shí)間點(diǎn),也沒(méi)有戰(zhàn)場(chǎng)或軍隊(duì):美國(guó)戰(zhàn)略分析師AnthonyCordesman認(rèn)為:現(xiàn)代戰(zhàn)爭(zhēng)的教訓(xùn)之一是戰(zhàn)爭(zhēng)不再被稱(chēng)為戰(zhàn)爭(zhēng)。不管我們?cè)趺刺幚恚疾粫?huì)再有像諾曼底登陸那樣的。
戰(zhàn)爭(zhēng)一直在使用最先進(jìn)的技術(shù);機(jī)器人也同樣是。潘多拉的魔盒在鋼鐵冶煉被發(fā)明時(shí)就已打開(kāi),如果不是更早的話(而且打開(kāi)魔盒的從來(lái)不是女性)。你可以確定的是,肯定有人從中獲利。
無(wú)論如何,讓我們?cè)囍糁谱』癫癁楦筛甑淖钤愀獾臎_動(dòng),但勸說(shuō)國(guó)際武器貿(mào)易不要制造此類(lèi)機(jī)器人,無(wú)異于勸說(shuō)軟飲料制造商不要生產(chǎn)橙汁。




