安靜的大學自習室,有情侶在教室后排的角落選修愛情,有的學生在看書,更多的學生在刷手機。
一隊蜂群一樣的小東西從虛掩的教室門魚貫而入,它們發(fā)出的嗡嗡聲沒有驚動任何人。這群小東西在空中盤旋、搜索,似乎在思考并確認。終于,一個沉悶的聲音過后,響起一個女聲驚恐的尖叫,男生倒在血泊里。
就在剛剛過去的前一秒,盤旋在教室上空的那個小東西將它攜帶的3克炸藥毫無保留地傾注在男生的腦袋上。女生永失所愛,教室頓成屠場。
這個血腥場面出自一段可怕的視頻。在聯(lián)合國《特定常規(guī)武器公約》會議上,來自美國加州大學的斯圖爾特·羅素爾教授公布了這一視頻。超過七十個國家的與會代表被震驚了。雖然視頻中“殺人蜂”進行的殺戮并非真實存在,但我們必須清楚的是,視頻中的科技目前已經存在。
早在2017年2月,劍橋大學的生存威脅研究機構相關人員就列出了10種可能導致世界末日、人類滅絕的威脅。名列前茅的正是人工智能和殺手機器人。
“殺人蜂”視頻是這個預言的證實和強調:殺手機器人時代來了。這加深了很多人的焦慮,數(shù)百名科學家曾聯(lián)名呼吁限制殺手機器人的相關研究。
“殺手機器人禁令運動”組織的成員們并不是第一批對未來憂心忡忡的科學家。2015年,物理學家霍金等千余名人工智能領域的專家就曾聯(lián)合譴責人工智能時代的軍備競賽,呼吁在智能武器還沒有使用和造成萬劫不復的災難或毀滅人類之前,禁止使用智能武器。
業(yè)界普遍認為,截至目前,人類的武器已經進行了兩次革命:火藥和核武器?,F(xiàn)在殺手機器人所代表的致命性自主武器系統(tǒng)正在拉開第三次革命的帷幕。
耶魯大學的研究人員把軍用機器人列為人工智能技術最有前途的應用領域之一。軍用機器人的用途太誘人:既可降低己方士兵的風險,又能降低戰(zhàn)爭的代價。它省去了軍人的薪水、住房、養(yǎng)老、醫(yī)療等開銷,又在速度、準確性上高于人類,而且不用休息。它不會出現(xiàn)只有人類戰(zhàn)斗員才會有的戰(zhàn)場應激障礙,情緒穩(wěn)定,無需臨戰(zhàn)動員,一個指令,就能抵達人類不可及之處,完成各種任務。
學界擔心,如果殺手機器人被大規(guī)模列裝,一個潛在的問題令人不安:它們如何識別平民和戰(zhàn)斗人員?它們會不會濫殺無辜?
“如果機器人犯錯誤,責任應該歸誰呢?”英國的一名機器人技術教授諾埃爾·沙爾吉說道,“顯然這不是機器人的錯。機器人可能會向它的電腦開火,開始發(fā)狂。我們無法決定誰應該對此負責,對戰(zhàn)爭法而言,確定責任人非常重要?!?/P>
在倫理學家眼里,殺手機器人同樣存在致命的缺陷。這意味著將剝奪自然人生命的權利交給非自然人,等于將人的生命和人的尊嚴交給機器來判定,不但沒有平等性,也是對人類生命權以及人格尊嚴的侮辱。
殺手機器人該如何做?
1942年,美國著名科幻小說家阿西莫夫曾創(chuàng)立機器人定律。其中首要定律便是:機器人不得傷害人類整體,或因不作為使人類整體受到傷害。那么,問題又來了,當機器人的主人和其他人類沖突時,機器人又該如何抉擇?
這恐怕正是我們擔心的核心所在。事實上,自1920年戲劇《羅莎的萬能機器人》上演以來,無論是電視劇《神秘博士》,還是電影《終結者》《異形終結》《西部世界》《我,機器人》以及《銀翼殺手》等科幻電影和小說,一直貫穿這一主題:人類設計并主導的“殺手機器人”最終成為反叛者,擁有獨立意識,從戰(zhàn)爭的輔助工具轉變?yōu)榕c人類為敵的殺戮者。
關于機器人題材的電影和故事幾乎沒有好結局。這源自我們人類的深層恐懼——如何讓殺手機器人有“正義感”?遺憾的是,目前無解。是的,你完全可以把這些東西永遠擱置起來。不過,它們只需充一次電就能再次啟動。對機器人的愛和恐懼還將繼續(xù)。