您的位置:首頁 > 資訊 > 行業(yè)動態(tài) > 正文

人工智能革命特輯:就算機器人要毀滅世界,也是得到了人類允許

2016-03-18 07:58 性質:轉載 作者:曉樺 來源:雷鋒網
免責聲明:中叉網(m.htyl001.com)尊重合法版權,反對侵權盜版。(凡是我網所轉載之文章,文中所有文字內容和圖片視頻之知識產權均系原作者和機構所有。文章內容觀點,與本網無關。如有需要刪除,敬請來電商榷?。?/div>

  第二個因素是金錢。美國每年的國防預算為6000億美元,而軍方預計,目前已經進行了15年研發(fā)的f-35戰(zhàn)斗機需要花費1.5萬億美元。在對抗ISIS年代,這種支出不僅是難以被證明其價值,而且可以說是愚蠢之極。因為,在一群武裝無人機或者購人肉炸彈恐怖分子面前,F(xiàn)-35毫無用處。另外,供養(yǎng)一支軍隊,花費在人身上的資金是昂貴的。最近一位美軍上將預測,未來一支戰(zhàn)斗旅的規(guī)模也許要從4000人下降到3000人,缺口的1000人則由機器人補上。

  第三個因素是對中國崛起的恐懼(有人會說這是偏執(zhí)思想)。自冷戰(zhàn)結束以來,美國對自身的精確制導導彈等技術優(yōu)勢保持高度的自信。但是現(xiàn)在中國正在迎頭趕上,并不斷增加國防投入。如果戰(zhàn)爭爆發(fā),中國的反艦導彈將給西太平洋的美國航母構成極大的威脅。與此同時,中國還大量投資于先進的武器,尤其是軍用無人機。

  對軍方來說,最大的問題是針對哪些環(huán)節(jié)和情景推動智能機器的部署,以及部署到何種程度。對某些工作來說,機器干預是顯而易見的。曾是美軍首批女性飛行員之一的Mary Cummings表示,“從航母起飛和降落是軍隊中最危險的航空任務之一?!盋ummings現(xiàn)在杜克大學掌管機器人實驗室,進行更深入的人機協(xié)作研究,尤其是針對充滿焦慮、容易導致誤判的情景進行研究。她說,“現(xiàn)在,F(xiàn)18 的自動駕駛儀在航母的起飛降落都駕輕就熟,甚至要比人類好很多。”但是,人類仍然在這些環(huán)節(jié)中占據(jù)著主導地位,因為無人機的所有攻擊都需要官方簽字。

  人機之爭的中心問題并非技術性的,而是哲學性

  但談到機器人和戰(zhàn)爭問題時,中心問題并非技術層面的,而是哲學性的:機器會被賦予刺殺人類的權力嗎?賦予機器這樣的能力,后果是非??膳碌?。去年7月,康涅狄格州一位年輕人因為給一架無人機加裝了一把手槍,并上傳至YouTube,而引發(fā)了一場激烈的辯論。裝配帶有攝像頭的手機,以及一把半自動武器,這樣的無人機在效果上無異于一架自制的遠程武裝無人機。

  當然,簡單的自動化武器并不新鮮了:地雷就屬于這類武器。這樣的武器其實極其愚蠢,因為無論是敵人還是3歲小孩踩到它都會爆炸。1990年代,美國活動家Jody Williams幫助一起反地雷的國際運動成功讓 162 個國家簽署條約——條約禁止使用、開發(fā)或者囤積地雷。Williams還因此獲得了諾貝爾和平獎。到了今天,她又為遏制殺人機器人而努力。在20位諾貝爾獎得主的幫助下,她希望能在全自動武器成為現(xiàn)實前全面禁止它們。她說:“如果有人認為將決定人類生和死的權力交給機器也沒什么問題的話,人性何在?”從2014年開始,聯(lián)合國就一直在考慮制定可能性的國際指導方針。

  在美國,五角大樓要求 “在使用武力時要保持適當程度的人類判斷?!?但什么是 “適當” 的呢?事實上,目前正在制造的一些武器系統(tǒng)中,已經出現(xiàn)全自動的產物了。美國很快就會部署具有自主控制系統(tǒng)的遠程導彈,它能夠自行搜尋目標。韓國也已經研發(fā)出自動化的槍塔,它能夠在黑暗中監(jiān)測到一英里以外的目標并進行射擊。

  對機器人倫理頗有研究的喬治亞理工學院教授Ronald Arkin表示,“我并不倡導終結者式的武器,但我確實認為這是一個復雜的議題,我們不能簡單地否定或肯定?!?他認為,智能武器可以減少平民的傷亡?!耙驗闄C器沒有情緒,它們不會感到恐慌,” 他說:“也不會像哲學家所說的 ‘戰(zhàn)爭迷霧’ 那樣作出不利的判斷?!?比如,去年10月,美軍一架AC-130武裝直升機誤炸了阿富汗一家醫(yī)院,導致至少 42 人喪生,美軍上將John F. Campbell稱,這起人為失誤的悲劇本可以避免。自動化的無人機會犯這樣的錯誤嗎?

  “現(xiàn)在,我們指使無人機殺死那些真正可怕的人,”計算機科學家兼作者 Jaron Lanier 說:“但我們正在建立能夠自主飛行并尋找目標的系統(tǒng)?!碑斎?,問題又來了:那些可怕的人劫持了無人機并用它們來攻擊我們該怎么辦?這樣的情況會發(fā)生嗎?“歷史告訴我們,這樣的情況一定會發(fā)生?!?他說:“但是,當出現(xiàn)這種情況時,我們要做的不是詛咒 ‘那些邪惡的機器’,而應該指責那些不負責任、愚蠢的工程師。我們不應該討論AI的罪惡,而是工程師的責任——他們應該開發(fā)出一套可靠的不會反轉攻擊我們自己的系統(tǒng)。這才是正確的討論?!?/P>

  總結

  一些科學家認為,我們也許能夠將倫理道德加入到機器的編程中,但這項工作的復雜程度,高到我們只能臆想。無論如何,越來越多自動化武器的出現(xiàn)也許已經是不可避免的。跟需要大量國家才能支撐得起的投資的核武器不一樣,這種新技術是由商業(yè)經濟推動的。“我敢保證,Google和亞馬遜不久之后對無人機的監(jiān)控能力比軍隊還強,”Cummings稱,“他們有更強大的數(shù)據(jù)庫,更先進的人臉識別技術,更強大的制造和控制無人機的能力。這些公司對你的了解比CIA還多。如果未來政府指望企業(yè)來為他們提供最先進的國防技術,世界會發(fā)生什么?”

  不過,Cummings認為殺手機器人的到來還有很遠:在實驗室提出自動化機器人和武器的構想比真正在現(xiàn)實世界中容易得多。

  如果未來我們設計的機器反過來挑戰(zhàn)我們,傷害我們,破壞我們熱愛的世界,甚至想要滅絕人類,那也是因為我們給了它們這樣的權力和能力。到了最終,智能機器崛起的恐慌不在于有朝一日它們也有了自己的思想意識(如今許多人所擔心的),而在于它們擁有了我們——存在一切可能的缺陷和復雜性的人類——為它們設計和創(chuàng)造的思想。

12下一頁

網友評論
文明上網,理性發(fā)言,拒絕廣告

相關資訊

關注官方微信

手機掃碼看新聞