是的,人類太厲害了,千百年來我們獨霸地球,無堅不摧。但現(xiàn)在時過境遷了,人類創(chuàng)造出人工智能AI,而AI好象是一個新的物種橫空出世,剛剛登場就已經(jīng)表現(xiàn)出了遠比人類卓越的能力。那,人類有一天會不會被人工智能替代,成為過時甚至消失的物種呢?
試想,有一天,人類能造出像自己一樣有智慧甚至更超群的機器人,那機器人是否會如人類當初背棄上帝一樣背棄人類呢?若戰(zhàn)爭爆發(fā), 機器人的鋼鐵身段與人類血肉之軀,誰會更占優(yōu)勢?
試想,人類是否會進入一個被AI取代的時代,地球未來新的主人又將是誰?在這個問題上,筆者發(fā)現(xiàn),越優(yōu)秀的地球人,對未來就越是悲觀。
美國《時代雜志》(TIME)羅列出了多位名人對人工智能發(fā)展趨勢的悲觀性看法。微軟公司創(chuàng)辦人比爾·蓋茲(Bill Gates)稱,低度人工智慧可成為替代勞工的工具,但惟恐數(shù)十年后出現(xiàn)的“超級智慧”系統(tǒng),會“厲害到令人擔憂”。
企業(yè)家、太空探索科技公司(SpaceX)創(chuàng)辦人、特斯拉汽車公司(Tesla)執(zhí)行長馬斯克(Elon Musk)相信:人工智慧是“我們最大的生存威脅”,“借助人工智能,我們將召喚出惡魔。在所有故事里出現(xiàn)的拿著五芒星和圣水的家伙都確信他能夠控制住惡魔,但事實上根本不行”。
科學家史蒂芬·霍金則公開警告說人工智能的發(fā)展可能意味著人類的滅亡?;艚鹫f,這種技術(shù)會迅速演變并超過人類,那時將會出現(xiàn)電影《終結(jié)者》中想象的一幕。
“我們已經(jīng)擁有原始形式的人工智能,而且已經(jīng)證明非常有用。但我認為人工智能的完全發(fā)展會導致人類的終結(jié)”,因為“一旦經(jīng)過人類的開發(fā),人工智能將會自行發(fā)展,以加速度重新設(shè)計自己”,同時,“由于受到緩慢的演化的限制,人類不能與之競爭,最終將會被代替”。
霍金推測:“人工智能計算機可能在接下來的100年之內(nèi)就將人類取而代之”,“如果這樣的事情成為了現(xiàn)實,我們必須確保計算機和我們站在同一戰(zhàn)線上?!比绱?,“我們的未來是一場不斷增長的科技力量與人類使用科技的智慧之間的競爭?!比欢?,人工智能的誕生“可能是人類歷史上最重大的事件,但不幸的是,也可能是最后一件”。
為什么科技科學界、商業(yè)界的領(lǐng)軍人物頻頻發(fā)出人工智能威脅論?原因其實很簡單。人類是有限的,人類不僅信息、資源、理性與智力均有限,人類的道德更是有限;人類的進步有限,人類控制AI的能力也將有限,而AI發(fā)展卻沒有極限。
所以,AI有一天或許會比“我們智人”更瘋狂! 沒有物理定律阻止粒子以某種方式組織起來,從而能比人腦中的粒子組合完成更高級的計算。所以,AI的爆炸性轉(zhuǎn)變是完全可能的,反制人類也是可能的。以有限的人類去控制一個無限的智能風險,豈能不悲觀?
2024-01-15 09:12
2024-01-12 09:16
2024-01-11 09:50
2024-01-11 09:42
2024-01-11 08:55
2024-01-10 11:52
2024-01-10 11:47
2024-01-10 11:43
2024-01-10 11:41
2024-01-10 11:40