由于人工智能產(chǎn)生不確定性風(fēng)險(xiǎn)的可能性過(guò)高,因此任何研究、開(kāi)發(fā)人工智能技術(shù)的人,都應(yīng)該對(duì)其研發(fā)負(fù)起相關(guān)責(zé)任。
在一些人工智能研究專家的眼中,當(dāng)前人類對(duì)人工智能技術(shù)的研發(fā),就像小孩子在玩弄炸彈一樣危險(xiǎn)。在這一方面,擁有特斯拉、OpenAI、SpaceX等多家企業(yè)的美國(guó)企業(yè)家埃隆·馬斯克,就是這方面的典型。其公司OpenAI最近聯(lián)合牛津大學(xué)、劍橋大學(xué)等多家機(jī)構(gòu)發(fā)布了一份報(bào)告,該報(bào)告調(diào)查了惡意使用人工智能的潛在安全威脅圖景,并提出了多種預(yù)測(cè)、預(yù)防和緩解威脅的方式。
人工智能的不確定性讓人恐懼
概括來(lái)說(shuō),報(bào)告認(rèn)為未來(lái)人工智能對(duì)人類造成的威脅主要包括三種類型,一是擴(kuò)展或升級(jí)了人類面臨的現(xiàn)有威脅,使這些威脅的實(shí)現(xiàn)手段更加容易,成本更低;二是制造出新的威脅,這些威脅因人工智能的出現(xiàn)才產(chǎn)生;三是威脅的典型特征發(fā)生改變。
毫無(wú)疑問(wèn),人類當(dāng)前正處于人工智能黃金時(shí)代來(lái)臨前的黎明,諸如Siri、Alexa等數(shù)字私人助理的出現(xiàn),自動(dòng)駕駛車輛以及諸多有意義的、超越人類能力的算法都在幫助人類在社會(huì)、經(jīng)濟(jì)等多個(gè)領(lǐng)域內(nèi)更好地實(shí)現(xiàn)目標(biāo)。
但與其他許多科技行業(yè)不同,這一領(lǐng)域的研究不受正式安全法規(guī)或標(biāo)準(zhǔn)的約束,導(dǎo)致人們擔(dān)心人工智能最終可能脫離人類控制的軌道,成為負(fù)擔(dān)而不是利益。常見(jiàn)的恐懼包括人工智能取代人類工作者,剝奪我們的權(quán)利,并對(duì)我們的生存構(gòu)成威脅。后者是馬斯克成立OpenAI、SpaceX等公司的重要原因。
從這份報(bào)告的內(nèi)容來(lái)看,人工智能對(duì)人類帶來(lái)的威脅,可以簡(jiǎn)化為兩種。一種是對(duì)現(xiàn)在威脅的擴(kuò)展與升級(jí)。這種威脅事實(shí)上并不是最大的威脅。它的攻擊屬性和目標(biāo)仍然是清晰的,只是借助于人工智能技術(shù),使它實(shí)現(xiàn)的方式和手段更為高級(jí)、有效以及精準(zhǔn)。這種可預(yù)測(cè)的威脅,只要通過(guò)升級(jí)或研發(fā)相應(yīng)的技術(shù)和防御方式,基本上可以被解決?! 〉斯ぶ悄苷嬲钊丝謶值模谟谄洳淮_定性。從目前已有的人工智能技術(shù)來(lái)看,人工智能技術(shù)似乎只是對(duì)過(guò)去其他科學(xué)技術(shù)的升級(jí)。但實(shí)際上顯然并非如此,它并不像電力對(duì)蠟燭之類的替代一樣,甚至它可以實(shí)現(xiàn)更多的自主決策。并且這種決策的過(guò)程,可能是人類無(wú)法控制的。目前被廣泛應(yīng)用的深度學(xué)習(xí)算法即是一例。因此,為了解決深度學(xué)習(xí)的“黑箱”決策過(guò)程,許多研究者也試圖借助其他手段來(lái)打開(kāi)這個(gè)“黑箱”。但人工智能存在的“黑幕”遠(yuǎn)不止于此。
而這也是OpenAI報(bào)告中提出的應(yīng)對(duì)策略并不那么讓人信服的地方。面對(duì)許多不確定性的存在,任何過(guò)于具體的應(yīng)對(duì)防范措施都將可能顯得過(guò)于狹隘、無(wú)效。但即便如此,我們卻也不得不積極地尋求潛在的解決辦法,而不是被動(dòng)地等待變化。
以“價(jià)值對(duì)齊”防范AI潛在威脅
值得重視和關(guān)注的是,過(guò)去一再被提及的“技術(shù)沒(méi)有價(jià)值觀”的中立原則,在人工智能技術(shù)上并不可行。由于人工智能產(chǎn)生不確定性風(fēng)險(xiǎn)的可能性過(guò)高,因此任何研究、開(kāi)發(fā)人工智能技術(shù)的人,都應(yīng)該對(duì)其研發(fā)負(fù)起相關(guān)責(zé)任,而不是以諸如“我只是在制造工具,好壞由使用的人決定”來(lái)推卸責(zé)任。
雖然目前全球各國(guó)、企業(yè)及研究者對(duì)于人工智能該如何控制、如何發(fā)展并未達(dá)成共識(shí),但“價(jià)值對(duì)齊”是一條被普遍認(rèn)可的標(biāo)準(zhǔn),即人工智能的發(fā)展不能與人類的價(jià)值觀相悖。
無(wú)論如何,即使上述的分析在面對(duì)充滿不確定性風(fēng)險(xiǎn)的人工智能令人感到沮喪,這卻是當(dāng)前人類面對(duì)人工智能的現(xiàn)實(shí)。因此,在產(chǎn)生更加有效和令人信服的策略來(lái)解決人工智能潛在威脅之前,保持人類控制,明確研發(fā)人工智能技術(shù)的責(zé)任,價(jià)值觀一致,確保人工智能對(duì)人類的發(fā)展與繁榮有益,通過(guò)多次迭代人工智能技術(shù)而非一蹴而就的開(kāi)發(fā),持續(xù)討論、關(guān)注各種人工智能發(fā)展,是目前防范人工智能潛在不利一面的最基本方法。
而這也就要求,人類需要為此成立相應(yīng)的管理機(jī)構(gòu),深入掌握全球人工智能的活動(dòng)并及時(shí)制定相關(guān)的政策,確保人類安全和現(xiàn)有秩序的穩(wěn)定。在這一方面,要求各國(guó)政府官員,加深對(duì)人工智能的了解,不能僅僅局限于人工智能可能對(duì)人類工作崗位的取代等諸如此類的簡(jiǎn)單議題。
□鄭偉彬(互聯(lián)網(wǎng)從業(yè)者)
2023-02-13 12:20
2023-02-11 09:16
2023-02-08 09:40
2023-02-08 09:38
2023-02-08 09:35
2023-02-08 09:31
2023-02-07 09:52
2023-02-07 09:48
2023-02-07 09:44
2023-02-06 09:47