您的位置:首頁(yè) > 資訊 > 行業(yè)動(dòng)態(tài) > 正文

人工智能時(shí)代的技術(shù)也應(yīng)有“價(jià)值觀”

2018-02-28 07:59 性質(zhì):轉(zhuǎn)載 作者:新京報(bào) 來(lái)源:新京報(bào)
免責(zé)聲明:中叉網(wǎng)(m.htyl001.com)尊重合法版權(quán),反對(duì)侵權(quán)盜版。(凡是我網(wǎng)所轉(zhuǎn)載之文章,文中所有文字內(nèi)容和圖片視頻之知識(shí)產(chǎn)權(quán)均系原作者和機(jī)構(gòu)所有。文章內(nèi)容觀點(diǎn),與本網(wǎng)無(wú)關(guān)。如有需要?jiǎng)h除,敬請(qǐng)來(lái)電商榷?。?/div>
由于人工智能產(chǎn)生不確定性風(fēng)險(xiǎn)的可能性過(guò)高,因此任何研究、開(kāi)發(fā)人工智能技術(shù)的人,都應(yīng)該對(duì)其研發(fā)負(fù)起相關(guān)責(zé)任。 在一些人工智...

  由于人工智能產(chǎn)生不確定性風(fēng)險(xiǎn)的可能性過(guò)高,因此任何研究、開(kāi)發(fā)人工智能技術(shù)的人,都應(yīng)該對(duì)其研發(fā)負(fù)起相關(guān)責(zé)任。

  在一些人工智能研究專家的眼中,當(dāng)前人類對(duì)人工智能技術(shù)的研發(fā),就像小孩子在玩弄炸彈一樣危險(xiǎn)。在這一方面,擁有特斯拉、OpenAI、SpaceX等多家企業(yè)的美國(guó)企業(yè)家埃隆·馬斯克,就是這方面的典型。其公司OpenAI最近聯(lián)合牛津大學(xué)、劍橋大學(xué)等多家機(jī)構(gòu)發(fā)布了一份報(bào)告,該報(bào)告調(diào)查了惡意使用人工智能的潛在安全威脅圖景,并提出了多種預(yù)測(cè)、預(yù)防和緩解威脅的方式。

  人工智能的不確定性讓人恐懼

  概括來(lái)說(shuō),報(bào)告認(rèn)為未來(lái)人工智能對(duì)人類造成的威脅主要包括三種類型,一是擴(kuò)展或升級(jí)了人類面臨的現(xiàn)有威脅,使這些威脅的實(shí)現(xiàn)手段更加容易,成本更低;二是制造出新的威脅,這些威脅因人工智能的出現(xiàn)才產(chǎn)生;三是威脅的典型特征發(fā)生改變。

  毫無(wú)疑問(wèn),人類當(dāng)前正處于人工智能黃金時(shí)代來(lái)臨前的黎明,諸如Siri、Alexa等數(shù)字私人助理的出現(xiàn),自動(dòng)駕駛車輛以及諸多有意義的、超越人類能力的算法都在幫助人類在社會(huì)、經(jīng)濟(jì)等多個(gè)領(lǐng)域內(nèi)更好地實(shí)現(xiàn)目標(biāo)。

  但與其他許多科技行業(yè)不同,這一領(lǐng)域的研究不受正式安全法規(guī)或標(biāo)準(zhǔn)的約束,導(dǎo)致人們擔(dān)心人工智能最終可能脫離人類控制的軌道,成為負(fù)擔(dān)而不是利益。常見(jiàn)的恐懼包括人工智能取代人類工作者,剝奪我們的權(quán)利,并對(duì)我們的生存構(gòu)成威脅。后者是馬斯克成立OpenAI、SpaceX等公司的重要原因。

  從這份報(bào)告的內(nèi)容來(lái)看,人工智能對(duì)人類帶來(lái)的威脅,可以簡(jiǎn)化為兩種。一種是對(duì)現(xiàn)在威脅的擴(kuò)展與升級(jí)。這種威脅事實(shí)上并不是最大的威脅。它的攻擊屬性和目標(biāo)仍然是清晰的,只是借助于人工智能技術(shù),使它實(shí)現(xiàn)的方式和手段更為高級(jí)、有效以及精準(zhǔn)。這種可預(yù)測(cè)的威脅,只要通過(guò)升級(jí)或研發(fā)相應(yīng)的技術(shù)和防御方式,基本上可以被解決?! 〉斯ぶ悄苷嬲钊丝謶值模谟谄洳淮_定性。從目前已有的人工智能技術(shù)來(lái)看,人工智能技術(shù)似乎只是對(duì)過(guò)去其他科學(xué)技術(shù)的升級(jí)。但實(shí)際上顯然并非如此,它并不像電力對(duì)蠟燭之類的替代一樣,甚至它可以實(shí)現(xiàn)更多的自主決策。并且這種決策的過(guò)程,可能是人類無(wú)法控制的。目前被廣泛應(yīng)用的深度學(xué)習(xí)算法即是一例。因此,為了解決深度學(xué)習(xí)的“黑箱”決策過(guò)程,許多研究者也試圖借助其他手段來(lái)打開(kāi)這個(gè)“黑箱”。但人工智能存在的“黑幕”遠(yuǎn)不止于此。

  而這也是OpenAI報(bào)告中提出的應(yīng)對(duì)策略并不那么讓人信服的地方。面對(duì)許多不確定性的存在,任何過(guò)于具體的應(yīng)對(duì)防范措施都將可能顯得過(guò)于狹隘、無(wú)效。但即便如此,我們卻也不得不積極地尋求潛在的解決辦法,而不是被動(dòng)地等待變化。

  以“價(jià)值對(duì)齊”防范AI潛在威脅

  值得重視和關(guān)注的是,過(guò)去一再被提及的“技術(shù)沒(méi)有價(jià)值觀”的中立原則,在人工智能技術(shù)上并不可行。由于人工智能產(chǎn)生不確定性風(fēng)險(xiǎn)的可能性過(guò)高,因此任何研究、開(kāi)發(fā)人工智能技術(shù)的人,都應(yīng)該對(duì)其研發(fā)負(fù)起相關(guān)責(zé)任,而不是以諸如“我只是在制造工具,好壞由使用的人決定”來(lái)推卸責(zé)任。

  雖然目前全球各國(guó)、企業(yè)及研究者對(duì)于人工智能該如何控制、如何發(fā)展并未達(dá)成共識(shí),但“價(jià)值對(duì)齊”是一條被普遍認(rèn)可的標(biāo)準(zhǔn),即人工智能的發(fā)展不能與人類的價(jià)值觀相悖。

  無(wú)論如何,即使上述的分析在面對(duì)充滿不確定性風(fēng)險(xiǎn)的人工智能令人感到沮喪,這卻是當(dāng)前人類面對(duì)人工智能的現(xiàn)實(shí)。因此,在產(chǎn)生更加有效和令人信服的策略來(lái)解決人工智能潛在威脅之前,保持人類控制,明確研發(fā)人工智能技術(shù)的責(zé)任,價(jià)值觀一致,確保人工智能對(duì)人類的發(fā)展與繁榮有益,通過(guò)多次迭代人工智能技術(shù)而非一蹴而就的開(kāi)發(fā),持續(xù)討論、關(guān)注各種人工智能發(fā)展,是目前防范人工智能潛在不利一面的最基本方法。

  而這也就要求,人類需要為此成立相應(yīng)的管理機(jī)構(gòu),深入掌握全球人工智能的活動(dòng)并及時(shí)制定相關(guān)的政策,確保人類安全和現(xiàn)有秩序的穩(wěn)定。在這一方面,要求各國(guó)政府官員,加深對(duì)人工智能的了解,不能僅僅局限于人工智能可能對(duì)人類工作崗位的取代等諸如此類的簡(jiǎn)單議題。

  □鄭偉彬(互聯(lián)網(wǎng)從業(yè)者)

網(wǎng)友評(píng)論
文明上網(wǎng),理性發(fā)言,拒絕廣告

相關(guān)資訊

關(guān)注官方微信

手機(jī)掃碼看新聞