生成式人工智能模型是一種備受關(guān)注的高度可擴(kuò)展且易于訪問的人工智能解決方案,可以補(bǔ)充和改變各種業(yè)務(wù)運(yùn)營(yíng)。
生成式人工智能模型是大規(guī)模、大數(shù)據(jù)驅(qū)動(dòng)的人工智能模型,為新興的生成式人工智能技術(shù)提供動(dòng)力。它們利用大型語(yǔ)言模型、復(fù)雜算法和神經(jīng)網(wǎng)絡(luò)來(lái)生成原始文本、音頻、合成數(shù)據(jù)、圖像等。
盡管每天都有許多新的生成式人工智能公司和工具涌現(xiàn)出來(lái),但背后運(yùn)行這些工具的模型越來(lái)越少,而生成式人工智能的能力增長(zhǎng)變得越來(lái)越重要。
請(qǐng)繼續(xù)閱讀,詳細(xì)了解生成式 AI 模型的定義、工作原理以及與其他類型 AI 的比較,以及當(dāng)今可用的一些頂級(jí)生成式 AI 模型。
(1) 生成式AI 模型定義
生成式人工智能模型是一種基于海量訓(xùn)練數(shù)據(jù)集、神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)架構(gòu),通過(guò)用戶的提示生成各種輸出的人工智能平臺(tái)。
根據(jù)使用的生成式 AI 模型類型,您可以生成圖像、將文本轉(zhuǎn)換為圖像輸出(反之亦然)、合成語(yǔ)音和音頻、創(chuàng)建原始視頻內(nèi)容以及生成合成數(shù)據(jù)。盡管存在許多不同的子集和新格式的生成人工智能模型,但兩種主要設(shè)計(jì)是:
生成對(duì)抗網(wǎng)絡(luò)
生成對(duì)抗網(wǎng)絡(luò) (GAN) 的組件包括兩個(gè)不同的神經(jīng)網(wǎng)絡(luò):生成器和鑒別器。生成器根據(jù)用戶輸入和訓(xùn)練數(shù)據(jù)生成內(nèi)容,而鑒別器模型根據(jù)“真實(shí)”示例評(píng)估生成的內(nèi)容,以確定哪個(gè)輸出是真實(shí)的或準(zhǔn)確的。
基于變壓器的模型
使用基于變壓器的模型,平臺(tái)內(nèi)置編碼器和/或解碼器來(lái)解碼令牌或根據(jù)用戶輸入分段的內(nèi)容塊。
生成式人工智能模型與判別式人工智能模型
生成式人工智能模型和判別式人工智能模型的主要區(qū)別在于,生成式人工智能模型可以根據(jù)訓(xùn)練數(shù)據(jù)創(chuàng)建新的內(nèi)容和輸出。
另一方面,判別建模主要用于通過(guò)監(jiān)督學(xué)習(xí)對(duì)現(xiàn)有數(shù)據(jù)進(jìn)行分類。例如,蛋白質(zhì)分類工具運(yùn)行在判別模型上,而蛋白質(zhì)生成器則運(yùn)行在生成人工智能模型上。
生成式與預(yù)測(cè)式 AI 模型
生成模型旨在創(chuàng)造新事物,而預(yù)測(cè)人工智能模型則旨在根據(jù)現(xiàn)有數(shù)據(jù)進(jìn)行預(yù)測(cè)。繼續(xù)我們上面的例子,預(yù)測(cè)蛋白質(zhì)分子中下一個(gè)氨基酸片段的工具將使用預(yù)測(cè)性人工智能模型,而蛋白質(zhì)生成器將使用生成式人工智能模型方法。
(2) 生成式人工智能模型的類型
如今,有許多類型的生成式人工智能模型在運(yùn)行,并且隨著人工智能專家對(duì)現(xiàn)有模型進(jìn)行實(shí)驗(yàn),數(shù)量還在不斷增長(zhǎng)。
根據(jù)以下分類,請(qǐng)記住一個(gè)模型可以適用于多個(gè)類別。例如,ChatGPT 和 GPT-4 的最新更新使其成為基于 Transformer 的模型、大型語(yǔ)言模型和多模態(tài)模型。
● 生成對(duì)抗網(wǎng)絡(luò)(GAN):最適合圖像復(fù)制和合成數(shù)據(jù)生成。
● 基于 Transformer 的模型:最適合文本生成和內(nèi)容/代碼完成?;?Transformer 的模型的常見子集包括生成式預(yù)訓(xùn)練 Transformer (GPT) 和來(lái)自 Transformer (BERT) 模型的雙向編碼器表示。
● 擴(kuò)散模型:最適合圖像生成和視頻/圖像合成。
● 變分自動(dòng)編碼器 (VAE):最適合圖像、音頻和視頻內(nèi)容創(chuàng)建,特別是當(dāng)合成數(shù)據(jù)需要逼真時(shí);設(shè)計(jì)有編碼器-解碼器基礎(chǔ)設(shè)施。
● 單峰模型:僅接受一種數(shù)據(jù)輸入格式的模型;當(dāng)今大多數(shù)生成式人工智能模型都是單峰模型。
● 多模態(tài)模型:旨在接受多種類型的輸入并在生成輸出時(shí)進(jìn)行提示;例如,GPT-4 可以接受文本和圖像作為輸入。
● 大型語(yǔ)言模型:大型語(yǔ)言模型(LLM) 是目前最流行和最知名的生成式 AI 模型,旨在大規(guī)模生成和完成書面內(nèi)容。
● 神經(jīng)輻射場(chǎng) (NeRF):新興的神經(jīng)網(wǎng)絡(luò)技術(shù),可用于基于 2D 圖像輸入生成 3D 圖像。
(3) 生成式人工智能模型如何工作?
通過(guò)無(wú)監(jiān)督或半監(jiān)督學(xué)習(xí)方法,生成式人工智能模型經(jīng)過(guò)訓(xùn)練,可以識(shí)別訓(xùn)練數(shù)據(jù)集中的小規(guī)模和總體模式和關(guān)系,這些數(shù)據(jù)集來(lái)自各種來(lái)源(如互聯(lián)網(wǎng)、維基、書籍、圖像庫(kù)等)。
這種訓(xùn)練使生成式人工智能模型能夠在生成新內(nèi)容時(shí)模仿這些模式,讓人們相信內(nèi)容可能是由人類而不是機(jī)器創(chuàng)建或?qū)儆谌祟惗皇菣C(jī)器。
生成式人工智能模型之所以能夠如此精確地復(fù)制實(shí)際的人類內(nèi)容,是因?yàn)樗鼈兪褂媚M人腦神經(jīng)元之間突觸的神經(jīng)網(wǎng)絡(luò)層來(lái)設(shè)計(jì)。當(dāng)神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)與大規(guī)模訓(xùn)練數(shù)據(jù)集、復(fù)雜的深度學(xué)習(xí)和訓(xùn)練算法以及頻繁的重新訓(xùn)練和更新相結(jié)合時(shí),這些模型能夠隨著時(shí)間的推移和大規(guī)模地改進(jìn)和學(xué)習(xí)。
(4) 生成式人工智能模型是如何訓(xùn)練的?
生成式 AI 模型的訓(xùn)練方式有所不同,具體取決于您訓(xùn)練的模型類型。在這里,我們將討論基于 Transformer 的模型、GAN 和擴(kuò)散模型的訓(xùn)練方法:
基于 Transformer 的模型訓(xùn)練
基于 Transformer 的模型利用大規(guī)模神經(jīng)網(wǎng)絡(luò)和 Transformer 架構(gòu)設(shè)計(jì),使模型能夠識(shí)別和記住順序數(shù)據(jù)中的關(guān)系和模式。
首先,這些模型經(jīng)過(guò)訓(xùn)練,可以查看、存儲(chǔ)和記住來(lái)自各種來(lái)源(有時(shí)是不同格式)的大型數(shù)據(jù)集。訓(xùn)練數(shù)據(jù)源可以是網(wǎng)站和在線文本、新聞文章、維基百科、書籍、圖像和視頻集合以及其他提供有價(jià)值信息的大型數(shù)據(jù)集。
然后,變壓器模型可以將所有這些數(shù)據(jù)放入上下文中,并通過(guò)學(xué)習(xí)到的上下文有效地關(guān)注訓(xùn)練數(shù)據(jù)集中最重要的部分。模型在訓(xùn)練中識(shí)別的序列將指導(dǎo)其如何響應(yīng)用戶的提示和問題。基本上,基于 Transformer 的模型會(huì)選擇下一個(gè)最符合邏輯的數(shù)據(jù)來(lái)生成數(shù)據(jù)序列。
GAN模型訓(xùn)練
GAN 模型使用兩個(gè)不同的子模型神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練:生成器和判別器。
首先,生成器根據(jù)隨機(jī)噪聲信號(hào)創(chuàng)建新的虛假數(shù)據(jù)。然后,判別器盲目地將虛假數(shù)據(jù)與模型訓(xùn)練數(shù)據(jù)中的真實(shí)數(shù)據(jù)進(jìn)行比較,以確定哪些數(shù)據(jù)是真實(shí)的或原始的。
這兩個(gè)子模型不斷循環(huán)執(zhí)行該過(guò)程,直到判別器無(wú)法再發(fā)現(xiàn)新生成的數(shù)據(jù)與訓(xùn)練數(shù)據(jù)相比的缺陷或差異為止。
擴(kuò)散模型訓(xùn)練
擴(kuò)散模型需要進(jìn)行正向和反向訓(xùn)練,也稱為正向擴(kuò)散和反向擴(kuò)散。
正向擴(kuò)散過(guò)程涉及向訓(xùn)練數(shù)據(jù)添加隨機(jī)噪聲。當(dāng)反向擴(kuò)散過(guò)程開始時(shí),噪聲會(huì)逐漸從數(shù)據(jù)集中消除或反轉(zhuǎn),以生成與原始質(zhì)量相匹配的內(nèi)容。
在這種情況下,噪聲最好定義為導(dǎo)致您不希望保留在最終數(shù)據(jù)集中的行為的信號(hào),但可以幫助您逐漸區(qū)分正確和不正確的數(shù)據(jù)輸入和輸出。
(5) 生成式人工智能模型的示例
下面列舉了一些當(dāng)今最流行的生成式人工智能模型示例。請(qǐng)注意,許多生成式人工智能供應(yīng)商都使用以下模型之一作為基礎(chǔ)或核心模型來(lái)構(gòu)建他們的流行工具。例如,微軟的許多新 Copilot 工具都是基于 OpenAI 的 GPT-4 運(yùn)行的。
●GPT-3/3.5/4等:GPT-3、GPT-3.5和GPT-4是由 OpenAI 管理、擁有和創(chuàng)建的不同代的GPT基礎(chǔ)模型。最新版本 GPT-4 使用多模態(tài) LLM,這也是 ChatGPT 的基礎(chǔ)。
●OpenAI Codex:OpenAI 的另一個(gè)模型,Codex 可以根據(jù)自然語(yǔ)言提示生成代碼和自動(dòng)完成代碼。它是 GitHub Copilot 等工具的基礎(chǔ)模型。
●Stable Diffusion:Stable Diffusion 是 Stability AI 最流行的擴(kuò)散模型之一,主要用于文本到圖像的生成。
●LaMDA:LaMDA 是 Google 的基于 Transformer 的模型,旨在支持對(duì)話用例。
●PaLM:另一個(gè)來(lái)自 Google 的基于 Transformer 的模型,PaLM 旨在支持多語(yǔ)言內(nèi)容生成和編碼。PaLM 2 是該模型的最新版本,也是 Google Bard 的基礎(chǔ)。
●AlphaCode:AlphaCode 是 DeepMind 的開發(fā)人員和編碼支持工具,是一種大型語(yǔ)言模型,可以根據(jù)自然語(yǔ)言輸入和問題生成代碼。
●BLOOM:Hugging Face 的 BLOOM 是一種自回歸、多語(yǔ)言的法語(yǔ)模型,主要用于完成缺少文本的句子或缺少代碼的代碼字符串。
●LLaMA:LLaMA 是 Meta 中的一個(gè)較小的大型語(yǔ)言模型選項(xiàng),旨在使資源有限的用戶更容易訪問生成式 AI 模型。
●Midjourney:Midjourney 是一種生成式 AI 模型,其運(yùn)行方式與 Stable Diffusion 類似,可以根據(jù)用戶提交的自然語(yǔ)言提示生成圖像。
(6) 生成模型可以做什么?
經(jīng)過(guò)適當(dāng)?shù)挠?xùn)練并提供相關(guān)提示后,生成模型可以完成各種業(yè)務(wù)和個(gè)人任務(wù)。您可以使用生成式 AI 模型來(lái)處理以下任務(wù)以及更多任務(wù):
●生成并完成文本。
●生成并完成代碼和代碼文檔。
●生成圖像、視頻和音頻。
●生成合成數(shù)據(jù)。
●設(shè)計(jì)蛋白質(zhì)和藥物。
●回答問題并支持研究。
●優(yōu)化醫(yī)療診斷圖像。
●創(chuàng)建身臨其境的故事講述和視頻游戲體驗(yàn)。
●提升客戶支持體驗(yàn)。
●自動(dòng)化并提高網(wǎng)絡(luò)安全和風(fēng)險(xiǎn)管理的可見性。
(7) 底線:生成式人工智能模型的潛力和局限性
生成式人工智能模型是一種高度可擴(kuò)展且易于訪問的人工智能解決方案,可以補(bǔ)充和改變各種業(yè)務(wù)運(yùn)營(yíng),甚至是十分聰明的高中生的英語(yǔ)論文,因此它們?cè)趶V告中得到了充分的宣傳。
然而,對(duì)于這些工具的工作原理、缺乏透明度和內(nèi)置的安全保障措施以及生成人工智能的整體道德準(zhǔn)則,人們?nèi)源嬖谠S多擔(dān)憂。無(wú)論您的組織是致力于開發(fā)生成式 AI 模型、構(gòu)建基礎(chǔ)模型,還是只是使用 ChatGPT 執(zhí)行日常任務(wù),請(qǐng)記住,使用生成式 AI 模型的最佳方式是進(jìn)行全面的員工和客戶培訓(xùn),并制定明確的道德使用政策。
2024-09-03 09:08
2024-09-01 08:20
2024-09-01 08:07
2024-08-30 09:30
2024-08-28 11:13
2024-08-26 10:28
2024-08-25 09:29
2024-08-23 09:38
2024-08-23 09:28
2024-08-23 09:16