1.3人工智能會議
會議出席
經(jīng)過一段時間的出席人數(shù)增加后,AIIndex 收集數(shù)據(jù)的會議的總出席人數(shù)在 2021 年和 2022 年再次下降(圖 1.3.1)。這種下降可能是由于許多會議在之后恢復了混合或面對面的形式。 2020年和2021年完全虛擬。例如,國際人工智能聯(lián)合會議(IJCAI)和國際知識表示與推理原則會議(KR)均嚴格以現(xiàn)場形式舉行。神經(jīng)信息處理系統(tǒng)(NeurIPS)仍然是其中之一 參加人數(shù)最多的會議,約有 15,530 人參加(圖 1.3.2)。參加人數(shù)一年增幅最大的會議是國際機器人與自動化大會 (ICRA),從 2021 年的 1,000 人增加到 2022 年的 8,008 人。
2010-22年人工智能會議的與會者人數(shù)
圖 1.3.1
2010-22年出席大型會議
圖 1.3.2
2010-22年出席小型會議
圖 1.3.3
GitHub是一個基于web的平臺,個人和編碼團隊可以在各種代碼存儲庫上托管、審查和協(xié)作。GitHub被軟件開發(fā)人員廣泛用于管理和共享代碼、在各種項目上進行協(xié)作,并支持開源軟件。本小節(jié)使用了GitHub和經(jīng)合組織提供的數(shù)據(jù)。人工智能政策天文臺。這些趨勢可以作為學術出版物數(shù)據(jù)沒有捕捉到的開源人工智能軟件世界中發(fā)生的一些更廣泛的趨勢的一個代理。
1.4開源人工智能軟件
項目
GitHub 項目是文件的集合,可以包括構成軟件項目的源代碼、文檔、配置文件和圖像。 自 2011 年以來,與人工智能相關的 GitHub 項目總數(shù)穩(wěn)步增長,從 2011 年的 1,536 個增長到 2022 年的 347,934 個。
2011-22年GitHub AI項目數(shù)量
圖 1.4.1
截至2022年,很大一部分GitHub AI項目是由印度的軟件開發(fā)者貢獻的(24.2%)(圖1.4.2)。其次最代表性的地理區(qū)域是歐盟和英國(17.3%),然后是美國(14.0%)。自2016年以來,美國GitHub人工智能項目的份額一直在穩(wěn)步下降。
2011-22年GitHub AI項目(總%)按地理區(qū)域劃分
圖 1.4.2
“點贊”
GitHub用戶可以通過“主演”它來收藏或保存一個感興趣的存儲庫。GitHub的明星類似于社交媒體平臺上的“點贊”,表示對某個開源項目的支持。一些最突出的GitHub存儲庫包括張量流、OpenCV、Keras和PyTorch等庫,這些庫被AI編碼社區(qū)的軟件開發(fā)人員廣泛使用。圖1.4.3顯示了屬于不同地理區(qū)域所有者的項目的累計星數(shù)。截至2022年,來自美國的GitHub AI項目獲得的星數(shù)最多,其次是歐盟和英國,然后是中國。在許多地理區(qū)域,新出現(xiàn)的GitHub恒星的總數(shù)在過去幾年中已經(jīng)趨于穩(wěn)定。
2011-22年按地理區(qū)域劃分的GitHub“點贊”數(shù)量
圖 1.4.3
第二章:技術性能要求
要點
今年的技術性能章節(jié)主要分析了2022年人工智能的技術進展。在以前的報告的基礎上,本章記錄了在計算機視覺、語言、語音、強化學習和硬件方面的進展。此外,今年本章將對人工智能對環(huán)境造成的影響進行分析,討論人工智能促進科學進步的方式,以及對最近一些最重要的人工智能發(fā)展的時間線式概述。
章節(jié)亮點
在傳統(tǒng)的基準測試上的性能飽和;人工智能繼續(xù)發(fā)布最先進的結果,但在許多基準測試上的同比改善仍然很少。此外,達到基準飽和度的速度也在增加。然而,新的、更全面的基準測試套件,如BIG-bench和HELM正在發(fā)布。
生成性人工智能進入了公眾的意識;2022年,DALL-E 2和穩(wěn)定擴散等文本到圖像模型發(fā)布,make-視頻這樣的文本到視頻系統(tǒng),以及ChatGPT這樣的聊天機器人。盡管如此,這些系統(tǒng)還是容易產(chǎn)生幻覺,自信地輸出不連貫或不真實的反應,這使得很難在關鍵的應用中依賴它們。
人工智能系統(tǒng)變得更加靈活;傳統(tǒng)上,人工智能系統(tǒng)在狹窄的任務上表現(xiàn)良好,但在更廣泛的任務中卻很困難。最近發(fā)布的模型挑戰(zhàn)了這一趨勢;BEiT-3、PaLI和Gato等地,單一的人工智能系統(tǒng)越來越能夠?qū)Ш蕉鄠€任務(例如,視覺、語言)。
有能力的語言模型仍然難以進行推理;語言模型繼續(xù)提高它們的生成能力,但新的研究表明,它們?nèi)匀浑y以完成復雜的規(guī)劃任務。
人工智能既幫助又破壞了環(huán)境;新的研究表明,人工智能系統(tǒng)可能會產(chǎn)生嚴重的環(huán)境影響。根據(jù)Luccioni等人,2022年,布魯姆的訓練運行排放的碳比從紐約到舊金山的單程旅行者多25倍。盡管如此,像空氣冷卻器這樣的新的強化學習模型表明,人工智能系統(tǒng)可以用于優(yōu)化能源使用。
世界上最好的新科學家……人工智能嗎?人工智能模型開始迅速加速科學進步,并于2022年被用于幫助氫氣融合,提高基質(zhì)操作的效率,并產(chǎn)生新的抗體。
人工智能開始構建更好的人工智能;英偉達使用了一種人工智能強化學習代理來改進為人工智能系統(tǒng)提供動力的芯片的設計。類似地,谷歌最近使用它的一種語言模型PaLM提出了改進相同模型的方法。自我改進的人工智能學習將加速人工智能的進步。
2.12022年的新進展:時間軸
2022年2月2日 DeepMind發(fā)布字母代碼
這是一個在競爭水平上編寫計算機程序的人工智能系統(tǒng),在人類編程競賽中排名前54%。這代表了對人工智能傳統(tǒng)上一直掙扎的更復雜的問題解決任務的改進。
圖2.1.1
2022年2月16日 DeepMind訓練強化學習代理來控制托卡馬克(環(huán)磁機)中的核聚變等離子體
圖2.1.2
2022年3月10日 IndicNLG 對印度語言的自然語言生成進行基準測試
一個國際研究團體啟動了IndicNLG,這是一個用于11種印度語言自然語言生成的數(shù)據(jù)集。IndicNLG的創(chuàng)建增加了人工智能系統(tǒng)在更多樣化、非英語語言環(huán)境中生成語言的潛力。
圖2.1.3
2022年3月24日 Meta AI(臉書之元宇宙人工智能)發(fā)布了make-scene(“制作場景”)
make-scene(“制作場景”)是一種文本到圖像的人工智能模型,用戶可以通過文本生成圖像。make-scene是2022年發(fā)布的眾多文本到圖像的模型之一。
圖2.1.4
2022年4月5日 谷歌發(fā)布PaLM
谷歌的人工智能團隊訓練了世界上最大的語言模型之一--PaLM。由5400億個參數(shù)組成的PaLM強化了這樣一種信念,即研究人員可以通過在更多數(shù)據(jù)上訓練大型語言模型來提高它們的性能。
圖2.1.5
2022年4月13日 OpenAI發(fā)布DALL-E 2
DALL-E 2是一個文本到圖像的人工智能系統(tǒng),可以從文本描述中創(chuàng)建真實的藝術和圖像,它向公眾發(fā)布,引發(fā)了生成式人工智能熱潮。
圖2.1.6
2022年5月12日 DeepMind啟動Gato
Gato是一種新的強化學習代理,能夠完成廣泛的任務,如機器人操作、游戲玩、圖像字幕和自然語言生成。這些模型的發(fā)布表明,人工智能系統(tǒng)在泛化方面正變得更好。
圖2.1.7
2022年5月23日 谷歌發(fā)布Imagen
Imagen是一種文本到圖像的擴散模型,能夠產(chǎn)生具有高度的攝影真實感的圖像。Imagen的發(fā)布也伴隨著DrawBench的發(fā)布,這是一個具有挑戰(zhàn)性的文本到圖像系統(tǒng)的新基準測試。
圖2.1.8
2022年6月9日 來自132個機構的442名作者聯(lián)合起來推出“BIG-bench”項目
為了更好地挑戰(zhàn)能力日益強大的大型語言模型,一個由來自132個機構的442名作者組成的團隊推出了超越模仿游戲基準測試(“BIG-bench”)。該基準測試包括204個任務,這些任務的范圍包括語言學、兒童發(fā)展、數(shù)學、常識性推理、生物學、物理學、社會偏見和軟件開發(fā)。
圖2.1.9
2022年6月21日 GitHub為個人開發(fā)者提供了一種基于訂閱的副駕駛服務
副駕駛是一個生成式人工智能系統(tǒng),能夠?qū)⒆匀徽Z言提示轉(zhuǎn)換為跨多種語言的編碼建議。類似的系統(tǒng)包括OpenAI的法本和銷售部隊的CodeGen。調(diào)查顯示,副駕駛可以讓程序員更有效率,更少沮喪。
圖2.1.10
2022年7月8日 英偉達利用強化學習來設計性能更好的圖形處理器
英偉達利用其人工智能系統(tǒng)來提高其最新的H100級GPU芯片的性能。GPU對人工智能培訓至關重要,這是人工智能如何開始開發(fā)出更好的人工智能的一個例子。
圖2.1.11
2022年7月8日 Meta發(fā)布“No Language Left Behind”
“No Language Left Behind”(NLLB)是一系列可以翻譯200種不同語言的模型。NLLB是第一批能夠在Kamba語和老撾語等各種低資源語言中表現(xiàn)良好的系統(tǒng)之一。
圖2.1.12
2022年8月4日 清華大學的研究人員推出了GLM-130B
清華大學的中國研究人員發(fā)布了GLM-130B,這是一種大型語言模型,優(yōu)于mate的OPT、Hugging Face’s BLOOM
和OpenAI的原始GPT-3。
圖2.1.13
2022年8月22日 Stability AI 發(fā)布Stable Diffusion
穩(wěn)定擴散(Stable Diffusion )是一個開源的基于文本到圖像擴散的模型,這意味著用戶可以自由地使用模型的權重來生成自己的圖像。穩(wěn)定擴散是根據(jù)人類創(chuàng)建的現(xiàn)有圖像進行訓練的,沒有給予任何認可或承認,這給圖像生成器的倫理使用留下了一個懸而未決的問題。
圖2.1.14
2022年9月21日 OpenAI推出Whisper
Whisper是一個大規(guī)模的語音識別系統(tǒng),以大約70萬小時的音頻數(shù)據(jù)進行訓練,能夠在各種語音識別任務上具有可觀的性能。耳語既不需要有監(jiān)督的預訓練,也不需要無監(jiān)督的微調(diào)訓練,但能夠僅僅通過增加訓練數(shù)據(jù)來獲得強大的性能,這一事實進一步驗證了越來越縮放人工智能模型的方法。
圖2.1.15
2022年9月29日Meta 發(fā)布 Make-A-Video
Make-A-Video是一個允許用戶從短文描述中創(chuàng)建視頻的系統(tǒng)。視頻的質(zhì)量較高,再次證明了縮放方法的有效性。
圖2.1.16
2022年10月5日DeepMind 啟動 AlphaTensor
AlphaTensor(阿爾法張量)是一個基于人工智能強化學習的系統(tǒng),能夠發(fā)現(xiàn)新的和有效的矩陣操作算法。矩陣操縱對于廣泛的數(shù)字實踐是必不可少的,也是研究人員幾十年來一直試圖提高效率的過程。
圖2.1.17
2022年10月22日 谷歌使用PaLM來改進PaLM的推理能力
谷歌的研究人員使用他們現(xiàn)有的語言模型之一,PaLM,來改進同一模型的推理能力。這一過程是人工智能系統(tǒng)利用自身知識進行改進的另一個例子。
圖2.1.18
2022年11月9日 國際研究小組發(fā)布“BLOOM”
由來自全球各地的100多名研究人員合作開發(fā)了一種名為BLOOM的開放獲取語言模型。BLOOM的公開發(fā)布讓人印象深刻,并進一步促進了在人工智能研究方面的國際合作的可能性。
圖2.1.19
2022年11月16日 斯坦福大學的研究人員發(fā)布HELM
作為根據(jù)更統(tǒng)一的標準來判斷新的語言模型的一部分,斯坦福大學的研究人員為大型語言模型開發(fā)了一種新的基準測試方法,稱為語言模型的整體評估(HELM)。HELM的推出證明了人工智能社區(qū)試圖圍繞日益強大、有能力和有影響力的大型語言模型開發(fā)透明度的證據(jù)。
圖2.1.20
2022年11月22日mate 發(fā)布CICERO
CICERO是第一個在人類參與的外交游戲中排名前10%的人工智能。CICERO的發(fā)布表明,人工智能系統(tǒng)在戰(zhàn)略推理方面得到了改進,這是他們傳統(tǒng)上一直在掙扎的領域,并且能夠有效地說服人類實現(xiàn)他們的目標。
圖2.1.21
2022年11月30日OpenAI推出ChatGPT
ChatGPT是一個令人印象深刻的、可公開使用的聊天機器人,能夠?qū)懘髮W水平的論文。在推出幾個月后,ChatGPT的月活躍用戶達到了1億,使其成為歷史上增長最快的消費者應用程序。ChatGPT的發(fā)布結束了生成性人工智能成為時代精神的一部分的一年,并提出了對人工智能將對人類未來產(chǎn)生的影響的質(zhì)疑。
圖2.1.21
2024-09-03 09:08
2024-09-01 08:20
2024-09-01 08:07
2024-08-30 09:30
2024-08-28 11:13
2024-08-26 10:28
2024-08-25 09:29
2024-08-23 09:38
2024-08-23 09:28
2024-08-23 09:16