隨著ChatGPT、文心一言等AI產品的火爆,生成式AI已經成為了大家茶余飯后熱議的話題。
可是,為什么要在AI前面加上“生成式”這三個字呢?
難道還有別的AI嗎?
1
生成式AI究竟是個啥?
如果將人工智能按照用途進行簡單分類的話,AI其實要被劃分為兩類:決策式AI和生成式AI。
-
決策式AI:專注于分析情況并做出決策。它通過評估多種選項和可能的結果,幫助用戶或系統選擇最佳的行動方案。
例如,在自動駕駛車輛中,就是通過決策式AI系統決定何時加速、減速或變換車道。
-
生成式AI:專注于創造全新內容。它可以根據學習到的數據自動生成文本、圖像、音樂等內容。
例如,你可以將幾篇論文發給生成式AI,他可以生成一篇文獻綜述,囊括了這幾篇論文的關鍵思想、重要結論。
看到這里,你就知道為什么ChatGPT、文心一言屬于生成式AI了吧?
接下來,讓我們正式走入生成式AI的世界。
2
生成式AI的前世今生
2
其實,生成式AI的并不是這幾年剛剛誕生,它實際已經經歷了三個階段:
-
1950年,Alan Turing提出了著名的“圖靈測試”,這是生成式AI領域的一個里程碑,預示了AI內容生成的可能性。
-
1957年,Lejaren Hiller和Leonard Isaacson完成了歷史上第一首完全由計算機“作曲”的音樂作品《Illiac Suite》。
-
1964年至1966年間,Joseph Weizenbaum開發了世界上第一款可人機對話的機器人“Eliza”,它通過關鍵字掃描和重組完成交互任務。
-
1980年代,IBM公司基于隱形馬爾科夫鏈模型,創造了語音控制打字機“Tangora”。
隨著互聯網的發展,數據規模快速膨脹,為人工智能算法提供了海量訓練數據。但是由于硬件基礎有限,此時的發展并不迅猛。
-
2007年,紐約大學人工智能研究員Ross Goodwin的人工智能系統撰寫了小說《1 The Road》,這是世界第一部完全由人工智能創作的小說。
-
2012年,微軟公司公開展示了一個全自動同聲傳譯系統,可以自動將英文演講者的內容通過語音識別、語言翻譯、語音合成等技術生成中文語音。
2014年起,大量深度學習方法的提出和迭代更新,標志著生成式AI的新時代。
-
2017年,微軟人工智能少女“小冰”推出了世界首部100%由人工智能創作的詩集《陽光失了玻璃窗》。
-
2019年,谷歌DeepMind團隊發布了DVD-GAN架構用以生成連續視頻。
-
2020年,OpenAI發布ChatGPT3,標志著自然語言處理(NLP)和AIGC領域的一個重要里程碑。
-
2021年,OpenAI推出了DALL-E,主要應用于文本與圖像的交互生成內容。
-
自2022年開始到現在,OpenAI多次發布ChatGPT新型號,掀起了AIGC又一輪的高潮,它能夠理解和生成自然語言,與人類進行復雜的對話。
自此,生成式AI已經到了一個井噴式狀態。那么,生成式AI究竟是基于什么樣的原理呢?
3
輕松搞懂“生成式AI”原理
在剛剛的介紹中,大家應該都對生成式AI有了一個表象的認知:學習知識+生成新知識。
但它是如何學習的呢?又是如何生成的呢?
這時候,我們就得來看看生成式AI更深層次的定義了:
定義
以ChatGPT為代表的生成式AI,是對已有的數據和知識進行向量化的歸納,總結出數據的聯合概率。從而在生成內容時,根據用戶需求,結合關聯字詞的概率,生成新的內容。
是不是一下子懵了?
不急,這就觸及到生成式AI的原理了。待小編給你慢慢解析。
其實制作一個生成式AI,就像把一個泥人變成天才,一共需要四步:捏泥人→裝大腦→喂知識→有產出。
要打造一個生成式AI的“泥人”,首先要考慮的就是底層硬件。底層硬件構成了生成式AI的算力和存力。
算力——泥人的骨架
生成式AI需要進行大量的計算,尤其是在處理如圖像和視頻時。大規模計算任務離不開下面這些關鍵硬件:
-
GPU(圖形處理單元):提供強大的并行計算能力。通過成千上萬個小處理單元并行工作,大幅提高了計算效率。
-
TPU(張量處理單元):專門為加速人工智能學習而設計的硬件,能夠顯著加快計算速度,進一步增強了骨架的強度。
存力——泥人的血液
生成式AI需要處理和存儲大量的數據。
以GPT-3為例,光是訓練參數就達到了1750億個,訓練數據達到45TB,每天會產生45億字內容。
這些數據的存放離不開下面這些硬件設施:
-
大容量RAM:在訓練生成式AI模型時,大量的中間計算結果和模型參數需要存儲在內存中,大容量的RAM能夠顯著提高數據處理速度。
-
SSD(固態硬盤):大容量的SSD具有高速讀取和寫入能力,可以快速加載和保存數據,使泥人能夠高效地存儲信息。
泥人捏好了,但是現在只能是一個提線木偶,沒有任何能力,所以我們就要給他裝上大腦。
軟件架構是泥人的大腦,它決定了這個泥人將以什么樣的方式對數據進行思考推理。
從仿生學的角度,人類希望AI能夠模仿人腦的運行機制,對知識進行思考推理——這就是通常所說的深度學習。
為了實現深度學習,學者們提出了大量的神經網絡架構:
-
深度神經網絡(DNN)是最普遍的神經網絡架構,但是隨著數據對于網路架構的要求越來越復雜,這種方法逐漸有些吃力。
-
卷積神經網絡(CNN)是一種專門為處理圖像數據而設計的神經網絡架構,能夠有效地處理圖像數據,但是需要對輸入數據進行復雜的預處理。
-
隨著任務復雜度的增加,循環神經網絡(RNN)架構成為處理序列數據的常用方法。
-
由于RNN在處理長序列時容易遇到梯度消失和模型退化問題,著名的Transformer算法被提出。