jαpanese日本熟妇人妻岛国熟妇在线m|玉腿h高潮娇喘抽搐|人妻少妇99|怎么让女生高潮喷水|中文字幕乱码免费熟女|深情的小骚货|美女18禁99|熟女系列丰满熟妇av|杨幂丰满人妻精品|69人妻在线视频,日日摸夜夜添老女人视频,国产av日韩a∨亚洲av麻豆,人妻爽人妻

深圳市bvty寶威VIP萬利機械科技有限公司官網,! 收藏本站 聯系方式 bvty寶威VIP
bvty寶威VIP

定制高速高光機,、精雕機設備研發(fā)生產廠家

壽命長達10年,精準度達0.01MM,效率高

免費打樣咨詢:
400-123-4567
當前位置: bvty寶威VIP > bvty寶威VIP新聞資訊 > 公司動態(tài)

如何形象化地理解“AI,、大模型,、GPT”,?

文章作者:yebuyugz9B 人氣:發(fā)表時間:2024-10-15 10:08:07

近來,,關于人工智能(AI)的討論此起彼伏,,其中不可避免地涉及到一些術語和概念,,然而用簡單易懂的方式向非專業(yè)人士解釋是非常具有挑戰(zhàn)性的,。作者嘗試把AI與人類學習和成長的類比,,通過將AI與人們熟悉的事物進行比較的方式,,簡要介紹AI相關的原理、進展和意義,。歡迎閱讀~

如何形象化地理解“AI,、大模型、GPT”,?(圖1)

自從ChatGPT橫空出世以來,,AI領域再次引起了廣泛關注。

最近,,有關AI的討論絡繹不絕,,其中不可避免地涉及到一些諸如“樣本、預訓練,、大模型”等概念和術語,。

然而,要用淺顯易懂的方式向非專業(yè)人士解釋這些概念是相當具有挑戰(zhàn)性的,。

但這對于自己和他人,,都很有價值。

正如愛因斯坦所言:“If you can’t explain it simply, you don’t understand it well enough(如果你不能簡單地解釋,,那就說明你理解不夠)”,。

今天,我嘗試把AI與人類學習和成長的類比,,通過將AI與人們熟悉的事物進行比較的方式,,簡要介紹AI相關的原理、進展和意義,。

帶過小孩的家長都會有這樣一個感覺:突然有一天發(fā)現孩子會說話了,、會走路了。

這個過程并非像“0%,、1%,、2%…98%、99%,、100%”這樣逐個百分點緩慢提升,,而是有一天突然發(fā)生了變化。

模型的“涌現”指的是在大量訓練數據和復雜模型結構的支持下,,模型突然表現出較高的性能和新的能力。

簡單來說,,就是“量變引起質變”的過程,。

當訓練樣本足夠大、算法迭代達到一定階段時,模型的能力會突然提高,。

能力“涌現”的前提,,是大量不斷的輸入。

自孩子出生起,,盡管他們聽不懂,、不會說,但家長要不斷與孩子互動,,跟他說話,。在日積月累的過程中,有一天孩子的說話能力就會“涌現”出來,。

模型的發(fā)展過程也類似,。一開始可能什么都不會,即使“能說會道”,,也可能表現出“智障”或者“一本正經地胡說八道”,。

然而,在持續(xù)的大樣本訓練和算法不斷迭代的過程中,,有一天它就能達到像ChatGPT,、GPT-4那樣讓人驚艷的理解能力、推理能力和表達能力,。

2,、“讀萬卷書、行萬里路,、與萬人談” vs“預訓練(Pre-Train),、精調(Fine-Tuning)”

孩子們會說話、會走路之后,,人的學習才正式開始,。

一個人的學習成長,通常先經過基礎教育,、廣泛的學習,,再發(fā)展為專業(yè)的、深入某個領域的學習,。

不僅要廣泛涉獵,,大量學習書本知識,還要進行實踐和與人交流,。

在這個過程中,,應用所學知識,獲取反饋,,對大腦中的知識進行修正和提煉,,即從“知識到智慧”,,實現“知行合一”。

掌握了基本的知識和技能后,,人們需要找到自己的專長領域,。

在學校里,碩士生,、博士生和教授需要選擇一個細分領域進行深入研究,。

每個人,也都需要找到自己的行業(yè)和職業(yè),。

對于GPT這樣的大型模型,,它們的發(fā)展也是通過類似的過程。

首先進行“大規(guī)模數據集”進行“預訓練”,,然后利用有標簽的樣本以及人類反饋,,通過增強學習(Reinforcement Learning by Human Feedback,RLHF)進行微調和迭代,。

模型的預訓練,,指的是在大量無標簽數據上訓練模型以學習基本知識。

這就像人在嬰兒階段以及從小學到高中階段進行大量學習一樣,。不局限于某個領域,,而是需要廣泛且大量地輸入信息。

精調指的是在特定任務上,,利用有標簽數據對模型進行微調,,以便更好地適應特定任務。

這就像人在閱讀了大量書籍后,,還需要進行實踐,,從實踐中獲得反饋并成長。

許多偉人和名人,,如毛澤東,、列寧、馬斯克,、查理·芒格等,,都非常熱愛閱讀,并樂于與人交流,,在實際工作中大量實踐,。

只有這樣,才能獲得足夠多的知識,,才能塑造出過人的智慧,。

我們時常看到一些關于“孩子因為雞毛蒜皮之類的瑣事而做出傻事”的新聞,,這通常是“嬌生慣養(yǎng)”的結果,,與模型中的“過擬合”現象有相似之處,。bvty寶威

所謂機器學習,就是讓機器從樣本中學習,,從而“擬合”出規(guī)律,進而掌握技能,。

在訓練模型時,,如果樣本過于單一或特征選擇不當,就容易出現過擬合現象,。

過擬合意味著模型將訓練樣本中的特殊情況誤認為是普遍情況,。

如此一來,在面對新的樣本時,,模型就無法做出正確的處理,。

同樣,嬌生慣養(yǎng)(過擬合:over-fitting)導致的脆弱心智(模型)在面臨現實世界中的各種挫折時,,往往無法正確應對(預測不準確,、泛化能力差),從而很容易導致不幸的結果,。

因此,,我們應該讓孩子面對各種情況,并給予反饋,,讓他們了解并適應真實世界,。

人的教育有兩種類型,一種是從小就教他一門手藝,。比如“做菜,、開車、做鐵匠,、木匠”等等,,這樣他就成為了一個專才。另外,,就是先是漫長的基礎教育,,再是高等、專業(yè)教育,。先打好基礎,,再選擇專業(yè)方向。模型跟人一樣,,你給他輸入什么,,他就有什么樣的輸出,他就有什么樣的知識技能,。在大模型之前,,大家熟知的貓狗識別,、指紋識別、人臉識別等等模型,,就是做特定的事情,,類似于職業(yè)教育。

這樣的模型可以稱為“小模型”,,一方面是模型的size小,,另外一方面是模型的能力范圍比較窄。GPT這樣的模型之所以稱為大模型,,既是因為訓練數據集規(guī)模大,、訓練出的模型size大,也指的是模型有廣泛的能力,,好像是“上知天文,、下知地理”。讀萬卷書,,就是大模型,,發(fā)展出通用智能。只讀菜譜,、只練廚技,,就是小模型,發(fā)展特定技能,。

我們可以從以下三個方面,,來形象化地理解大模型。

首先,,以腦容量作為比喻,。模型的大小就像動物的腦容量一樣,較大的腦容量通常意味著更高的智慧,。擁有更多神經元和神經元間連接的大腦,,才能夠儲存更多知識。

其次,,以字典作為比喻,。如果一個語言的字典僅包含十個字,那么這個語言能表達的意義將非常有限,。然而,,如果字典中有數萬個字,那么它就能表達更豐富的信息,。

最后,,以書籍進行類比。為什么大模型更具威力?

以GPT-3為例,,其模型有800GB,,即8000億個字節(jié),粗略地估算相當于4000億個字,。假設一本書有20萬字,,那么這就相當于200萬本書。

可以說,,這“濃縮”的200萬本書基本上能夠涵蓋人類幾乎所有的知識,,且不重復。

(需要認識到的是,,成千上萬年來,人類知識的記錄和傳承基本上就是通過語言和書籍形式進行的,。)

因此可見,,足夠大的模型,就能涵蓋足夠多的知識,。

大模型,,就有大智慧。

常規(guī)的語言模型能力相對有限,,比如進行分詞,、詞性判斷等,最多完成翻譯等任務,。

GPT作為“大語言模型(Large Language Model, LLM)”之所以如此強大,,是因為一開始它并沒有特定的目的性,不是預設讓模型完成某一個任務,,而是給模型廣泛地輸入和訓練,。

如何形象化地理解“AI、大模型,、GPT”,?(圖2)

在學生作文能力的培養(yǎng)上,有兩種方法,。

一種是以提升作文能力為目標,,讓孩子閱讀各種作文技巧的書籍、參加各種作文培訓班,。但這樣急于求成的方法,,效果其實并不理想。

另一方面,,有些家長鼓勵孩子從小養(yǎng)成閱讀的習慣,,博覽群書,。

這樣一來,孩子的閱讀能力,、知識面,、思維能力都會得到很大提升,作文能力自然隨之提高,。

而且,,由于閱讀速度、理解能力的增長,,孩子在讀題,、審題方面的速度和準確率也會提高,從而提升其他學科如數學,、物理,、化學等的成績。

更為重要的是,,閱讀不僅能提高成績,,還能塑造一個人的世界觀、氣質,,并增強內心的力量,。

可以說,對一個人的一生都會產生深遠影響,。

因此,,我們不應急功近利,而應培養(yǎng)“大模型”,。有了大模型,,各種能力自然而然就會呈現。

人們常說,,人如其文,。一個人的文字能夠體現出其思考能力、表達能力等綜合素質,。

模型也是如此,,ChatGPT的能力體現在它的回答中,體現在一個個輸出的字中,。

首先要說明的是,,ChatGPT在回答問題時,一個字一個字地慢慢往外蹦,,并非因為網絡速度的問題,,而是因為模型就是以這種方式工作的:它根據當前的情境,不斷地推理出下一個應該輸出的字(將概率最高的字輸出出來)。

因此,,“準確預測下一個要輸出的字符”是模型能力的關鍵,。

為了讓你更好地理解這個概念的重要性,我來舉一個例子,。

假設有一部推理小說,,故事情節(jié)跌宕起伏、線索錯綜復雜,。

小說的最后,,有一句話:“兇手是______?!?/p>

如果AI在讀到這里時能輸出正確的字符,,那么就證明這個模型非常強大。

表面上是字符,,實際上是智能,。

GPT是“Generative Pre-trained Transformer”的縮寫,其中Transformer是一種深度學習架構,,具體指的是一種基于自注意力(self-attention)機制的神經網絡結構。

這個概念至關重要,,但的確難以理解,。

下面,嘗試解釋一下,。

你可以“顧名思義”,,用“變形金剛”這部電影來做類比。

變形金剛就是把一輛汽車零件打散,,然后再變成一個人,。

這個過程就像Transformer中的“編碼、解碼”的過程,。

將輸入序列(比如汽車)解碼成不同的部分(各個零件),,并記憶部件之間的連接關系(通過自注意機制,self-attention),,然后再根據相關信息組裝成輸出序列(如人型機器人),。

在這個過程中,Transformer可以捕捉輸入序列中的長距離依賴關系,,從而實現更高效且準確的序列處理,。

人要跟上社會發(fā)展,不僅要在學生時代好好學習,,更重要的是在日常的工作和生活中不斷學習,、終身學習。機器之所以這么厲害、AI之所以這么強大,,就是因為人家在不斷學習啊,。

更何況,機器的記憶力,、學習速度,,可是人的成百上千倍。

看看我們,,一邊在擔憂“自己會不會被AI代替”,,一邊整天慵懶地握著手機在打游戲、刷視頻,。

懶惰的人類,,要努力了啊,!

科學技術發(fā)展到今天,,人類對自己的大腦有了一定的了解,但完全談不上深入,、透徹,。

同樣,對于利用深度神經網絡技術打造出的AI模型,,也存在“可解釋性”的問題,。

盡管模型很強大,能識別出貓狗,、能對答如流,、能寫代碼、能畫畫,,但即使是模型的開發(fā)者,,也無法準確地說明,某個結果是如何具體產生的,。

可以說,,人類用原理不明的大腦,開發(fā)出原理不明的大模型,。

老子說,,道可道非常道。

對于AI來說,,也是如此,。

太簡單的模型,的確不會有強大的能力,。

專欄作家

朱百寧,,微信公眾號:八點三十五,,人人都是產品經理專欄作家。前百度品牌總監(jiān),、螞蟻產品總監(jiān),,著有《自傳播》一書,現在專注于人工智能以及產品設計等領域,。

本文原創(chuàng)發(fā)布于人人都是產品經理,。未經許可,禁止轉載,。

題圖來自 Unsplash,,基于CC0協議。

該文觀點僅代表作者本人,,人人都是產品經理平臺僅提供信息存儲空間服務,。

如何形象化地理解“AI、大模型,、GPT”,?(圖3)


bvty寶威VIP