ChatGPT大火后,大家討論最多的是“怎么用ChatGPT”、“ChatGPT怎么搞錢”。
(資料圖)
但是,在討論這些問題之前,有一個更重要的問題需要我們知道,“ ChatGPT是什么 ”。
因為只有了解了ChatGPT的概念,我們才能更清楚它有什么價值,我們能怎么利用它。凡事知其然,也要知其所以然。把定義搞清楚,是一切討論的前提。
哲學家維特根斯坦說過一句話: 語言的界限就是思想的界限。
備注:本文是從一個技術麻瓜(普通人)的視角來解釋,不用太擔心難以理解。
一、什么是人工智能
ChatGPT,是人工智能里程碑式的產品。所以在說它之前,必須先聊聊什么是人工智能。
1950年,艾倫·圖靈發表了一篇劃時代的論文《計算機器與智能》,這篇論文在開篇就拋出了一個有趣的問題:“ Can machines think(機器能思考嗎) ?”這個問題引起了廣泛的關注和思考,標志著人工智能的起源。
簡單點說,人工智能,就是要讓計算機擁有人類智能的能力,包括感知、學習、推理、創造和情感等。當然,我們可以把它劃分為不同的層次:
運算智能: 具備 計算和記憶 的能力。 感知智能: 對外界環境 感知 的能力,比如視覺(圖像識別)、聽覺(語音識別)等。 認知智能:理解和思考 的能力。人類有概念,才有推理。先有理解,才有思考。比如自然語言處理技術(NLP)。 創造智能: 生成新信息、新想法或 創意的能力 ,包括生成文本、圖像、音樂等。這幾年隨著感知智能的大幅度進步,人們的焦點逐漸轉向了認知智能。其中 自然語言處理 ,是重中之重,一旦有突破,會大幅度推動人工智能的發展。
二、什么是自然語言處理
自然語言處理(Natural Language Processing,NLP):是計算機 理解(NLU) 和 生成(NLG) 人類語言的技術。
理解人類的語言是一件特別難的事情,舉個例子:
小明: 我知道你什么意思,你的意思就是想意思意思,但是你不明白我的意思,我的意思是你不用意思意思,我依然會幫你意思意思,我沒什么意思,就這點意思,不用意思意思,不然我會不好意思。你懂我的意思?
計算機: ……%&¥
所以,自然語言處理,才被比爾蓋茨稱之為“皇冠上的明珠”。
比爾·蓋茨曾說過,“自然語言處理是人工智能皇冠上的明珠,如果我們能夠推進自然語言處理,就可以再造一個微軟。”
三、什么是ChatGPT
ChatGPT,是自然語言處理技術的里程碑。如果說過去,我們的對話機器人可以稱之為“人工智障”,而ChatGPT終于可以稱之為“人工智能”。
ChatGPT:全稱 Chat G enerative P re-trained T ransformer(生成型預訓練變換模型)。
是不是覺得每個字都認識,但放在一起就懵了。其實,這些單詞背后都是一個技術名詞,所以,我們需要一個詞一個詞的解釋一下。
3.1 ChatGPT
Chat: 代表著它的作用,可以用它來聊天。
GPT: 代表著它背后的技術。
G:Generative——生成式的(模型), 這里主要是和分類式的模型 Discriminative model 做個區分。
這里不用太深入了解,我們只需要知道生成式的模型,就是可以用它來生成內容,比如一段話、一張圖片。
P:Pre-Trained——預訓練的(模型)
T:Transformer——轉換器(模型)
為什么ChatGPT用的是Transformer模型,為什么要預訓練,這里不太好解釋,我們需要先了解一下自然語言處理技術的發展歷程。
3.2 NLP技術的發展
我們都知道,要理解人類的語言是一件很復雜的事情,技術的發展也經歷了波折的過程。
第一階段:基于規則的時代(1950s-1970s)
簡單來說,就是設計一些規則,讓計算機按規則去理解人類的語言。比較著名的是 1966 年 MIT 發布的世界上第一臺聊天機器人 Eliza。但總體來看,這些機器人還無法與人真正實現對話。
第二階段:機器學習——神經網絡時代(1970s-2010s)
機器學習的興起:機器學習,指不通過人類指定的規則,而是通過機器自身運行,習得事物的內在規律。
用專業的話來說,就是“計算機程序能從經驗E中學習,以解決某一任務T,并通過性能度量P,能夠測定在解決T時,機器在學習經驗E后的表現提升”。
能用人話來解釋嗎?好嘞。
用小白的話來說,機器學習你可以把它想象成 “兒童學習的過程” 。比如:小明是一個小學生,他要參加考試(任務T)。如果想要讓它取得好成績,就要讓他不斷刷題(經驗E),(性能P)就是考試成績,然后通過不斷刷題,來提高成績。
機器學習的本質,是統計學。機器學習的結果,就是訓練出一個“模型”。
這個模型可以理解為是一個函數:y=f(x)。我們把數據(x)輸入進去,得到輸出結果(y)。
比如語言模型: 就是對語言中的詞序列,進行建模的統計模型, 給定前文(x), 生成 下一個詞(y) 的概率分布。
那怎么獲得這個模型呢——答案是訓練。
一般先確定模型的類型 ,也就是f(x) 的具體形式,再結合 訓練數據 ,計算出其中 各個參數的具體取值 的過程。比如給定函數:y=ax,我們需要通過“算法”,找到最優參數a,這個就是 “機器學習” 的過程。目標是讓輸出的結果 y`,最符合我們的業務目標 y。
經過幾十年的努力,人們在NLP模型上不斷進步。其中,神經網絡作為一種模擬生物神經系統的模型,在NLP領域取得了顯著的突破,成為了主流方法,比如RNN、LSTM等。
第三階段:Transformer模型(2017年至今)
當然,RNN、LSTM等模型都不夠完美,最大的缺陷就是計算效率低、長語言的效果差。
而在2017 年 Google 機器翻譯團隊發布了著名論文 《Attention is All You Need》,提出了 Transformer 模型,帶來了歷史性的突破,成為了 NLP 歷史上的一個標志性事件。
相較于傳統的神經網絡,Transformer 模型提升了語言模型運行的效率 (效率更高) ,同時能夠更好的捕捉語言長距離依賴的信息 (效果更好) 。
簡單來說:就是Transformer這個模型,在處理自然語言任務上很牛逼!
3.3 為什么要 Pre-Trained(預訓練)呢?
我們已經知道,機器學習是在模仿“兒童學習”的過程。比如:
有一個小孩A,在家長的指導下學習知識,告訴它這是熊、那是馬,這種叫做“ 監督學習 ”。
有一個小孩B,沒有家長教,直接把大量題目丟給他,讓他在題海中自己發現題目規律,當題量足夠大的時候,B雖然不能完全理解每道題,但也會發現一些知識點的固定表述。這就叫做“ 無監督學習 ”。
很明顯,無監督學習,不會受限于人力,你只要把所有的數據喂給它就行了,它會自己總結內部的規律。
預訓練(Pre-training) 就是這個原理,先使用大規模的數據集對模型進行事先的訓練。這個預訓練過程不針對特定的任務,它會自動地從數據中提取特征,從而學習到語言的潛在模式和結構。
而要讓模型執行具體任務時,再使用特定任務的數據進行監督學習,也就是 微調(Fine-tuning) 。從而讓模型更加專業化和適應具體任務的需求。
比如ChatGPT就經過了人類反饋的強化學習(RLHF),讓它能更勝任與人聊天的任務(更安全、更有禮貌、更有用)。 預訓練+微調 的技術,能讓ChatGPT更具有“泛化”能力,而不是只能解決特定問題的“專家”。
四、ChatGPT對我們意味著什么
這個問題我不想聊太大,什么取代人類的工作、什么AGI到來......
我覺得:作為普通人,唯一要做的就是不要落下,盡情地享受AI帶來的便利就好。推動技術發展,是科學家的使命。
ChatGPT的本質還只是工具,跟歷史上出現過的所有新工具一樣。我們必須要學習它,理解它、運用它,讓它在學習和工作場景中發揮價值。
總結
ChatGPT:是一個人類語言的處理模型。
什么是模型: 本質是函數,比如 y=f(x),輸入(x),得到輸出結果(y),模型的目的是為了解決特定的問題。對于ChatGPT,你輸入一段文字后,它會“理解”你的語言,生成回應,為你提供建議或交流。 為什么能理解: 本質是統計學,不是真的理解。它是通過機器學習,掌握了語言的規則和模式。 為什么效果史無前例:Transformer的模型 解決了過去技術效率低和效果差的問題+ 預訓練 可以處理大量數據,能力泛化+ 微調 幫助模型更適應具體與人聊天的任務。作者 | 王洲Joe 關注AI趨勢,用人工智能改變工作和創造力。
標簽: