新智元報道
編輯:Aeneas 好困
(資料圖)
【新智元導讀】國內的公司就必須抄ChatGPT嗎?其實,還有另一條路可以走。今天,小冰鏈給了我們答案——CoTA。
ChatGPT激起的火種,正在中國科技公司急速蔓延。國內的各個大廠內,算法工程師們紛紛開啟沖刺倒計時,迎來一個個不眠夜。
而在創投圈的飯桌上,到處都能聽到「誓要做中國第一個ALL in GPT的VC」的聲音。
興奮者有之,觀望者有之,唱衰者有之。所有人都在翹首以盼:誰能成為中國的第一個ChatGPT?
而如今,這股ChatGPT熱潮中,忽然涌現了一股清流——小冰鏈。
小冰鏈給了我們這樣一個答案:除了做中國版ChatGPT,還有沒有別的選項?
ChatGPT軍備競賽,實則刻舟求劍
跟目前急于下場的巨頭派、大佬派、初創公司派不同,小冰認為,現在國內這股跟隨ChatGPT展開軍備競賽的熱潮,其實是刻舟求劍。
因為,大模型技術本身的發展速度,就是很快的,現在我們應該做的,應該是進一步去布局下一站的未來,而不是照抄當前的ChatGPT。
換言之,我們應當去思考,ChatGPT之后的是什么?而不是一窩蜂去做中國的ChatGPT。
而小冰鏈所代表的方向,則是利用大模型技術,實現下一代的控制中樞。
通俗來講,小冰鏈不再只是「聊天」,而是成為了「邏輯思維」驅動下的「下一代行動中樞」,覆蓋數字和物理世界。這一方向將成為下一個真正帶來影響的大模型創新突破。
這也就是為什么,小冰CEO李笛在接受新智元采訪時,特別強調說:其實我們做的并不是類ChatGPT產品。
小冰鏈和ChatGPT的核心區別: 小冰鏈的數據來源是實時的,而ChatGPT是從訓練數據中總結的; 小冰鏈能展現邏輯思維過程,更透明、可觀測,而ChatGPT完全是個黑盒子; 最本質的區別是,小冰鏈會自己進行下一步的行動,比如上網搜索,而ChatGPT只是對話生成,并沒有行動。
李笛解釋道,小冰鏈的獨特之處在于,能夠把AI的思考過程完整透明地呈現出來,從而揭開大模型的黑盒。
更重要的是,她能真正實施行動,也就是Action。
小冰鏈是個啥?
李笛解釋道:在GPT-3.5時,涌現了一個新的能力——思維鏈/邏輯思維。
但是,在ChatGPT這個過程中,沒有真的實施這種調查或計算,因為它只能從訓練數據里去爬。
如果我們換一種思路,比如訓練一個不那么大的模型來提供邏輯思維的能力,而執行部分則交給CoT之后的ACTION,也就是通過查詢新聞的真實性,直接、實時地獲得信息。
這項過程并不是在大模型里完成的,反而一舉兩得:一方面,因為只需要保留邏輯思維能力,所以模型不需要那么大,運行成本沒有那么高,計算量沒有那么大;另一方面,恰恰因為不是讓語言模型自己把所有事情做出來,反而能更準確。
因而,李笛認為,與其一直爭當下一個「中國版ChatGPT」,不如去思考:ChatGPT的下一步是什么?
再往前推一步,既然得到的是有邏輯思維能力的組合(一個模型負責思考,一個模型負責牽引,去做行為),這個組合就變成了一個控制中樞。此時,她可以控制搜索、計算、傳統的知識圖譜,甚至是物理世界。
AI經過思考,會控制物理世界的燈、去餐館訂餐、發動車子、生成一段音樂,可以調動任何事情,這個意義,或許比只是寫個新聞稿影響更深遠。
而這就體現了小冰對于「探索語言模型下一步方向」的探索成果。
現在,ChatGPT的能力已經基本全部展現了。接下來呢,是讓它更準確?寫的文章更符合現實?
本質上看,這些只是程度上的差異,不構成一個代際跨越。
什么才算「代際跨越」?
李笛表示,代際的跨越除了要實現意圖識別,還需要包括思維的轉換和跳躍等等,這才是下一步要做的東西。
比如,當你問「我老婆說今天天氣真好,是什么意思」時:
小冰鏈先是get到了我們提問的目的——了解她的意思;
然后根據這個目標,去制定自己的行動計劃——搜索相關信息;
在找到一個靠譜的答案之后,小冰鏈對其進行了概括和潤色,最后輸出結果——暗示你,應該主動提議約會。
此外,由于思維邏輯透明,信息源也全部公開,因此也就做到了「可信」。
而這都是「黑箱」ChatGPT所不具備的。
根據官方內測頁面的介紹,此次demo展示了小冰鏈(X-Chain of Thought & Action)的新特性,也就是說,AI Being不再只是單純地給出回復,而是將她的思考過程完整透明地呈現在你面前,由此揭開大模型的黑盒。
更重要的是,她能真正實施某種行動(Action),例如:在你提出問題后,她經過思考,發現自己得去搜索一下,或是實時編寫一段代碼并真的加以運行,或是自主決定她應當控制物理世界的一系列設備或交通工具,來更好地滿足你的需求。
不過,基于法律、政治、公序良俗方面的安全性考慮,小冰對模型進行了一些限制(回復的篇幅及趣味性會有所降低,但安全性更高):
限制了回復文本的最大長度;
為展現實時獲取互聯網最新信息的特性,大幅度降低了從大模型訓練數據中提取信息的比例;
降低了閑聊的比例。
是的,這個demo并不能幫你生成作業、綜述或發言稿……
為什么要做小冰鏈?
而這次小冰的發布,并不僅僅是一次簡單的「秀肌肉」。
ChatGPT國內賽開卷后,各方勢力紛紛下場。有人唱衰道:OpenAI做出ChatGPT,靠的是八年的積累,國內的公司靠幾個月的沖刺,能沖刺出什么像樣的產品嗎?
其實,中國完全能做出自己的ChatGPT,有相應的模型和算法能力的,國內至少有七八家公司,差別可能就在數據質量上。
除了證明「中國也有能力做出ChatGPT」之外,小冰鏈的誕生,也是水到渠成的過程。
小冰鏈并非小冰在大模型時代的唯一創新。
自2014年以來,小冰始終伴隨技術迭代而成長,經歷了檢索模型、生成模型、大模型和X-CoTA等多個周期。其中在大模型領域,自2019年至今,小冰已經形成了不同規模的模型訓練和調優,并在安全性評估之后依次放出。
小冰鏈只是其中之一。
盡管如此,在小冰看來,大模型的安全性和倫理仍是至關重要的考量因素。因此,盡管國內市場非常火爆,但小冰團隊不會為了秀肌肉而貿然放出各種不安全的產品,這次的小冰鏈,是唯一的一次例外。
從CoT到CoTA
技術方面,小冰鏈——X-CoTA的實現,少不了作為基礎的「思維鏈」(Chain of Thought, CoT)。
簡單來說:
1. CoT可以讓語言模型將復雜的多步驟問題分解成一連串的步驟
2. CoT可以讓開發者看到模型的推理過程,便于確定錯誤并進行修復
3. CoT可以解決數學應用以及常識性推理問題
在此之前,標準的提示會在模型預測答案之前,給出輸入-輸出對的例子(格式化為問題和答案)。
而在思維鏈提示中,模型會得到一個問題推理的過程。也就是說,在處理多步驟推理問題時,模型產生的思維鏈將模仿直觀的思維過程。
研究人員發現,只需要在prompt中加入「Let"s think step by step」就能讓GPT-3的推理性能大幅提升,比如在MultiArith中就將推理準確率從之前的17.7%一下提升到了78.7%。
下面的例子取自「Scaling Instruction-Finetuned Language Models」。其中,橙色突出了指令,粉色顯示了輸入和輸出,藍色是CoT推理。
論文的結果顯示,采用CoT微調的模型,在涉及常識、算術和符號推理的任務中表現得更好。
不難看出,思維鏈提示(chain of thought prompting)可以讓模型更好地理解自然語言提示和示例,從而能夠執行需要復雜推理的任務,并且顯著提高模型處理新任務的能力。
除此之外,CoT微調在敏感話題方面也非常有效(有時比RLHF做得更好),尤其是可以避免模型擺爛——「對不起,我無法回答」。
小編親測
所以,小冰鏈的表現如何?小編為大家親測了一波。
比如,先讓她介紹一下ChatGPT是什么。
評價題
從對《三體》動畫版的評論中可以看出,小冰鏈的回答相當切中要害了。
對《三體》劇版的描述,也基本符合大眾的心聲。
數學題
接下來,我們來問一問簡單的四則運算。
「掰指頭算一下」,這個擬人有點可愛啊。
當然了,小冰鏈并沒有真的去「掰」,但她確實「手搓」了一行python代碼來解這道題。
ChatGPT這邊,經過一步一步的推理,最終得到了正確的結論。
新必應這邊也成功地完成了作答。
接下來,是一道同樣簡單的數學應用題。
不過,ChatGPT做了三次之后,才得出了正確的答案。
送命題
最后,再來點難的:先救女友還是先救媽?
注意了,上面這個知識點羅翔老師也強調過(狗頭)。
彩蛋
在采訪最后,李笛講了個很有趣的段子。
到了產品階段,必須再走一個安全性評估。否則,真正能實施行動的AI,可太危險了。
不然,萬一她經過推理,把未來十年的電影票都買了,或者摁下一個「毀滅全人類」的按鈕呢?(Doge)
參考資料:
https://tech.cnr.cn/ycbd/20230221/t20230221_526160291.shtml
在實際法律問題情景中,個案情況都有所差異,為了高效解決您的問題,保障合法權益,建議您直接向專業律師說明情況,解決您的實際問題。 立即在線咨詢 >
法律保,中國知名的 法律咨詢網站,能夠為廣大用戶提供在線 免費法律咨詢服務。
CopyRight@2003-2023 falvbao.net.cn ALL Rights Reservrd 版權所有
皖ICP備2022009963號-45
違法和不良信息聯系郵箱:39 60 29 14 2 @qq.com