人人人免费人人专区人人,欧美精品不卡,欧美大片无尺码在线观看,久久精品小视频,成人免费黄色大片,欧美+亚洲+精品+三区

給人工智能“大模型”當(dāng)保姆,都要操哪些心?

聲明:本文來自于微信公眾號 淺黑科技(ID:qianheikeji),作者:史中,授權(quán)微新創(chuàng)想轉(zhuǎn)載發(fā)布。

(一)ChatGPT和宋丹丹,誰陪你聊天更貴?

“有人花錢吃喝,有人花錢點歌,有人花錢美容,有人花錢按摩,今兒我雇個好活,有人花錢,雇我陪人兒嘮嗑兒。”

2000年,作為一個小屁孩在電視前看春晚時,我決計想不到,有生之年世界上真能出現(xiàn)一個陪人嘮嗑的機器人,還能嘮得和小品《鐘點工》里宋丹丹演的“大妹子”一樣好。。。

二十三年以后,我等到了 ChatGPT。

先問你個問題:ChatGPT 和宋丹丹,你覺得誰陪你聊天會更貴一些?

看上去有點兒無厘頭,其實這是個嚴(yán)肅的問題。你先在心里盲猜一個答案,然后我給你求解:

先來看鐘點工的價格。

小品里宋丹丹說了,嘮一小時40塊。

再來看 ChatGPT。

它嘮嗑的價格,一般人不知道,但中哥我知道。

這是浚源告訴我的。

給你介紹一下,浚源有三個身份:

一、人工智能老師傅;二、字節(jié)跳動火山引擎旗下“方舟平臺”的研發(fā)負(fù)責(zé)人;三、不僅關(guān)心AI馬兒跑,更關(guān)心馬兒吃多少草的“現(xiàn)實主義者”。

話說,2022年底,ChatGPT 剛橫空出世那陣兒,作為人工智能界的“老炮兒”,浚源簡單跟它對話了幾句,就得出了兩個了不得的結(jié)論:

一、這種大模型加持的AI,掌握了理解上下文的能力,可以像人一樣你一言我一語地“連續(xù)對話”。

就憑這一樣,已經(jīng)華麗麗地實現(xiàn)了幾代人工智能科學(xué)家半個多世紀(jì)的夢想。

二、能做到這一點,是因為他們掌握了 AI 大模型的“涌現(xiàn)機制”。

從專業(yè)角度看,這個進步不是“騙炮”,它很可能讓人工智能擺脫如中世紀(jì)般漫長的“人工智障階段”,得以在各行各業(yè)迅速普及!

一想到“普及”兩個字,他不困了,按捺不住想要算算這大模型運轉(zhuǎn)的成本是多少。

話說,ChatGPT 的“工資”也是明碼標(biāo)價的——它是按照 Token 來計算的。

啥是 Token?咱們?nèi)祟惱斫庹Z言的基本單位是字詞,但是大模型理解語言的方法稍有不同,它的基本單位就是 Token。

一個 Token 有時候?qū)?yīng)半個詞,有時候?qū)?yīng)多個詞,大部分時候?qū)?yīng)一個詞。

為了方便,咱們就簡單理解為一個 Token 對應(yīng)一個詞吧。

這張圖直觀展示了啥是“Token”。

ChatGPT 跟你聊天,分為兩步:

1)先理解你說的話;

2)再生成它說的話。

這“一聽”+“一說”,里頭總共有多少Token,它就收你多少錢。

現(xiàn)在 ChatGPT 有兩個版本,普通版的 ChatGPT3.5,還有史詩級的 ChatGPT4.0。調(diào)用 ChatGPT3.5的價格是“每1000個 Token0.002美金”;調(diào)用 ChatGPT4.0的成本大概是“每1000個 Token0.06美金”。

咱們就按一問一答500個Token算:ChatGPT3.5回答一個問題大概是不到1分錢人民幣,ChatGPT4.0回答一個問題大概是不到5毛錢人民幣。

也就是說,如果你打字飛快,把 ChatGPT4.0壁咚到墻角一頓嘮,一小時能問出去幾十個問題,極限狀態(tài)也能耗費掉30-40塊錢。

說到這兒,我們的問題大概就有答案了:

目前人類最先進的 AI 大模型——ChatGPT4.0——竟然和宋丹丹老師陪聊的價格差不多。。。

它聊一小時也相當(dāng)于黃宏老師的1小錘,0.5大錘。。。

相當(dāng)于趙麗蓉老師的0.22杯宮廷玉液酒。。。

好,不開玩笑了。其實剛才這些計算都是非常粗略的,不足作為商業(yè)參考,我講這些只是為了讓你能直觀地感受到:

人工智能不是省油的燈——“大模型”干起活來,其實成本并不低。

而我們今天要講的所有故事,皆與此相關(guān)。

話說,大模型干活的成本高低,本來和浚源也沒太大關(guān)系。因為他當(dāng)時還在忙另一個項目,測試大模型只是滿足一下自己該死的求知欲。

可是,2023年3月底的一天,他的命運軌跡突然如秋名山的賽道,來了一個急轉(zhuǎn)彎。

當(dāng)時火山引擎智能算法負(fù)責(zé)人吳迪找到他,開門見山:眼看大模型的浪頭已經(jīng)開始翻涌,火山引擎準(zhǔn)備跳進這個歷史大潮里,你要不要來?

“來!”浚源回答很干脆。

浚源

(二)一幫人工智能老師傅,發(fā)現(xiàn)了啥驚天大冪冪?

老規(guī)矩,在講“老師傅搞事情”之前,為了讓淺友們都能上車,咱們還是先把時間暫停,強勢科普一點兒基本姿勢。

問:到底啥是大模型?

答:就像飛機是用鋼鐵模仿鳥兒翅膀一樣,大模型是用計算機模仿人類的大腦。

咱們的大腦之所以能做決策,是因為它把學(xué)過的知識、見過的人、想過的事情都做成了“縮略圖”存在了腦細(xì)胞里——遇到啥問題,去“縮略圖”上查一下,就能得出答案。

你老板之所以給你發(fā)工資,不就是因為你有這個技能點么?

大模型也是一樣——你只要把全世界的知識都拿來,然后像虎媽一樣督促它“好好學(xué)習(xí)”,也能在它“大腦”里生成縮略圖。

和你一樣,大模型也能用這個能力打工賺錢!

問:那一個大模型從“啥也不是”到能“打工賺錢”,中間攏共分幾步?

答:分五步。

1、找一座“貴族學(xué)校”。

眾所周知,訓(xùn)練“AI 模型”需要用 GPU 卡。訓(xùn)練 AI 大模型,更是得用成千上萬個 GPU 卡。

GPU 卡堪比黃金,每張都得一萬美元起步,堆在一起妥妥就是蓋了一座貴族學(xué)校嘛!這也沒辦法,大模型的本質(zhì)就是氪金魔法,沒有金剛鉆,別練大模型。

2、找來一堆“課本”。

所謂課本,就是數(shù)據(jù),成噸的數(shù)據(jù)。(訓(xùn)練一個靠譜的大模型,怎么也得幾千億 Token 吧。。。)

課本里的知識越多、越純、越高級,最終學(xué)出來的大模型就越厲害。

3、找一群“老師”來上課。

所謂老師,就是“機器學(xué)習(xí)平臺”。把一個小孩紙丟進學(xué)校里,他是沒辦法自學(xué)成才的,得有老師來講課。

同樣,AI 也需要“靈魂的工程師”。

機器學(xué)習(xí)平臺負(fù)責(zé)“安排課表”,然后對照“課本”上的知識一堂一堂地給大模型“上課”。所有知識都學(xué)完,大模型就畢業(yè)了。

4、找一群“師傅”來帶徒弟。

你懂的,很多畢業(yè)生雖然滿腦袋都是知識,但啥也干不好,因為沒有專業(yè)領(lǐng)域的實踐經(jīng)驗嘛!

大模型也一樣,得根據(jù)它將要承擔(dān)的具體工作,找個“師傅”來繼續(xù)做“職業(yè)培訓(xùn)”。這個過程就叫對模型的“精調(diào)”。至此,大模型的“訓(xùn)練”階段終于結(jié)束,可以出徒了。

5、大模型開始“搬磚”。

大模型搬磚的姿勢,學(xué)名叫做“推理”。比如,我給大模型提一個請求,它在“大腦”里過一下,輸出一個結(jié)果,就完成了一次推理。

當(dāng)然,每次推理都會耗費一些計算力。

注意,有趣的事情來了:

推理的計算力成本和“模型大小”有關(guān)系。

說到一個模型的大小,其實就在說它包含多少個參數(shù)。就拿 ChatGPT3.5來說,它的模型大概有幾千億個參數(shù)(具體數(shù)量沒有公布),而 ChatGPT4.0大概有上萬億個參數(shù)(具體數(shù)量也沒公布)。

你可以把參數(shù)類比為人的“腦細(xì)胞”。

思考同樣的問題,腦細(xì)胞多的“大腦袋”比腦細(xì)胞少“小腦袋”更耗費能源。當(dāng)然,“大腦袋”能解決的問題也更復(fù)雜。很公平,對吧?

誒,就在這里,老師傅們發(fā)現(xiàn)了一個驚天大冪冪。

啥秘密呢?

AI大模型的復(fù)雜度并不是隨著任務(wù)復(fù)雜度“同步增加”。任務(wù)復(fù)雜,模型必須指數(shù)級增大。這也意味著推理成本會隨之提升。

人腦則不同:隨著思考問題難度的增加,推理成本幾乎不會上升。(當(dāng)然人腦存在一個思考極限。)

大冪冪來了:假如要處理的問題難到一定程度,“AI 大模型解題的成本”就會超過“人腦解題的成本”。

那 AI 大模型大到啥程度,就會比(同等聰明的)人更貴了呢?

拿2023年的科技水平來說,至少在 ChatGPT4.0能處理的任務(wù)復(fù)雜度這個級別,人和 AI 的成本已經(jīng)大致相當(dāng)了。(這下你明白為啥我在文章開頭要算那個賬了吧?)

當(dāng)然,浚源強調(diào)這樣簡單比較并不準(zhǔn)確。但一個總體趨勢是:特別難的任務(wù)推理成本還太高,目前不太實用。

了解了這些,我們再回到吳迪和浚源他們身邊,你就能跟上這群“AI 老炮兒”當(dāng)時的思考邏輯了:

像 GPT4.0那樣超大的模型,更靠近通才——靠一個模型就能勝任多種工作。雖然研發(fā)一勞永逸,適配各行各業(yè)相對簡單,但是它的推理成本會很高,甚至超過真人!

明顯用人來干更便宜的情況下,誰會用 AI 去干呢?

像 GPT3.5那樣或者更小一點的大模型,更靠近專才——必須針對各個工作單獨調(diào)整模型,才能完美勝任。(或者說它也是通才,但比真正的通才更專一些。)

雖然適配工作很麻煩,但是,它的推理成本低啊!大家用得起,才有商業(yè)化的動力。

話說,就在我們故事開始的2023年3月,眼看中國大大小小的企業(yè)都已經(jīng)開始研發(fā)大模型,堪稱“百模大戰(zhàn)”。

當(dāng)時很多看客覺得,中國大模型要想追上 ChatGPT3.5的水平,起碼得2-3年。但浚源掐指一算,不用那么久——預(yù)計到2023年底,大家就能追上 ChatGPT3.5的水平。

這也意味著,“小而專”的大模型在中國的商用已經(jīng)箭在弦上。

有了這些共識,老師傅們再盤腿坐在一起,商量火山引擎要搞點兒啥事情。

他們得出結(jié)論:既然這么多小而專的大模型想進入各行各業(yè),必然需要根據(jù)具體的工作種類進行定向精調(diào)、各種適配。

那作為云計算服務(wù)商,能不能把各家大模型都放在一起,火山引擎提供統(tǒng)一的平臺和工具,幫這些大模型在各行各業(yè)落地呢?

這不就是那個經(jīng)典邏輯么?在美國西部淘金熱的時候,賺大錢的不是那些親自淘金的,而是在一旁賣鏟子的。。。

但我轉(zhuǎn)念一想:不對啊!幫大模型在各行各業(yè)落地,這是你說幫就幫的么?這些大模型愿意么?各行各業(yè)的客戶愿意么?

其實,2023年春天吳迪忽悠浚源“入伙”時,浚源就提出了這個疑問:“咱們家里到底有啥礦,讓人家非得和我們火山引擎合作不可嘞??”

吳迪呵呵一笑:你有所不知,就在此時此刻,智譜、MiniMax、出門問問、瀾舟科技、百川智能這些明星公司的大模型已經(jīng)跑在咱們火山引擎上了!

吳迪

(三)火山引擎的“朋友圈”來之不易

實話實說,第一次聽到吳迪說“中國很多明星大模型都跑在火山引擎上”,我也覺得他在吹牛。

怎么可能有這么多嘛?!

但是仔細(xì)了解了“火山簡史”之后我發(fā)現(xiàn),如果我是大模型創(chuàng)業(yè)公司,可能也會把大模型放在火山引擎上來訓(xùn)練。

聽我來講講這段故事。

火山引擎跟人工智能的關(guān)系,怎么說呢。。。就主打一個“家傳”。

話說,字節(jié)跳動的兩大天王——抖音和今日頭條——它們火爆的原因有千萬條,但如果只能說一條,那肯定是“人工智能推薦技術(shù)”。

就拿抖音舉例,它有一個熊熊燃燒的人工智能推薦引擎,可以對平臺上發(fā)生的一切細(xì)節(jié)進行實時計算,然后針對每個正在刷抖音的用戶,找到此時此刻你最有可能喜歡的短視頻,隨著你手指輕輕一劃,這條短視頻就傳輸?shù)搅四愕钠聊簧稀?/p>

想想看,能給幾億人“量體裁衣”推薦視頻的人工智能,訓(xùn)練起來得有多艱難、運轉(zhuǎn)起來得有多壯觀。

有關(guān)這個推薦引擎,篇幅有限今天就不展開了,淺友們可以參考《你在被窩里刷手機,一個引擎在遠(yuǎn)方玩命奔跑》《你在抖音上點的小紅心哪里去了》

我要說的是,它就運轉(zhuǎn)在火山引擎上。

你注意過抖音登錄屏幕這行小字么?

其實,火山引擎這些年一直在給自家業(yè)務(wù)提供服務(wù),2020年才正式掛牌對外提供基礎(chǔ)計算力,算是云計算的后后后來者了,在市場份額上自然照阿里云、騰訊云有不少距離。

但這里要注意,我所說的距離是指以“CPU”為基礎(chǔ)算力的傳統(tǒng)云;在以“GPU”為基礎(chǔ)算力的人工智能云上,火山引擎可是并不遜色。

剛才咱們說,訓(xùn)練大模型很像“送 AI 去上學(xué)”,不僅是指學(xué)的過程像,連“卷”的樣子也像。

咱們?nèi)祟惤逃呀?jīng)卷到了極致,卷完學(xué)區(qū)房卷學(xué)校,卷完學(xué)校卷老師,卷完老師卷輔導(dǎo)。

送 AI 上學(xué)也一樣,家家不都得找“師資力量”最強的學(xué)校么?!

火山引擎“師資力量”咋樣呢?我說兩個事兒你感受一下:

第一,火山引擎上有“名校”。

剛才說過,GPU 是大模型的學(xué)校。

無論是前幾年互聯(lián)網(wǎng)的蓬勃時代,還是疫情的低迷時期,火山引擎對于 GPU 卡可是從不吝嗇,一直在買買買。

當(dāng)然,這主要是因為它的“客戶”抖音、今日頭條發(fā)展太迅猛,對底層AI計算力的需求一直饑渴。

然鵝,這客觀上導(dǎo)致火山引擎成為了中國 GPU 的大戶。

雖然官方?jīng)]有披露數(shù)據(jù),但是火山引擎手里掌握的 AI 計算力,絕對是全中國數(shù)一數(shù)二的,數(shù)三都不太可能。。。

現(xiàn)在全世界都掀起大模型浪潮,所有人都在爭搶 AI 計算力,在這種“饑荒”狀態(tài)下,看到火山引擎手里充沛的 AI 計算力,那不就是餓了三天看到肉包子的效果么?

第二,火山引擎上有“名師”。

剛才也說過,“機器學(xué)習(xí)平臺”就是大模型的老師。

可這老師具體是咋工作的嘞?我簡單給你擺一擺。

1)你可以把大模型看成是一個有千億個腦細(xì)胞的大腦,老師教授知識的過程,從細(xì)節(jié)上看就是在“調(diào)整每一個腦細(xì)胞的參數(shù)”。

2)每一本“書”進入大腦,都會刷新一遍所有腦細(xì)胞的參數(shù)。老師孜孜不倦地一本一本往腦袋里裝書,腦細(xì)胞參數(shù)就一遍一遍被“刷新”。

3)但這里的問題是,由于操作太精密,每一波腦細(xì)胞參數(shù)完全刷新之后才能存檔(CheckPoint),進行過程中是不能“存檔”的。

一旦中斷,至少得“一本書”從頭再來。

4)訓(xùn)練一個大模型,需要幾千張 GPU 卡連續(xù)工作幾個禮拜,你中間卡碟,心若在夢就在,只不過是重頭再來,那前面白算的一段成本誰給報銷?!

5)所以,訓(xùn)練必須一!遍!過!

仔細(xì)想想:這種大模型訓(xùn)練過程,跟雜技“頂碗”是一樣一樣的,所有的碗必須全部到位,一個碗碎了,整個雜技就都廢了。

這還不夠,GPU 是人類最精密最兇殘的造物——每張 GPU 卡700w,一個機箱里插8張——光是發(fā)熱已經(jīng)秒殺了一般的電暖氣。。。

你想想看,這大夏天的,人腦子都容易熱傻了,何況電腦。一堆“電暖氣”在一起絞盡腦汁兒算數(shù),一個不小心就會導(dǎo)致故障。

還沒完,在保證不出故障的情況下,你還得盡量提高 GPU 的使用效率,確保整個“教學(xué)任務(wù)”用最短的時間完成。

所以,火山引擎這群“老師”(機器學(xué)習(xí)平臺),必須同時做到三點:

1、制定最有效率的教學(xué)大綱(保證訓(xùn)練總時長最短);

2、嚴(yán)謹(jǐn)?shù)亟虝耍ūWC訓(xùn)練過程不出錯);

3、維持課堂秩序(保證底層硬件之間的協(xié)作順暢)。

這難度就不是頂碗了,這是頂碗的時候踩著平衡木,手里還得扔著五個球。。。

怎么樣,這活兒不是誰都能干的吧?

話說這些技能,火山引擎的老師傅也不是一開始就會的。但是。。。這幾年為了支撐抖音用戶從1億到2億,從3億到6億,老師傅不會也得會。

比如他們搞出了“0碎片”技術(shù),保證每一絲 GPU 都被用到極限;比如他們研發(fā)了一套AI專用的通信框架,讓原來25天才能訓(xùn)完的模型用15天就能搞定。

大模型,那可是各家公司的寶貝疙瘩,很多創(chuàng)業(yè)公司幾十號人就開發(fā)這么一個模型,自然要找最好的“學(xué)校”來培養(yǎng)。

看了一圈,火山引擎又有名校又有名師,妥妥的重點學(xué)校,來這兒也是順理成章了。

就這樣,從2022年開始,火山引擎和這些大模型公司陸續(xù)交上了朋友。

老師傅很清楚,這豪華“朋友圈”可不是誤打誤撞得來的,而是人家從心底相信火山引擎過去十年苦練的真功夫才會慕名而至——每一個朋友都來之不易,絕不能辜負(fù),得幫人幫到底,送佛送到西啊!

怎么才算幫人幫到底呢?

吳迪掏出老司機的經(jīng)驗,開始盤算:

從2023年初到2023年底,這個階段大家應(yīng)該都在“卷”大模型本身,AI 計算力主要會用于“模型訓(xùn)練”;

但從這個時間節(jié)點往后,大家的模型都訓(xùn)練得差不多了,目標(biāo)是進入各行各業(yè),那就得有“師傅”來進行各種“職業(yè)培訓(xùn)”,也就是“模型精調(diào)”。

顯然從那時起,“精調(diào)”所占用的 AI 計算力肯定會慢慢攀升——2-3年后,“精調(diào)消耗的算力”就可能超越“訓(xùn)練消耗的算力”。

如此說來,火山引擎要想讓手里的 AI 算力和 AI 底層技術(shù)在歷史長河里奔騰不息,就得不斷根據(jù)水流調(diào)整開船的姿勢:

1)先把大模型請上船,幫它們用最低成本和最高效率做訓(xùn)練;

2)再把千行百業(yè)務(wù)的客戶也請上船,幫他們做精調(diào)和適配,讓大模型這種新技術(shù)順暢地融入他們的血液!

這,就是“火山方舟”大模型服務(wù)平臺的由來。

怎么樣,目標(biāo)很清晰吧?吳迪拍拍浚源的肩頭,去干吧!

不過突然被推入大海,從零開始造船,浚源還有點兒蒙——既然要做“平臺”,火山方舟就得一手托兩家,左手是大模型公司,右手是用大模型的各行各業(yè)——得同時滿足兩方的需求才行。

那。。。怎么才能讓兩方都滿意嘞?

浚源首先想到的就是:得給大模型配個“腦殼”!

(四)大模型最怕“裸奔”

細(xì)心的朋友想必已經(jīng)觀察到了,人的大腦一般是不裸露在外面的。。。

這當(dāng)然是因為大腦很柔軟,也很精密,需要被格外地保護起來。

大模型也是如此。

簡單來說,大模型有“兩怕”。

第一怕:大模型開發(fā)者怕使用者探測到它的模型結(jié)構(gòu)。這樣一來,花費上千萬美元成本訓(xùn)練的模型,就可能被人白嫖了呀。。。

第二怕:大模型使用者怕模型開發(fā)者看到它的數(shù)據(jù)。如果“用于精調(diào)的數(shù)據(jù)”和用戶使用模型時的“請求數(shù)據(jù)”被拿走,那相當(dāng)于企業(yè)機密就走光了呀。。。

這麻桿打狼兩頭害怕,還怎么合作呀?!

誒,有辦法——像人腦那樣,給大模型加個“腦殼”唄!

浚源告訴我,這個“腦殼”的學(xué)名叫做“安全沙箱”。

簡單來說,它的原理是醬的:

1)安全沙箱綁在火山引擎上,既不屬于大模型生產(chǎn)方,也不屬于大模型使用方,與世隔絕。(沙子都漏不出去嘛!)

2)大模型生產(chǎn)方把模型 Copy 一份放在沙箱里,大模型的使用方把一條條“請求”加密之后送進沙箱,再把用于解密的鑰匙放在沙箱里。

這樣,全世界就只有這個沙箱里的大模型可以看到請求的明文。

3)同樣,一條條回答從沙箱里送出來時,也是加密的,只有大模型用戶有解密鑰匙,這樣,就做到模型使用全程只有“天知地知你知我知”。

4)如果需要對模型進行“精調(diào)”,也是同樣的操作。大模型的使用方把自己用于精調(diào)的數(shù)據(jù)加密之后送進沙箱。

精調(diào)后的模型參數(shù)就留在沙箱里,大模型的開發(fā)者也拿不出來。

總之,沙箱就像一個完美的特工:該說的說;不該說的打死也不說。

對于字節(jié)這群頂級老師傅來說,做出這個安全沙箱簡直是灑灑水,真正難的,是如何“一次成型”地把它快速做好。

確切地說,留給浚源的時間只有兩個月。

為啥要的這么急呢?

很簡單的道理:火山引擎上的各個大模型正在緊鑼密鼓,都快訓(xùn)練得八九不離十了!

腦子都快好了,腦殼還沒好,這哪行?!

可是,一個大模型的運轉(zhuǎn)過程中,數(shù)據(jù)會像水流一樣在云上的計算、存儲、網(wǎng)絡(luò)這三個基礎(chǔ)設(shè)施里來回“流竄”。

要想造出一個滴水不漏的沙箱,就必須像大壩截流一樣,把這三個峽口都堵嚴(yán)實,但凡有一樣隔離不徹底,都有可能造成數(shù)據(jù)泄露。

更難的是,這三樣基礎(chǔ)設(shè)施是由火山引擎底層技術(shù)部門維護的,不是浚源團隊自己說干就干的,得靠兄弟團隊配合。。。

幸好浚源平時靠譜。這張臉,此時不刷,更待何時?!

這不,整個四月份,他派出了好幾支“方舟遠(yuǎn)征軍”,駐扎在各個產(chǎn)品團隊里,上午說需求、中午聊架構(gòu),下午跟他們一起擼代碼,晚上一起擼串。。。

老師傅們就這樣一起擼了兩個月代碼,感情越擼越好,配合越來越默契,終于做出了一個緊致無比沙箱。

然后,他們馬不停蹄把幾大合作伙伴的頂尖大模型都塞進沙箱里。

至此,賽博世界華燈璀璨,老師傅們在街邊列隊整齊,伸出溫?zé)岬男∈郑蚯邪贅I(yè)的客戶招呼——來呀,感受中國大模型的洶涌澎湃呀這個畫面太美,不妨讓它暫停一會兒。我先問你個問題:說了半天“千行百業(yè)”,你知道大模型到底能用在什么行業(yè)么?

我就不逞能了,直接讓吳迪回答吧。

他把目前大模型的應(yīng)用場景分成三類:

第一類是“生成”。比如大模型看了一堆A產(chǎn)品的資料后,就能變身“AI 客服”,顧客買了A產(chǎn)品,不用看說明書,遇到不會用的地方盡管提問,它都能對答如流。

第二類是“控制”。比如把大模型塞進汽車,它就能變成“AI 管家”。你說一句“我想在車?yán)锎騻€盹兒”,它就能幫你把座椅放倒,把空調(diào)打到不吹人的舒適溫度,車內(nèi)燈光調(diào)暗,沒準(zhǔn)還給你來個搖籃曲。

第三類是“輔助創(chuàng)作”。比如讓大模型看一堆游戲設(shè)定和美術(shù)稿,他就能變身“AI 設(shè)計師”,游戲開發(fā)者可以讓它自動生成符合游戲畫風(fēng)的道具、場景、NPC,還能創(chuàng)作符合 NPC 人設(shè)的對白。人類設(shè)計師只要在它的基礎(chǔ)上修改就行,大大節(jié)省了創(chuàng)作成本。

你發(fā)現(xiàn)沒,這些工作的共性就是:需要一些創(chuàng)造力,但不多。

或者你可以簡單理解:目前大模型能勝任的工作難度,大致相當(dāng)于大專院校畢業(yè)3年以內(nèi)人類社畜的水平吧。

之前說過,由于推理成本的限制,做這些工作只能使用比較小的大模型。

比較小的大模型,只有適配后才能更好地完成任務(wù)。模型越小,這個適配工作就越多。

如此說來,既然火山引擎鐵了心要幫助大模型在千行百業(yè)落地,那就必須有一個貼身團隊來服務(wù)客戶——就像“保姆”一樣,幫他們配對合適的大模型,并且?guī)椭麄兘档褪褂贸杀尽?/p>

那,這個“保姆”要誰來干呢?

吳迪想來想去,在火山引擎內(nèi)部,還真有一個“服務(wù)型人才”,那就是老科。

你還記得字節(jié)跳動有一張技術(shù)王牌么?

沒錯,就是那個熊熊燃燒的可以同時幫幾億人推薦內(nèi)容的“推薦引擎”。

好東西自然不能獨享。早在火山引擎還沒正式成立的2017年,“推薦引擎”就對外服務(wù)了——大大小小的企業(yè)都能用到“抖音同款”推薦引擎。而負(fù)責(zé)把這個推薦引擎接入千家萬戶的服務(wù)團隊,正是老科的團隊。

讓他們來帶領(lǐng)大模型面向企業(yè)的服務(wù)(AI to B)團隊,有兩個肉眼可見的好處:

第一、火山的推薦引擎已經(jīng)接入了千行百業(yè),很多公司都已經(jīng)成為了好朋友,老科團隊可以從里面挑選最好最好的朋友“送福利”,讓他們優(yōu)先試用“火山方舟”。

第二、畢竟大模型是人類科技的風(fēng)口浪尖,客戶試用之后難免會遇到些小問題。鑒于老科團隊跟客戶們都有交情,客戶們要是有啥不滿意,想打人的時候。。。下手不會太重。。。

2023年5月,火山引擎的幾位老師傅去桂林團建,在大自然鬼斧神工的美景里,吳迪看著遠(yuǎn)方,問老科:“要不要來?”

老科說:“來!”

老科

(五)大模型的“保姆”和“紅娘”

話說,要想保姆出場,得先讓紅娘出場。

因為在我看來,老師傅面臨的困難,首先是“唐伯虎點秋香問題”

舉個例子吧:

我是A公司的老板,我們公司生產(chǎn)一種“奪命3000”的格斗神器,想用大模型做一個“AI 客服”。

此時我的角色就是唐伯虎。

我面前有一群“AI大模型”,我知道,里面一定有一個模型最適合做“AI 客服”——成本最低,效果也最好。它就是我的“秋香”。

唯一的問題是:這群大模型都蓋著蓋頭,我不知道誰是“秋香”。。。

大模型是封閉在沙箱里的,開發(fā)者不可能打開腦殼給我看;就算開發(fā)者愿意給我看,面對一堆代碼,我哪知道它到底適不適合我?

這里就要輪到“大模型紅娘”出場了!

老師傅鍵盤敲得飛起,開發(fā)了一套“大模型評測工具”,專門在“不掀開蓋頭(頭蓋)”的情況下,通過對話來評測這個大模型是不是你的“秋香”。

簡單來說,這個評測工具有兩個功能。

第一個功能:“自動化評測”。

還拿A公司舉例吧。我不是想做“AI 客服”么,那我可以自己寫一些符合我要求的“問題和答案”,打包成一個數(shù)據(jù)集,放在這個評測工具里。

它會自動把火山引擎上所有的模型都跑一遍,然后給出分值。

分值越高,就說明這個模型給出的答案最接近我的數(shù)據(jù)集,那它就八九不離十是我的秋香了!

第二個功能:“人工評測”。

我覺得我家的“AI 客服”不僅要能回答問題,說話還要有文采。

但“文采”這個事兒非常主觀,蘿卜青菜各有所愛,自動評測就不太好用了。

這時我就需要“自主命題”,比如讓所有的大模型都圍繞“蘿卜”給我寫首詩,我最喜歡誰的風(fēng)格就選誰!

注意,我一直在說“我的秋香”,而不是“秋香”。

意思就是,這些頂尖大模型之間的“優(yōu)劣”差異本沒那么大,反而是看誰更適合你的任務(wù)需求。

換句話說,你的“秋香”不一定是別人的秋香,有可能是別人的“如花”。

這就引出了一個新問題:

假如我的A公司想用 AI 大模型完成不同的任務(wù),不僅要做客服系統(tǒng),還要做內(nèi)部培訓(xùn)系統(tǒng),還要做宣傳文案輔助設(shè)計系統(tǒng)——對于不同任務(wù),最適合的大模型很可能是不同的。

這相當(dāng)于我不僅有唐伯虎,還有祝枝山、文徵明、徐禎卿。。。他們?nèi)蘸蠓謩e要和秋香、冬香、春香、夏香配對協(xié)作。

但每個大模型開發(fā)者都不同,可想而知操作它們的姿勢也不盡相同,這就很麻煩。

不用說,又到了“大模型紅娘”出場的時候了。

當(dāng)時意識到各個模型操作不統(tǒng)一的問題,老師傅火速開發(fā)了一個“統(tǒng)一工作流平臺”。

簡單來說就是,在每一個大模型的基礎(chǔ)上,都安裝一套“火山牌”轉(zhuǎn)接插頭。

這樣一來,七國八制的大模型就被歸攏為同一套操作流程,我只要學(xué)會跟“秋香”合作,那冬香、春香、夏香就都用同樣的姿勢就OK了!

掃清了這些障礙,我的A公司終于能“迎娶”秋香過門了!

這時,終于到了大伙兒一直期待的重要步驟——對秋香進行調(diào)教,也就是所謂的“模型精調(diào)”。

從這開始,也是老科的“保姆”團隊重點要做的事情了。

話說之前咱們一直沒來得及解釋,到底啥是精調(diào)。

沿用我們的比喻,就是唐伯虎迎娶秋香之前,要把唐家府上的各種規(guī)矩拿出來,給她進行一套“職業(yè)培訓(xùn)”。讓她在學(xué)習(xí)了社會的一般規(guī)范(在模型訓(xùn)練階段就完成了)的基礎(chǔ)上,繼續(xù)學(xué)習(xí)唐府的個性規(guī)范(需要精調(diào)來做)。

具體的做法和訓(xùn)練模型時類似,也要拿來一些教科書(如果讓它做“AI 客服”,這里就需要“產(chǎn)品說明書”的數(shù)據(jù)),然后請老師(機器學(xué)習(xí)平臺)來上課,把大腦里的所有模型再刷幾遍。

精調(diào)之后,秋香就不再是純粹的秋香,而是“唐家夫人”了。

到這兒,保姆可以撤了吧?!不行,還有重要任務(wù)沒完成。

那就是——玩兒命降低模型推理成本。

別忘了,在大模型訓(xùn)練的時候,“秋香”可是看了全世界的知識,這些知識她都學(xué)雜了,既會三國殺,又會C++。從摩托車維修技術(shù)到母豬產(chǎn)后護理,沒它不懂的。

但講真,做為一個“AI 客服”。。。并不需要懂母豬的產(chǎn)后護理。

所以,這里就要對模型進行剪枝,也就是忘掉一些一輩子都用不到的知識。

忘記之后大腦就“瘦身”了,每次思考時“過電”的腦細(xì)胞少了,耗費的能源自然就少了,推理成本也就大幅下降了!

剪枝做完了,保姆的任務(wù)完成了嗎?還沒有。

老師傅還可以通過算子優(yōu)化,繼續(xù)降低推理成本。

簡單來說就是:既然知道這個“AI 客服”日后會經(jīng)常思考哪些內(nèi)容,不如現(xiàn)在就把這部分“腦回路”加固一下,做成一些思考的“快捷方式”。讓它每次推理這些固定問題時能夠更快速、更省流。

畢竟模型日后要進行億萬次推理,每次哪怕省出幾個電子,那累積起來都是巨大的成本節(jié)省。

看到?jīng)],老科帶著老師傅“逮住蛤蟆攥出團粉”——把能想的辦法都想絕了。。。

有的模型經(jīng)過他們一番調(diào)整,推理成本甚至能下降到最初的十分之一!

話說,大模型在整個人類歷史中也才出現(xiàn)了半年,雖然老科是人工智能老司機,但很多地方也得摸著石頭過河。

為了盡快積累經(jīng)驗,他們經(jīng)常是組團去給客戶精調(diào)模型——客戶那邊出一個工程師,老科這邊能派出去好幾個,這陣仗可給客戶嚇得不輕。。。

“這么干,成本能受得了么?”我表示震精。

“我們當(dāng)然不會一直這樣做。每次回來,我們都會把適配的經(jīng)驗盡快沉淀成工具,以后再做同樣的事情,就會用工具輔助人來做。慢慢地工具的比重越來越大,人的比重越來越小,最終的目的就是讓客戶自己用工具輕松完成精調(diào)和適配!”

他笑。

聊到這兒時,我突然想到了字節(jié)跳動創(chuàng)始人張一鳴的一句話:“大部分事情你做第二遍的時候,要么做得更快,要么做得更好。”

這恐怕是“人類”和“人工智能”所共享的進步哲學(xué),也是根植在字節(jié)跳動這群老師傅心里的技術(shù)信仰。

總之,整個2023年的6月,火山方舟上老師傅和用戶面前仿佛擺了一桌“螃蟹”,兩邊一起吃,邊聊邊吃,把酒臨詩,一場人類技術(shù)的艱難求索,就此變成了江心縱舟,登極遠(yuǎn)目。

2023年6月28日,老師傅向左跟幾個大模型供應(yīng)商挑了挑眉毛,向右跟幾十家內(nèi)測客戶確認(rèn)了眼神,決定正式對外發(fā)布“火山方舟”平臺。

從春天艱難的從零起步,到夏天方舟氣象初成,只經(jīng)歷了三個月時間。

(六)“人類之子”

在我和火山這群老師傅聊天的時候,方舟平臺剛剛發(fā)布。

無數(shù)具體的大模型應(yīng)用都在緊鑼密鼓的精調(diào)訓(xùn)練中,老科得幫客戶保守秘密,不能給我講得太詳細(xì)。

他告訴我,不用著急,丑媳婦肯定會見公婆——從現(xiàn)在開始到年底之前,大家會看到各行各業(yè)的大模型應(yīng)用“井噴”。

大模型對我們的生活到底有啥改變,每個人都都能用今后的每一天慢慢體會。

但是,對于火山方舟的老師傅來說,他們沒工夫坐在山頭抽著旱煙欣賞自己的“造物”,打怪升級的道路才剛剛開始。

大模型就像一個“人類之子”,他可以不只有“腦子”,還可以有“手腳”。

啥是手腳呢?

比如,大模型可以寫代碼,但是寫好的代碼只能展示給人類,人類再粘貼到運行環(huán)境里運行。如果給大模型插上一個運行環(huán)境,它不就可以直接寫好代碼運行了嗎?如果遇到代碼錯誤,它就可以根據(jù)運行結(jié)果繼續(xù)調(diào)試,直至開發(fā)成功。

再比如,大模型可以給你生成菜譜,但需要你照著菜譜自己炒菜啊!如果把一個機械臂連在大模型上,它就可以按照菜譜給你直接把菜做出來了!

這些連在大模型上的系統(tǒng),統(tǒng)稱“插件”。有了插件,大模型就相當(dāng)于有了手腳。

怎么樣,你有什么感覺?

沒錯,這不就是科幻電影里的“機器人”么?

你看,一旦有了插件,大模型就從一個“缸中之腦”變成了開放世界的真實玩家。

腳下的地圖拓展成無窮,伴隨的可能性也變成了無窮。在人間游走,它對倫理、文化、技術(shù)邊界、哲學(xué)的沖擊,可能將會次第展開。

可以這樣說:

站在天空俯瞰,人類對大模型的應(yīng)用歷史就像一座迷宮。

但此時此刻,我們不僅不知道出口,而且,連迷宮的形狀和特點還沒完全探索清楚。

但除了接受挑戰(zhàn),我們別無選擇。

不過對于火山方舟的老師傅來說,仍舊有三件事兒是絕對正確的,那就是:降低成本、降低成本、還是降低成本!!

浚源告訴我,除了老師傅十年來磨煉的人工智能“訓(xùn)練加速”和“推理優(yōu)化”技術(shù)之外,還有一些更大的變量在影響大模型的成本。

比如,有沒有可能繼續(xù)把大模型做得更“精專”?

現(xiàn)在各行各業(yè)正在使用的大模型一般都有1000多億個參數(shù)。但是,如果大幅降低大模型的參數(shù),例如降到60-70億個,會怎么樣呢?

這種大模型,在普通人眼里顯然不夠“聰明”,但它用來完成極其特定的任務(wù),卻是非常省錢的!

就拿微軟來說,他們就做了一個極小的 GPT,塞進 Excel 里,做成了 ExcelGPT。

這個 ExcelGPT 只會做一件事兒——按照常識幫你把表格補齊。

你看,這個大模型既不用懂摩托車修理,也不用懂母豬的產(chǎn)后護理,它只需要理解簡單的常識。用一個極小的大模型就能完成任務(wù)!

看到這你也許有點懵,那到底多大的模型最合適呢?

這個問題,火山引擎的負(fù)責(zé)人譚待在方舟發(fā)布會上,用一個有趣的比喻做了回答:

就拿我們公司來說,我們有一些博士,攻堅最難的任務(wù);但我們公司不都是博士,也有很多研究生、有更多本科生,他們每個人都負(fù)責(zé)相應(yīng)的任務(wù),讓成本和產(chǎn)出達(dá)成最優(yōu)的平衡。

相信大模型也是這樣,未來一個公司可能同時使用很多大模型,有超大的模型負(fù)責(zé)最需要創(chuàng)造力的任務(wù),也有小模型和專業(yè)模型負(fù)責(zé)更普遍的任務(wù)。

這些模型結(jié)合起來,各安其位,才是大模型的完整生態(tài)。

除了模型大小以外,底層的 GPU 的算力當(dāng)然也會影響大模型的成本。

那。。。GPU 未來的算力會怎樣發(fā)展呢?

浚源非常樂觀:“在 AI 算力上,摩爾定律并沒有失效,這些年都是非常平穩(wěn)地“兩年翻一倍”。”

英偉達(dá)創(chuàng)始人黃仁勛曾經(jīng)預(yù)言,GPU 計算力仍將以超越摩爾定律的速度增長。

“那,大模型豈不是會越來越聰明?”我驚訝。

“我個人預(yù)計,大概20年后,人工智能的算力會達(dá)到現(xiàn)在的幾百倍至一千倍。到那時,我們就能做出和人腦復(fù)雜度差不多的大模型。”他說。

“你的意思是,那時我們就能做出和人腦一樣聰明的人工智能?”我問。

“希望如此。畢竟越來越多的證據(jù)表明,人腦本身沒什么秘密,算力到了,數(shù)據(jù)量到了,自然就會達(dá)到這樣的能力。而且,復(fù)制一個人要20年,它的遺傳還不穩(wěn)定;而復(fù)制一個大模型,我們只需要20分鐘。

如此科幻的結(jié)論,他卻說得很冷靜。

告別浚源和這群老師傅之后,這些話在我腦袋里反復(fù)回蕩。

我感覺自己仿佛站在一扇大門前,雪白的光浪從外面拍打著大門,我站在一個廣袤的新世界跟前,只是尚且不能目睹它的真容。

火山方舟試圖降低“智能的成本”。

而從“智能的成本”這個角度出發(fā)去思考,本身就充滿了野心——它在讓腦力勞動標(biāo)準(zhǔn)化。

自古以來,有無數(shù)哲學(xué)家、經(jīng)濟學(xué)家、社會學(xué)家都試圖為人類的思考定價。

然而,人有不同的價值觀,有不同的經(jīng)歷和過往,有復(fù)雜的情感訴求——你我的付出和回報,并非用簡單的成本和收益就能計算。從這個角度來講,并不存在一個普遍意義上的“平均的人”。

以至于,精巧的經(jīng)濟學(xué)理論可能在一個歷史時期做出精確預(yù)測,但終究會隨著人類精神的進步而走向失效。

大模型這個“人類之子”恰恰解決了這個問題。

當(dāng)無數(shù)個“人類之子”崛起,AI在全社會腦力勞動中占比越來越高時,“智能”就會成為一種新的石油——如汽油按照純度進行標(biāo)號,人類也將制造出不同標(biāo)號的“大腦”,從而清晰地為“智力勞動”定價。

在這個錨點之上,技術(shù)就會成為一個蹺蹺板:

在它的一邊,AI 的成本不斷下降,去做過去不得不由人類完成的“平均智力勞動”;

在另一邊,寶貴的、無法定價的人類思考會從泥濘中解放出來,去思考更加寶貴的、無法被定價的命題。

未來的某一天,我們也許會坐在漫天星光之下,琢磨自己存在的意義。

那時,不知有沒有人會突然回想起幾十年前,曾有這樣一群人為了創(chuàng)造一個完美世界而拼盡全力。

您可能還喜歡...

發(fā)表回復(fù)

您的郵箱地址不會被公開。 必填項已用 * 標(biāo)注