最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

不正經(jīng)的AIGC經(jīng)濟報告

2023-09-04 23:29 作者:Rainer心雨  | 我要投稿

前言:AIGC(AI generated content),同時也可稱為大模型,即由AI生成內(nèi)容,前身是大數(shù)據(jù)。原理是利用大量數(shù)據(jù)作為數(shù)據(jù)庫,運用算法將數(shù)據(jù)進行重新組合,從而獲得自己想要的數(shù)據(jù)。 當下,由AIGC衍生出了兩個具體的應(yīng)用場景:大語言模型與圖像生成模型。二者都符合上面提到的原理,其中大語言模型是將文字作為原始數(shù)據(jù)進行操作的,而圖像生成模型則是將圖像作為原始數(shù)據(jù)。 而在此之前,無論是大語言還是圖像生成,因為其特點是原始數(shù)據(jù)非常多(例如大語言模型往往能達到百億甚至千億的參數(shù)),導致想要制作出這樣的大模型,需要非常好的硬件條件。同時,大模型的計算不同于傳統(tǒng)的CPU、GPU計算。后者往往是一板一眼,說算1+1就不可能算1+2,而大模型則可以通過降低精度的方式來獲得比傳統(tǒng)方案快得多的速度。由此衍生出了專屬于大模型的一系列計算解決方案,包括訓練專用顯卡(NPU,即神經(jīng)網(wǎng)絡(luò)計算單元),專用存儲(例如華為ocean stor內(nèi)置了算力芯片,可以直接完成簡單的數(shù)據(jù)清洗,減少NPU壓力),訓練-推理機器,以及將這些東西進行集成的一體機(例如最近發(fā)布的訊飛星火一體機)。 完成模型的訓練工作,就要開始內(nèi)容分發(fā)階段了。大語言模型的概念被引爆知起源于openAI在22年發(fā)布的GPT3,接著是3.5,以及4.0。因為先發(fā)優(yōu)勢的存在,讓GPT4與openAI在今天之前一直保持著難以逾越的霸主地位。 現(xiàn)在的大模型競爭分為兩個賽道,一個是TC,即面向大眾(潛在消費者),一個是TB,即面向企業(yè)機構(gòu)。先來說說第一點。 在大模型的競爭中,盡管先后有40多家公司機構(gòu)(現(xiàn)在可能會更多)宣布開始投入大模型研發(fā),但是在現(xiàn)在的大語言模型競爭中,只有頂尖的選手才有吃螃蟹的權(quán)力,即openAI一人。在我所接觸到的基本所有大語言模型中,整體實力上還沒有人能超過GPT4,其后有前openAI公司員工所做出來的claude2,實測在參數(shù)上接近GPT4,但最近已經(jīng)被物理封鎖,處于無法訪問的狀態(tài)。而國內(nèi)我能認可的比較大的只有三家:訊飛星火和百度文心一言,在其后的還有阿里達摩院的通義系列(包括同義千問大語言模型、通義聽悟以及等等)。 其中,文心一言曾經(jīng)被曝出過收費表,但是至今沒有上線收費內(nèi)容。這是很常見的商業(yè)試水,通過觀察對爆料的態(tài)度來決定是否最終上線功能,而正如我之前所說,只有頂端的選手才配吃肉,所有到不了第一的都只能繼續(xù)趕超。 訊飛星火,作為背靠華為的企業(yè),能夠在如此快的時間里完成大模型開發(fā),并以遙遙領(lǐng)先友商的速度在進行模型能力的迭代更新,那自然是離不開昇騰AI套件的支持了。 這里插個題外話,一方面,昇騰AI套件是多硬件協(xié)同配合的,比傳統(tǒng)方案中的產(chǎn)品不統(tǒng)一而言,擁有低失誤率、快速恢復進度、寬帶分配合理等優(yōu)勢,即使算力只是等同于英偉達A100,與H100仍有差距,但是實際效果并不一定比H100差。另一方面,英偉達在國內(nèi)滿地找NPU的時候,開始了對華限售的策略,國內(nèi)往往是有錢也買不到A100,更別說H100了。所以在我看來,訊飛星火能完成快速迭代,并不需要靠什么程序員連夜加班,而是背靠華為帶來的強大優(yōu)勢以及充足供應(yīng)所導致的。 最后是阿里達摩院的通義。阿里達摩院走了一條同樣不平常的道路:開源。 開源,即開放源代碼,或者說將程序開放,只要有能力,用戶可以自行下載模型到本地(或者阿里云),直接繞過云端進行操作。要想下載的話,直接訪問modelscope即可下載。 開源也并不意味著不賺錢,通過開源來吸引客戶,然后利用技術(shù)收費的模式是很普遍的現(xiàn)象,程序員也往往會通過開源代碼來證明自己的實力,從而更容易收獲大廠青睞,與offer。 說到開源,就不得不聊聊除了大語言模型以外的另一個內(nèi)容了:即圖像生成模型。 圖像生成原本也是openAI進行主導,先后推出了dallE和dallE2,結(jié)果半路殺出了兩個勁敵:midjourney(MJ) 和 steable diffusion(SD)。前者使用的策略是在reddit(國外社交媒體)上部署自己的機器人,用戶給機器人提交需求即可收到圖片。后者使用的策略與阿里達摩院相同:開源。 先說midjourney,說到這里又不得不提到大模型的一個特性:如果要擁有高質(zhì)量的數(shù)據(jù)庫與回答質(zhì)量,需要真人對生成的結(jié)果進行評價,好的就保留,壞的就舍棄。你可以在所有的大模型使用界面里找到這樣的反饋按鈕。理論上,這樣的真人越多,那么模型的反饋就會越多,那么模型就會越來越蒸蒸日上。midjourney生成圖片的一大規(guī)則就是生成圖片后會將圖片質(zhì)量直接進行反饋。再加上幾乎免費的政策吸引了大量用戶,導致midjourney的模型迭代也非??欤ㄆ鋵嵨覜]怎么用過midjourney,這個解釋自己感覺也有些牽強,希望能夠得到補充)。在大模型時代,迭代快就意味著效果好,效果好了才會有人用。 而后者,steable difussion,同樣也是給openAI來了個迎面痛擊,但這一次的路徑又有所不同。 基于SD超輕量級的定位,只要是支持cuda的顯卡都可以進行圖片生成(跑圖),同時,只要買一個入門級的40顯卡,就可以獲得不俗的生成速度。這樣的優(yōu)勢使得大量平民級玩家得以一撇AIGC的樂趣。甚至SD還支持在本地訓練模型,只需要不到一天的時間,多則兩三天,就能夠得到屬于自己的模型。這些策略最終引爆了使用SD的熱潮,大量用戶樂此不疲地進行著圖像的生成,并通過網(wǎng)絡(luò)將自己的訓練模型進行上傳,并獲取其他用戶的反饋,來不斷更新自己的模型。 而這些供用戶相互交流的平臺也因此發(fā)現(xiàn)了潛在的商機。因為部署簡單,只需要較低的算力成本就可以獲得一張精美的AI生成的圖片,給用戶帶來的正反饋是很強的,平臺方也不需要損失什么。于是,關(guān)于在線圖片生成的網(wǎng)頁開始變得層出不窮,各種AI生成有關(guān)的APP開始頻繁登上拍照美化的榜首。 而同大語言模型不同,圖片生成并沒有絕對意義上的最強者。平臺決定不了自己家有哪個用戶用了什么方法,訓練出來的模型有多驚艷。 所以現(xiàn)在平臺普遍的做法是單純對生成圖片進行限制,根據(jù)生成圖片數(shù)量、繪畫步數(shù)、Adetailer、高清修復等等功能的有無來確定一個“算力”貨幣。 而在最近,已經(jīng)有平臺開始實行付費會員制度了。例如會員可以獲得更多算力貨幣、擁有更多的繪畫步數(shù)以及其他功能上的強化。這也是一種賺錢方式,如果做的好的話可以做到細水長流的效果。 除去to C之外,還有另一種思路,即to B,即面向企業(yè)。 以to B為發(fā)展戰(zhàn)略的,我所接觸到的只有華為一家是全力在做,其他要么是和商家聯(lián)手來介入大模型,從而精準引流;要么就是開放接口,讓企業(yè)接入大模型服務(wù)。當然,還有之前說的賣設(shè)備。 華為的戰(zhàn)略很明顯,只面向企業(yè),個人用戶根本申請不到華為開發(fā)的盤古大模型。而在企業(yè)上面,華為花了很多心思,盡可能快地幫助企業(yè)完成產(chǎn)品部署。 為了達成戰(zhàn)略目標,華為采用的是“基礎(chǔ)模型+微調(diào)”的方式?;A(chǔ)模型分兩層,底層的是盤古大模型,分有百億參數(shù)版本和千億參數(shù)版本。要理解的話,百億參數(shù)約等于GPT3.5,千億參數(shù)約等于GPT4。往上一層是華為在過去所積累的技術(shù)實踐,例如礦業(yè)大模型、政務(wù)大模型等。企業(yè)可以選擇已有的往上一層的行業(yè)模型作為起點,也可以另起爐灶,只以盤古大模型為起點。然后根據(jù)企業(yè)所積累到的數(shù)據(jù),創(chuàng)造出獨屬于企業(yè)自己的大模型體系。 可以說,在大語言模型領(lǐng)域,華為成功突破了toC端“王者才配吃肉”的定律,轉(zhuǎn)向toB端,賺企業(yè)機構(gòu)的錢,算是一個很大膽也很成功的舉措,據(jù)我所知,to B端還沒有其他參賽選手,所以華為的這一步棋真的很不錯。 近兩年以來,只要是和AIGC扯上關(guān)系的新聞,往往都能產(chǎn)生股價的過分漲跌,例如openAI剛宣布的那個時候,股價大漲;谷歌Bark出來發(fā)現(xiàn)跟GPT相比差遠了的時候,股價大跌;訊飛在研發(fā)大模型的日子里,出一個新聞就漲一次股價。這些跡象表明,資本已經(jīng)從之前的共享單車之戰(zhàn)、社區(qū)買菜之戰(zhàn)、大數(shù)據(jù)之戰(zhàn)轉(zhuǎn)到了現(xiàn)在的AIGC之戰(zhàn),AIGC成為了資本的幸運兒。 同時,AIGC還在不斷煥發(fā)自己的生命力。例如大語言模型中的圖片理解,文檔理解,虛擬人視頻生成;圖像生成里的各種新模型層出不窮,技術(shù)力不斷增強。 但這些還不是AIGC的最終形態(tài),只是一個開始。 從華為在開發(fā)者大會上公布小藝接入大模型開始,AIGC的下一個風口似乎已經(jīng)慢慢展現(xiàn)。 小藝接入大模型,擁有的文本對話與圖像生成能力還屬于老東西,但是如果能通過自然語言達到操作手機完成復雜動作的能力,那么智能助手將真正成為人們所期望的那個只要說一句話就能幫你完成事情的智能助手。聯(lián)想到各種設(shè)備聯(lián)動的場景,華為的萬物互聯(lián)理想就會再進一步。 好了,以上就是關(guān)于AIGC的經(jīng)濟報告。大多是個人有感而發(fā),缺乏嚴謹性,不過希望能對你有些幫助。

不正經(jīng)的AIGC經(jīng)濟報告的評論 (共 條)

分享到微博請遵守國家法律
睢宁县| 中方县| 定日县| 陆川县| 左云县| 八宿县| 武义县| 武城县| 金坛市| 泌阳县| 扶风县| 岳普湖县| 通河县| 湖州市| 德兴市| 鄄城县| 冕宁县| 凤翔县| 宜丰县| 临安市| 东海县| 普陀区| 新巴尔虎左旗| 华池县| 柞水县| 泸西县| 华宁县| 灌阳县| 莲花县| 兴隆县| 佳木斯市| 苏尼特左旗| 平南县| 建宁县| 彩票| 塘沽区| 通化县| 依兰县| 兰考县| 安国市| 时尚|