“多云“和”私有化“,企業(yè)級剛需推動 DataBricks 和 MosaicML的13億美金 AI 交易
撰文|宇婷?

Databricks已同意以13億美元收購生成式AI創(chuàng)企MoaicML 。此前MoaicML融資6400萬美元,擁有62名員工,在上一輪的融資中,公司估值為2.2億美元,而本次收購中MosaicML的估值直接提高近6倍。
MosaicML在生成AI軟件基礎(chǔ)架構(gòu)、模型訓(xùn)練和模型部署方面擁有專業(yè)知識,加上Databricks的客戶覆蓋范圍和工程能力,以及對于打破大模型壟斷的價值觀,和研究者出身的創(chuàng)業(yè)家團隊,成為13億 交易的基礎(chǔ)。
生成AI正處于一個關(guān)鍵時期。未來主要依靠少數(shù)人擁有的大型通用模型,還是見證由世界各地的開發(fā)人員和公司構(gòu)建自定義的模型?這是 DataBricks 對 MosaicML 收購之外的未解答案。
在安全環(huán)境中,在任何云上能夠構(gòu)建AI模型,這也是這筆交易成立的關(guān)鍵。MosaicML 平臺的架構(gòu)能夠讓企業(yè)級客戶在任何云提供商上訓(xùn)練大規(guī)模的AI模型,同時數(shù)據(jù)仍然安全地存儲在企業(yè)自己的私有網(wǎng)絡(luò)中。
初創(chuàng)企業(yè)和大型企業(yè)都可以在訓(xùn)練模型和工作負(fù)載時保持最大的自主性。
對于擔(dān)心數(shù)據(jù)隱私和安全的組織來說,將企業(yè)的數(shù)據(jù)發(fā)送到不一定可靠的第三方API,盡管大型語言模型(LLMs)和其他先進的AI可以帶來豐厚的商業(yè)機會,一些企業(yè)級客戶仍然會有所踟躕。
MosaicML 使企業(yè)及廠商能夠使用自定義數(shù)據(jù)進行預(yù)訓(xùn)練、微調(diào)和部署模型,全部在企業(yè)的內(nèi)部完成。
在完全擁有模型所有權(quán)和數(shù)據(jù)隱私的情況下,金融服務(wù)和醫(yī)療保健等受監(jiān)管的行業(yè)可以利用自定義大型語言模型(LLMs)的全部能力來處理業(yè)務(wù)用例,而不會依賴不可靠的第三方API。
MosaicML平臺是現(xiàn)代ML研究不可或缺的工具,它在規(guī)?;A(chǔ)設(shè)施的復(fù)雜性方面進行了抽象,這使得企業(yè)能夠開發(fā)針對性屬于自己的AI應(yīng)用之路,在加速模型研發(fā)和節(jié)省成本的情況下大步開拓。?
1、和Databricks的共同審美:研究員轉(zhuǎn)型為企業(yè)家,打破AI通用模型的壟斷
美國時間6月26日,MosaicML宣布加入Databricks,以進一步實現(xiàn)讓任何組織能夠自定義AI模型開發(fā)的目標(biāo)。
主創(chuàng)團隊表達,創(chuàng)建MosaicML是為了普惠每一個工程師能夠享受大規(guī)模神經(jīng)網(wǎng)絡(luò)訓(xùn)練和推斷技術(shù)。隨著生成AI浪潮,這一使命更加確定,而且絕不是把這種能力集中在少數(shù)通用模型廠商手中中。
Ali、Patrick和其他Databricks聯(lián)合創(chuàng)始人接觸到 MosaicML 尋求合作時,MosaicML 立即認(rèn)識到他們是志同道合的人:研究員轉(zhuǎn)型為企業(yè)家,共享相似的使命。他們強大的公司文化和工程重點反映了我們認(rèn)為成熟的 MosaicML 將是什么樣子。
這筆交易將受到某些慣例的關(guān)閉條件和監(jiān)管審批的限制,直到這些審查完成,公司將保持獨立,MosaicML 主創(chuàng)團隊表達對與 Databricks 一起所能做的事情感到興奮。
MosaicML 旗艦產(chǎn)品將繼續(xù)銷售。對于當(dāng)前的客戶和那些在等待列表上的客戶:這種合作會更快地為客戶提供服務(wù)。MosaicML的訓(xùn)練、推斷和MPT家族基礎(chǔ)模型,已經(jīng)為全球企業(yè)和開發(fā)人員提供生成AI支持。
對于Databricks而言, MosaicML在生成AI軟件基礎(chǔ)架構(gòu)、模型訓(xùn)練和模型部署方面的專業(yè)知識,加上Databricks的客戶覆蓋范圍和工程能力,將使雙方平衡彼此的優(yōu)勢。
MosaicML 的董事會成員Matt Ocko在DCVC,Shahin Farshchi在Lux Capital,Peter Barrett在Playground Global,等投資者支持了這筆交易。

2、MPT-30B:提高開源基礎(chǔ)模型的標(biāo)準(zhǔn)
MPT-30B,這是MosaicML 開源模型Foundations Series中更為強大的新成員,使用H100s上的8k上下文長度進行訓(xùn)練。
今年5月推出MPT-7B以來,ML社區(qū)熱切地?fù)肀Я碎_源的MosaicML Foundation Series模型。MPT-7B基礎(chǔ)版,-Instruct,-Chat和-StoryWriter模型一共被下載了超過300萬次。
以下是其中的幾個:LLaVA-MPT為MPT添加了視覺理解,GGML在Apple Silicon和CPU上優(yōu)化了MPT,而GPT4All則使用MPT作為后端模型,在筆記本電腦上運行類似于GPT4的聊天機器人。
MosaicML Foundation Series的MPT-30B,這是一個新的、授權(quán)商用的開源模型,比MPT-7B更強大,并且勝過了原始的GPT-3。
此外,MosaicML 還發(fā)布了兩個經(jīng)過微調(diào)的變體,MPT-30B-Instruct和MPT-30B-Chat,它們是基于MPT-30B構(gòu)建的,分別擅長單輪指令跟隨和多輪對話。
所有MPT-30B模型都具有特殊功能,使它們與其他LLM不同,包括訓(xùn)練時的8k令牌上下文窗口,通過ALiBi支持更長的上下文,以及通過FlashAttention實現(xiàn)高效的推理和訓(xùn)練性能。
MPT-30B家族還具有強大的編碼能力。該模型在NVIDIA H100s上擴展到了8k上下文窗口,這使它成為(據(jù)目前所知)第一個在H100s上訓(xùn)練的LLM。
有幾種方法可以使用MosaicML平臺進行自定義和部署。
*MosaicML訓(xùn)練通過微調(diào)、領(lǐng)域特定的預(yù)訓(xùn)練或從頭開始訓(xùn)練,使用私有數(shù)據(jù)自定義MPT-30B。企業(yè)始終擁有最終的模型權(quán)重,并且數(shù)據(jù)永遠不會存儲在 MosaicML 的平臺上。按每GPU分鐘計費。
*MosaicML推理:入門版。使用Python API,通過標(biāo)準(zhǔn)定價每1K個令牌,與托管的MPT-30B-Instruct(和MPT-7B-Instruct)端點交流。
*MosaicML推理:企業(yè)版。使用優(yōu)化推理堆棧,在MosaicML計算或您自己的私有VPC上部署自定義MPT-30B模型。按每GPU分鐘計費,支付使用的計算費用即可。
?
