機器學(xué)習即代碼的時代已經(jīng)到來

譯者注: 到底是 AI 會吃掉軟件還是軟件會吃掉 AI?為了 job security,工程師應(yīng)該把寶押在哪兒?這篇 2021 年的文章提供的一些視角似乎印證了它現(xiàn)在的流行,有點“運籌于帷幄之中,決勝于數(shù)年之后”的意思,頗值得軟件架構(gòu)師和產(chǎn)品經(jīng)理們內(nèi)省一番。
2021 版的 《人工智能現(xiàn)狀報告》 于上周發(fā)布。Kaggle 的 機器學(xué)習和數(shù)據(jù)科學(xué)現(xiàn)狀調(diào)查 也于同一周發(fā)布了。這兩份報告中有很多值得學(xué)習和探討的內(nèi)容,其中一些要點引起了我的注意。
“人工智能正越來越多地應(yīng)用于關(guān)鍵基礎(chǔ)設(shè)施,如國家電網(wǎng)以及新冠大流行期間的自動化超市倉儲計算。然而,人們也在質(zhì)疑該行業(yè)的成熟度是否趕上了其不斷增長的部署規(guī)模。”
無可否認,以機器學(xué)習引擎的應(yīng)用正滲透至 IT 的每個角落。但這對公司和組織意味著什么?我們?nèi)绾螛?gòu)建堅如磐石的機器學(xué)習工作流?每個公司應(yīng)該聘請 100 名數(shù)據(jù)科學(xué)家抑或是 100 名 DevOps 工程師嗎?
“Transformer 模型已成為 ML 的通用架構(gòu)。不僅適用于自然語言處理,還適用于語音、計算機視覺甚至蛋白質(zhì)結(jié)構(gòu)預(yù)測。”
老一輩人的血淚教訓(xùn)是: IT 領(lǐng)域 沒有萬能靈丹。然而,transformer 架構(gòu)又確實在各式各樣的機器學(xué)習任務(wù)中都非常有效。但我們?nèi)绾尾拍芨蠙C器學(xué)習創(chuàng)新的瘋狂腳步呢?我們真的需要專家級的技能才能用上這些最先進的模型嗎?抑或是否有更短的路徑可以在更短的時間內(nèi)創(chuàng)造商業(yè)價值?
好,以下是我的一些想法。
面向大眾的機器學(xué)習!
機器學(xué)習無處不在,或者至少它試圖無處不在。幾年前,福布斯寫道“軟件吞噬了世界,而現(xiàn)在人工智能正在吞噬軟件”,但這到底意味著什么?如果這意味著機器學(xué)習模型應(yīng)該取代數(shù)千行僵化的遺留代碼,那么我完全贊成。去死,邪惡的商業(yè)規(guī)則,去死!
現(xiàn)在,這是否意味著機器學(xué)習實際上將取代軟件工程?現(xiàn)在肯定有很多關(guān)于 人工智能生成的代碼 的幻想,其中一些技術(shù)確實很有趣,例如用于 找出 bug 和性能問題 的技術(shù)。然而,我們不僅不應(yīng)該考慮擺脫開發(fā)人員,還應(yīng)該努力為盡可能多的開發(fā)人員提供支持,以使機器學(xué)習成為另一個無聊的 IT 工作負載 (但 無聊的技術(shù)很棒)。換句話說,我們真正需要的是軟件吃掉機器學(xué)習!
這次情況沒有什么不同
多年來,我一直在虛張聲勢地宣稱: 軟件工程已有的長達十年歷史的最佳實踐同樣適用于數(shù)據(jù)科學(xué)和機器學(xué)習: 版本控制、可重用性、可測試性、自動化、部署、監(jiān)控、性能、優(yōu)化等。我一度感覺自己很孤單,直到谷歌鐵騎的出現(xiàn):
“做你擅長的,以卓越工程師的身份而不是以卓越機器學(xué)習專家的身份去做機器學(xué)習?!?-?《機器學(xué)習的規(guī)則》,Google
沒有必要重新發(fā)明輪子。DevOps 運動在 10 多年前就解決了這些問題。現(xiàn)在,數(shù)據(jù)科學(xué)和機器學(xué)習社區(qū)應(yīng)該立即采用這些經(jīng)過驗證的工具和流程并作適當調(diào)整。這是我們在生產(chǎn)中構(gòu)建強大、可擴展、可重復(fù)的機器學(xué)習系統(tǒng)的唯一方法。如果將其稱為 MLOps 對事情有幫助,那就這么叫它!關(guān)鍵是其內(nèi)涵,名字并不重要。
確實是時候停止將概念驗證和沙箱 A/B 測試視為顯著成就了。它們只是邁向生產(chǎn)的一小塊墊腳石,即它是唯一可以驗證假設(shè)及其對業(yè)務(wù)的影響的地方。每個數(shù)據(jù)科學(xué)家和機器學(xué)習工程師都應(yīng)該致力于盡可能快、盡可能頻繁地將他們的模型投入生產(chǎn)。能用的生產(chǎn)模型無一例外都比出色的沙箱模型好。
基礎(chǔ)設(shè)施?所以呢?
都 2021 年了,IT 基礎(chǔ)設(shè)施不應(yīng)再成為阻礙。軟件不久前已經(jīng)吞噬了它,通過云 API、基礎(chǔ)設(shè)施即代碼、Kubeflow 等將其抽象化。是的,即使是自建基礎(chǔ)設(shè)施也已經(jīng)被軟件吞噬了。
機器學(xué)習基礎(chǔ)設(shè)施也很快就會發(fā)生同樣的情況。Kaggle 調(diào)查顯示,75% 的受訪者使用云服務(wù),超過 45% 的受訪者使用企業(yè)機器學(xué)習平臺,其中 Amazon SageMaker、Databricks 和 Azure ML Studio 位列前三。

借助 MLOps、軟件定義的基礎(chǔ)設(shè)施和平臺,將任意一個偉大的想法從沙箱中拖出來并將其投入生產(chǎn)已變得前所未有地容易?;卮鹱铋_始的問題,我很確定你需要雇用更多精通 ML 的軟件和 DevOps 工程師,而不是更多的數(shù)據(jù)科學(xué)家。但其實在內(nèi)心深處,你本來就知道這一點,對嗎?
現(xiàn)在,我們來談?wù)?transformer 模型。
Transformers! Transformers! Transformers! (鮑爾默風格)
AI 現(xiàn)狀報告稱: “Transformer 架構(gòu)已經(jīng)遠遠超出了 NLP 的范圍,并且正在成為 ML 的通用架構(gòu)”。例如,最近的模型,如 Google 的 Vision Transformer、無卷積 transformer 架構(gòu)以及混合了 transformer 和卷積的 CoAtNet 為 ImageNet 上的圖像分類設(shè)定了新的基準,同時對訓(xùn)練計算資源的需求更低。

Transformer 模型在音頻 (如語音識別) 以及點云 (一種用于對自動駕駛場景等 3D 環(huán)境進行建模的技術(shù)) 方面也表現(xiàn)出色。
Kaggle 的調(diào)查也呼應(yīng)了 transformer 模型的崛起。它們的使用量逐年增長,而 RNN、CNN 和梯度提升算法則在減少。

除了提高準確性之外,transformer 模型也在持續(xù)加強其在遷移學(xué)習方面的能力,這樣大家就可以節(jié)約訓(xùn)練時間和計算成本,更快地實現(xiàn)業(yè)務(wù)價值。

借助 transformer 模型,機器學(xué)習世界正逐漸從“?好??!讓我們從頭開始構(gòu)建和訓(xùn)練我們自己的深度學(xué)習模型?”轉(zhuǎn)變?yōu)椤?讓我們選擇一個經(jīng)過驗證的現(xiàn)成模型,用我們自己的數(shù)據(jù)對其進行微調(diào),然后早點回家吃晚飯。?”
從很多方面來說,這都是一件好事。技術(shù)水平在不斷進步,幾乎沒有人能跟上其步伐。還記得我之前提到的 Google Vision Transformer 模型嗎?你想現(xiàn)在就測試一下嗎?在 Hugging Face 上,這 再簡單不過了。

那如果想試試 Big Science 項目 最新的 零樣本文本生成模型 呢?

你還可以對另外 16000 多個模型 以及 1600 多個數(shù)據(jù)集 做同樣的事情。進一步地,你還可以用我們提供的其他工具進行 推理、AutoNLP、延遲優(yōu)化 及 硬件加速。我們甚至還能幫你啟動項目,完成 從建模到生產(chǎn) 的全過程。
Hugging Face 的使命是讓機器學(xué)習對初學(xué)者和專家來說都盡可能友好且高效。
我們相信你只要編寫盡可能少的代碼就能訓(xùn)練、優(yōu)化和部署模型。
我們相信內(nèi)置的最佳實踐。
我們堅信基礎(chǔ)設(shè)施應(yīng)盡可能透明。
我們相信,沒有什么比快速高質(zhì)的生產(chǎn)級模型更好的了。
機器學(xué)習即代碼,就這里,趁現(xiàn)在!
大家似乎都同意這句話。我們的 Github 有超過 52000 顆星。在 Hugging Face 首次出現(xiàn)在 Kaggle 調(diào)查報告中時,其使用率就已超過 10%。

謝謝你們,我們才剛剛開始!
對 Hugging Face 如何幫助你的組織構(gòu)建和部署生產(chǎn)級機器學(xué)習解決方案感興趣?請通過 julsimon@huggingface.co 聯(lián)系我 (招聘、推銷勿擾)。
英文原文:?https://hf.co/blog/the-age-of-ml-as-code
原文作者: Julien Simon
譯者: Matrix Yao (姚偉峰),英特爾深度學(xué)習工程師,工作方向為 transformer-family 模型在各模態(tài)數(shù)據(jù)上的應(yīng)用及大規(guī)模模型的訓(xùn)練推理。
審校/排版: zhongdongy (阿東)