TensorFlow團(tuán)隊(duì):我們沒被拋棄
魚羊 發(fā)自 凹非寺 量子位 | 公眾號(hào) QbitAI
終于,谷歌出面回應(yīng)“TensorFlow遭棄”傳聞:
我們將繼續(xù)致力于將TensorFlow打造為一流機(jī)器學(xué)習(xí)平臺(tái),與JAX并肩推動(dòng)機(jī)器學(xué)習(xí)研究。
這段時(shí)間,“JAX取代TensorFlow”這個(gè)話題可謂熱議不休。
不僅Business Insider等媒體援引內(nèi)部人士消息,稱“谷歌大腦和DeepMind已經(jīng)普遍放棄TensorFlow,轉(zhuǎn)投JAX”。
連LeCun、fast.ai創(chuàng)始人Jeremy Horward等大咖也紛紛下場(chǎng)圍觀,表示深度學(xué)習(xí)框架之間的競(jìng)爭(zhēng)進(jìn)入了一個(gè)新的階段。

在TensorFlow因日漸臃腫、學(xué)習(xí)成本高等問題,越來越受到業(yè)界詬病的背景之下,“谷歌拋棄TensorFlow”似乎沒什么毛病。
不過,在輿論發(fā)酵了一段時(shí)間之后,現(xiàn)在,TensorFlow官方團(tuán)隊(duì)終于還是出面“辟謠”,發(fā)文表示:
我們將繼續(xù)投資TensorFlow和JAX兩個(gè)ML框架,以推動(dòng)數(shù)百萬用戶的研究和應(yīng)用。
具體詳情,一起來看TensorFlow博客寫了點(diǎn)啥。
官方:TensorFlow是我們交給工程師的答案
TensorFlow官方在文章中引用了Stack Overflow的最新統(tǒng)計(jì)數(shù)據(jù)。
數(shù)據(jù)顯示,TensorFlow在機(jī)器學(xué)習(xí)領(lǐng)域整體上仍然比PyTorch受歡迎。

另外,TensorFlow目前每月下載量超過1800萬次,并在GitHub上擁有16.6萬標(biāo)星。
相比之下,PyTorch的標(biāo)星數(shù)是5.7萬,JAX的標(biāo)星數(shù)是1.91萬。
官方團(tuán)隊(duì)強(qiáng)調(diào),在谷歌內(nèi)部,TensorFlow幾乎為所有AI生產(chǎn)工作流程提供支持,包括搜索、廣告、YouTube、郵箱、地圖、Play、地圖等。
而蘋果、網(wǎng)飛、騰訊、Uber等等知名企業(yè),也都在使用TensorFlow支持他們的生產(chǎn)系統(tǒng)。
至于為啥現(xiàn)在谷歌重視JAX,原因則是:
近年來,我們發(fā)現(xiàn),單一通用框架往往無法適用于所有場(chǎng)景——尤其是生產(chǎn)和前沿研究的需求經(jīng)常發(fā)生沖突。
因此,我們創(chuàng)建了JAX,一個(gè)用于分布式數(shù)值計(jì)算的簡(jiǎn)單API。
JAX在前沿研究領(lǐng)域有著非常出色的表現(xiàn):達(dá)到了新的并行規(guī)模,推進(jìn)了新的算法和框架,還發(fā)展出了新的編譯器和系統(tǒng)。
官方還舉例說,AlphaFold和Imagen都已經(jīng)驗(yàn)證了JAX的價(jià)值。
相比之下,TensorFlow則是“我們滿足應(yīng)用機(jī)器學(xué)習(xí)開發(fā)人員需求的答案”。
也就是說,TensorFlow會(huì)更側(cè)重滿足工程師們?cè)谌我庖?guī)模和任意平臺(tái)上,構(gòu)建并部署可靠、穩(wěn)定、高性能的機(jī)器學(xué)習(xí)系統(tǒng)的需求。
此外,谷歌官方在JAX和TensorFlow互通方面也做了不少工作。
比如通過jax2tf,研究人員就能把JAX模型放在TensorFlow上投入生產(chǎn)。

最后,官方提到:
展望未來,我們將繼續(xù)致力于將TensorFlow打造為一流機(jī)器學(xué)習(xí)平臺(tái),與JAX并肩推動(dòng)機(jī)器學(xué)習(xí)研究。
我們將繼續(xù)投入資源發(fā)展這兩個(gè)機(jī)器學(xué)習(xí)框架,以推動(dòng)數(shù)百萬用戶的研究和應(yīng)用。
還順帶打了一波招聘廣告(手動(dòng)狗頭)。

關(guān)于JAX
2018年,JAX誕生于谷歌大腦的一個(gè)三人小團(tuán)隊(duì)之手。

誕生之初,其瞄準(zhǔn)的就是高性能數(shù)值計(jì)算和機(jī)器學(xué)習(xí)研究。
JAX可以看作是支持GPU、TPU等加速器加速、支持自動(dòng)微分的Numpy變體。
簡(jiǎn)單來說,可以這樣理解:當(dāng)你想處理一些對(duì)算力要求很高的問題時(shí),通過JAX,你可以將復(fù)雜的問題快速分散到多個(gè)TPU上。
目前,谷歌大腦的Trax、Flax、Jax-md,以及DeepMind的神經(jīng)網(wǎng)絡(luò)庫(kù)Haiku和強(qiáng)化學(xué)習(xí)庫(kù)RLax等,都是基于JAX構(gòu)建的。
值得一提的是,JAX誕生之際,正是PyTorch在學(xué)術(shù)界強(qiáng)烈沖擊TensorFlow之時(shí)。
加州大學(xué)伯克利分校旗下研究機(jī)構(gòu)RISELab的數(shù)據(jù)顯示:
2019年1月到6月底,在arXiv上發(fā)表的論文中,提及TensorFlow和PyTorch的數(shù)量相差無幾,PyTorch僅稍稍落后。
不過在增長(zhǎng)速度方面,與2018年1-6月相比,PyTorch的“份額”增長(zhǎng)了194%。TensorFlow則只增長(zhǎng)了23%。

參考鏈接:
https://blog.tensorflow.org/2022/06/%20bringing-machine-learning-to-every-developers-toolbox.html?m=1
推薦閱讀
學(xué)習(xí)機(jī)器學(xué)習(xí)的最佳路徑
