1. TensorFlow團(tuán)隊(duì):我們沒被拋棄

        共 1890字,需瀏覽 4分鐘

         ·

        2022-07-05 00:51

        魚羊 發(fā)自 凹非寺 量子位 | 公眾號(hào) QbitAI

        終于,谷歌出面回應(yīng)“TensorFlow遭棄”傳聞:

        TensorFlow,危!拋棄者正是谷歌自己??

        我們將繼續(xù)致力于將TensorFlow打造為一流機(jī)器學(xué)習(xí)平臺(tái),與JAX并肩推動(dòng)機(jī)器學(xué)習(xí)研究。

        這段時(shí)間,“JAX取代TensorFlow”這個(gè)話題可謂熱議不休。

        不僅Business Insider等媒體援引內(nèi)部人士消息,稱“谷歌大腦和DeepMind已經(jīng)普遍放棄TensorFlow,轉(zhuǎn)投JAX”。

        連LeCun、fast.ai創(chuàng)始人Jeremy Horward等大咖也紛紛下場(chǎng)圍觀,表示深度學(xué)習(xí)框架之間的競(jìng)爭(zhēng)進(jìn)入了一個(gè)新的階段。

        在TensorFlow因日漸臃腫、學(xué)習(xí)成本高等問題,越來越受到業(yè)界詬病的背景之下,“谷歌拋棄TensorFlow”似乎沒什么毛病。

        不過,在輿論發(fā)酵了一段時(shí)間之后,現(xiàn)在,TensorFlow官方團(tuán)隊(duì)終于還是出面“辟謠”,發(fā)文表示:

        我們將繼續(xù)投資TensorFlow和JAX兩個(gè)ML框架,以推動(dòng)數(shù)百萬用戶的研究和應(yīng)用。

        具體詳情,一起來看TensorFlow博客寫了點(diǎn)啥。

        官方:TensorFlow是我們交給工程師的答案

        TensorFlow官方在文章中引用了Stack Overflow的最新統(tǒng)計(jì)數(shù)據(jù)。

        數(shù)據(jù)顯示,TensorFlow在機(jī)器學(xué)習(xí)領(lǐng)域整體上仍然比PyTorch受歡迎。

        另外,TensorFlow目前每月下載量超過1800萬次,并在GitHub上擁有16.6萬標(biāo)星。

        相比之下,PyTorch的標(biāo)星數(shù)是5.7萬,JAX的標(biāo)星數(shù)是1.91萬。

        官方團(tuán)隊(duì)強(qiáng)調(diào),在谷歌內(nèi)部,TensorFlow幾乎為所有AI生產(chǎn)工作流程提供支持,包括搜索、廣告、YouTube、郵箱、地圖、Play、地圖等。

        而蘋果、網(wǎng)飛、騰訊、Uber等等知名企業(yè),也都在使用TensorFlow支持他們的生產(chǎn)系統(tǒng)。

        至于為啥現(xiàn)在谷歌重視JAX,原因則是:

        近年來,我們發(fā)現(xiàn),單一通用框架往往無法適用于有場(chǎng)景——尤其是生產(chǎn)和前沿研究的需求經(jīng)常發(fā)生沖突。

        因此,我們創(chuàng)建了JAX,一個(gè)用于分布式數(shù)值計(jì)算的簡(jiǎn)單API。

        JAX在前沿研究領(lǐng)域有著非常出色的表現(xiàn):達(dá)到了新的并行規(guī)模,推進(jìn)了新的算法和框架,還發(fā)展出了新的編譯器和系統(tǒng)。

        官方還舉例說,AlphaFold和Imagen都已經(jīng)驗(yàn)證了JAX的價(jià)值。

        相比之下,TensorFlow則是“我們滿足應(yīng)用機(jī)器學(xué)習(xí)開發(fā)人員需求的答案”。

        也就是說,TensorFlow會(huì)更側(cè)重滿足工程師們?cè)谌我庖?guī)模和任意平臺(tái)上,構(gòu)建并部署可靠、穩(wěn)定、高性能的機(jī)器學(xué)習(xí)系統(tǒng)的需求。

        此外,谷歌官方在JAX和TensorFlow互通方面也做了不少工作。

        比如通過jax2tf,研究人員就能把JAX模型放在TensorFlow上投入生產(chǎn)。

        最后,官方提到:

        展望未來,我們將繼續(xù)致力于將TensorFlow打造為一流機(jī)器學(xué)習(xí)平臺(tái),與JAX并肩推動(dòng)機(jī)器學(xué)習(xí)研究。

        我們將繼續(xù)投入資源發(fā)展這兩個(gè)機(jī)器學(xué)習(xí)框架,以推動(dòng)數(shù)百萬用戶的研究和應(yīng)用。

        還順帶打了一波招聘廣告(手動(dòng)狗頭)。

        關(guān)于JAX

        2018年,JAX誕生于谷歌大腦的一個(gè)三人小團(tuán)隊(duì)之手。

        誕生之初,其瞄準(zhǔn)的就是高性能數(shù)值計(jì)算和機(jī)器學(xué)習(xí)研究。

        JAX可以看是支持GPU、TPU等加速器加速、支持自動(dòng)微分的Numpy變體。

        簡(jiǎn)單來說,可以這樣理解:當(dāng)你想處理一些對(duì)算力要求很高的問題時(shí),通過JAX,你可以將復(fù)雜的問題快速分散到多個(gè)TPU上。

        目前,谷歌大腦的Trax、Flax、Jax-md,以及DeepMind的神經(jīng)網(wǎng)絡(luò)庫(kù)Haiku和強(qiáng)化學(xué)習(xí)庫(kù)RLax等,都是基于JAX構(gòu)建的。

        值得一提的是,JAX誕生之際,正是PyTorch在學(xué)術(shù)界強(qiáng)烈沖擊TensorFlow之時(shí)。

        加州大學(xué)伯克利分校旗下研究機(jī)構(gòu)RISELab的數(shù)據(jù)顯示:

        2019年1月到6月底,在arXiv上發(fā)表的論文中,提及TensorFlow和PyTorch的數(shù)量相差無幾,PyTorch僅稍稍落后。

        不過在增長(zhǎng)速度方面,與2018年1-6月相比,PyTorch的“份額”增長(zhǎng)了194%。TensorFlow則只增長(zhǎng)了23%。

        參考鏈接:
        https://blog.tensorflow.org/2022/06/%20bringing-machine-learning-to-every-developers-toolbox.html?m=1

        推薦閱讀

        AI 繪畫極簡(jiǎn)教程

        學(xué)習(xí)機(jī)器學(xué)習(xí)的最佳路徑

        用 Python 從 PDF 抽取 Excel 2.0

        花了2個(gè)晚上,拿到了吳恩達(dá)@斯坦福大學(xué)的機(jī)器學(xué)習(xí)課程證書

        瀏覽 15
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        評(píng)論
        圖片
        表情
        推薦
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
          
          

            1. 婷婷亚洲五月***久久 | 91干网| 久久久国产精品免费A片分环卫 | 高清国产一级婬片A片大黄九色 | 乱操视频|