【深度學(xué)習(xí)】被PyTorch打爆!谷歌拋棄TensorFlow,押寶JAX
本文轉(zhuǎn)載自 | 新智元
很喜歡有些網(wǎng)友的一句話:
本文轉(zhuǎn)載自 | 新智元
「這孩子實在不行,咱再要一個吧。」
谷歌還真這么干了。
養(yǎng)了七年的TensorFlow終于還是被Meta的PyTorch干趴下了,在一定程度上。
谷歌眼見不對,趕緊又要了一個——「JAX」,一款全新的機(jī)器學(xué)習(xí)框架。

最近超級火爆的DALL·E Mini都知道吧,它的模型就是基于JAX進(jìn)行編程的,從而充分地利用了谷歌TPU帶來的優(yōu)勢。
1
『TensorFlow的黃昏和PyTorch的崛起』
1
『TensorFlow的黃昏和PyTorch的崛起』





2
『谷歌機(jī)器學(xué)習(xí)的未來--JAX』
2
『谷歌機(jī)器學(xué)習(xí)的未來--JAX』





def model_fn(x, y, z): return tf.reduce_sum(x + y * z)





3
『谷歌的挑戰(zhàn)』
3
『谷歌的挑戰(zhàn)』


參考資料:
往期精彩回顧
評論
圖片
表情
