如何看待tensorflow新出的eager模式?

時間 2021-05-09 09:17:36

1樓:zxf8665905

pytorch 已經上 jit了 ,開始互相滲透咯。其實對整個生態發展是個好事,互相激勵,希望最後三個框架都兼顧了易用性和效能。

2樓:

eager模式的推出,標誌著深度學習框架大戰的結束。毋庸置疑,Tensorflow將以絕對領先的優勢排在第一位。其它框架能夠給TF提鞋的也只剩MXNet一家了,Gluon API對標eager,NNVM/TVM對標XLA,Mu Li /Tianqi Chen對標Jeff Dean。

其它框架連提鞋的機會都沒有了。。

3樓:徐彬彬

10.24參加了Google在上海組織的TensorFlow技術研討會,會上就講到了eager execution,第一反應就是參考了pytorch,有了eager模式debug確實方便很多,然後eager和graph可以混編也不錯,但是最後主講人也說:1.

在大模型上eager模式和原來的靜態圖模式速度上是「comparable performance」,2.在小模型上eager會有明顯的速度差異(就是比靜態圖慢很多)

個人猜測目前想用也很難用吧,畢竟demo example實在太簡單,很有可能會有各種bug。

各方面後續優化空間還是很大的

ps:我已經tf轉到pytorch上了,哈哈,pytorch的動態模式貌似比tf的靜態快(沒有嚴格驗證),pytorch真是各種友好,當然pytorch不適合直接用在移動端(但用ONNX可以轉到caffe2啊),我就是來宣傳pytorch的

4樓:羅若天是真的菜

來來來,自問自答。(佔坑提問,佔坑回答)

整體感覺挺好的,感覺勸退不了tf boys girls了。

對用tf的人來說,提公升了debug體驗,且沒有什麼要新學的東西,api都能相容。

小問題(強行找問題):

1 拿引數還是得用get_variable的感覺,但是不確定,因為一眼沒看到scope。。會不會封裝在track_layer裡面了

2 速度迷之慢一些(看問題描述中第二個鏈結),但是應該不是什麼原則上的問題,應該之後可以優化的更好。

(毫無營養的回答。估計也沒有補充了,沒時間試驗。坐等tfboysgirls的使用體驗。)

如何看待 TensorFlow就是一顆定時炸彈 的說法?

我本來是先學pytorch的,直到我發現很多我想學習的案例都是tensorflow 而且還是1.x的。沒辦法,既然我是討飯的,人家給什麼就吃什麼吧。我不光在學tensorflow2 而且為了能流暢地看懂前輩在說什麼,還在學tensorflow1. 小冬llos 最近這兩年一直在搞和google有關的...

如何評價tensorflow模組過度keras化?

對於低階使用者自然會擁抱這個變化 對於高階使用者 slim sonnet tensorpack都在等著呢還是看個人習慣吧 總的來說tf對於高階api的處理還是比較清楚明白的要不然github上早就炸鍋了 在我看來keras.能其它模組更多也就是一種 風格 上的東西不必糾結 scott huang 我...

如何評價 TensorFlow 2 0 Preview 的 API 設計?

linex tensorflow推薦用keras的RNN代替dynamic rnn,然而這兩個不是完全相容的?用dynamic rnn可以展開的cell,RNN會報錯。這是幾個意思啊。再說我要是喜歡用keras,我幹嘛不直接用呢。 Yulong 最近reddit有個熱帖,說tf的dropout la...