PyTorch與TensorFlow 2 x各有什麼優勢?

時間 2021-05-05 22:58:14

1樓:雄立東方

我就想問,為啥tf2.3 的tensor轉成numpy這麼難!

這麼難!

這麼難!

官方說的.numpy()壓根不能用啊!!!!!!

2樓:松鼠打不過袋鼠

之前覺得tensorflow優勢在於部署,尤其是伺服器端,現在發現pytorch伺服器端的torchserve越做越好了,基本可以滿足快速部署的需求。

如果是嵌入式部署,反正都要轉換模型,那寫著舒服,相對坑少一點就行

3樓:藍熊

工作黨為了部署在某些平台,必須用tf

pytorch木有

也用過pytorch,除錯要舒服很多,

比如更換測試乙個自定義loss function

4樓:

只說tf,torch沒太用。

tf入門文件內容很豐富,以nlp為例,從word2vec,rnn,lstm,lstm+attention一直到transformer,bert,官方文件都給了乙個示例,並且有些示例已經被翻譯成中文。

一般看完guide和tutorails,基本上80%的問題就解決了,剩下的問題,可以直接去tensorflow的github上發issue,發那個document型別的issue(因為你遇到的問題文件裡沒有寫出來),解決一般也很快。不要去stackoverflow,一般沒人理,這是因為tf你如果遇到了問題,絕對是一般人解決不了的問題(官方文件很清晰,很全面,你看完了還遇到問題,那一般人肯定處理不了啊)

20201212更新:

可以去stackoverflow了,現在好多了。

5樓:Peter

使用者不一樣,tf可能更多是企業的使用者,需要的穩定的生產力,tf這方面還是挺好的。 pytorch更多側重快速實現想法,因此研究人員更喜歡,快速靈活。

tf2坑是真的多, 前幾周用tf2寫了乙個lstm的模型,emmm,寫模型用一下午,除錯用了3周, 結果發現tf.keras自帶的adam對於lstm的模型的引數優化等於0 = =, 基本上可以認為只能借助cpu跑,而不能用於gpu,撓頭。

最後解決方法還是換成SGD居然就可以執行了。

最後求大佬推薦乙個tf的穩定版本12都行,不想踩坑了。

6樓:tsinghuaboy

我看到的使用者是1:1,未來都用torch的話,還是需要出來乙個新框架跟torch競爭的,目前學術界(我無恥地代表了)已經全面倒向torch了。

7樓:披頭與槍花

一般對速度沒太高要求的場景,如果訓練用tf,為了省事部署也就用tf了。

對速度有要求的場景都會針對硬體做推理優化,而tf的推理優化很雞肋,一般都不用它。

8樓:skypitcher

tf2.0就是模仿pytorch弄得,問題是tf把什麼東西都放在Keras裡面,我只想用tf.layer不想用tf.keras.layer,所以已經棄用了tf。

9樓:

不會吧不會吧,不會還有人用 tf 吧

被 1.x 坑的都不認識了,還會用 tf ?

就算你 tf2.0 大改版全面抄襲 pytorch 有怎樣潮流已經成型了

10樓:

動態圖用pytorch,靜態圖用tf1

什麼?你想動態圖用tf2?省省吧,現階段的tf2的bug多如牛毛,自己寫過就知道了。

pytorch優點,bug少,該踩的坑都踩過了,好寫,缺點嘛,需要自己做shape inference,略麻煩,也就新建層的時候要你自己指定weight的大小

tf1優點,快

tf2?算了吧,把bug都先修一遍再說啦

pytorch與tensorflow未來哪乙個會佔據更大的使用者群體?

HetingJian pytorch永遠滴神,對於初學者半個小時就能寫個CNN還要啥自行車,我是完全從不會入手的pytorch,就簡單的功能來說對新手太友好遼。 破圓的角 這麼說吧。很久沒用tf,2.0出來的時候用colab玩了一下。我人傻了。推薦用顯式的檢測錯誤的方式來檢測epoch的結束。確實我...

PyTorch 中,nn 與 nn functional 有什麼區別?

老實人 上面使用者有糖吃可好 講的已經挺好了,我再插兩句 在建圖過程中,往往有兩種層,一種含引數 有Variable,如全連線層,卷積層 Batch Normlization層等 另一種不含引數 無Variable,如Pooling層,Relu層,損失函式層等。閱讀原始碼發現 nn.裡面的是繼承自n...

同樣的模型與引數,PyTorch實現的效能比Tensorflow低了很多,有可能是什麼原因呢?

只是看看 手寫影象分割模型,在tensorflow上效果很好,在pytorch上很差。後來發現是損失函式的引數問題,tensorflow中自己寫的多分類focal loss用作分割任務 alpha用0.25 pytorch中重寫了該函式 但是alpha要用1.5至1.75才有效果 有點懵。 嬉嬉皮 ...