1樓:雄立東方
我就想問,為啥tf2.3 的tensor轉成numpy這麼難!
這麼難!
這麼難!
官方說的.numpy()壓根不能用啊!!!!!!
2樓:松鼠打不過袋鼠
之前覺得tensorflow優勢在於部署,尤其是伺服器端,現在發現pytorch伺服器端的torchserve越做越好了,基本可以滿足快速部署的需求。
如果是嵌入式部署,反正都要轉換模型,那寫著舒服,相對坑少一點就行
3樓:藍熊
工作黨為了部署在某些平台,必須用tf
pytorch木有
也用過pytorch,除錯要舒服很多,
比如更換測試乙個自定義loss function
4樓:
只說tf,torch沒太用。
tf入門文件內容很豐富,以nlp為例,從word2vec,rnn,lstm,lstm+attention一直到transformer,bert,官方文件都給了乙個示例,並且有些示例已經被翻譯成中文。
一般看完guide和tutorails,基本上80%的問題就解決了,剩下的問題,可以直接去tensorflow的github上發issue,發那個document型別的issue(因為你遇到的問題文件裡沒有寫出來),解決一般也很快。不要去stackoverflow,一般沒人理,這是因為tf你如果遇到了問題,絕對是一般人解決不了的問題(官方文件很清晰,很全面,你看完了還遇到問題,那一般人肯定處理不了啊)
20201212更新:
可以去stackoverflow了,現在好多了。
5樓:Peter
使用者不一樣,tf可能更多是企業的使用者,需要的穩定的生產力,tf這方面還是挺好的。 pytorch更多側重快速實現想法,因此研究人員更喜歡,快速靈活。
tf2坑是真的多, 前幾周用tf2寫了乙個lstm的模型,emmm,寫模型用一下午,除錯用了3周, 結果發現tf.keras自帶的adam對於lstm的模型的引數優化等於0 = =, 基本上可以認為只能借助cpu跑,而不能用於gpu,撓頭。
最後解決方法還是換成SGD居然就可以執行了。
最後求大佬推薦乙個tf的穩定版本12都行,不想踩坑了。
6樓:tsinghuaboy
我看到的使用者是1:1,未來都用torch的話,還是需要出來乙個新框架跟torch競爭的,目前學術界(我無恥地代表了)已經全面倒向torch了。
7樓:披頭與槍花
一般對速度沒太高要求的場景,如果訓練用tf,為了省事部署也就用tf了。
對速度有要求的場景都會針對硬體做推理優化,而tf的推理優化很雞肋,一般都不用它。
8樓:skypitcher
tf2.0就是模仿pytorch弄得,問題是tf把什麼東西都放在Keras裡面,我只想用tf.layer不想用tf.keras.layer,所以已經棄用了tf。
9樓:
不會吧不會吧,不會還有人用 tf 吧
被 1.x 坑的都不認識了,還會用 tf ?
就算你 tf2.0 大改版全面抄襲 pytorch 有怎樣潮流已經成型了
10樓:
動態圖用pytorch,靜態圖用tf1
什麼?你想動態圖用tf2?省省吧,現階段的tf2的bug多如牛毛,自己寫過就知道了。
pytorch優點,bug少,該踩的坑都踩過了,好寫,缺點嘛,需要自己做shape inference,略麻煩,也就新建層的時候要你自己指定weight的大小
tf1優點,快
tf2?算了吧,把bug都先修一遍再說啦
pytorch與tensorflow未來哪乙個會佔據更大的使用者群體?
HetingJian pytorch永遠滴神,對於初學者半個小時就能寫個CNN還要啥自行車,我是完全從不會入手的pytorch,就簡單的功能來說對新手太友好遼。 破圓的角 這麼說吧。很久沒用tf,2.0出來的時候用colab玩了一下。我人傻了。推薦用顯式的檢測錯誤的方式來檢測epoch的結束。確實我...
PyTorch 中,nn 與 nn functional 有什麼區別?
老實人 上面使用者有糖吃可好 講的已經挺好了,我再插兩句 在建圖過程中,往往有兩種層,一種含引數 有Variable,如全連線層,卷積層 Batch Normlization層等 另一種不含引數 無Variable,如Pooling層,Relu層,損失函式層等。閱讀原始碼發現 nn.裡面的是繼承自n...
同樣的模型與引數,PyTorch實現的效能比Tensorflow低了很多,有可能是什麼原因呢?
只是看看 手寫影象分割模型,在tensorflow上效果很好,在pytorch上很差。後來發現是損失函式的引數問題,tensorflow中自己寫的多分類focal loss用作分割任務 alpha用0.25 pytorch中重寫了該函式 但是alpha要用1.5至1.75才有效果 有點懵。 嬉嬉皮 ...