pytorch與tensorflow未來哪乙個會佔據更大的使用者群體?

時間 2021-05-29 22:23:01

1樓:HetingJian

pytorch永遠滴神,對於初學者半個小時就能寫個CNN還要啥自行車,我是完全從不會入手的pytorch,就簡單的功能來說對新手太友好遼。

2樓:破圓的角

這麼說吧。

很久沒用tf,2.0出來的時候用colab玩了一下。我人傻了。

推薦用顯式的檢測錯誤的方式來檢測epoch的結束。。。確實我個人是很難理解的。

3樓:Calvin

學術界還是pytorch用的更多吧,pytorch搭建網路簡潔清晰,動態圖方便除錯,api也很規範,資料集讀取也有統一的介面,之前用的tensorflow,想復現一些比較複雜的網路總是會糾纏在靜態圖的搭建上,雖然tf2.0支援了動態圖,但是一套全新的api學習量並不小,後來實在無奈轉了pytorch,相比而言還是用著pytorch更舒服,pytorch真香!多那點跑的時間對於學生而言根本不是問題,學術界還是更需要pytorch這樣高效清晰,能夠快速構建網路的框架!

4樓:倔強的春苗

作為乙個純外行學DL的新手,在掌握pytorch之後,又去看了TensorFlow入門的introduction知識,簡直可以用「一臉懵逼」4個字來形容。。。

人生苦短,為啥簡單算個加減乘除還要那麼複雜?

5樓:

今天看到某文章公開了分別使用pytorch與tensorflow實現的相同的方法

pytorch repo star數為63tensorflow repo star數為3看來群眾已經選出了心目中更好的framework

6樓:老宋的茶書會

Google:來,我好不容易開發出了TensorFlow,成為AI之首。(對。

)我還得維護倉庫(對),還得經營社群(對。),還得看Pytorch他媽的臉色,(對。)我不成跪著要飯的嗎?

湯師爺:那你要這麼說,AI之首還真就是跪著要飯的。就這,多少人想跪還沒這門子呢!

Google:我問問你,我為什麼要搞AI? 我就是腿腳不利索,跪不下去!

湯師爺:原來你是想站著掙錢啊。那還是搞搜尋吧。

Google:哎,這我就不明白了,我已經是AI之首,咋還不如乙個賣廣告的阿?

湯師爺:百姓眼裡,你是AI之首。可是其他公司眼裡,你就是跪著要飯的。掙錢嘛,生意,不寒磣。

Google:寒磣!很他媽寒磣!

湯師爺:那你是想站著,還是想掙錢啊?

Google:我是想站著,還把錢掙了!

湯師爺(搖頭,正色道):掙不成!

Google:掙不成?

湯師爺:掙不成。

Google(從袖口中甩出 TPU):這個能不能掙錢?

湯師爺:能掙,山里。

Google(拍出 Keras):這個能不能掙錢?

湯師爺:能掙,跪著。

Google:這個加上這個,能不能站著把錢給掙了?

湯師爺:敢問大哥何方神聖?

Google:鄙人,谷歌!

7樓:

雖然我覺得pytorch好用,但是model得放到手機上啊,只能搞tensorflow了。

長遠看來還是tensorflow

PyTorch 中,nn 與 nn functional 有什麼區別?

老實人 上面使用者有糖吃可好 講的已經挺好了,我再插兩句 在建圖過程中,往往有兩種層,一種含引數 有Variable,如全連線層,卷積層 Batch Normlization層等 另一種不含引數 無Variable,如Pooling層,Relu層,損失函式層等。閱讀原始碼發現 nn.裡面的是繼承自n...

PyTorch與TensorFlow 2 x各有什麼優勢?

雄立東方 我就想問,為啥tf2.3 的tensor轉成numpy這麼難!這麼難!這麼難!官方說的.numpy 壓根不能用啊! 松鼠打不過袋鼠 之前覺得tensorflow優勢在於部署,尤其是伺服器端,現在發現pytorch伺服器端的torchserve越做越好了,基本可以滿足快速部署的需求。如果是嵌...

同樣的模型與引數,PyTorch實現的效能比Tensorflow低了很多,有可能是什麼原因呢?

只是看看 手寫影象分割模型,在tensorflow上效果很好,在pytorch上很差。後來發現是損失函式的引數問題,tensorflow中自己寫的多分類focal loss用作分割任務 alpha用0.25 pytorch中重寫了該函式 但是alpha要用1.5至1.75才有效果 有點懵。 嬉嬉皮 ...