2023年了,深度學習在Windows和Linux上的配置和使用差別還大嗎?

時間 2021-05-30 12:25:49

1樓:Valar Morghulis

看用途嘍。我主要是用深度學習進行科研,而不是長時間在機子上去訓練,所以對我而言差別不大(或者近乎沒有差別)。

有乙個非常有意思的問題:最新版tensorflow (2.4.

1) 是支援CUDA 11.0的,然而在Linux的一眾發行版中,使用Keras的CNN MNIST模型,是會報錯的,可以參見一些GitHub的issue。

No algorithm worked on Ubuntu 20.04 LTS with CUDA 11.0 and Tensorflow 2.

4.1 · Issue #47411 · tensorflow/tensorflow

但是Windows上就沒有這個問題。

另外Windows上對多版本cuda的支援真的完虐各種Linux。

2樓:

正在煉丹

用的是mxnet跟pytorch

mxnet在windows上……一句import mxnet as mx要一分鐘

但是mxnet訓練速度比pytorch快(原因不明)pytorch……import快而訓練慢(對比mxnet)然而在linux上,它們並無什麼區別

3樓:Bluebear

Windows下折騰Tensorflow,Pytorch(Mxnet,CNTK,Darknet),在不折騰自定義op的情況下都很友好了,不過如果要編譯東西還是Linux好點。

另外Windows有一定效能問題,比如Pytorch dataloader Windows會慢一些,外加Win下顯示卡能用視訊記憶體會少,沒有Nvdocker。輕度使用跑個demo一般沒問題,真訓練還是Linux下吧。

怎麼看2023年深度學習在工業界應用趨勢?

尋常巷陌 在工業裝置故障診斷方面有一些進展。深度殘差收縮網路就是面向機械裝置故障診斷的深度學習方法,由於軟閾值化的作用,更適於處理雜訊較強的狀態監測資料,其原理如下 github.com zhao62 Deep Residual Shrinkage Networks跟SENet還是有區別的。SENe...

2023年12月,深度學習推薦使用AMD還是INTEL的CPU?

寬泛科技 AMD的 cpu 和 intel 的 cpu 跑深度學習的差距其實不大,都很慢,跟 gpu 有數量級的差距。已經有了3080,使用AMD N卡做深度學習不會有啥問題的,但是你要是使用intel的蜜汁加成,或者說想玩玩多核平行計算,可以考慮上intel的U,畢竟I家的編譯器和相應的profi...

2023年了,深度學習有哪些好用的新運算元了?

東臨碣石 軟閾值化是訊號降噪演算法的常用步驟,可能會是乙個有潛力的運算元。式中的 表示閾值,是乙個需要提前設定的正數。與ReLU啟用函式相似,它的梯度要麼是1,要麼是0,也有利於避免梯度消失問題。如果用圖形化的形式表示,就是 軟閾值化能夠用於降噪的前提是,幅值小於閾值的訊號是雜訊,幅值大於閾值的訊號...