raid0的極限速度是多少?

時間 2021-05-31 03:32:47

1樓:木頭龍

RAID0速度基本接近單盤速度×盤數,但是不會大於控制器頻寬。

所以,Intel和AMD都有NVMe RAID的今天,雖然支援NVMe RAID但控制器頻寬只有PCIe 3.0 x8的Tri-Mode陣列卡可以直接無視了。

AMD家伺服器的EPYC不支援NVMe RAID,執行緒撕裂者平台的NVMe RAID支援最多8個NVMe裝置。Intel家至強可擴充套件最多支援24個NVMe裝置——先別高興,這是需要用PCIe Switch的,實際上單個VMD就只有x16頻寬。雖然Intel允許跨VMD,然而跨VMD又只支援span…所以,無視VROC吧…

國外某位油管Up主兩年前的測試:

如果換成現在支援PCIe 4.0的執行緒撕裂者三代和賊船MP600,估計會更高——前提是先找到拆分PCIe 4.0的轉接卡。

當然,如果用作業系統提供的軟RAID 0的話,可以突破裝置數量限制,有人在雙路至強上用14張970 Pro做過測試:

理論上可以用4路甚至8路系統,還可以再提高2-4倍。

2樓:

某些人寫了非常不專業的回答還怕別人指出來不足,遮蔽這一招妙!

正經回答如下:

highpoint有個卡,但是我覺得和傳統raid卡構架相差太遠。

華碩有個拆分卡,它只是拆分pci16x為4個4x

RAID0,定義上通俗講就是多少硬碟裝置同時提供服務,從上層來看就是乙個裝置那樣子。

不過現在是2023年,nvme橫空出世,單個nvm SSD的速度已經把傳統RAID卡乾趴下,更別說INTEL的黑科技傲騰SSD。

可惜目前沒有任何nvme raid卡存在,為啥?因為nvme本身就是乙個raid卡控制器!ssd主控相當於傳統raid卡,單個ssd儲存晶元相當於乙個硬碟。

那麼,多個nvme組合在一起是不是比單個nvme ssd更強?理論上是這樣,但是nvme直接通過pci與CPU交流資料,一般來說乙個nvme占用4條pci lane,家用平台只有楚楚可憐的16條,最多4個nvme,使用intel的vroc來實現多個nvme raid。

如果使用伺服器平台,那麼PCI通道有40個以上,雙CPU時80個通道,可以接20個nvme ssd,理論上,單個nvme ssd 2000MB的話,20個的持續讀寫是40000MB/s

但是我還沒見過如此的場面。目前能看到玩家4個nvme組一下raid0,讀取超萬兆,這裡的萬兆是byte,可不是網路裡面說bit。

要說極限,廠家繼續努力!更強的方案將繼續推出。

3樓:李明陽

這個極限一般並不是硬碟決定的。

RAID0不是只能有2塊硬碟的,理論上可以有無限多。

效能瓶頸一般都是在陣列卡,一般陣列卡上都有快取。

一般極限就在2000MB/s左右。

如何將 RAID 0 陣列當作記憶體使用?

願意花錢的話,可以看看 ScaleMP In memory Computing Big Data Analytics Linux的話,把這坨硬碟當交換區 swap 掛上就能當記憶體用了,當你物理記憶體超了之後,系統會把不是很active的記憶體頁存到這部分硬碟中。Windows應該配置個虛擬記憶體也...

對於SSD而言,raid0的風險仍然更大嗎?

R0不是為了保護資料而生的,是為了速度而生的,想要安全就要備份到機械盤。或用其他模式。追求速度的都是遊戲玩家,只能豁出去了。雖然會減少SSD的壽命,不過至少也能用個三年。 Alex MOK 完全理解錯誤,ssd內部是平均風險。例如8顆晶元,每顆寫100次就壞的話 要寫80次,如果同時寫在1顆晶元上,...

計算機硬碟raid0資訊丟失(非儲存資料),怎麼恢復?

依諾 1.先備份資料 2.硬碟按照原來的順序槽位插入伺服器開機,自檢過程中按快捷鍵 英特爾板載RAID應該是CTRL I 進入RAID管理介面 3.方法一 RAID管理介面中把有問題的那塊盤強制上線,具體怎麼操作時間長忘記了 另外,1任何情況下都不建議單獨組RAID0,除非資料可有可無 2,英特爾板...