神經網路FPGA邏輯開發和顯示驅動晶元的晶元前端設計,兩個offer怎麼選?

時間 2021-05-30 18:33:30

1樓:outlier001

首先說一下兩個崗位的區別,神經網路邏輯開發屬於演算法實現,目前國內的硬體加速通用型NN還是比較差的,真正做的好的只有幾家,小公司或者初創公司只能通過fpga實現一下,這對架構設計與演算法實現要求比較高,看你們的技術專家是否能夠做出好的設計,實現pvt的最優化。顯示驅動晶元如果不是soc,那應該是小晶元,做顯示協議實現。

崗位選擇需要與具體的方向對應,看兩個公司目前的行業定位如何,神經網路屬於人工智慧方向,但是目前並沒有成熟的設計,需要乙個長期的學習與積累。顯示驅動按照目前市場對自動駕駛的發展應該發展不錯,如果選這個後面可以向影象處理方向發展。

2樓:2023年的太陽

個人感覺fpga在神經網路這一塊蛋糕並不大,同算力功耗比不過GPU,算力也比不過,只在實時處理上可能會比GPU好,但是感覺神經網路結構相對固定,等晶元出來了怕是這一塊也沒得吃

3樓:珠穆朗瑪2048

之江lab牌子比較響,還要看下邊的研究組,不過,神經網路是熱門技術,還可以持續很多年,有平台有方向,做出成績比較容易,我們也做基於fpga加速深度學習原型。如果只是顯示卡,初創比較難,現在景嘉微做的比較好。

4樓:光明頂左使

這個還是得看職業發展前景吧?

職業發展前景,其實就是需要多少這方面的細分技術人才。

顯示驅動晶元的話,感覺也就是給面板做配套;而現在的面板廠也不多,面板型別也不多,感覺上人才需求不大?如果有懂的大神願意深入解釋一下最好了。。

所以以我淺薄的行業知識來判斷,神經網路FPGA邏輯開發的職業發展前景可能會更好。

卷積神經網路和BP神經網路的關係?

乙個維度的BP神經網路就相當於CNN中的全連線了,無非是多幾個全連線,CNN是二維,二維如果搞成全連線就導致運算量巨大,所以有了權重共享,大大減少了運算量,CNN卷積的思想肯定也源於BP神經網路就,在影象上做二維卷積的CNN發出炫目的光芒下,BP神經網路就已經快被人們遺忘了,但是不管CNN再怎麼發展...

卷積神經網路(CNN)和迴圈神經網路 RNN 有什麼區別?

不存在的1990 從字面區分 cnn 裡面的 c指 convolutional operation,是一種提取影象特徵方法。把這一operation加入到layer裡面構成了convolutional layer。rnn裡的r 指recurrent,中文是重複的意思。rnn構造的結構也是recurr...

請問用fpga實現神經網路加速用hls還是verilog好呢?

ALINX 一般情況應該用HLS算方便一些,你應該會找一些開源的演算法,比如yolo v3,然後用HLS轉換成FPGA可以執行的程式,你自己寫演算法的概率應該很低了,所以從轉換來說,應該用HLS比verilog方便很多。 史峰 可以考慮用Chisel https www.chisel lang.or...