2023年,mxnet會如何進行推廣來吸引使用者?

時間 2021-05-07 00:17:41

1樓:

MXNet相對谷爹的TF和fb的pytorch來說,其實投入不算大,投入上不是乙個量級,我覺得能夠做到這個程度,說分庭抗禮不為過分吧。其實,我認為沐神及其帶領的團隊每一次小的浪潮都抓的特別準,但是苦於資源投入的不足,還要分散精力去做很多前沿的事情,很多事情還是依託社群或者高校去做,最終導致了和tf和pytorch相比,很多方面就很慢。

不過,當前這一波框架對於神經網路開發的抽象,我覺得已經做到極致了,越來越趨同。

未來的發展趨勢,我覺得類似於GPU渲染管線的發展規律,當前神經網路這一波API類似gluon以及pytorch這種更類似於「固定管線」;像tensorflow2.0及其以後版本和MXNet後面要引入的mx.np模組更類似於「可程式設計管線」。

總之,我覺得未來ai的框架,肯定是越來越像numpy甚至傳統結構化pascal程式設計一樣程式設計,去設計神經網路的每乙個細節,能去做一些很細粒度的操作,其它就交給牛叉的編譯器去優化,這其實也一直是我夢寐以求的,可以說是某種意義的「可程式設計管線」吧。至於當前的這一波框架,當然會在其所擅長的「固定管線」領域繼續發光發熱了。

2樓:NX-8MAA09148HY

作為乙個使用了1年多快兩年的使用者,過去把整個實驗室基本上都帶著用了這個框架了,從使用體驗,執行速度,引數配置,新手入門各個方面,都已經做的足夠完美。我師弟說的,mxnet對新手太友好了……

過去一年,我記得gluoncv發展很快,現在backbone效果好的飛起,不過,官方造輪子我覺得始終抵不過社群造輪子,雙拳難敵4手嘛。要發展,我覺得還是得有自己的殺手鐗。

很欣喜的看到DGL這個東西,我記得是第乙個專門的Graph Network框架,是基於mxnet的,本來希望mxnet團隊能把它快速收編,加入到mxnet的長期計畫中,並且坐上mxnet快速發展的列車,各種完善支援py2.7開始……可似乎事與願違,DGL不但支援了pytorch,還似乎支援得越來越好,mxnet卻似乎沒反應試的……沒過多久,pytorch自己出了比DGL更快的圖神經網路框架。

mxnet加油啊!不然又要被超車吃尾氣了……

3樓:李欣

無意中刷到問題,強答一波

作為強力粉絲當然希望社群越來越好,我也相信堅持下去一定會有收穫對於目前的我來說正在做一下兩點:

1、堅持在專案中使用MXNet和TVM

2、繼續做好線下交流和推廣(每2週會有乙個meetup活動)

4樓:李沐

從15年開始,4年過去了,前幾天據隔壁部門VP的調研說,過去一年沒進沒退,大概還是老三的樣子。不是算很好的成績,但至少還是頑強的活著。過去一年裡多個當年一起奮戰的框架已經棄坑,同樣當年一起做MXNet的大部分小夥伴也做其他有意思的事情去了。

同樣有更多的新的開發者加入進來,其中大部分人我並不認識。

今年早定好了幾個大方向去嘗試,其中最重要是「讓使用者一直爽」。MXNet 2.0會有很大的改動。

可能會完全替換掉本來的定位。新特性還在開發中,在Github/開發郵件列表上能看到一些進度,但離可以信心滿滿的說出來還有些距離。總是需要不斷的嘗試,不斷的吸取教訓。

其他回答中有很多有意思的建議。很認同大部分觀點。其中乙個建議是變長RNN,不是特別確信這個的意思,我覺得應該不是問題。

可以參考GluonNLP的實現,包括了NLP很多主流RNN/Attention實現。

可能因為我的老大的老大和他的老大都是以前在AWS做資料庫的,特意去留意了下資料庫的歷史。從70年代興起到現在,這個領域仍然充滿活力。輪子還在不斷的往前造,例如AWS近幾年就有好些重要產品。

相比之下,DL只是day 1. 它之後應該還有很長的路要走,新的技術的出現,到輻射更多領域。希望它這次能比上次走更遠。

不過就算明天「AI泡沫」崩潰,這個也不是個人能決定的。唯一能做的就是有乙個信念,今天任然堅持做下去看看。

Ben Horowitz(著名投資人)說過,沒有哪個startup不經歷幾次邊臨破產,我個人以前觀察是每個哪個PhD不經歷幾次崩潰。逆境中的經歷對所有開發者都是很寶貴的財富。

5樓:Qichao Tang

抖個機靈,交大家原始碼開發技巧,比如用mxnet訓練乙個模型,可以實現乙個非常高效的推理(僅僅對於此個模型的極致優化),這樣上線遇到效能問題的時候,就是 you can you do 了。。。

6樓:點點點

1.MXNet的預訓練模型的確很強啊,很多改進版本的resnet。

2.人臉識別,強烈推薦MXNet啊。

3.PyTorch使用者學MXNet,也並不是難事啊。

7樓:Alan Huang

2023年了其實research這塊基本上是pytorch這塊獨大, 然後工業界是tensorflow半邊天。兩塊大蛋糕已經被這兩者瓜分完了。 另外pytorch的介面容易上手,也使得tensorflow和mxnet的介面在往pytorch上靠,例如tensorflow2.

0和現在的mxnet gluon, 深度學習訓練框架也在逐漸收斂...

mxnet在生態搭建這塊已經晚了, 最早msra還在用用mxnet, 現在也用pytorch了。 我們內部也有不少人用gluon寫了個動態圖的發現速度比pytorch慢不少....

mxnet現在的優勢就只有,相對輕量級,方便做定製化開發,在國內一些需要同時做深度學習前端和後端的企業中還是有一些使用者。

不過也是能看到mxnet在推廣方面的努力: 嘗試利用gluoncv, gluonNLP打造演算法生態; 好像a廠還有弄了個GCN的庫; mxnet在稀疏資料上的支援(幫助A廠做網際網路資料的機器學習?); TVM等IR的支援等。

還是要想清楚核心使用者是誰, 要有非常突出的某一點特性,而非乙個看似很全面但是各方面都做得馬馬虎虎的一套東西。 畢竟大部分使用者都是拿來主義者... 另外直播吸引小白粉並不能真正讓這個生態強大,小白粉對生態的貢獻有限...

要做到「用mxnet一時爽, 一直用mxnet一直爽」。 歸根結底還是要讓使用者用得爽啊,讓用得爽的使用者能夠讓生態做起來,然後讓更多的使用者用得爽! 隨著深度學習框架的收斂,各個平台之間互相d打通,如果有乙個突出特性,也不是沒有吸引使用者的可能

8樓:風清揚

一、先要提出產品的賣點,到底什麼樣的亮點才是留住使用者的關鍵!

二、我們想要吸引的使用者到底是誰?我們現在的內容對這群使用者有沒足夠的吸引力

三、那我們可以從哪些渠道上找到這些關鍵使用者呢?

四、如何把關鍵使用者做的更多

9樓:

利益相關:在A廠,有在實際工作中使用mxnet和gluon

我覺得2023年了,乙個很明確的事情就是,research上mxnet和gluon基本已經沒機會了,主要還是晚了。

但是gluon的api和pytorch非常接近,就算只有pytorch重新擼一邊gluon也不是特別困難的事情。所以靠著aws這棵大樹,配合tvm,可以講乙個模型加速的故事。相當於把gluon做成一套service,和aws的inference平台迅速整合,這個思路也是不錯的。

使用者也能看見實打實的好處,畢竟優化dl模型可比從重寫python layer來得費時費力多了。

10樓:

直播教學不是早就有過了嗎?!李沐當時在鬥魚直播的,現在去b站看吧,b站搜up主:mxnet。

問我tf 2.0 api不相容怎麼辦?改啊,迭代啊,快樂啊,我還能怎麼辦?

如何進行考研?

是春天的風啊 考研的時候需要提前去了解一些訊息,掌握得越多對自己就越好。首先你要選是本專業考研還是跨專業考研,本專業會容易一點,跨專業就比較難 然後你要選幾個你心儀的院校,還要看看每年的報錄比,看看你要考的專業在那個學校有沒有什麼限制,這些都看好了就看看自己考英一還是英二,專業課要準備哪幾本書,多關...

如何進行臥室改造?

貓的第九次是死亡 這個問題我有發言權,每天睡在我的智慧型臥室,不知道有多滿意,舒服到都不想出門了。實話說,當時決定進行臥室改造,是因為臥室是我待的時間最長的地方,畢竟自己特別懶。那作為乙個懶癌患者,我的終極夢想是讓自己的生活更舒適便捷,這不,了解了智慧型家居以後就心動了,前段時間將臥室的家電全部公升...

想營銷如何進行?

CD花藝師Misuki 不知道你說的花藝機構是學校還是什麼,如果真的想學好花藝,而且有風格有藝術美感的,不建議去培訓學校學習,都是流水線作品,花也不好,基本不會給你用進口花材,配色也很土氣,而且很多培訓機構的宣傳圖很多都是在網路上盜圖的,並不是他們自己做的,我都發現好幾家知名的這樣做了。建議找工作室...