是否可以用深度學習,人工神經網路來實現可控核聚變?

時間 2021-05-06 19:35:45

1樓:

用deep learning 解決 AGI,然後 AGI 解決一切問題。這個想法是 Tomaso,Poggio 的。不敢貪功,可恥的匿了。

2樓:

現階段機器學習可以做到將輸入和輸出自動關聯,也就是說必須有資料才能學習資料的特徵。

這意味著現階段機器沒有憑空的創造力。

以後人工智慧發展了,也許會有聯想的能力和創造力。

3樓:劉亞合

高溫等離子體高自由能與約束的問題,是托卡馬克技術的主要難點。

深度學習網路當然可能有助於解決這一問題。

但是托卡馬克裝置在目前的約束技術條件下,難以小型化。

裝置造價,以及氘消耗、等離子體加溫等其它方面執行的成本,也使得實驗裝置的數量、執行次數均受限,難以支援盲目的重複不斷的進行反覆執行。

並且實驗涉及高溫等離子體,目前約束技術條件下重複反覆執行安全性也是嚴重問題。

缺乏獲取大樣本的條件,故而不適合使用深度學習解決。

反場箍縮裝置(Reversedfieldpinch,RFP),在等離子體真空室外側安裝內外兩套磁場方向相反的磁體。相對於托卡馬克,其內外兩套磁場方向相反的磁體合成的特殊磁場,可以穩定等離子體的邊緣,體積相對小、執行成本相對低、安全性相對高,而等離子體內部的湍流則更多,更適合用深度學習來進行研究。

查詢資料發現,實際上機器學習早已經被初步應用於反場箍縮研究穩定等離子體的邊緣的反饋控制了。

Olofsson K E J.Nonaxisymmetric experimental modal analysis and control of resistive wall MHD in RFPs : System identification and feedback control for the reversed-field pinch[J].

Fusion Plasma Physics, 2012.

一深度神經網路如果用zero initialized而不是random會怎樣?

類似於 大腦一片空白 吧。畢竟權重為零的話,第一次向前傳播的時候是沒有問題的,儘管結果是零。但是開始反向傳播的時候,loss function計算的誤差會無法更新的,僵住了。 sgd 到 mini batch gd 是為了提高計算速度,一定的資料量,單個array計算沒有matrix計算快。和引數初...

機器學習,深度神經網路等方法是否是正確的方向?

陳小小 神經網路只是一種模型,我們要關注的是任務和問題而不是某一種模型,神經網路是解決某些任務的手段罷了。其實除了傳統的幾大任務包括視覺 語音 NLP 博弈論和機械人,還有很多問題值得我們關注。比如intuitive physics,intuitive psychology,compositiona...

深度學習與神經網路有什麼區別?

徐佳逸 深度學習可以理解成用深度神經網路 DNN,Deep Neural Network 來進行機器學習,他倆的關係可以從這個定義中一目了然地看出來。深度神經網路 DNN 一般分為三種架構 樸素的DNN 就是一般性的神經網路往多層擴充套件,缺點很多包括訓練緩慢,用Backprop進行訓練梯度衰減得厲...