力學轉AI壓力是不是相對小一些?

時間 2021-06-06 20:39:01

1樓:

壓力不會小,只是對乙個很窄的領域會有資料處理上的幫助。

我個人的理解:力學是清晰的分析各個受力條件,找到滿足條件的乙個解,設計出相應的東西。

AI是用軟體模型自動訓練出這個結果,不需要非常詳盡的分析。分析僅在資料處理和特徵工程階段,具體的訓練方法:調參、損失函式,優化器等,並不會有多大的忙。

最後,建議答主先自己去了解下到底什麼是人工智慧(各種資料不要太多),再更好的針對內容提問。

2樓:

水木乙個物理「老」博士的原話:

差不多一樣老,看了那個帖子,然後跟風學了學機器學習/深度學習。幾點體會如下:

1)向量、矩陣運算:就一點規則,只要掌握了,反向傳播就能算了。如果你樂意,簡單的gru、lstm都能手算。

2)優化:對學物理的來講,從作用量出發,通過變分法求運動方程,不就是優化嘛。SVM演算法稍微複雜一點,相當於約束系統。

約束系統求運動方程,或者約束系統量子化,拉格朗日乘子法是標準流程。忘了就複習複習玻色弦量子化第一章。

3)gradient descent方法:計算物理就用這個,本科生課程。我記得還學過shooting method,就記住個名字,似乎在機器學習裡沒見到。

4)統計學:數理統計足矣。

5)資訊理論:統計物理裡面涉及一點,夠用了。研究過黑洞、量子資訊的,對資訊理論肯定不陌生。

涉及資訊理論的演算法,決策樹information gain,feature selection裡的mutual information,cross entropy loss都可理解。

6)涉及高維Gaussian方程的演算法,如Gaussian discriminant、factor analysis,這些看似繁瑣的計算,在量子力學/量子場論裡面都有最基本應用。忘了就回去翻翻path integral。

7)Markov decision process,有狀態,有action,量子力學裡面不就這兩樣。量子態構成Hilbert空間,力學量對應算符,算符作用在態上得到另乙個態。甚至兩種優化方法,跟薛丁格繪景、海森堡繪景還對應起來了,是不是很神奇。

8)程式設計:學物理的,有誰不知道譚浩強。研究生基本都用過matlab、mathematica、maple中的一兩樣吧。

python拿來就寫,因為用不到高深的python技巧。tensorflow會用了,也不用反向傳播了,optimize.minimize(loss)就夠了。

9)計算圖,跟費曼圖算散射振幅是不是也很相似?其實就是用來輔助計算的。什麼是tensor?

看看愛因斯坦方程,各種帶指標的,Riemann tensor四個指標。tensorflow裡,batch、step、input vector,三個指標就差不多夠用了。

10)如果只看深度學習,神經網路那套,跟形形色色的機器學習演算法比起來,要簡單很多。

總結一下:機器學習/深度學習的學習,不需要高深的數學知識,所以不要望而生畏。

就我感覺,計算力學中,主要問題是:維度(力學的維度比較小)、時間序列、運算的抽象(從計算機程式語言設計的角度來說,session、佔位符等)、啟發式。數值分析、凸優化、矩陣論、隨機過程、數理方程等,研究生應該都開過課程的。

不對之處,敬請指正。

如果沒有我,男朋友的壓力會小一些嗎

乙隻豬 我經常會覺得我妨礙了男朋友的發展,因為我是乙個比較浪的人,可能在這個地方待一段時間,又去那個地方待一段時間,他就跟著我跑。然後他可能會為了我推掉一些應酬,為了我不加班之類的,就是想多陪陪我。他以前也是想過那種浪的生活,但是遇到我之後就想著要給我穩定的生活。我就覺得跟我在一起之後他丟了一些最初...

高鐵售票是不是有一些套路?

lxy 所有的車票都是乙個套路。始發站要預留大部分車票,中途站預留小部分車票,但是放票多少是根據以往的客流量來決定的。如果始發站在列車開行前幾天還有餘票,那麼將所有的餘票全部開放,也就是每個站都能買到。這就是為什麼開車前幾天能搶到車票的原因。 yu bill 還有一些跟長短途沒有絕對關係,是因為某些...

德雲社一些青年相聲演員是不是過譽了?

musa 一定是是的。平時看專場,燒餅說的是些神馬玩意。小劇場說 金蘭譜 下邊都快笑瘋了。張鶴倫,電視上除了小黑胖子就沒別的詞,鬥笑社也算穩定發揮。鬥笑社,玲瓏一輪遊。扒馬褂,尚九熙災難現場。專場演出,張九南高九成節奏稀碎 KZedX 是。我一直認為堂良在真人騷之後,能上乙個台階,可是最近幾個大場的...