如何評價 Lieb 和 Loss 的《分析學》?

時間 2021-06-02 00:09:30

1樓:湖畔行人

佔坑,好不好不說,但是寫的很有特色。例如用分布函式刻畫$L^$函式(即定義抽象Lebesgue積分),這種思路為後面學習$L^$函式的分布刻畫以及進一步學習調和分析帶來了很大便利。這種定義方式簡單直接,比簡單函式、非負函式、一般實函式的定義路子好(這種定義方式感覺就是「定理」哪像個定義,太沒必要的拐彎抹角了,當然還有一種直接用下方影象的測度來定義積分的更加形象直觀。

)此外,講到了Sobolev空間以及一些重要的不等式如Poincare不等式、Sobolev不等式等這些內容在做方程研究都是必備內容。總之是一本很好的參考書,等我詳細研讀後再作補充。

2樓:MadBadger

沒細看,刷了一部分題目,列一點感想。

挺好的一本書,該講的topics都列了出來,很多其他書的作業就是這裡的乙個section,另外目錄看著很方便。

不注重細節,培養對分析的直覺,大部分計算和不等式都是用習題的形式給出的。。。

比較好懂,美式教科書,同時沒什麼廢話,難能可貴。

深度學習的多個loss如何平衡?

汪鵬飛 試試這個公式 出自Multi Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics,我應用的任務上能work 墨虺 參考 神經網路中,設計loss function有哪些技巧?劉詩昆的...

LSTM訓練集和驗證集的loss曲線為什麼會是這樣?

醉笑陪公看落花 前面回答已經很好了,再補充一點.題主提出這樣的問題說明對機器學習的一些基本知識還沒有乙個系統的學習.但與此同時能訓練出乙個不錯的LSTM網路,說明題主的應用實踐能力很強.那我們可以從應用上手,改變訓練集大小 改變模型複雜度,然後再看loss曲線的變化,這樣更有助於理解val loss...

如何評價火箭少女101和百分九?

仙豬 又來修改回答啦 退團的火箭裡退團的三隻已經全部歸隊但是這次風波對整個團隊還是元氣大傷的 說實話樂華挺會搞事的 火箭退團就不說了我們來說說樂華七子next 不僅出了許多單曲還上了快本還入駐快看在快看上也有直播 以下是火箭少女101三位剛宣布退團時修改的答案 emmm現在紫寧吳宣儀孟美岐退團了我就...