回歸和插值的區別是什麼

時間 2021-06-01 11:48:53

1樓:數籤籤

回歸和插值的目的都是擬合。

回歸是從全域性出發,依賴經驗模型的設定,必須提前預設要擬合的曲線模型,力求滿足對整體樣本走勢的刻畫,比如多項式,logic等等。模型始終固定,而模型引數會隨著樣本點的變化而變動。

但很多時候我們不可能知道滿足所有樣本點的精確理論模型,插值則是從區域性出發,利用一定的插值函式對其中n個點進行依次擬合,最終完成對所有點的曲線擬合。

2樓:曹卓越

回歸是通過擬合確定方程。

插值就是從回歸確定的方程得到需要的值。

三次樣條函式就是通過回歸確定的三次多項式;插值就是通過增加區間內自變數的密度確定所需的因變數。

插值這個詞本身就很形象,就是插入未知但可以通過一些擬合方程計算出來的值。

3樓:

我沒怎麼系統學過統計,姑且認為你說的回歸是我平時用的「擬合」一詞。這兩種分析的確表面上有點像,比如在微分方程數值解的譜方法中,插值和傅利葉級數的截斷(算是一種擬合)確實有一些微妙的相似性,但原本的思想其實還是很不同的。

擬合,是你認為資料點滿足乙個特定的函式關係,然後去優化函式中的引數使得函式的行為盡可能接近資料點。其中的思想是,資料點是不準確而有測量誤差的,我們想用乙個簡潔的關係來歸納總結資料之間的關係,或驗證模型和資料之間的相符程度。

插值,是已知乙個函式在若干點的取值,但我們需要知道這些點之外函式的取值,所以用插值的方式來近似函式在任意一點的取值。其中的思想是,雖然我們不太清楚函式關係的解析形式,但已知的資料是絕對精確的。

所以,擬合通常使用在處理實驗中採集的資料。但插值,最早則是起源於數值計算。早年哪有什麼計算機,計算三角函式、指數函式、對數函式等等,只能使用查表的辦法。

但是數學用表上只有給定的幾個點的函式取值,如果要計算其他點的取值,只能使用插值的辦法,反正數學用表上的數字在有效數字的範圍內都是精確的。時間推移到現在,插值也依然往往用在計算非解析函式的取值上。

比較容易令人迷惑的是,對於N個資料點,似乎總可以用N階多項式插值,這似乎相當於用乙個N階多項式來擬合這N個資料點,於是插值和擬合似乎是差不多的。但除去目的不同的問題,這樣做實際上是不可能的,因為多項式插值不具有一致收斂性,插值函式可能不會一致地收斂於原函式,所以會引發Runge現象,插值函式在一些點會有非常巨大的誤差。比如對函式1/(1+x^2)的插值。

這也是為什麼三次樣條反而比多項式插值更普遍。而擬合有類似的問題,稱為過擬合。

分類與回歸區別是什麼?

Nii 我覺得 回歸問題 這個提法就有問題,回歸是一種方法,不是問題,分類和擬合才是問題,而回歸方法既能用於分類問題,也能用於擬合問題。所以為什麼要比較乙個方法和乙個問題的區別呢?好像沒什麼可比性 小蝴蝶 資料只分為是連續和不連續的,不連續的叫離散。那麼 f x y,x 和 y 都是資料 就共有四種...

泊松回歸模型和對數線性模型的區別是什麼?

靜學社 學無止境 泊松回歸很顯然是y符合泊松分布或者假設y符合泊松分布 到底是不是真的泊松分布並不重要 對應 廣義線性模型 中的泊松分布模型。如果 鏈結函式 是g u u 這種鏈結函式用的非常少 則泊松回歸並不屬於 對數線性模型 只有g u ln u 時才屬於 對數線性模型 對數線性模型 包含了很多...

邏輯回歸和SVM的區別是什麼?各適用於解決什麼問題?

NLP小學生 SVM和對數機率回歸 Logistic Regression 有相似和不同之處,先從軟間隔支援向量機的目標函式觀察 原本對 的期待是距離劃分超平面至少 引入鬆弛變數後允許 距離超平面至少 就行了。這等價於 即 叫做hinge函式。如果把優化目標當做損失函式,把 代入 再乘以 那麼SVM...