CDS Spread Curve 為什麼會呈現負斜率的形狀?

時間 2021-06-01 10:21:33

1樓:

@李望 回答的已經很到位了。負斜率的CDS曲線(Inverted CDS Curve)表明市場預期該標的主體短期違約概率大於長期(確切地說是spot implied default probability exceeds forward implied default probability), 這種情況通常發生在金融危機時期或公司處於財務困境期間,反映市場擔憂公司的短期流動性導致的負現金流可能導致債務危機(反映在CDS曲線短期限端高位,但對公司的長期盈利與財務狀況依然看好(反映在CDS曲線的長期限端低位)。

雷曼破產前夕的CDS曲線也呈現這種形態。如下圖中的綠色與紅色曲線所示。

需要指出的是,這種長短倒置現象超過一定程度,的確會導致無法從CDS曲線得到合理的違約概率,即bootstrap failure, 反映在計算出的hazard rate或forward default probabilities 為負。在O'Kane的書中給出現這種情況的條件(121頁7.5式)。

2樓:李望

i簡單的說,這種曲線出現於近期有很大違約風險的個體上。但如果撐過最近這段時間,違約風險就少一點了。也就是default probability (in long term)conditional on survive(in short term)會比short term default probability小。

你所說的,長期的cds spread至少於短期的相等,其實不成立。cds spread是個年化率,假設乙個長期合約,如果這家公司撐過了最近這段高風險時期,(也就是以後的違約風險比較小了),那麼cds payer可是要一直付spread 付到合約到期的。所以對於這種公司的長期cds,要是短期的spread低一點。

注意是年化率,半年合約年化率1000bp跟5年合約年化500bp付的錢能一樣?

你可以去看一下EMEA的sovereign cds,希臘的cds termstructure就是inverse的。而且高於其他國家的cds 很多。所以這種曲線常見於高風險個體。

3樓:黑貓Q形態

首先你要知道這些曲線很多是在校準spread之後用樣條(spline) 拼出來的,基準點一般只有1,3,5,10年這些個點,所以有時候扭一扭是不奇怪的。

第二你要知道spread不單是信用溢差,還是附加了流動性溢差(信用Q測度)。所以你看到的不光是人們對違約概率的市場預期,還是對流動性的預期。

如果h(hazard_rate)是常數,這個曲線會是平的。問題是:

1.h不可能是個常數,人們對不同期限的預期很不一樣 ;

2. spread還收LGD影響,在很小的時間區間裡spread能用 h_t(1-R_t)近似 (長了不行,因為h不是常數) , 1-R_t也就是 LGD(違約損失)也會影響spread的大小。顯然人們認為德意志短期的違約和流動性風險高於長期的。

信用事件當當然嚴重影響曲線形狀,相當於加stress了,違約概率(PD)改變了;

那個求償等級應該是指senior還是subordinate ,這個也必須影響曲線,因為不同tranche的債直接影響了LGD(流水模型,自己腦補,違約了先償還senior)。然而如果subordinate 長期流動性好的話是可能出現spread比senior低的(不過一般是不可能的,所以才會200和400差那麼大)

最後我翻譯一下這個這些數字:200+的spread已經是非常高的了(平時自己做數值實驗給1%的h也就100出頭,意思是單位時間違約遠大於1%),所以人們「認為」短期德意志,尤其是其發行的subordinate違約概率高,流動性差(subordinate甚至高至400+),但是長期會有所好轉。信用事件我不知道是指具體哪種stress,但是顯然MM是乙個更糟糕的stress

如何理解並實踐佛為心 道為骨 儒為表?

洪權 這個說法比較中肯。佛法修心為主。止觀禪是核心。通過止觀禪,身心寂靜清爽,解脫束縛,獲得大自由。楞嚴經把每乙個細節描述清楚。瑜伽師地論中的九心住,寫明白了公升級過程。道家是華夏文明的核心,被丟棄了很久。是通過身體的歸根曰靜,致虛極守靜篤,來達到身體的清爽。是對佛學沒有重點描述的身體每乙個細節變化...

adversarial training為什麼會起作用?

網路的乙個問題是在高維空間中靠有限的訓練資料來構造模式的分類面,會出現由於資訊不足導致在某些維度上分類面誤差很大。對抗訓練的關鍵就是找到這些分類面有明顯誤差的維度並進行修正。 直觀上來講,可以打個比方,有時候學乙個知識點,會做一些簡單的題目,你以為自己會了,可是題目難度上來一點,就發現其實沒理解。深...

Hierarchical Softmax為什麼可以保證語料庫裡的詞可以嵌入到乙個低維的向量空間?

whjox 我理解的hierarchical softmax是word2vec裡的,如果已知context去求word的概率p直接用softmax的話,需要計算所有詞與context的內積,運算量是很大的。反之,如果構建乙個huffman tree,每次進行一次二分,那麼求p的話只需要沿著路徑從根節...