二分查詢的問題,對於 mid beg end beg 2 與 mid beg end 2 區別

時間 2021-06-04 17:04:10

1樓:勝勳

關鍵要看「提供了什麼量」

如果提供了「起點」和「總數」,那麼「mid = 起點 + 總數/2」好用

如果提供了「起點」和「終點」,那麼「mid = (起點+終點)/2」好用

2樓:tanchb

因為容器的迭代器之間沒有定義在兩個迭代器之間的「+」運算子,beg + end 是非法的

只能使用兩個迭代器之間的減法

Because the iterator of vector don't define the + operator between the two iterators. beg + end is illegal.

We can only use the subtraction between the two iterators.

3樓:白如冰

mid=beg+(end-beg)/2

這種寫法,當beg,end是指標,以及vector,deque容器的迭代器的時候,寫法都是成立的

而且實際上函式引數傳遞指標、迭代器是比傳遞index更合適的方法mid=(beg+end)/2則不行

二分類問題,應該選擇sigmoid還是softmax?

讓cpu飛一會兒 看大部分回答都是根據主觀經驗和直覺直接得出兩者沒什麼區別的結論,我就從公式推導層面來嚴格推導一下吧。softmax交叉熵損失 log exp sp exp sp exp sn log 1 exp sn sp logsumexp 0,sn sp max 0,sn sp sigmoid...

三門問題為什麼不是二分之一?

好好逛逛 這裡三個門,兩個是羊 乙個是車 很顯然你抽到羊的概率是2 3,抽到車的概率是1 3假設你抽到了羊,你換了 得到車 假設你抽到了車,你換了 得到羊 換句話說,假如你抽了之後換,得到車的概率就是2 3,因為你抽到羊的概率是2 3。 火花 假設你選擇的是1號門,主持人開啟一扇有羊的門,有以下幾種...

pytorch分類損失 二分類 ,穩定的損失值在10的負一次方量級正常嗎?

清風笑煙雨 個人感覺你的標籤有問題,要麼就是類別數沒設定對。你應該看一看損失曲線在降低沒有,二分類這個這個量級,測試結果應該不好看吧 學無止境 模型沒有使用預訓練模型嗎,使用的話是自己寫的loss函式嗎,如果以上都存在,那麼loss高很正常。如果使用預訓練,使用torch自帶bceloss,那麼資料...