什麼是事件相機,計算機視覺中事件相機這一方向需要學哪些相關知識?

時間 2021-05-06 20:00:22

1樓:深藍學院

事件相機(Event-based Camera)目前在特徵提取與跟蹤、光流、三維重建、SLAM、模式識別、控制等方向不斷研究發展,具有廣泛的應用前景,且相對於傳統相機,具有低延遲(< )、高動態範圍( )、極低功耗( )等特性。

不同於傳統相機拍攝一幅完整的影象,事件相機拍攝的是「事件」,可以簡單理解為「畫素亮度的變化」,即事件相機輸出的是畫素亮度的變化情況。

事件相機的最基本的原理,即:當某個畫素的亮度變化累計達到一定閾值後,輸出乙個事件。這裡強調幾個概念:

a) 亮度變化:說明事件相機的輸出和變化有關,而與亮度的絕對值沒有關係;b) 閾值:當亮度變化達到一定程度時,將輸出資料,這個閾值是相機的固有引數。

什麼是乙個「事件」?事件具有三要素:時間戳、畫素座標與極性。乙個事件表達的是「在什麼時間,哪個畫素點,發生了亮度的增加或減小」。

--------分割線---------

本次公開課主要分享的內容為:事件相機介紹、基於事件相機的SLAM/VO,ESVO系統,事件相機的侷限以及挑戰。感興趣的朋友一定不要錯過~

Towards Event-based SLAM

2樓:Wang SC

Event-based, 6-DOF Camera Tracking from Photometric Depth Maps

這個方向了解的不多,當時讀過 T-PAMI 這篇文章,看完差不多能了解個大概。感覺是個很有意思也比較有前景的方向。

在計算機視覺任務中,運用Transformer和Non local有何本質區別?

我一直覺得深度學習這門學科被我們這幫不合格的研究者帶歪了連最基本的科學研究都不會了 Transformer和Non local有何本質區別?那我是不是可以Transformer和Non local和curve fitting有何區別?在座的能說出區別嗎?那所有都深度學習都是Curve Fitting...

計算機視覺中,目前有哪些經典的目標跟蹤演算法?

砥礪前行的登山者 為了該問題,剛註冊的知乎,已入坑。之前研究經典的追蹤演算法,乃至有種 山中一日,世上已千年 的趕腳。該領域已經漸漸沉浸於相關濾波和深度學習裡,但以前的經典還需好好繼承,舉個小爪爪,以後和大家一起交流目標跟蹤的經驗 Ge皮燉蛋湯 MOSSE,Visual Object Trackin...

計算機視覺中,目前有哪些成熟的匹配定位演算法?

opencv自帶的那個surf特徵點配準的是真的不好用,實際幹專案的場景精度很差,每次得等到光照啥的條件好點的時候再配準。 Ronald GMS了解一下 要求實時 精度也不差 orb GMS 要求精度 A SIFT GMS 相同程度匹配,速度精度比RANSAC效果好 餘果 SegICP Integr...