人類本身識別面部用的是什麼 演算法 ?

時間 2021-05-30 20:00:30

1樓:Great

人對人的識別應該是根據遞進排除的,首先會將常見、或者覺得會見到的人形成乙個集合,在這個集合裡面進行識別。

見面之後,未必是按照面部優先的順序,更多情況下,性別、姿態、年齡、膚色都有可能進行了資訊篩選,進入更少的人選內容。

真正到了面部識別,基於對這個人的情緒表情記憶,可能會有一些表情識別,然後才是根據面部資料進行識別。

2樓:

是時候把這句話發出來了。

我大一的時候,史元春老師給我們上課時,曾經總結過,機器能做什麼。

機器可以做:1、人類可以做,也清楚怎麼做的事情。比如:解方程。

2、人類不能做,但是清楚怎麼做的。比如:輸出pi(=3.1415926.....)的第1億位。

機器不可以做:1、人類不能做,同時也不知道怎麼做。

2、人類能做,但是不知道怎麼做的。她當時(2023年)舉的例子就是人臉識別。

「刷臉神器」Face++登上《新聞聯播》

3樓:

回頭來看這個問題,在不知不覺中,已經沒有人懷疑計算機在人臉識別方面能超越人類,也很少有人還會認為「計算機視覺的重大突破應該依賴於神經科學的重大突破」了。

知識的進步就是如此迅速。

4樓:李彬

計算機目前無法模擬人腦對人臉的識別,原因是計算機還沒有針對人臉提取到足夠多的資訊,即便提取到了足夠的資訊,也沒有足夠的能力來計算提取到的資訊。

5樓:Filestorm

目前還不知道,神經生物學家和計算機科學家正在努力研究(包括我自己也在09年的時候做了半年研究,不敢說自己呆的那個實驗室是神經科學裡做人臉方面的no.1,但是前10應該沒啥懸念)。

目前看來,學術圈五年之內是沒有希望解答樓主的問題了。

唯一知道的是,opencv的實現(Haar feature+adaboost)跟人腦一點關係都沒有(LDA是通用矩陣分解演算法,計算機做人臉識別跟這個都沒太大關係)。人腦的演算法比那個複雜許多許多倍。

OCR文字識別用的是什麼演算法?

鳳舞九天 之前做過兩年多的ocr,這裡簡單寫一下,主要講進入深度學習時代的演算法方案。純粹的OCR主要分兩種,一種是檢測 識別兩階段,還有一種是檢測識別一起端到端來做。據我了解,穩定演算法大多還是基於檢測識別兩階段來做的。鳳舞九天 Ocr 檢測入門演算法 之前兩年多主要是做識別,目前識別,特別是中文...

為什麼手機的面部識別不能360度識別?是技術限制還是限制技術?

賴振波 指紋識別 虹膜識別 面部識別的理論基礎是以上三個部位影象有與眾不同的特徵值,可以通過影象處理快速比對出當前生物特性與目標生物特性是否相符。因此用指紋而不是指甲,用虹膜而不是睫毛,用臉部而不是後腦勺作為生物特性來作為識別。指紋 虹膜 臉部有正面才有明顯的特徵值,尤其是面部成像才有可能快速區別兩...

A演算法和A 演算法的區別是什麼

若羽 A 演算法是一種可容納最優的啟發式搜尋演算法 其中 是最接近目標的真實代價,是實際A 演算法擬合的函式。伯克利的CS188課舉過這樣乙個例子 A是最優目標 區域性的 B是次優目標。B在邊緣,A的一些祖先節點n也在邊緣,代價函式f n 小於f A A 搜尋必須考慮forward cost和bac...