人臉辨識(Face recognition)解析與實作 - Medium
文章推薦指數: 80 %
來自《DeepFace: Closing the gap to human-level performance in face verification》(2014) [1]與《FaceNet: A Unified Embedding for Face ...
CodinglikecoffeeCodinglikecoffee人臉辨識(Facerecognition)解析與實作使用Tensorflow,Keras&OpenCVJackLinFollowApr25,2019·11minreadsource來自《DeepFace:Closingthegaptohuman-levelperformanceinfaceverification》(2014)[1]與《FaceNet:AUnifiedEmbeddingforFaceRecognitionandClustering》(2015)[2]這兩篇paper提出的方法,此外利用OpenCV來擷取Webcam的影像,並使用其提供的HaarCascade分類器進行人臉檢測(FaceDetection)在FaceRecognition(人臉辨識)的問題上,通常會再進一步分成兩個種類:FaceVerification(人臉驗證):給予輸入image,name/ID輸出是否為此人視為1:1matchingprobleme.g.手機的人臉解鎖FaceRecognition(人臉辨識):擁有K個人物的Database給予Inputimage輸出ID,if(image為K個人物中的其中一個)無法辨識此人,if(image不為K個人物中任何一個)視為1:Kmatchingprobleme.g.使用的人臉辨識的員工通行閘門Concept在人臉辨識(FaceRecognition)的應用中經常要做到只靠一張照片就能辨認一個人,但深度學習(DeepLearning)的演算法在只有一筆訓練資料的情況下效果會很差,所以在人臉辨識中必須解決OneShotLearning(單樣本學習)的問題OneShotLearning(單樣本學習)假定某公司內的Database共有4位人員的照片各一張,當有其中一位人員經過系統前的鏡頭並被捕捉到臉孔後,儘管Database只有一張此人的照片,系統依然能辨認出此臉孔為公司裡的員工,相反的,若不為公司內人員則無法辨識此人SimilarityFunction(相似度函數)為了達到OneShotLearning(單樣本學習)這樣的目標,我們希望讓NN(NeuralNetwork)去學習一個函數dd(img1,img2):給予兩張照片,輸出這兩張照片的相異程度如果兩張照片是同一個人,則輸出一個較小的數字如果兩張照片是不同人,則輸出一個較大的數字此外,需定義一個Hyperparameter(超參數)「τ」如果d(img1,img2)≤τ→相同如果d(img1,img2)>τ→不同如此一來就解決了人臉驗證的1:1matchingproblem,而在人臉辨識的1:Kmatchingproblem同樣也可使用此函數來解決One-ShotLearning(單樣本學習)的問題找出距離小於τ的人像,並辨識出此人比對資料庫內人像的距離都大於τ,無法辨識此人Siamesenetwork(孿生網路)使用《DeepFace:Closingthegaptohuman-levelperformanceinfaceverification》(2014)[1]提出的Siamesenetwork架構來達成上述SimilarityFunction的效果,其實就是使用兩個常見的ConvNet的網路架構,這個兩個網路擁有相同的參數與權重,一樣經由Convolution(卷積)、Pooling(池化)、Fullyconnectedlayers(全連接層)最後得到一個帶有128個數字的特徵向量(featurevector),而這個過程稱為encoding(編碼)Siamesenetwork(孿生網路)將兩張圖片(這裡稱x(1)與x(2))放入這兩個ConvNet後得出編碼的兩個特徵向量(featurevector)為了算出兩張圖片相似度,方式為將這兩個經由編碼所獲得的128維特徵向量f(x1)、f(x2)相減並取2範數(2-Norm)的平方,這樣我們就透過Siamesenetwork學習出我們所想要的SimilarityFunction(相似度函數)SimilarityFunction(相似度函數)Note:2範數(2-Norm)又稱為為歐基里德範數(Euclideannorm),是以歐式距離的方式作為基礎,計算出向量的長度或大小(線性代數的內積空間經常用到)2範數(2-Norm)總結來說,在Siamesenetwork的架構我們希望能學出一種encoding(編碼)方式,更準確來說是希望學習出參數使得我們能達成以下的目標在上述的目標中,改變ConvNet每一層的參數就會得到不同的編碼,所以我們可以利用反向傳播(Backpropagation)來更改這些參數以達到上列的目標TripletLoss(三元組損失)在NN(NeuralNetwork)的訓練中,都需要一個損失函數(Lossfunction)作為最小化(minimize)目標,而在Facerecognition的應用中為了能夠學習參數來得到良好的編碼(encoding),《FaceNet:AUnifiedEmbeddingforFaceRecognitionandClustering》(2015)[2]這篇論文提出一種有效的損失函數稱為TripletLoss(三元組損失)在TripletLoss中會有Anchor、Positive、Negative這三種照片Positive為與Anchor同個人的照片Negative則為不同人的照片我們需要比較Anchor分別與Positive和Negative一組的兩對的照片目標是希望Anchor與Positive的距離(編碼)較近,與Negative的距離(編碼)較遠也就是說,我們希望神經網路的參數所造成的編碼能夠使Anchor與Positive的距離小於等於Anchor與Negative的距離這樣的性質TripletLoss在上圖中,Anchor、Positive、Negative分別簡寫為A、P、N如果f變成零函數會將每個向量的輸出都變成零,就是所謂的trivialsolutions,則0–0≤0這樣就很容易滿足這個不等式,會讓NN學不到我們的目標為了不讓NN將編碼學習成零函數,我們希望兩對的照片的差距不只小於等於零,還要比零還小一些,因而引進一個超參數(Hyperparameter)α,這個α稱為邊距(margin),我們讓≤這個符號左邊的式子小於負α,習慣上會將α移到式子左邊而邊距(margin)用意即是拉開d(A,P)與d(A,N)這兩對的差距,就是把這兩對推開,盡量的遠離彼此e.g.假設margin=0.2,表示若d(A,P)=0.5則d(A,N)至少0.7才符合上述的不等式,若d(A,N)為0.6就不符合,因為兩組的差距不夠大TripletLoss的實現如下LossFunction(損失函數)TripletLoss定義在3張一組的圖片A、P、N上,則損失函數可以定義成:LossFunction這個max函數的用意在於,若括號的左邊項≤0則損失就為零,若左邊項>0則損失變成大於零;而我們是希望損失越小越好,所以只要左邊項≤0不管負多少,就能把損失推向零Costfunction(成本函數)將訓練資料裡一組三張圖片的損失加總起來作為整體NN的總成本(Totalcost),並利用Gradientdescent(梯度下降法)來去訓練NN最小化成本CostfunctionNote:假定有10000張訓練圖片,分別來自1000個不同的人(每人約10張圖片)才能構成我們的資料集,若每個人只有一張照片這樣就無法順利挑出Anchor與Positive,但是當NN訓練完成後就可以將系統用在One-shotLearning的問題,對於你想辨識的人,你可能只有他的一張照片也能順利辨識出此人。
ChoosingthetripletsA,P,N在訓練資料中,Triplets(三元組)樣本的選擇會是一個問題,因為在上述學習目標d(A,P)+α≤d(A,N)中,若只按照要求隨機的選擇同一個人的照片A與P和不同人照片A與N,則這個不等式很容易就被滿足,因為隨機挑兩個人的照片有很大的機率使得A與N差異遠大於A與P,這會使得NN無法學習有效的參數因此,要建立訓練集的話必須挑選那種很難訓練的A,P和N,因為目標是讓所有Triplets(三元組)滿足d(A,P)+α≤d(A,N)這個不等式,而很難訓練的Triplets(三元組)的意思就是你所挑選的A,P和N會讓d(A,P)≈d(A,N),如此一來NN在學習的時候就必須花更大的力氣嘗試讓d(A,N)往上推或讓d(A,P)往下掉,推開彼此以達到相隔α的邊距,這樣的效果會讓你的學習演算法更效率;反之,若隨便選會導致很多的Triplets(三元組)都解起來很簡單,Gradientdescent(梯度下降法)就不會再做任何事,因為你的NN早已把問題都做對了,這部分在《FaceNet:AUnifiedEmbeddingforFaceRecognitionandClustering》(2015)[2]這篇論文有更詳細的說明Facedetection(人臉偵測)在人臉偵測的部分使用OpenCV的HaarCascade分類器,選擇的為人臉分類器haarcascade_frontalface_default.xmlUsage完整的程式在我的githubOnWindowseg:WithTensorflowasbackend>pythonfacenet.pyResult利用OpenCV的HaarCascade分類器進行人臉偵測(Facedetection)人臉偵測(Facedetection)偵測出人臉後使用預訓練的FaceNet來進行encoding並計算距離,辨識從Webcam讀取的影像是否為資料庫中的人物-若距離小於0.7則回傳資料庫內對應的人名與印出字串並發出語音”Welcome(someone),haveaniceday!”-若不是則繼續偵測人臉並計算當下影像的編碼與距離OutputdistanceReferences[1]《DeepFace:Closingthegaptohuman-levelperformanceinfaceverification》[2]《FaceNet:AUnifiedEmbeddingforFaceRecognitionandClustering》[3]FaceDetectioninPythonUsingaWebcam[4]OpenFacepretrainedmodel[5]OfficialFaceNetgithubrepositoryCodinglikecoffeeSharingthesubjectofComputerVisionandDataScience214DeepLearningFaceRecognitionTensorFlowKerasOpencv214 claps214CodinglikecoffeeComputerVisionandDeepLearningWrittenbyJackLinFollowSharingthesubjectofdatascienceanddeeplearningCodinglikecoffeeComputerVisionandDeepLearning
延伸文章資訊
- 1基於FaceNet之偽裝人臉身份辨識
本論文提出基於FaceNet之偽裝人臉身份辨識系統,其目的為當辨識目標穿著偽裝物品時,系統可以正確識別身份。系統使用Single Shot Multibox Detector (SSD)檢測臉部...
- 2Face Recognition with FaceNet - Yy's Program
Face Recognition with FaceNet. Google在2015年提出透過深度學習的方式處理人臉辨識的系統FaceNet 該 ...
- 3人臉辨識(Face recognition)解析與實作 - Medium
來自《DeepFace: Closing the gap to human-level performance in face verification》(2014) [1]與《FaceNet:...
- 4[AI#10]人臉辨識 - iT 邦幫忙
3. 人脸识别:FaceNet论文详解. #人臉辨識大致可分成以下四個主要的步驟: • 人臉偵測mtcnn(Multi-task Cascaded Convolutional Networks)...
- 5人臉辨識模型Google Facenet 介紹與使用 - MakerPRO
本篇文章介紹Facenet 的辨識模型和架構,並在Keras 環境下實際測試。 近年來透過深度學習以及CNN,不但開啟了人臉辨識領域的新紀元,也讓傳統的LBP、HOG ...