Monthly Seminar

얼굴 인식에 대해서

KAU-Deeperent 2020. 3. 13. 23:29

작성자 최영환

얼굴인식3..show
5.51MB

 

 

 

얼굴 인식의 4단계

1. 검출(detection)        : 주어진 사진에서, ‘얼굴에 해당하는 부분을 찾아 표시하는 것을 말합니다

2. Alignment(정렬단계) : 눈, 코, 입등  주요 특징등을 표시하는 단계이다.

3. normaliztion(표준화) : 얼굴을 정면으로 보게하는 단계이다.

4. recognition    (인식) : 사진속 얼굴이 누구인지 맞추는 단계이다.

 

얼굴을 인식하는 두가지 방법. 1. identificaion 2. verificaiton

 

Deep  face논문을 보면 정렬부분과 표준화 부분에서 3d모델링 기술을 사용하여 데이터를 얻는다. 이 방법으로 정면을 보고 있지 않은 사진 그리고 그림자가 진 얼굴의 사진 같은 문제들을 어느정도 해결 할 수 있었다. 그리고이어서 이방법을 사용한것이 우리가 잘 알고 있는 아이폰의 faceid이다.

 

 

 

 

____harracacade를 이용한 얼굴인식 실습하기___

git bash를 이용해서 실행

 

 

 

 

학습에 사용된 내 얼굴 사진들

 

 

 

학습을 시킨후에 얼굴 인식 확인

 

 

 

 

 

<사용된 코드>

import cv2
import numpy as np
from os import listdir
from os.path import isfile, join

data_path = 'faces/'  ## 내 얼굴을 담을 폴더를 하나 지정해준다.
onlyfiles = [f for f in listdir(data_path) if isfile(join(data_path,f))]

Training_Data, Labels = [], []

for i, files in enumerate(onlyfiles):
image_path = data_path + onlyfiles[i]
images = cv2.imread(image_path, cv2.IMREAD_GRAYSCALE)  ## 내 얼굴 이미지를 받아들이는 함수
Training_Data.append(np.asarray(images, dtype=np.uint8))
Labels.append(i)

Labels = np.asarray(Labels, dtype=np.int32)

model = cv2.face.LBPHFaceRecognizer_create()

model.train(np.asarray(Training_Data), np.asarray(Labels))

print("Model Training Complete!!!!!")   ## 모델학습 종료

face_classifier = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')

def face_detector(img, size = 0.5):
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)   ##이미지의 컬러를 흑백으로 만들어준다.
faces = face_classifier.detectMultiScale(gray,1.3,5)

if faces is():
return img,[]

for(x,y,w,h) in faces:
cv2.rectangle(img, (x,y),(x+w,y+h),(0,255,255),2)
roi = img[y:y+h, x:x+w]
roi = cv2.resize(roi, (200,200))

return img,roi

cap = cv2.VideoCapture(0)  ## 카메라 열기
while True:

ret, frame = cap.read()

image, face = face_detector(frame)

try:
face = cv2.cvtColor(face, cv2.COLOR_BGR2GRAY)
result = model.predict(face)

if result[1] < 500:
confidence = int(100*(1-(result[1])/300))
display_string = str(confidence)+'% Confidence it is user'
cv2.putText(image,display_string,(100,120), cv2.FONT_HERSHEY_COMPLEX,1,(250,120,255),2)


if confidence > 75:  ## 정확도를 75프로 넘어주면 통과
cv2.putText(image, "Choi young hwan", (250, 450), cv2.FONT_HERSHEY_COMPLEX, 1, (0, 255, 0), 2)
cv2.imshow('Face Cropper', image)

else:
cv2.putText(image, "locked", (250, 450), cv2.FONT_HERSHEY_COMPLEX, 1, (0, 0, 255), 2)
cv2.imshow('Face Cropper', image)


except:
cv2.putText(image, "Face Not Found", (250, 450), cv2.FONT_HERSHEY_COMPLEX, 1, (255, 0, 0), 2)
cv2.imshow('Face Cropper', image)
pass

if cv2.waitKey(1)==13:
break


cap.release()
cv2.destroyAllWindows()