작성자 최영환
1. 검출(detection) : 주어진 사진에서, ‘얼굴’에 해당하는 부분을 찾아 표시하는 것을 말합니다.
2. Alignment(정렬단계) : 눈, 코, 입등 주요 특징등을 표시하는 단계이다.
3. normaliztion(표준화) : 얼굴을 정면으로 보게하는 단계이다.
4. recognition (인식) : 사진속 얼굴이 누구인지 맞추는 단계이다.
얼굴을 인식하는 두가지 방법. 1. identificaion 2. verificaiton
Deep face논문을 보면 정렬부분과 표준화 부분에서 3d모델링 기술을 사용하여 데이터를 얻는다. 이 방법으로 정면을 보고 있지 않은 사진 그리고 그림자가 진 얼굴의 사진 같은 문제들을 어느정도 해결 할 수 있었다. 그리고이어서 이방법을 사용한것이 우리가 잘 알고 있는 아이폰의 faceid이다.
____harracacade를 이용한 얼굴인식 실습하기___
git bash를 이용해서 실행
학습에 사용된 내 얼굴 사진들
학습을 시킨후에 얼굴 인식 확인
<사용된 코드>
import cv2
import numpy as np
from os import listdir
from os.path import isfile, join
data_path = 'faces/' ## 내 얼굴을 담을 폴더를 하나 지정해준다.
onlyfiles = [f for f in listdir(data_path) if isfile(join(data_path,f))]
Training_Data, Labels = [], []
for i, files in enumerate(onlyfiles):
image_path = data_path + onlyfiles[i]
images = cv2.imread(image_path, cv2.IMREAD_GRAYSCALE) ## 내 얼굴 이미지를 받아들이는 함수
Training_Data.append(np.asarray(images, dtype=np.uint8))
Labels.append(i)
Labels = np.asarray(Labels, dtype=np.int32)
model = cv2.face.LBPHFaceRecognizer_create()
model.train(np.asarray(Training_Data), np.asarray(Labels))
print("Model Training Complete!!!!!") ## 모델학습 종료
face_classifier = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')
def face_detector(img, size = 0.5):
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) ##이미지의 컬러를 흑백으로 만들어준다.
faces = face_classifier.detectMultiScale(gray,1.3,5)
if faces is():
return img,[]
for(x,y,w,h) in faces:
cv2.rectangle(img, (x,y),(x+w,y+h),(0,255,255),2)
roi = img[y:y+h, x:x+w]
roi = cv2.resize(roi, (200,200))
return img,roi
cap = cv2.VideoCapture(0) ## 카메라 열기
while True:
ret, frame = cap.read()
image, face = face_detector(frame)
try:
face = cv2.cvtColor(face, cv2.COLOR_BGR2GRAY)
result = model.predict(face)
if result[1] < 500:
confidence = int(100*(1-(result[1])/300))
display_string = str(confidence)+'% Confidence it is user'
cv2.putText(image,display_string,(100,120), cv2.FONT_HERSHEY_COMPLEX,1,(250,120,255),2)
if confidence > 75: ## 정확도를 75프로 넘어주면 통과
cv2.putText(image, "Choi young hwan", (250, 450), cv2.FONT_HERSHEY_COMPLEX, 1, (0, 255, 0), 2)
cv2.imshow('Face Cropper', image)
else:
cv2.putText(image, "locked", (250, 450), cv2.FONT_HERSHEY_COMPLEX, 1, (0, 0, 255), 2)
cv2.imshow('Face Cropper', image)
except:
cv2.putText(image, "Face Not Found", (250, 450), cv2.FONT_HERSHEY_COMPLEX, 1, (255, 0, 0), 2)
cv2.imshow('Face Cropper', image)
pass
if cv2.waitKey(1)==13:
break
cap.release()
cv2.destroyAllWindows()
'Monthly Seminar' 카테고리의 다른 글
AI겨울과 미래 (0) | 2020.04.27 |
---|---|
Stereo R-CNN based 3D Object Detection for Autonomous Driving 논문 리뷰 (0) | 2020.04.18 |
Polynomial Neural Network (0) | 2020.04.03 |
20.02.29 Monthly Seminar 자율주행자동차 (1) | 2020.03.02 |
웹크롤링 & 3.5기 프로젝트 시작 전 회의 (0) | 2020.02.29 |