3.5기(200104~) 53

Colab에서 tensorflow ObjectDetection API를 이용해서 Object Detection을 trasnfer learning 해보자.

저희 조는 전이학습(transfer learning)개념을 이용하여 학습시간을 줄여보고자 했습니다. 전이학습이란(transfer learning)? 딥러닝 모델이 있는데 , 이러한 모델의 특징은 첫번째 층(layer)에서 "일반적인 특징"을 추출하고 , 두번쨰 층(layer)에서 "특정 문제에 적합한 특징"을 추출합니다. Yosinski et al. (2014) 논문에서는 이러한 딥러닝의 특성에 대해, '만약 첫 번째 계층에서 추출된 특징이 일반적인 특징이고 마지막 층에서 추출된 특징이 구체적인 특징이라면, 네트워크 내의 어딘가에 일반적인 수준에서 구체적인 수준으로 넘어가는 전환점이 분명 존재할 것이다.' 라고 서술하고 있습니다. 사전 학습된 모델을 이제 나의 프로젝트에 맞게 재정의한다면, 먼저 원래 모..

20.03.13 강화학습 1팀 스터티 / DQN agent 소개

발표자 : 김성훈 DQN은 Deep Q network의 약자로서 강화학습에서 상당히 큰 의미를 가지고 있는 개념이다. 이 논문은 2015년도에 등재되었다. 이전엔 RL에 DNN는 사용되지 않고, 오로지 룩업테이블이나 리니어 피쳐를 활용한 구조가 사용되었다. 그 이유는 뉴럴넷과 같은 비선형모델은 강화학습을 불안정하게 만드는 것 뿐만 아니라 종종 학습을 발산시키게 된다. 그러던중 deep mind 에서 연구한 DQN은 DNN에 RL을 접목시켜 사람 수준의 제어를 가능케 하는 2가지 학습 테크닉을 도입하였다. 앞으로 소개할 개념은 deep RL 에서 대부분 사용되며, 강화학습을 공부한다면 필수적으로 알고 있어야할 것이다. DQN에서 사용한 학습 대상은 아타리 게임이다. 게임 화면의 RGB채널을 input으로 ..

감정인식팀 2주차

회의 날짜: 2020.03.11 회의 장소: 홍대 커피빈 회의 내용: MobileNet v2 논문읽고 공부, 모델 실행시켜보기 팀원: 박형준 성광현 송근영 윤나라 황선경 MobileNetv2 Depth-wise Separable Convolution, 그리고 Linear bottleneck을 갖는 inverted residual 모듈을 제안. 이 모듈은 낮은 치원의 압축된 표현을 입력으로 받아 높은 차원으로 먼저 확장한 뒤, depth-wise convolution 필터를 통과시키고, linear convolution을 통해 다시 낮은 차원 표현으로 projection하는 과정을 거침. 1. Depth-wise Separable Convolutions = Depthwise Convolutions + Po..

Model free Prediction/Control

MDP의 모든 요소(state, tansition probability, reward, discount factor, action)들을 다 알고 있을 때 dynamic programming을 사용하여 optimal value function과 policy를 구했었다. MDP에서 transition matrix를 모르는 상태, 즉 Model free한 상황에서 agent가 value와 policy를 어떻게 학습시킬 수 있을까? 2가지 모델을 통해 그 방법을 자세히 알아보도록 하겠다. 1.Monte Carlo(MC) 1)Prediction -MC prediction에서는 agent가 model free한 상황, 즉 transition probability를 모르는 상황에서 value function 값을 구..

LBF(Local Binary Pattern)을 이용한 얼굴인식

작성자 : 박승재 기본적인 흐름은 노트북의 카메라 웹캠을 통한 Training_data를 모으고, LBPFacerecognizer를 이용한 model을 training_data로 학습한 후에 노트북 웹캠으로 사람의 얼굴이 인지 되었을 때 회원인지 비회원인지를 판별해내는 데 까지 구현을 해보았습니다. 참조 github는 https://github.com/subhamroy021/Facial-Recognition.git https://github.com/informramiz/opencv-face-recognition-python/blob/master/OpenCV-Face-Recognition-Python.py 입니다. informramiz/opencv-face-recognition-python Face Rec..

3.5기(200104~) 2020.03.11

DeepFace 논문 간단 리뷰:Closing the Gap to Human-Level Performance in Face Verificat

작성자:김정민 Deep face는 어떤 논문인가? What? ·주어진 이미지로부터 사람을 식별할 수 있는 CNN 구조를 묘사하는 논문이다. How? 인풋은 사람의 얼굴이다.(이미지에서 얼굴을 추출하는것이 아니다. 이미 다른 방법에 의해 얼굴은 추출되어 있는것 ) 우선 CNN 구조에 사진을 넣기 전에 2D alignment 와 3D alignment를 거쳐서 사진이 정면을 바라 보도록 해주고 (h)와 같이 새로운 측면에서의 데이터를 얻게 해준다. Alignment pipeline. (a) The detected face, with 6 initial fiducial points. (b) The induced 2D-aligned crop. (c) 67 fiducial points on the 2D-aligne..

face_recognition을 이용한 real time 얼굴 인식

2020 3월 8일 출석관리팀 DMC 탐탐 실시간으로 영상을 전송하여 얼굴 인식을 할 수 있는 face_recognition 라이브러리를 이용하여 실제 최영환과 김정민 얼굴의 영상을 인식하여 실습을 진행해 보았습니다. 최영환의 얼굴은 잘 인식되지 않았었는데 영상의 규격의 문제가 있었던것 같습니다. 갤럭시 a50 앞면 카메라를 이용하니 인식이 잘 되었고 출석체크 모델에 적용해볼 예정입니다. 참조 깃허브는 아래와 같습니다. https://github.com/ageitgey/face_recognition ageitgey/face_recognition The world's simplest facial recognition api for Python and the command line - ageitgey/fac..

감정인식 프로젝트 1주차

발표자 : 황선경 1. 구체적인 주제 설정 은익체전에서 불특정다수에 적용가능한 감정인식 프로젝트를 계획. 단순히 표정을 통해 감정을 인식하는 것보다 이를 게임이나 미션으로 연관시키면 흥미를 더 끌 수 있을 것으로 보고 아이디어 회의를 통해 '웃음참기 챌린지'와 같이 여러가지 영상 시청 후 표정 변화가 없을 수록 높은 점수를 받는 미션을 진행하기로 결정 이 영상에서와 같이 실시간으로 인물의 표정을 통해 감정을 인식(뒤에 있는 Brain Wave Activities는 연관 X) 2. 진행상황 이번 주는 이 프로젝트에서 사용할 네트워크를 선정하는 것이 목표 https://paperswithcode.com/sota 라는 사이트에서 우리의 주제와 적합한 네트워크를 조사한 뒤 후보로 XceptionNet , Mob..

드론 강화학습 개요

-발표자 : 조민성 최근, 드론의 자율비행은 큰 화두로 떠올랐다. 아마존을 비롯한 여러 물류회사에선 드론을 이용해 배달을 하고, 페이스북같은 SNS기업은 인터넷 공유를 위한 드론비행을 시도하기도 했다. 각 나라의 군대 역시 드론을 비롯한 무인기들을 이용한 군사작전을 펼치는 중이다. 이러한 드론의 활용은 머신러닝을 토대로 이루어졌다. - 프로젝트 주제 : * 기본적인 드론의 자율비행을 구현한다. * 주어진 좌표까지의 최적 경로의 발견 및, 장애물 탐지 구현 *이후 학회 내에서 있을 드론 프로젝트들의 초석이 되는 것이 목표 - 예상 세부 일정 : *3~4월 : 가장 기본적인 비행. 전진, 회전을 비론한 각 방향의 비행과, 최적경로의 발견을 목표 아무 훈련 없이 실제 상황에서 학습을 시도할 경우 좋지 않은 결..

3.5기(200104~) 2020.03.07

코랩을 이용하여 샴 네트워크를 구현해보자

발표자: 김정민 실습은 코드도 길고 첨부할 이미지도 많아서 따로 게시물을 작성하였습니다. 코드는 깃허브에서 가져왔고 중간 중간에 조금씩 수정은 하였습니다. 코랩을 이용하였기 때문에 드라이브에 마운트하여 파일을 이용하면 됩니다. 우선 깃허브에 있는 데이터셋으로 이용할 파일을 다운받아주고 코랩라이브러리에 저장해줍니다. 파일에는 각종 이미지가 담겨져 있습니다. 물론 주피터를 사용하신다면 본인 내장 드라이브 주소를 입력하시면 됩니다. /content/drive/My Drive/Colab Notebooks/training 위에 보이는 것이 주소입니다. 후에 언급할것입니다. #각종 라이브러리를 임포트 해줍시다. %matplotlib inline import torchvision import torchvision.d..