3.5기(200104~) 53

감정인식 프로젝트 마무리

감정인식팀이 지금까지 진행한 프로젝트에 대해 정리해봤습니다. 올해 은익체전이 취소되서 원래 목표했던 행사는 진행하지 못해서 아쉽네요~.~ 감정인식 프로젝트를 계획. 단순히 감정을 인식하는 것보다 이를 게임이나 미션으로 연관시키면 흥미를 더 끌 수 있을 것으로 보고 게임으로 구현하기로 함 ‘웃음참기'와 같이 여러가지 영상 시청 후 표정 변화가 없을 수록 높은 점수를 받는 미션을 진행하기로 결정했고 이 영상에서와 같이 실시간으로 인물의 표정을 통해 감정을 인식 MobileNet은 컴퓨터 성능이 제한되거나 배터리 퍼포먼스가 중요한 곳에서 사용될 목적으로 설계된 CNN 구조 기존의 Convolution Layer는 너무 무겁다! Small DNN을 만들자 MobileNetv2는 Depth-wise Separab..

출석관리팀 프로젝트 마무리

2020년 봄학기 프로젝트 3월 4일~5월 20일 3.5기 출석관리팀 원래 목표 https://kau-deeperent.tistory.com/46?category=845009 딥러닝을 이용한 출석관리 계획 스터디 진행 2020년 3월 4일 DMC 탐탐 출석관리팀:김정민,박승재,최웅준,최영환,한준희 프로젝트 구체적인 주제 휴대폰 카메라를 통해서 인식한 사진을 기존에 저장되어 있던 DB와 비교하여 출석을 kau-deeperent.tistory.com 프로젝트의 세부 일정과 각 주의 목표 첫 주차 목표: 특징 추출을 통해서 얼굴의 각 부분을 인식 2주 차 목표: 학습한 모델을 가지고 해당 인물을 인식 3주 차 목표: DB 구성 4주 차 목표: 웹 서버 구성 5주 차 목표: 웹을 통한 카메라 제어 6주 차 목표..

DcGan 논문리뷰 (1~3)

출석관리팀 회의날짜:05/15 장소:온라인 1.Introduction 2.Related Works 3.Approach and Model architecture 1.Introduction ->1.간의 결과는 불안정하다. ->2.어떠한 방법으로 이미지를 생성햇는지 알수없어서 filter visualize를 할 것이다. 2.Related works ->1.Representational Learning from unlabeld data ->2.Generating natural images ->3.visualizing 3.Approach and model architecture ->1.strided convolution ->2.fully connected hidden layer 삭제 ->3.batch normal..

[출석관리팀] 샴 네트워크 데이터셋 구성

작성자:김정민 FACENET을 사용할지 샴 네트워크를 사용할지 고민을 하다가 적은 데이터로도 학습이 가능하고 비교적 간단한 샴 네트워크를 사용하기로 했습니다. 동아리 회원들의 사진으로 테스트 데이터셋을 구성하여 성능을 테스트해본 결과 유의미한 결과를 얻어 낼 수 있었습니다. 회원들의 사진을 받고 코드를 좀 더 수정해서 모델을 완성시킬 수 있을것 같습니다. 하지만 출석관리팀에서 배포까지 할 수 있을지 의문 입니다. 배포까지 하기에는 코딩이나 기초적인 실력이 부족한것 같기도 해서 배포는 고려 중 입니다. 개인적인 생각으로는 배포는 포기하고 코딩이나 선형대수학 통계론등을 학습하는 팀을 만들어서 1학기를 진행해보고 싶은 마음이 있습니다. 세부코드는 이전 글 https://metar.tistory.com/30?c..

FaceNet: A Unified Embedding for Face Recognition and Clustering 논문 리뷰

작성자:김정민 Background K-NN 분류 k-Nearest Neighber / k-최근접 이웃 알고리즘 지도학습 중 분류 문제에 사용하는 알고리즘이다. 분류 문제란 새로운 데이터가 들어왔을 때 기존 데이터의 그룹 중 어떤 그룹에 속하는지를 분류하는 문제를 말한다. k-NN은 새로 들어온 "★은 ■ 그룹의 데이터와 가장 가까우니 ★은 ■ 그룹이다." 라고 분류하는 알고리즘이다. 여기서 k의 역할은 몇 번째로 가까운 데이터까지 살펴볼 것인가를 정한 숫자이다. Embedding 임베딩 추천 시스템이나 군집 분석에 활용할 수 있다. embedding vector space 상에서 가까운 데이터들은 비슷한 특성을 공유하고 있다. supervised 머신러닝의 input 데이터로 사용할 수 있다. 범주간의 ..

강화학습팀 4월 25일 프로젝트 진행상황

발표자 : 김성훈 위 학습데이터는 이번 주에 제가 로컬로 4일정도 돌려서 얻은 결과 입니다. 에피소드는 50000개를 돌렸고, 한 에피소드당 트레인 에포크는 10번이라서 총 에포크는 500000입니다. 최초에 랜덤 폴리시인때는 -800정도의 스코어를 보였는데 이 정도 학습으로는 벽을 피하는 정도로만 보이고, 어떻게는 살아남는 쪽으로 학습된것 같습니다. 그래서 살아남는 동안 마이너스 리워드가 쌓여 익스플로레이션이 막 끝난 참에는 리워드가 -1000에서 -2000 정도를 보여줬습니다. 이 정도 에피소드를 진행하는데 4일이 걸려서, 빠른시일내에 코랩으로 옮겨서 GPU를 사용해야만 할 것 같습니다. 현재 드론에 입력되는 스테이트가 30개 인데, 다이나믹스를 업데이트하기 위해 모두 필요한 값이며, 간편성을 위해서..

Stereo R-CNN, 3D Box Estimation (가제)

- 3D Box Estimation Stereo R-CNN를 통해 얻을 수 있는 정보는 다음과 같다. 왼쪽 카메라로 부터는 bbox의 상하좌우 테두리 픽셀의 좌표와, 바라봐지는 대상의 원근감을 표현하는 한점 까지 5개이며, 오른쪽 카메라 부터는 단순히 bbox의 좌우 테두리 픽셀 좌표, 2데이터를 얻게된다. 필자의 생각엔 오른쪽 카메라는 단순히 왼쪽카메라로부터 x축만 오프셋 되어있고, 동일한 yz평만상에 위치한다. 따라서 두 카메라에서 바라볼때 유의미하게 달라지는 데이터는 bbox의 x좌표일 것이므로, 나머지 데이터는 사용하지 않는 것으로 사려된다. [ 이전 스텝으로 부터 얻은 데이터들 : Z = {ul,vt,ur,vb,u0_l,u0_r,up} ] 그러나 이 데이터들은 2D 이미지 상에서 원근감을 잘 표..

3.5기(200104~) 2020.04.19

강화학습 20.04.16 드론에이전트 & 학습환경 수정

스터디 : 20.04.16 행아웃 작성자 : 김성훈 기존 드론 환경 수정 : 이전에 작성했던 환경은 discrete action에 마추어 구성되어있었다. 이번 주차에 DDPG 알고리즘을 도입하며, contineous action에 걸맞게 Environment step을 수정하게 되었다. 또한 이전엔 드론 시뮬레이션을 나이브한 방식으로 표현했었는에 마침 환경을 수정하게 되어, 드론 시뮬레이션의 퀄리티도 상당부분 손보게 되었다. 우선 기존엔 드론은 앞으로만 나가알 수 있었기에 라이다센서를 전방에만 배치했는데, 이제부턴 드론의 앞뒤 구분을 없애어 90도 간격으로 라이더를 결합한 형태로 수정하였다. 그리고 액션의 종류와 액션을 통한 다이나믹스를 변경하였다. 실제 드론은 위치이동을 하기위해선 inner contr..