Deeperent 153

FaceNet: A Unified Embedding for Face Recognition and Clustering 논문 리뷰

작성자:김정민 Background K-NN 분류 k-Nearest Neighber / k-최근접 이웃 알고리즘 지도학습 중 분류 문제에 사용하는 알고리즘이다. 분류 문제란 새로운 데이터가 들어왔을 때 기존 데이터의 그룹 중 어떤 그룹에 속하는지를 분류하는 문제를 말한다. k-NN은 새로 들어온 "★은 ■ 그룹의 데이터와 가장 가까우니 ★은 ■ 그룹이다." 라고 분류하는 알고리즘이다. 여기서 k의 역할은 몇 번째로 가까운 데이터까지 살펴볼 것인가를 정한 숫자이다. Embedding 임베딩 추천 시스템이나 군집 분석에 활용할 수 있다. embedding vector space 상에서 가까운 데이터들은 비슷한 특성을 공유하고 있다. supervised 머신러닝의 input 데이터로 사용할 수 있다. 범주간의 ..

강화학습팀 4월 25일 프로젝트 진행상황

발표자 : 김성훈 위 학습데이터는 이번 주에 제가 로컬로 4일정도 돌려서 얻은 결과 입니다. 에피소드는 50000개를 돌렸고, 한 에피소드당 트레인 에포크는 10번이라서 총 에포크는 500000입니다. 최초에 랜덤 폴리시인때는 -800정도의 스코어를 보였는데 이 정도 학습으로는 벽을 피하는 정도로만 보이고, 어떻게는 살아남는 쪽으로 학습된것 같습니다. 그래서 살아남는 동안 마이너스 리워드가 쌓여 익스플로레이션이 막 끝난 참에는 리워드가 -1000에서 -2000 정도를 보여줬습니다. 이 정도 에피소드를 진행하는데 4일이 걸려서, 빠른시일내에 코랩으로 옮겨서 GPU를 사용해야만 할 것 같습니다. 현재 드론에 입력되는 스테이트가 30개 인데, 다이나믹스를 업데이트하기 위해 모두 필요한 값이며, 간편성을 위해서..

Stereo R-CNN, 3D Box Estimation (가제)

- 3D Box Estimation Stereo R-CNN를 통해 얻을 수 있는 정보는 다음과 같다. 왼쪽 카메라로 부터는 bbox의 상하좌우 테두리 픽셀의 좌표와, 바라봐지는 대상의 원근감을 표현하는 한점 까지 5개이며, 오른쪽 카메라 부터는 단순히 bbox의 좌우 테두리 픽셀 좌표, 2데이터를 얻게된다. 필자의 생각엔 오른쪽 카메라는 단순히 왼쪽카메라로부터 x축만 오프셋 되어있고, 동일한 yz평만상에 위치한다. 따라서 두 카메라에서 바라볼때 유의미하게 달라지는 데이터는 bbox의 x좌표일 것이므로, 나머지 데이터는 사용하지 않는 것으로 사려된다. [ 이전 스텝으로 부터 얻은 데이터들 : Z = {ul,vt,ur,vb,u0_l,u0_r,up} ] 그러나 이 데이터들은 2D 이미지 상에서 원근감을 잘 표..

3.5기(200104~) 2020.04.19

Stereo R-CNN based 3D Object Detection for Autonomous Driving 논문 리뷰

작성자:김정민 제 블로그에서 작성중인 글인데 같이 하는 겸해서 올립니다. 세미나 끝나고 수정해보겠습니다. 1.Introduction 3D object detection은 LiDAR에 의존하는데 코스트가 높고 낮은 지각 범위를 갖는다 그리고 밀도가 낮은 정보를 갖는다 Monocular cameras는 낮은 코스트의 솔루션을 갖는다. 하지만 참조된 깊이는 정확도를 보장할 수 없다. 그래서 stereo-vision based 3d object를 추천한다. 이것은 left-right 광도 측정 정열에 의한 것이다. LiDAR와 비등한 수준의 non-trivial disparities에 대한depth Accuracy를 제공한다. 인식의 범위는 focal length 와 baseline에 따라 달라진다. 우리는 추..

Monthly Seminar 2020.04.18

강화학습 20.04.16 드론에이전트 & 학습환경 수정

스터디 : 20.04.16 행아웃 작성자 : 김성훈 기존 드론 환경 수정 : 이전에 작성했던 환경은 discrete action에 마추어 구성되어있었다. 이번 주차에 DDPG 알고리즘을 도입하며, contineous action에 걸맞게 Environment step을 수정하게 되었다. 또한 이전엔 드론 시뮬레이션을 나이브한 방식으로 표현했었는에 마침 환경을 수정하게 되어, 드론 시뮬레이션의 퀄리티도 상당부분 손보게 되었다. 우선 기존엔 드론은 앞으로만 나가알 수 있었기에 라이다센서를 전방에만 배치했는데, 이제부턴 드론의 앞뒤 구분을 없애어 90도 간격으로 라이더를 결합한 형태로 수정하였다. 그리고 액션의 종류와 액션을 통한 다이나믹스를 변경하였다. 실제 드론은 위치이동을 하기위해선 inner contr..

6주차_20/04/06_감정인식 프로젝트

모임 일자 : 4월 6일 월요일 학생회관 식당 2시 -모여서 다같이 코딩 -진행 방향에 대해 고민 1. 현재 파악한 문제 점 - 네트워크에 관한 공부보다 프로그램 전체적인 구조와 연결에 관한 진행이 더 길어지고 세부적으로 진행 됨 - 좀더 딥러닝과 네트워크에 대해 공부하고 직접 코드 구현을 해볼 수 있는 방향으로 바꾸 고자 함 2. 방향 전환 - 오픈 소스 코드로 테스트 한후 네트워크 선정 - 실시간으로 표정 인식을 해서 두가지 모드 상태에 따라, 모드에 맞는 감정이 나타날 경우 졌다고 판단 - 단계와 모드 선택시 랜덤으로 영상 재생 - 오픈 소스 코드로 테스트 하지 않고, 처음에 후보에 있었던 네트워크들 모두 직접 구현해서 테스트 해보기 3. 이번주 진행 - 후보에 있었던 모델 중 하나인 Xceptio..

강화학습팀 20.04.11 DDPG

발표자 : 김성훈 스터디 : 20.04.09 상암 탐앤탐스 DDPG 논문리딩 강화학습에서 커리큘럼 순서상 여러가지 기준을 세워 나눈다면 다음과 같다, 1단계는 Model based 방법으로 모든 MDP의 정보가 알려져 있을 때 모든 정보를 한번에 업데이트하는 DP에 대한 방법들이다. 2단계는 unknown MDP. 즉 model free 방법으로 finite state, finite action을 대상으로하는 policy iteration과 value interation 까지 배우게 된다. 마지막으로 state의 개수가 무한한 경우를 처리하기 위하여 인공신경망을 접목한 것부터 시작하여, low dimension action을 처리하는 DQN, high dimension action까지 확장한 Policy..

감정인식팀 5주차

회의 날짜 : 2020.04.02 목요일 회의 장소 : 온라인(구글 행아웃) 참여자: 성광현 송근영 윤나라 황선경 박형준 활동 내용 1. 영상 수집: 구글 드라이브 사용 2. 감정별(공포,웃음) 수집된 영상의 단계(Level 1, 2, 3) 결정 - 팀원들과 영상 시청 후 결정 3. 동영상 리스트에서 랜덤으로 영상을 불러오는 코드 작성 - 난이도를 선택하면 랜덤으로 해당되는 난이도의 영상을 불러오도록 함 다음 활동 계획 프로그램 코드 구체화 - 랜덤으로 불러온 영상을 시청했을 때 참여자의 감정을 인식 - 해당 감정의 표출 정도가 일정 기준값을 넘기면 자동으로 종료