5기(210102~)/A팀 6

[Pytorch] Siamese network를 이용하여 나의 외모를 점검해보자_2탄

※ hackernoon.com/facial-similarity-with-siamese-networks-in-pytorch-9642aa9db2f7의 도움을 아주 많이 받았습니다. Facial Similarity with Siamese Networks in PyTorch | Hacker Noon Facial Similarity with Siamese Networks in PyTorch This is Part 2 of a two part article. You should read part 1 before continuing here. In the last article discussed the class of problems that one shot learning aims to solve, and how ..

5기(210102~)/A팀 2021.02.27

[Pytorch] Siamese network를 이용하여 나의 외모를 점검해보자_1탄

나는 왜 여자 친구가 없을까? 3자가 본다면 바로 의심해볼 만할 구석이 있겠지만, 정작 자신은 받아들이기 힘든 이유가 있습니다. 제가 생각하는 연인이 있을 확률은 다음과 같습니다. 제가 생각하는 외모가 1인 사람은 원빈입니다. 머신러닝을 통해 제 얼굴을 원빈과 고릴라와 비교하여 보겠습니다. 이 과정에서 Siamese Network를 통한 얼굴인식, One_shot Learning에 대해서도 알아볼 수 있을 것입니다. [One Shot Learning] 소규모의 데이터 혹은 한번 본 물체를 많은 데이터와 비교하고 분류할 때 사용하는 방법입니다. 기존의 딥러닝 방식은 Convolution network가 충분히 학습할 수 있도록 많은 양의 데이터를 요구합니다. 하지만 얼굴 인식에서는 많은 데이터 확보가 어렵..

5기(210102~)/A팀 2021.02.18

[Pytorch] 데이터를 뻥튀기하자! Data Augmentation

머신러닝을 하는 중 데이터 수집 단계에서 복사-붙여 넣기의 유혹에 빠지곤 합니다. 데이터를 모으기도 귀찮고, 원하는 이미지 데이터를 직접 잘라내는 일도 만만치 않은 작업입니다. 다행히 우리는 DATA Augmentation이라는 데이터 뻥튀기하는 방법을 알고 있습니다. [DATA Augmentation이란?] 한정된 데이터를 적절한 작업을 통해 늘릴 수 있습니다. 우선 다음 사진을 보겠습니다. 인간의 눈으로 보면 위 사진은 같은 고양이를 약간 돌리거나 좌우 반전한 모습에 지나지 않습니다. 하지만 컴퓨터의 눈으로 위 사진을 본다면, 살짝 돌리거나 좌우 반전한 같은 고양이의 사진은 완전히 새로운 데이터가 될 것입니다. 컴퓨터는 이미지를 볼 때 세 개의 채널(RGB)로 나누고, 각 픽셀의 RGB농도를 조절하여..

5기(210102~)/A팀 2021.02.13

모두의 딥러닝2 Lec 14~17 review

안녕하세요? A조 발표를 맡은 홍혜선입니다. 강의 내용은 14~17강의 전반적인 내용과 조별 회의에서 다뤘던 내용을 중심으로 준비했습니다. 먼저 저는 강의별로 내용을 정리했습니다. 14강에서는 ReLU를 다뤘습니다. 기존에 사용했던 Sigmoid는 양 끝 Gradient는 0에 수렴하는 값을 가지기에 Vanishing Gradient 현상이 일어날 수 있습니다. Vanishing Gradient는 다음 사진과 같이 여러 레이어를 쓸 때 Backpropagation으로 Gradient가 소멸되는 현상입니다. 그럼 ReLU의 어떤 특징이 Vanishing Gradient문제를 해결할 수 있었을까요? ReLU는 x가 0보다 작을 때 0을 출력하고, X가 0보다 클 때 자기 자신 출력합니다. 그래프로 나타내면 ..

5기(210102~)/A팀 2021.02.05

모두의 딥러닝 2 Lec 10 ~ 13 reviwe

2021/01/23 온라인 스터디 조민성 임정환 전준희 이도훈 홍혜선 압정을 던졌을 때 바닥에 떨어지는 경우를 class1, class2가 있다고 가정하면 위와 같이 가능도를 구할 수 있습니다. 가능도를 최대로 만들어주는 확률 세타를 구하는 것이 목적입니다. 그래프의 형태를 보면 지금까지 배우 Gradient descent가 아닌 Gradient ascent를 통해 구할 수 있음을 알 수 있습니다. Regression을 구할 때 주어진 training data를 통해서 학습을 계속하다보면 training data 안에 있는 noise data들에 의해 붉은 선과 같이 overfitting 된 선이 구해집니다. 원래 구하고 싶었던 파란 선을 구하려면 어떻게 해야할까요? 전체 data에서 일정한 비율로 tr..

5기(210102~)/A팀 2021.01.27

모두의 딥러닝 Lec 1 ~ Lec 5 리뷰

지극히 주관적인 [모두의 딥러닝 시즌 2] 강좌 리뷰입니다. 개인적으로 몰랐던 부분, 알게된 부분을 중점으로 작성하였습니다. 1. 파이토치 인덱싱 넘파이의 인덱싱 과정과 같습니다. 가장 기본적인 연산입니다. 다음과 같은 벡터를 생성해봅시다. a = [0, 1, 2, 3, 4, 5]입니다. 각 연산 결과는 바로 옆에 위치한 사진과 같습니다. a[::] 인덱싱 : 시작이 없으므로 0번째부터, 끝이 없으므로 맨 뒤까지, 점프가 없으므로 기본값인 1이 설정되어 [0, 1, 2, 3, 4, 5]가 출력되었습니다. a[:3] 인덱싱 : 시작이 없으므로 0번째부터, 3번 인덱스까지 1씩 점프하였으므로, [0, 1, 2]가 출력되었습니다. a[:4:2] 인덱싱 : 시작이 없으므로 0번째부터, 4번째 인덱스까지 2씩 점..

5기(210102~)/A팀 2021.01.15