Deeperent 153

수학스터디[확률통계] [기대값][기하분포][음이항분포]

스터디 날짜 : 8/13 목요일 스터디 장소: DMC 탐앤탐스 참석 인원 :김정민 박형준 최웅준 구예인 김경태 평균을 구하는 두 가지 방법 1. 요소별 총합을 총 개수로 나눔 2. 각 요소에 빈도 수(가중치)를 곱함 확률변수의 기대값(Average, Mean, Expected Value) 1.이산확률변수X의 기대값은 다음과 같다. 이 정의를 이용하여 다양한 종류의 이산확률변수의 기대값을 구해보자. 2. 베르누이 확률변수의 기대값 (Recap) 확률변수 X가 베르누이 분포를 따른다는 것은 X가 0과 1 값만을 가질 수 있을 경우를 말하고, 이 때의 X가 베르누이 확률변수 P(X=1)=p, P(X=0)=1-p 3. 지시확률변수의 기대값 지시확률변수(Indicated Random Variable)란? : 사건..

3주차 - 모델 정하기(RNN, LSTM)

작성자 : 윤나라 - 데이터 분석한 내용을 바탕으로 어떤 기법을 적용했을때 정함 - 프로세스에 흐름이 있고, time step이 있으므로 RNN, LSTM 등 타임 시리즈를 쓰는것이 좋겠다고 정함. - 이번주 신입기수 강의에 RNN이 있으므로 LSTM 위주로 스터디 RNN의 한계 보통의 인공 신경망과 마찬가지로 Vanishing과 Exploding 문제가 존재한다. 손실값을 구하고, 역전파를 이용해 가중치를 업데이트 하려고 할 때 Chain Rule이 이용됩니다. 위와 같은 식이 나오는데, 만약 데이터의 길이나 시퀀스가 길다면 곱해지는 그래디언트들의 값은 많아질것입니다. 각 값들이 1보다 작다면 0으로 수렴하여 Vanishing이 발생하고, 1보다 크다면 무한대로 발산하는 Exploding 문제가 생길것..

과적합, CNN, RNN

1.Overfitting overfitting이란 학습데이터가 너무 최적화되어 나온 가중치 w가 새로운 학습 데이터에는 다른 결과를 나타나는 현상을 말합니다. 학습데이터에 지나치게 fitting되었다는 의미로 예측력이 저하되고 일반적인 회귀방법에서 데이터 특징 수가 많아질수록 과적합에 대한 위험성이 증가합니다. 주로 학습데이터가 너무 작을 경우에 발생하게 됩니다. underfitting이란 학습 데이터를 충분히 학습하지 못하여 테스트 데이터 뿐만 아니라, 학습 데이터에서 조차도 성능이 낮은 문제를 말합니다. 모델이 너무 간단하기 때문에 손실이 줄어들지 않는 것인데 underfitting이 되면 데이터해석 능력이 저하됩니다. 샘플데이터가 너무 작거나 너무 학습만 시키면 overfitting이 발생하기 떄문..

4기(20200711)/1팀 2020.08.08

DDPG 코드 리딩

-발표자 조민성 이론 이미 지난 학기에 DDPG 이론관련하여 블로그에 써놓은 글이 있어, 해당 글을 첨부한다. https://kau-deeperent.tistory.com/68?category=846170 강화학습팀 20.04.11 DDPG 발표자 : 김성훈 스터디 : 20.04.09 상암 탐앤탐스 DDPG 논문리딩 강화학습에서 커리큘럼 순서상 여러가지 기준을 세워 나눈다면 다음과 같다, 1단계는 Model based 방법으로 모든 MDP의 정보가 알려져 �� kau-deeperent.tistory.com 코드 상세 내용은 세미나 날에 에어심 드론비행을 발표하면서 같이 상세히 설명할 계획이다.

수학스터디[확률통계] [확률변수]

수학팀:김정민 박형준 최웅준 구예인 김경태 Gambler's Ruin(도박꾼의 파산): A와 B 두 명의 도박꾼이 매 라운드 $1씩 걸고 도박을 한다. 이긴 사람은 상대방의 $1을 가져가고, 둘 중 한 명이 가지고 온 돈이 바닥날 때까지 이 과정을 반복한다 그렇다면 , 이 게임은 영원히 진행될까 ? 아닐까? 문제풀이 전략: 첫 단계에서 조건을 세운다 정의: p의 확률로 A가 1달러를 더 얻고, q의 확률로 1달러를 잃는다. 0, N은 흡수상태(absorbing state)라 하여, 게임 종료를 나타낸다. P(i) : A가 i달러로 게임을 이길 확률 이 문제의 경우에는 특정 수를 정하고 생각하기 보다는 일반적인 경우를 찾는것이 더 쉽다. P(i) = p * p(i+1) + q * P(i-1) guessin..

과적합 방지와 CNN

1. 과적합 방지 1. overfitting과 underfitting 과대적합 : w,b가 학습데이터에 지나치게 최적화되어 새로운 데이터에서는 다른 결과를 나타내는 현상. 학습 데이터에서는 손실이 줄어들지만 검증 데이터에서는 손실이 늘어나 예측력이 저하된다. 데이터의 특징수(독립변수 개수)가 늘어날수록, 학습 데이터 양이 줄수록 overfitting이 잘 일어나게 된다. 과소적합 : 학습데이터를 충분히 학습하지 못하여 검증 데이터만 아니라 학습 데이터에서 조차도 성능이 저하되는 현상. 학습 데이터에서는 손실이 줄어드는 과대적합과는 다르게 과소적합은 학습 데이터에서도 손실이 크다. 위 그래프는 학습이 반복되는 순서에 따라 검증 data와 학습 data의 손실 차이를 나타낸 것이다. optimum에서 가장 ..

4기(20200711) 2020.08.06

인공신경망과 역전파

인공신경망은 뇌를 구성하는 신경 세포인 뉴런의 동작 원리에 기반하여 나온 개념이다. 뉴런의 기본 동작은 가지돌기에서 신호를 받아들이고, 이 신호가 축삭돌기를 지나 축삭말단으로 전달되는 것이다. 인공신경망에서 제일 기초적인 개념은 단층 퍼셉트론이다. 퍼셉트론은 하나의 뉴런이 출력신호를 발생할지 안할지를 결정하기 위해 뉴런으로 들어오는 각 입력값에 곱해지는 가중치 값을 자동적으로 학습하도록 한 모델이며 입력 벡터를 두 분류로 구분하는 선형 분류기 이며, 다수의 신호를 입력 받아 하나의 신호를 출력한다. 여기서 말하는 신호는 전류처럼 흐름이 존재하는 것을 뜻한다. 이제 단층 퍼셉트론을 통해 구현이 가능한 논리 게이트들을 살펴보자 (입력이 둘이고 출력이 하나인 단층 퍼셉트론을 살펴볼 것이다.) : 입력이 둘다 ..

4기(20200711)/2팀 2020.08.03

경사소실을 해결하는 방법 - 가중치 초기화, 배치 정규화

[1] Weight initialization weight는 각각의 입력신호에 부여되어 입력신호와의 계산을 하고 각 입력신호에는 고유한 weight가 부여되며 weight가 클수록 해당 신호가 중요하다고 볼 수 있다. 결국, 가중치는 입력신호가 결과 출력에 주는 영향도를 조정하는 매개변수이다. weight 초기화는 14 ~ 15년도 사이에 발생한 최근 트렌드인데, 그 전까지는 처음 초기화만 하면 gradient로 업데이트 하면 되기 때문에 weight 초기화를 이용한 성능 개선의 인식이 약했다. weight를 잘 정하면 적당한 데이터를 이용하여 cost function을 최소화 시킬 수 있기 때문에, 최근에는 weight를 어떻게 초기화하냐에 따라 성능이 달라지는 것을 발견하고 관심을 가지게 되었다. #..

4기(20200711)/1팀 2020.07.31

산업제어시스템 보안위협 탐지 AI 경진대회

작성자: 김종헌 국토교통 빅데이터 온라인 해커톤 경진대회는 평가 기준의 모호성, 데이터 크기의 방대함 등으로 인하여 불참 결정 1. 주제 산업제어시스템 보안위협 탐지대회 2. 배경 최근 국가기반시설 및 산업시설의 제어시스템에 대한 사이버 보안위협이 지속적으로 증가 3. 주최/주관/후원 주최 : 국가정보원 주관 : 국가보안기술연구소 후원 : 한국정보보호학회 증기 터빈 발전기, 펌프 저장 수력 발전기의 2개의 발전기 모델을 이용하는 시뮬레이션 제어 시스템이 공격 받는 것을 탐지하는 대회 P1인 보일러 프로세스에서 압력, 수면 높이, 유속, 온도 등을 제어 P2인 터빈 프로세스에서 터빈 회전 속도 제어 P3인 수처리 프로세스에서 수면 높이 제어 구체적인 내부 제어 시스템은 다음의 예시와 같다. 다음의 예시는 ..

수학스터디[확률통계] [독립][조건부확률][전확률][몬티홀][심슨의 역설]

수학팀:김정민 박형준 최웅준 구예인 독립 정의: P(A∩B)=P(A)P(B)이 성립할 때, 사건 A와 B는 독립이다. ※ disjoint(서로소) != independence(독립) A와 B가 서로소인 경우는 A가 발생하면 B는 발생할 수 없다. 반면에 A와 B가 독립이라면 A의 발생은 B 발생에 어떠한 영향도 끼치지 않는다. 조건부 확률 새로운 정보를 얻었을 때, 기존의 ‘믿음/불확실성(uncertainty)’을 어떻게 업데이트할 지 대한 문제다. 직관적인 이해를 돕기 위해 '조약돌 세계'를 생각해보자. 독립과 조건부 확률을 통해 3가지 공리를 끌어낼 수 있다. 1. 조건부 확률의 정의에 P(B) 혹은 P(A)를 곱해주면 된다. 2. Chain Rule을 적용하면 아래처럼 증명할 수 있다. 3. 1번의..