프로젝트/코드프레소 체험단

시계열 데이터 처리를 위한 RNN 완벽 가이드 - GRU 모델

KimCookieYa 2022. 3. 24. 02:03

GRU(Gated Recurrent Units)

 - RNN 모델의 장기의존성 문제를 해결하기 위한 방안

 - LSTM 모델의 컨셉을 단순화시킨 모델

GRU

 

 

GRU 상세 구조

 - GRU(Gated Recurrent Units)의 핵심 아이디어: Update Gate

 - Update Gate의 결과가 1이면 input gate 활성화, 0이면 forget gate 활성화

 - 2개의 context([c(t), h(t)])가 h(t) 하나로 합쳐짐

 - LSTM보다 학습 속도가 빠르고, 비슷한 수준의 성능을 보임

 - Forget gate, Input gate

 

 

Reset gate

 - 이전 step에서 전달된 context(h(t-1))에서 필요없는 정보를 초기화

Reset gate

 

 

Update gate

 - LSTM 모델의 Input gate와 Forget gate를 하나로 결합

 - Update gate의 결과인 z(t)값이 1이면 Input, 0이면 Forget gate 활성

Update gate

 

 

Candidate

 - Reset gate를 거친 context(h(t-1) * r(t))와 해당 step의 input(x(t))를 분석하여 해당 step 후보 정보(~h(t)) 생성

Candidate

 

 

Output

 - context 정보(h(t-1))와 Candidate 정보(~h(t))에 Update gate를 적용한 값들([h(t-1) * (1 - z(t)), h(t) * z(t)])를 더하여, 다음 step으로 전달할 context(h(t)) 생성

Output