기금넷 공식사이트 - 복권 조회 - Rnn 예측 복권
Rnn 예측 복권
Seq2seq 모델, 새로운 문장 출시 예정.
일반 RNN 은 긴 텍스트로 이전 정보를 배울 수 없습니다. 예를 들어 하늘의 구름은 하늘을 정확하게 예측할 수 있지만, 만약 긴 문자라면, 예를 들면, 나는 중국에서 태어났고, ...,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,
내가 LSTM 을 처음 만났을 때, 나는 약간 혼란스러웠다. 왜 이 구조가 이렇게 복잡합니까? 그러나 실제로 LSTM 이 장기적인 의존성 문제를 해결하기 위해 한 일을 이해함으로써 이 구조를 쉽게 기억할 수 있다.
LSTM 은 사용자를 잊어서 마지막 숨겨진 상태 기억에서 잊혀진 정보를 결정하고, 사용자를 입력하여 입력할 정보를 결정하고, 사용자를 출력하여 출력할 정보를 결정하여 장기적인 의존 문제를 해결합니다. LSTM 의 구체적인 구조 정보를 소개하겠습니다.
LSTM 은 RNN 의 숨겨진 상태에 비해 정보를 기록하기 위해 세포 상태도 도입했습니다. 유닛 상태는 문 구조를 통해 새 스토리지를 추가하고 오래된 스토리지 정보를 삭제합니다.
이 단계는 문을 잊어서 일부 세포 상태의 기억 정보를 잊는 것이다.
문을 잊은 후 추가할 새 정보를 셀 상태에 추가하여 새 셀 상태를 생성합니다.
GRU 의 구조는 다음과 같습니다. 주로 문 재설정 및 문 업데이트를 포함합니다. GRU 를 LSTM 의 변종으로 보는 것은 LSTM 에서 단위 상태를 취소하고, 숨겨진 상태로만 LSTM 의 입력 망각문을 쇄신문으로 바꾸고, LSTM 에서 출력문을 취소하고 리셋문을 늘리는 것과 같다. 이렇게 하면 LSTM 이 비슷할 때 GRU 매개변수가 적고 계산 오버헤드가 적으며 교육 속도가 빨라진다는 장점이 있습니다.
GRU 의 매개변수가 적고 수렴이 빠르기 때문에 데이터 세트가 충분히 크면 일반적으로 LSTM 을 선택하는 것이 좋습니다.
전반적으로 LSTM 과 GRU 의 효과는 크게 다르지 않고 GRU 훈련이 더 빠르기 때문에 먼저 GRU 로 훈련과 매개변수 조정을 한다. 최적화가 더 이상 계속될 수 없을 때 GRU 를 LSTM 으로 교체하여 개선이 있는지 확인할 수 있습니다.
전체 그림 RNN, RNN 변형, Seq2Seq, 주의 메커니즘.
LSTM 네트워크 이해
CNN 과 RNN 은 시퀀스 예측에서 어떤 이점이 있습니까?