1. Abstruct
- RNN은 sequential data에 적합한 Neural Network 구조
- Bi-directional RNN의 cell에 LSTM을 적용하여 BLSTM을 구성
- BLSTM을 사용하여 Chinese word segmentation 작업 수행
2. Introduction
- LSTM을 통하여 RNN구조의 memory 능력이 향상되었음
- BLSTM은 과거의 정보뿐만 아니라 미래의 정보에 대한 의존성도 고려할 수 있음
3. BLSTM network architecture
3.1 LSTM unit
- LSTM은 여러 gate를 통해 정보를 전달하며, 오래된 정보를 기억하는 것에 유리하다.
3.2 BLSTM network
- BLSTM은 sequential dataset에서 과거와 미래 모두의 context를 고려할 수 있다.
- 두 방향으로 진행되는 LSTM cell로 구성
- = forward LSTM의 output()
- 일반적인 LSTM의 output과 같음
- = backward LSTM의 output
- input sequence를 반대방향으로 LSTM에 넣어줌
- 로 concatenate
- 즉, forward LSTM과 backward LSTM에 input으로 가 들어갔을 때의 결과를 concatenate
4. Training Method
- 각각의 단어를 labeling하여 segmentaion을 표시
- 각 character를 lookup dictionary를 통하여 dense vector로 만들어 embedding
- BLSTM layer를 여러개 쌓을 경우 parameter가 너무 많아지므로 input vector를 압축
- 단순히 처럼 를 곱하여 차원조절
5. Experiment
- 다른 모델보다 성능이 좋았으며, 깊어질수록 성능이 더 좋아졌다.
6. Conclusion
- sequence에서 input data의 위치가 가진 영향력 및 정보 대한 feature를 잘 뽑아낸다.
- 사전 지식이 없어도 모델링을 할 수 있다.