Deep Learning
트랜스포머(Transformer) (4) - multi-head attention
햇농nongnong
2022. 6. 4. 17:05
4. 어텐션 (Attention)
- 첫번째 인코더 레이어에 입력 값이 들어오고 여러 개의 인코더 레이어 반복해서 거침
Multi-Head Attention 레이어
Reference
이 글은 나동빈님의 'Transformer : Attention Is All You Need' 논문 리뷰 영상을 보고 정리한 글입니다.