어텐션 메커니즘과 transfomer(self-attention)
Attention Mechanism
어텐션 메커니즘은 자연어 기계 번역을 위한 Seq2Seq 모델에 처음 도입되었습니다. 어텐션 메커니즘은 NLP 태스크 뿐만 아니라, 도메인에 관계 없이 다양하게 쓰이고 있습니다. 현재의 SOTA NLP모델들은 대부분 어텐션 메커니즘을 적용하고 있으니 최근 논문을 이해함에 있어 이해하고 넘어가야 하는 부분입니다.
These were the top 10 stories published by mojitok; you can also dive into yearly archives: 2019, 2020, 2021, and 2022.