본문 바로가기

E2E ASR2

Multi-domain Knowledge Distillation via Uncertainty-Matching for End-to-End ASR Models - Kim, H. et al. (2021) (3) 앞 게시글에 이어서 Kim, H. et al. (2021) Multi-domain Knowledge Distillation via Uncertainty-Matching for End-to-End ASR Models 논문 리뷰를 이어가겠습니다. 이제 음성인식에 불확실성을 적용해보자면, 음성 인식의 불확실성은 일반적으로 소음 레이블링, 스피커간의 변화, 또는 혼동되는 발음에서 발생합니다. 예를 들어, 그림 1은 ground-truth token 이 주어졌을 때, 왼쪽 토큰 수준 class 확률과 오른쪽aleatoric 불확실성 인식 결과를 보여주는데, - 입력 발음에 모호한 발음이 있을 경우, 인식 결과는 HEAR 과 HOR 사이의 혼동 발음 오류를 보여줍니다. 또 모델은 HEAR 토큰에서 낮은 클래스 확률.. 2021. 11. 16.
Multi-domain Knowledge Distillation via Uncertainty-Matching for End-to-End ASR Models - Kim, H. et al. (2021) (1) Kim, H. et al. (2021) Multi-domain Knowledge Distillation via Uncertainty-Matching for End-to-End ASR Models 논문 리뷰입니다. Multi-domain Knowledge Distillation via Uncertainty-Matching for End-to-End ASR Models ( End-to-End ASR 모델을 위한 불확실성 매칭을 통한 다중 도메인 지식 증류) 논문에 대해 설명드리기 전에, 먼저 본 논문에서 사용한 방법론에서 핵심인 두 가지 개념에 대해 짚고 넘어가려고 합니다. 본 논문에서는 uncertainty와 knowledge distillation 을 다루고 있는데, 먼저 uncertainty에 대해 간.. 2021. 11. 16.