본문 바로가기
반응형

Xai5

Wav2Vec2.0 임베딩을 활용한 자동 발음 평가, 그리고 임베딩 분석 (논문소개) 지난 글에서는 음성 데이터를 Wav2Vec2.0 모델에 입력했을 때, 음성이 어떤 과정을 거쳐 임베딩 벡터로 바꾸는지를 정리했습니다. 이번 글에서는 그 임베딩 벡터를 활용해서 어떻게 자동발음평가 모델을 만들고, 실제로 점수를 예측할 수 있는지 정리해봅니다.End-to-End 자동 발음 평가 전체 구조 요약 Wav2Vec2.0 모델과 같은 self-supervised 모델은 파인튜닝을 통해 발음 평가 모델로 사용할 수 있다.음성 입력을 모델에 넣으면 점수가 output으로 산출되는 end-to-end 자동 발음 평가 모델 전체 구조는 다음과 같다: 1. 음성 입력 → Wav2Vec2.0 → (T, 1024)의 임베딩 시퀀스 생성2. time step마다 나온 벡터들을 평균 (mean pooling) → (.. 2025. 6. 15.
Explainable AI(XAI), SHAP [3] 이 글은 서울대학교 '최신 인공지능 기술' 강의 중 곽노준 교수님의 'Explainable & Responsible AI' 강의를 듣고 정리한 글입니다.  SHAP (SHapley Additive exPlanations; NeurlPS'17)성능도 좋고, 사람들이 많이 사용하는 방법. iput이 age, sex, bp, bmi 4개가 있고, output이 0.4일 때..ex) 당뇨라고 하면, 각각의 요소가 중요한 정도가 age는 base 기준, +0.4만큼 contribution 한 것.       당뇨의 경우, 여성의 경우 -0.3.. 여성은 좀 덜 걸린다.. 이런 느낌..이런걸 어떻게 설명?Shapley 라는 노벨 경제학상 받은 분 - SHAP의 A는 "Additive" 니까 서로 cooperativ.. 2024. 12. 13.
Explainable AI(XAI), Integrated Gradients [2] 이 글은 서울대학교 '최신 인공지능 기술' 강의 중 곽노준 교수님의 'Explainable & Responsible AI' 강의를 듣고 정리한 글입니다.  Integrated Gradients (IG; ICML'17)Attribution to a feature is feature value times gradient. Image가 아니더라도, 옛날부터 integrated gradients 종종 사용함.  f(x) = wx 라고 하면, w가 아까 y를 x로 미분한 것이니, 위 그림의 빨간 식이라고 할 수 있음. 최종 식에서 x가 feature, 미분 값이 gradient. 즉, linearization 하는 것. linearization 했더니 중요한 것은 y/x 미분 * x 더라.. (위 그림의 빨간 식.. 2024. 12. 13.
Explainable AI(XAI), CAM & Grad-CAM [1] 이 글은 서울대학교 '최신 인공지능 기술' 강의 중 곽노준 교수님의 'Explainable & Responsible AI' 강의를 듣고 정리한 글입니다.  최근에는 explainable 하면, reliable, responsible 하다 라고 해서 reliable AI, responsible AI 라고도 함.- 근본적으로 DNN이 있으면, nonlinearity로 input이 있으면 output이 나오는 black box 모델. - adversarial attack 이 들어오는지, 다른 방법으로 manipulation 하는지 안하는지, output이 왜 이런 결정을 내렸는지에 대해 알기가 불가능.- Explain을 해보자 하는 관점에서 이런 분야가 생겨남Local explainability- 딥러닝이 나.. 2024. 12. 12.
AI 에서의 Interpretability - Explainable AI Why interpretability? AI 에서 왜 interpretability 가 필요할까? It's not JUST about being responsibile. 물론 Interpretability - a tool to improve responsibility + the more we know about what we do, the more we become conscious about what we are doing. Interpretability 는 더 넓은 개념 - fundamental underspecification in the problem ( Humans often don't know exactly what they want ) ex ) safety 자동차 사고를 대비해 모든 사건 c.. 2022. 8. 4.
반응형