Uncertainty Estimation in Deep Learning

조회수 446회

최근 딥러닝 모델에서의 불확실성을 측정하는 방법론에 대해 공부 중인데요, 컨셉이 잘 이해되지 않는 부분이 있어서 여쭤보려고 합니다.

우선, Simple and Scalable Predictive Uncertainty Estimation using Deep Ensembles이나 Dropout, Batchnorm을 사용하는 방법들을 살펴보면서 느낀 점입니다.

제가 느낀 컨셉은 대략 '모델의 최종 output layer가 실제의 확률을 잘 대변하지 못한다.'

->

'그래서 이를 수정하기 위한 방법으로 앙상블이나, 드롭아웃, 배치놈을 사용할 수 있다.'

->

'사용의 목적은 마지막 레이어가 실제의 확률을 잘 대변하도록 하기 위한 것이다.'

정도인데요, 우선 위처럼 이해해도 맞는 건지 궁금합니다.

나아가서, 위 논문들에서는 최종적으로 더 나은 모델을 찾고자 하는 것이 목표인 것 같은데

오히려 uncertainty estimation에 초점을 둔 논문들은 없나요?

uncertainty 자체를 quantify해서 score로 표시한다던지(물론 앙상블에서도 output의 variance로 대체할 수는 있겠지만) 하는 방법이요.

찾아보려고 했는데 잘 나오지 않아서 질문 올립니다.

아니면 굳이 그렇게 할 필요가 없어서 다들 관심이 없는 건가요??

  • (•́ ✖ •̀)
    알 수 없는 사용자

답변을 하려면 로그인이 필요합니다.

프로그래머스 커뮤니티는 개발자들을 위한 Q&A 서비스입니다. 로그인해야 답변을 작성하실 수 있습니다.

(ಠ_ಠ)
(ಠ‿ಠ)