Entropy, Cross Entropy, KL Divergence, Mutual Information
Entropy, Cross Entropy, KL Divergence, Mutual Information 몇 번을 보긴 했어도 한번도 제대로 이해를 해보려 한적이 없어서 여전히 잘 모르는 KL Divergence에 대해서 한번 정리를 해보려고 한다. 정보이론 우리가 일반적으로 해가 동쪽에서 떴다거나 겨울이 오면 춥다거나 하는 사실들은 너무도 당연하기에 큰 정보를 담고 있지 않다. 반대로 해가 서쪽에서 떴다거나 겨울에 덥다는 일이 발생하면 이는 흔치 않은 일이기에 엄청난 정보가 되어버린다. 즉, 흔한 정보일 수록 정보의 양이 적은 것이고 희귀한 정보일수록 정보의 양이 많은 것이다. Entropy 그럼 이러한 정보들을 어떻게 효율적으로 저장하거나 표현하냐? 그런 관점에서 나온 개념이 엔트로피(Entropy)이..
2020. 6. 6. 21:10