Out-of-Distribution (OOD), makine öğrenmesi modellerinin, eğitim verilerinde yer almayan veya önemli ölçüde farklı olan yeni verilerle karşılaştığında yaşadığı performans düşüşünü tanımlar. Model, eğitim sırasında gördüğü veri dağılımının dışında kalan verileri “dağılım dışı” olarak kabul eder. Bu durum, modelin güvenilirliğini ve doğruluğunu olumsuz etkileyebilir.

Neden Önemlidir?

Günlük yaşamda karşılaşılan veriler, eğitim verilerinden farklılık gösterebilir. Örneğin, bir dil modeli, eğitim sırasında görmediği bir dilde yazılmış bir metinle karşılaştığında, doğru yanıt veremeyebilir. Bu tür durumlar, modelin güvenilirliğini ve doğruluğunu olumsuz etkileyebilir. Bu nedenle, OOD verilerin tespiti, modelin güvenilirliğini artırmak için kritik öneme sahiptir.