Açıklanabilir Yapay Zeka (XAI): İş Kararlarında Şeffaflık
Blog'a Dön
Yapay Zeka

Açıklanabilir Yapay Zeka (XAI): İş Kararlarında Şeffaflık

15 Şubat 20269 dk okuma743 görüntülenme
D
Dr. Emre Yılmaz
Baş Veri Bilimcisi, XDatum

Kara Kutu Sorunu

Bir makine öğrenmesi modeli size "bu müşteri 90 gün içinde terk edecek" dediğinde ne yaparsınız? Eğer modelin neden bu sonuca ulaştığını bilmiyorsanız, doğru aksiyonu almak neredeyse imkânsız. Fiyat mı sorun, ürün kalitesi mi, müşteri hizmetleri mi?

Kara kutu AI modelleri yüksek doğruluk oranlarına ulaşabiliyor, ancak kurumsal ortamlarda bu yeterli değil. Bir kararı savunmak, düzenleyici kuruma açıklamak ya da operasyonel ekibin güvenini kazanmak için modelin mantığını anlamak şart.

XAI Teknikleri: Pratik Bir Bakış

SHAP (SHapley Additive exPlanations)

Oyun teorisinden türetilen SHAP değerleri, her özelliğin tahmine katkısını ölçer. "Bu müşterinin son 30 günde alışveriş yapmaması terk tahminini +0.23 puan artırdı" gibi somut açıklamalar üretir. Xsight'ta en sık kullandığımız teknik.

LIME (Local Interpretable Model-agnostic Explanations)

Herhangi bir modelin belirli bir tahmin etrafında yerel olarak yorumlanabilir basit bir model oluşturur. Tek bir kararı açıklamak için idealdir.

Counterfactual Explanations

"Eğer müşteri geçen ay 2 alışveriş daha yapsaydı, terk tahminimiz %73'ten %31'e düşerdi" gibi "ne olurdu" açıklamaları. İş kullanıcılarının en kolay anladığı format.

Attention Visualization

Transformer tabanlı modellerde modelin hangi girdi öğelerine odaklandığını gösterir. Doğal dil işleme ve zaman serisi modellerinde kullanışlı.

Xsight'ta XAI Nasıl Çalışıyor?

Xsight, her analitik çıktısıyla birlikte otomatik olarak bir "Açıklama Kartı" üretiyor:

  • Neden bu sonuç? — En etkili 3-5 faktör SHAP değerleriyle listeleniyor
  • Bu normal mi? — Tarihsel baz ile karşılaştırma
  • Ne yapmalıyız? — Counterfactual analiz ile aksiyon önerileri
  • Modele ne kadar güvenmeliyiz? — Tahmin güven aralığı ve model performansı
  • Azersun Vaka Çalışması

    Azerbaycan'ın lider FMCG grubu Azersun, Xsight ile satış anomali tespiti projesi yürüttü. Önceki sistemde anomali algılandığında ekip saatlerce veri kazıyordu. Xsight'ta:

    • Anomali tespit edildiğinde otomatik açıklama kartı üretiliyor
    • "Bu düşüşün %67'si Bakü bölgesindeki dağıtım gecikmesinden kaynaklanıyor" gibi somut tespitler
    • Ortalama kriz müdahale süresi 4.5 saatten 35 dakikaya indi

    XAI'nin Sınırları

    Dürüst olmak gerekirse: XAI teknikleri de mükemmel değil. SHAP değerleri özellikler arası korelasyonu tam olarak yakalayamayabiliyor. LIME yerel açıklamalar üretiyor, global davranışı temsil etmiyor. Counterfactual açıklamalar gerçek dünya kısıtlarını göz ardı edebiliyor.

    XDatum olarak XAI'yi "modeli anlama aracı" olarak kullanıyoruz, "modeli doğrulama aracı" olarak değil. Gerçek doğrulama için kapsamlı test setleri, A/B testleri ve alan uzmanı görüşleri şart.

    açıklanabilir AIXAIşeffaflıkiş zekası

    Bu konuda uzmanlarımızla görüşmek ister misiniz?

    XDatum ekibi, projenizin ihtiyaçlarını analiz edip size özel çözüm önerileri sunmaya hazır.