Temel Kavramlar

Inference (Çıkarım) Nedir?

Eğitilmiş bir yapay zeka modelinin yeni girdiler üzerinde tahmin veya üretim yapması sürecidir. Görsel üretimde, promptun görsele dönüştürülme işlemine karşılık gelir.

Inference (Çıkarım) Detaylı Açıklama

Inference (çıkarım), eğitilmiş bir yapay zeka modelinin üretim modunda çalıştırılması sürecidir. Eğitim aşamasında model verilerden örüntüleri öğrenirken, inference aşamasında öğrendiklerini kullanarak yeni çıktılar üretir. Görsel üretim bağlamında inference, kullanıcının yazdığı promptun bir görsele dönüştürülmesi sürecine karşılık gelir.

Inference süreci, kullanılan model mimarisine ve donanıma bağlı olarak milisaniyelerden dakikalara kadar sürebilir. Diffusion modellerinde inference, birden fazla adım (step) içerir; her adımda model, gürültülü bir görselden biraz daha temiz bir versiyona geçiş yapar. Adım sayısı genellikle 20-50 arasında ayarlanır; daha fazla adım daha kaliteli ama daha yavaş sonuçlar üretir.

Inference hızını etkileyen faktörler arasında GPU tipi, model boyutu, görsel çözünürlüğü, adım sayısı ve scheduler (zamanlayıcı) seçimi bulunur. Optimizasyon teknikleri (quantization, distillation, caching) inference süresini önemli ölçüde azaltabilir.

Cloud tabanlı AI hizmetlerinde (Midjourney, DALL-E 3, Runway) inference sunucu tarafında gerçekleşir ve kullanıcı sonucu bekler. Yerel kurulum yapan kullanıcılar (Stable Diffusion, ComfyUI) inference'ı kendi GPU'larında çalıştırır ve tüm süreç üzerinde kontrole sahiptir.

Pratik bir örnek: Stable Diffusion'da bir görsel ürettiğinizde inference süreci yaklaşık 5-30 saniye sürer (GPU gücüne ve step sayısına bağlı olarak). Bir RTX 3060 GPU'da 20 step ile inference yaklaşık 8 saniye sürerken, RTX 4090'da aynı işlem 2-3 saniyeye düşer. Cloud tabanlı araçlarda (Midjourney, DALL-E 3) inference süreleri sunucu kapasitesine ve kuyruğa bağlı olarak 10-60 saniye arasında değişir. Hızlı (fast) mod daha kısa inference süresi sağlarken daha fazla kaynak tüketir.

tasarım.ai üzerinde inference sürecinin doğrudan kullanıcıyı etkilediği araçlar arasında Stable Diffusion (yerel kurulumda GPU performansına bağlı), Midjourney (fast ve relax mod seçenekleri ile), DALL-E 3 (API'da yanıt süresi) ve Flux (Schnell modeli ultra hızlı inference ile) yer almaktadır.

Yeni başlayanlar için öneri: Inference süresini kısaltmak için step sayısını optimize edin; çoğu durumda 20-30 step yeterli kalitede sonuç verir, 50+ step genellikle gereksiz uzun süreye neden olur. Stable Diffusion'da Euler A sampler'ı hızlı inference için idealdir. Cloud tabanlı araçlarda ise ücretli planların fast mod seçeneği inference süresini önemli ölçüde kısaltır.

Diğer Temel Kavramlar Terimleri