Kısa videoların yapay zeka ile üretimi alanında devrimsel bir adım atıldı. Stability AI tarafından geliştirilen "Stable Video Diffusion" adlı yeni bir yapay zeka modeli tanıtıldı. Bu model, tekst tabanlı açıklamalardan kısa video klipler üretebiliyor. Temelinde, tekst tabanlı isteklerle statik görseller üreten "Stable Diffusion" modeli yatmakta.
Yapay Zeka Video Yapsın Sen Yayınla!
Modelin kaynak kodu, geliştiriciler tarafından GitHub üzerinde paylaşıldı ve modelin çalıştırılması için gerekli veri setleri Hugging Face platformundan indirilebilecek. Ayrıca, Stability AI tarafından yayımlanan bir araştırma raporunda modelin teknik kapasiteleri detaylandırıldı. "Stable Video Diffusion" modeli, çeşitli görevlere kolayca adapte edilebilir ve örneğin tek bir görüntüden video üretimine ayarlanabilir. Bu model, gelecekte çıkarılacak bir dizi türev modelin temelini oluşturacak ve şirket, bu modelin etrafında geniş bir ekosistem kurmayı hedefliyor.
Yakın gelecekte, Stability AI kullanıcılara web arayüzü üzerinden metin tabanlı açıklamalarla video oluşturma imkanı sunmayı planlıyor. Bu hizmetten ilk faydalanacak kullanıcılar için bekleme listesine kayıt olmak gerekiyor. "Stable Video Diffusion" iki farklı model olarak sunuldu: Bunlardan biri saniyede 3 ile 30 arasında değişen hızlarda 14 kare (SVD), diğeri ise 25 kare (SVD-XT) video üretebiliyor. Proje şu anda erken aşamada olup, henüz tam fonksiyonlu ya da ticari uygulamalar için tasarlanmamış bir bilimsel çalışma niteliğinde. Ancak ileride "Stable Video Diffusion" modelinin tam sürümünün yayımlanması planlanıyor