Bit Adobe telah merilis model video baru, ActAnywhere, yang menghasilkan latar belakang video untuk komunitas film dan VFX berdasarkan pergerakan dan penampilan subjek latar depan, menurut halaman HuggingFace.
Model ActAnywhere dengan cepat menggabungkan ide-ide kreatif pengguna ke dalam adegan virtual yang dinamis dengan memperkenalkan perhatian lintas-bingkai untuk inferensi temporal. Dataset pelatihan model berisi 2,4 juta video manusia berinteraksi dengan tempat kejadian dan dilatih dengan cara yang diawasi sendiri. Hasil evaluasi menunjukkan bahwa ActAnywhere mampu menghasilkan video yang sangat realistis dari interaksi latar depan-latar belakang, gerakan kamera, efek cahaya dan bayangan, dan dapat digeneralisasikan ke sampel yang didistribusikan di luar data pelatihan, termasuk subjek non-manusia.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Adobe merilis ActAnywhere, model video AI yang menghasilkan latar belakang berdasarkan gerakan
Bit Adobe telah merilis model video baru, ActAnywhere, yang menghasilkan latar belakang video untuk komunitas film dan VFX berdasarkan pergerakan dan penampilan subjek latar depan, menurut halaman HuggingFace.
Model ActAnywhere dengan cepat menggabungkan ide-ide kreatif pengguna ke dalam adegan virtual yang dinamis dengan memperkenalkan perhatian lintas-bingkai untuk inferensi temporal. Dataset pelatihan model berisi 2,4 juta video manusia berinteraksi dengan tempat kejadian dan dilatih dengan cara yang diawasi sendiri. Hasil evaluasi menunjukkan bahwa ActAnywhere mampu menghasilkan video yang sangat realistis dari interaksi latar depan-latar belakang, gerakan kamera, efek cahaya dan bayangan, dan dapat digeneralisasikan ke sampel yang didistribusikan di luar data pelatihan, termasuk subjek non-manusia.