Компанія Bit Adobe випустила нову відеомодель ActAnywhere, яка генерує відеофони для кіно- та VFX-спільноти на основі руху та зовнішнього вигляду об’єктів переднього плану, повідомляється на сторінці HuggingFace.
Модель ActAnywhere швидко включає творчі ідеї користувача в динамічну віртуальну сцену, вводячи перехресну увагу для тимчасового висновків. Тренувальний набір даних моделі містить 2,4 мільйона відео, на яких люди взаємодіють зі сценою, і тренується під самоконтролем. Результати оцінки показують, що ActAnywhere здатний генерувати дуже реалістичні відео взаємодії на передньому плані та задньому плані, рухів камери, світлових і тіньових ефектів, і може бути узагальнений на вибірки, розподілені за межами навчальних даних, включаючи нелюдських суб’єктів.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Adobe випускає ActAnywhere, відеомодель зі штучним інтелектом, яка генерує фон на основі руху
Компанія Bit Adobe випустила нову відеомодель ActAnywhere, яка генерує відеофони для кіно- та VFX-спільноти на основі руху та зовнішнього вигляду об’єктів переднього плану, повідомляється на сторінці HuggingFace.
Модель ActAnywhere швидко включає творчі ідеї користувача в динамічну віртуальну сцену, вводячи перехресну увагу для тимчасового висновків. Тренувальний набір даних моделі містить 2,4 мільйона відео, на яких люди взаємодіють зі сценою, і тренується під самоконтролем. Результати оцінки показують, що ActAnywhere здатний генерувати дуже реалістичні відео взаємодії на передньому плані та задньому плані, рухів камери, світлових і тіньових ефектів, і може бути узагальнений на вибірки, розподілені за межами навчальних даних, включаючи нелюдських суб’єктів.