Adobeが動きに基づいて背景を生成するAIビデオモデル「ActAnywhere」をリリース

Bit Adobeは、HuggingFaceページによると、前景の被写体の動きと外観に基づいて、映画およびVFXコミュニティ用のビデオ背景を生成する新しいビデオモデル、ActAnywhereをリリースしました。

ActAnywhere モデルは、時間的推論のためのクロスフレーム アテンションを導入することで、ユーザーのクリエイティブなアイデアを動的な仮想シーンにすばやく組み込みます。 このモデルのトレーニング データセットには、人間がシーンと対話する 240 万本のビデオが含まれており、自己教師ありの方法でトレーニングされています。 評価結果は、ActAnywhereが前景と背景の相互作用、カメラの動き、光と影の効果の非常にリアルなビデオを生成でき、人間以外の被験者を含むトレーニングデータの外部に分散されたサンプルに一般化できることを示しています。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 2
  • リポスト
  • 共有
コメント
0/400
CurrencyGlobalvip
· 2024-01-23 03:19
把握趋势,狂赚2024 ✌️
返信0
vip
· 2024-01-23 03:12
2024年 大月へ 🌕
原文表示返信0
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)