Bit Adobe ha lanzado un nuevo modelo de video, ActAnywhere, que genera fondos de video para la comunidad de películas y efectos visuales basados en el movimiento y la apariencia de los sujetos en primer plano, según la página de HuggingFace.
El modelo ActAnywhere incorpora rápidamente las ideas creativas del usuario en una escena virtual dinámica mediante la introducción de la atención entre fotogramas para la inferencia temporal. El conjunto de datos de entrenamiento del modelo contiene 2,4 millones de vídeos de personas que interactúan con la escena y se entrena de forma autosupervisada. Los resultados de la evaluación muestran que ActAnywhere es capaz de generar videos altamente realistas de interacciones en primer plano y fondo, movimientos de cámara, efectos de luz y sombra, y se puede generalizar a muestras distribuidas fuera de los datos de entrenamiento, incluidos sujetos no humanos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Adobe lanza ActAnywhere, un modelo de vídeo de IA que genera fondos basados en el movimiento
Bit Adobe ha lanzado un nuevo modelo de video, ActAnywhere, que genera fondos de video para la comunidad de películas y efectos visuales basados en el movimiento y la apariencia de los sujetos en primer plano, según la página de HuggingFace.
El modelo ActAnywhere incorpora rápidamente las ideas creativas del usuario en una escena virtual dinámica mediante la introducción de la atención entre fotogramas para la inferencia temporal. El conjunto de datos de entrenamiento del modelo contiene 2,4 millones de vídeos de personas que interactúan con la escena y se entrena de forma autosupervisada. Los resultados de la evaluación muestran que ActAnywhere es capaz de generar videos altamente realistas de interacciones en primer plano y fondo, movimientos de cámara, efectos de luz y sombra, y se puede generalizar a muestras distribuidas fuera de los datos de entrenamiento, incluidos sujetos no humanos.