PANews 21 жовтня повідомляє, що 20 жовтня за місцевим часом Американський гільдія акторів (SAG-AFTRA), OpenAI, Брайан Кренстон та кілька артистичних компаній випустили спільну заяву про конструктивну співпрацю для забезпечення захисту прав голосу та зображення в Sora2, заявивши, що OpenAI посилила заходи безпеки щодо функції копіювання голосу та зображення для неавторизованих користувачів. OpenAI впровадила політику вибору щодо використання особистого голосу та зображення в Sora2. Всі художники, виконавці та особи мають право вирішувати, чи дозволяти імітувати їхній образ та конкретні способи. Ця політика відображає зобов'язання компанії щодо прав художників, прозорості та етики впровадження генеративних технологій, а також зобов'язується швидко реагувати на будь-які скарги.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
OpenAI обіцяє посилити регулювання Sora, щоб запобігти глибоким фальшивим контентам AI
PANews 21 жовтня повідомляє, що 20 жовтня за місцевим часом Американський гільдія акторів (SAG-AFTRA), OpenAI, Брайан Кренстон та кілька артистичних компаній випустили спільну заяву про конструктивну співпрацю для забезпечення захисту прав голосу та зображення в Sora2, заявивши, що OpenAI посилила заходи безпеки щодо функції копіювання голосу та зображення для неавторизованих користувачів. OpenAI впровадила політику вибору щодо використання особистого голосу та зображення в Sora2. Всі художники, виконавці та особи мають право вирішувати, чи дозволяти імітувати їхній образ та конкретні способи. Ця політика відображає зобов'язання компанії щодо прав художників, прозорості та етики впровадження генеративних технологій, а також зобов'язується швидко реагувати на будь-які скарги.