OpenAI обіцяє посилити регулювання Sora, щоб запобігти глибоким фальшивим контентам AI

robot
Генерація анотацій у процесі

PANews 21 жовтня повідомляє, що 20 жовтня за місцевим часом Американський гільдія акторів (SAG-AFTRA), OpenAI, Брайан Кренстон та кілька артистичних компаній випустили спільну заяву про конструктивну співпрацю для забезпечення захисту прав голосу та зображення в Sora2, заявивши, що OpenAI посилила заходи безпеки щодо функції копіювання голосу та зображення для неавторизованих користувачів. OpenAI впровадила політику вибору щодо використання особистого голосу та зображення в Sora2. Всі художники, виконавці та особи мають право вирішувати, чи дозволяти імітувати їхній образ та конкретні способи. Ця політика відображає зобов'язання компанії щодо прав художників, прозорості та етики впровадження генеративних технологій, а також зобов'язується швидко реагувати на будь-які скарги.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Пов'язані теми
#
ai
Прокоментувати
0/400
Немає коментарів
  • Закріпити