Публичное извинение стало лишь первым шагом актёров в борьбе за цифровую идентичность.
Непрекращающаяся генерация видеоклипов с известными актёрами без их согласия в платформе Sora 2 вновь привлекла внимание к проблемам, связанным с использованием нейросетей для создания цифровых копий людей. После того как в сервисе OpenAI появились сгенерированные видео с Брайаном Крэнстоном, в том числе совместное видео с Майклом Джексоном, компания объявила об усилении механизмов контроля за тем, как именно используются изображения и голоса известных личностей.
Совместное заявление опубликовали сам Крэнстон, профсоюз актёров SAG-AFTRA , а также несколько крупнейших агентств — United Talent Agency, Creative Artists Agency и Association of Talent Agents. Они подчеркнули, что OpenAI признала факт нежелательной генерации и выразила сожаление. В ответ на критику компания подтвердила намерение придерживаться принципа добровольного участия в создании цифровых копий: ни один артист или исполнитель не должен оказываться в подобных роликах без предварительного разрешения. Также было обещано оперативное рассмотрение жалоб, связанных с нарушением этой политики.
Хотя OpenAI не стала раскрывать детали изменений в приложении Sora, само заявление стало важным шагом в публичном признании проблемы. Платформа ранее уже вызывала волну критики после того, как в ней появились видеоролики с искажёнными образами известных персонажей. После этих инцидентов компания отменила прежнюю политику «отказа по умолчанию» и пообещала предоставить правообладателям более детальную настройку генерации контента, приближённую к принципам добровольного согласия на использование внешности.
Несмотря на то, что Крэнстон отметил положительную реакцию со стороны OpenAI и назвал происходящее важным примером налаживания диалога, президент SAG-AFTRA Шон Эстин призвал к принятию законодательных мер. Он подчеркнул необходимость правового инструмента, способного защитить творческих профессионалов от масштабного несанкционированного копирования с помощью ИИ. В этом контексте он упомянул обсуждающийся в США законопроект NO FAKES (Nurture Originals, Foster Art, and Keep Entertainment Safe Act), цель которого — обеспечить защиту от цифровой репликации без разрешения оригинального исполнителя.
На фоне стремительного распространения генеративных моделей и их интеграции в популярные медиаплатформы подобные инциденты поднимают острый вопрос: где проходят границы допустимого, когда технологии способны воссоздавать лица и голоса людей с почти полным правдоподобием. И пока компании обещают усилить фильтры и улучшить контроль, профессиональное сообщество продолжает настаивать на институциональных гарантиях — в том числе на уровне закона.
Непрекращающаяся генерация видеоклипов с известными актёрами без их согласия в платформе Sora 2 вновь привлекла внимание к проблемам, связанным с использованием нейросетей для создания цифровых копий людей. После того как в сервисе OpenAI появились сгенерированные видео с Брайаном Крэнстоном, в том числе совместное видео с Майклом Джексоном, компания объявила об усилении механизмов контроля за тем, как именно используются изображения и голоса известных личностей.
Совместное заявление опубликовали сам Крэнстон, профсоюз актёров SAG-AFTRA , а также несколько крупнейших агентств — United Talent Agency, Creative Artists Agency и Association of Talent Agents. Они подчеркнули, что OpenAI признала факт нежелательной генерации и выразила сожаление. В ответ на критику компания подтвердила намерение придерживаться принципа добровольного участия в создании цифровых копий: ни один артист или исполнитель не должен оказываться в подобных роликах без предварительного разрешения. Также было обещано оперативное рассмотрение жалоб, связанных с нарушением этой политики.
Хотя OpenAI не стала раскрывать детали изменений в приложении Sora, само заявление стало важным шагом в публичном признании проблемы. Платформа ранее уже вызывала волну критики после того, как в ней появились видеоролики с искажёнными образами известных персонажей. После этих инцидентов компания отменила прежнюю политику «отказа по умолчанию» и пообещала предоставить правообладателям более детальную настройку генерации контента, приближённую к принципам добровольного согласия на использование внешности.
Несмотря на то, что Крэнстон отметил положительную реакцию со стороны OpenAI и назвал происходящее важным примером налаживания диалога, президент SAG-AFTRA Шон Эстин призвал к принятию законодательных мер. Он подчеркнул необходимость правового инструмента, способного защитить творческих профессионалов от масштабного несанкционированного копирования с помощью ИИ. В этом контексте он упомянул обсуждающийся в США законопроект NO FAKES (Nurture Originals, Foster Art, and Keep Entertainment Safe Act), цель которого — обеспечить защиту от цифровой репликации без разрешения оригинального исполнителя.
На фоне стремительного распространения генеративных моделей и их интеграции в популярные медиаплатформы подобные инциденты поднимают острый вопрос: где проходят границы допустимого, когда технологии способны воссоздавать лица и голоса людей с почти полным правдоподобием. И пока компании обещают усилить фильтры и улучшить контроль, профессиональное сообщество продолжает настаивать на институциональных гарантиях — в том числе на уровне закона.
- Источник новости
- www.securitylab.ru