Новости Шах и мат от ботаников. Новейшую систему безопасности Google сломали быстрее, чем ее успели толком внедрить

NewsMaker

I'm just a script
Премиум
22,261
46
8 Ноя 2022
Как работает новая функция проверки изображений в веб-версии Gemini (и где она ошибается).


rlxy0j9k8aspovuj0yr54qxhesmaqsqx.jpg

Google расширила возможности своего ИИ-сервиса Gemini, добавив в приложение и веб-версию инструмент для проверки изображений на признак автоматической генерации. Появление этой функции выглядит логичным шагом: визуальный контент всё чаще создаётся с помощью ИИ-моделей, и запрос на методы отличить реальный снимок от синтетического растёт.

Новый детектор основан на системе SynthID — невидимых для человека цифровых отметках, появившихся в 2023 году. Они встроены в изображения, созданные генераторами Google, и сохраняются даже после изменения размера или частичной обработки. Именно поэтому проверка работает только с контентом, созданным конкретно с помощью моделей Google.

Если в снимке нет встроенной водяной метки, инструмент не сможет уверенно сказать, появилось изображение благодаря ИИ или нет. Тестирование контента, созданного другими моделями, подтверждает этот предел: Gemini иногда угадывает по второстепенным визуальным признакам, но точной проверкой это назвать нельзя.

SynthID опубликован в открытом доступе, и у Google даже появились партнёры вроде Hugging Face и Nvidia, однако большинство генераторов используют другие подходы. Например, ChatGPT применяет схему метаданных C2PA — её поддерживают Microsoft, Adobe, <span class="extremist-highlight" title="Соцсеть признана экстремистской и запрещена на территории РФ">Meta</span> и другие компании. В Google сообщили, что планируют добавить совместимость с C2PA, чтобы расширить обнаружение отметок за пределы собственной экосистемы.

Но даже такое обновление не гарантирует защищённость, ведь ещё летом специалисты Университета Ватерлоо создали метод UnMarker, позволяющий удалять водяные знаки ИИ-моделей, включая SynthID, всего за несколько минут на GPU Nvidia A100. Команда Google DeepMind приходила к схожим выводам, отмечая, что метаданные C2PA в некоторых сценариях ещё менее устойчивы.

Параллельно компания представила обновлённую версию своей системы генерации изображений под названием Nano Banana Pro. Эта модель собрана на основе Gemini 3 Pro и ориентирована на более точное воспроизведение текста в кадре, что ранее было слабым местом визуальных ИИ.

Алгоритм теперь способен формировать инфографику и другие материалы, где важна читабельность подписей. Скорость создания контента тоже заметно выросла. При этом изображения по-прежнему содержат видимый значок Gemini и невидимые отметки SynthID.

В одном из тестов Nano Banana Pro создала иллюстрацию специально для демонстрации, а затем её попытались очистить от SynthID. Но даже после удаления следов система всё равно распознала снимок как сгенерированный.

Таким образом, новая функция в Gemini помогает определять часть изображений, созданных инструментами Google, но не является универсальной. Удаление или искажение встроенных следов по-прежнему возможно, а значит, инструменты для проверки происхождения цифрового контента остаются лишь одним из способов ориентироваться в потоке синтетической графики.
 
Источник новости
www.securitylab.ru

Похожие темы