Новости Научный блогер обучал птиц петь картинки, но ИИ-сводка сделала из него сторонника геноцида

NewsMaker

I'm just a script
Премиум
20,294
46
8 Ноя 2022
Как ИИ создаёт фейковые биографии и разжигает скандалы.


t6t4zd0ye00gp0xh9qgyowzy35iud519.jpg


Блогер Benn Jordan стал объектом хейта после того, как ИИ-сводка Google приписала ему поездку в Израиль и поддержку страны в конфликте с Газой. Ошибка вызвала волну обвинений, хотя Jordan никогда не был в Израиле и публично помогал палестинским организациям.

Ситуация обострилась , когда известный стример Hasan Piker посмотрел одно из видео Jordan с обзором компании. Во время трансляции пользователи чата начали утверждать, что блогер поддерживает Израиль. Вскоре Jordan стал получать десятки сообщений с требованием объясниться. Сам он не раз говорил, что находится на стороне Палестины и перечислял средства в фонд помощи детям из Газы.

Разгадка оказалась в том, что поисковик по запросу «Benn Jordan Israel» выдавал автоматически сгенерированное описание, где утверждалось, будто Jordan ездил в израильские кибуцы и выпустил ролик «I Was Wrong About Israel: What I Learned on the Ground». Подобное видео действительно существует, но его автором является Ryan McBeth — комментатор NEWSMAX, который снял ролик с таким названием. Алгоритм Google перепутал двух авторов и выдал ложные факты.

Jordan известен совершенно другими работами: его канал находится на пересечении науки и музыки. В этом году он прославился после того, как превратил изображение в аудиофайл и научил скворца воспроизводить получившуюся мелодию, фактически сохранив картинку в памяти птицы. Он также выпускал ролики о крахе Spotify, кризисе американской экономики и угрозах, которые искусственный интеллект несёт музыкантам. С темой военных конфликтов его работа никак не связана.

После появления искажённой сводки Jordan начал активно писать в Bluesky и <span class="extremist-highlight" title="Соцсеть признана экстремистской и запрещена на территории РФ">Threads</span>, указывая на ошибку. Спустя сутки Google обновил описание, но вместо исправления появилась новая формулировка: теперь сводка утверждала, что о нём ходят ложные слухи о поездке в Израиль. Jordan возмутился: именно система Google и создала этот слух. Он даже консультировался с юристами, чтобы выяснить, не подпадает ли ситуация под клевету. Jordan отметил, что собирается в ближайшее время уехать на 10 дней без связи. И если бы скандал разросся именно в этот период, он мог бы потерять аудиторию на <span class="blocked-highlight" title="Соцсеть заблокирована на территории РФ">YouTube</span> и подписчиков на Patreon, особенно в случае масштабного распространения.

Jordan объяснил, что не удивлён сбоем, так как крупные компании стремятся внедрять LLM-системы повсеместно, несмотря на их фундаментальные ограничения. По его словам, алгоритмы плохо справляются с надёжным извлечением данных и вытесняют журналистику ради прибыли. Позднее блогер публично подтвердил свою позицию: осудил действия Израиля и выступил за Палестину. Однако теперь он получает уже противоположные обвинения — в антисемитизме.

Jordan назвал подобные ситуации не «галлюцинациями» ИИ, а банальным провалом алгоритмов сбора и обработки данных. Google в ответ заявил, что большинство обзоров формируется корректно, но при проблемах компания использует примеры для доработки системы.
 
Источник новости
www.securitylab.ru

Похожие темы