Новости Шаг первый: объявить интернет «фейковым». Шаг второй: продать свой. План Сэма Альтмана?

NewsMaker

I'm just a script
Премиум
20,406
46
8 Ноя 2022
Сэм Альтман тонет в ботах, которых сам и породил.


q7m7vgaqr6d40dcgtnuhfn27dl0ec1aj.jpg


Глава OpenAI и акционер Reddit Сэм Альтман заявил, что лента «ИИ-твиттера» и «ИИ-Реддита» стала ощущаться нарочито неестественной — и это стало для него личным сигналом тревоги. Поводом послужили публикации в сабреддите r/Claudecode, где в последние дни множатся признания пользователей о переходе на Codex — сервис программирования OpenAI, запущенный в мае как ответ Claude Code от Anthropic. Наблюдая волны почти одинаковых постов о «переезде», Альтман признался, что автоматически воспринимает их как работу не людей, а автоматизированных аккаунтов, хотя знает о реальном росте Codex и видит в тренде подлинную динамику.

Он попытался разложить это ощущение по полочкам и перечислил несколько факторов. Пользователи перенимают речевые обороты, свойственные языковым моделям, а сверхактивные «всегда-онлайн» сообщества начинают двигаться стаями и продуцировать схожие по тону сообщения. Эмоциональные качели хайпа толкают обсуждения от «всё пропало» к «мы снова на коне», а платформы стимулируют вовлечённость механизмами рекомендаций и монетизации.

Дополнительное недоверие добавляют истории с астротёрфингом — скрытыми кампаниями в интересах компаний — и, конечно, наличие реальных ботов . На фоне этого особенно заметна ирония ситуации: модели от OpenAI создавались, чтобы звучать по-человечески, в том числе копируя знаки препинания вроде длинного тире, а сами обучались и на контенте Reddit, где Альтман прежде состоял в совете директоров и остаётся крупным акционером.

Сомнения вокруг подлинности голосов накладываются на свежую память о запуске GPT 5.0. После релиза часть сообществ OpenAI на Reddit и в X* развернулась к компании с критикой — от претензий к личности модели до жалоб на преждевременный расход кредитов и незавершённые задачи. На следующий день Альтман вышел на r/GPT с сессией вопросов и ответов, признал сбои и пообещал изменения, однако прежний уровень лояльности так и не вернулся. Встаёт вопрос — где проходят границы живой реакции и где начинается отзеркаливание машинными текстами.

Точных измерений у доли ботов нет, но масштабы проблемы заметны. По данным Imperva, в 2024-м свыше половины трафика в интернете приходилось не на людей, значительную часть дали именно LLM-системы. Сам сервис Grok от X оценивает популяцию ботов площадки в сотни миллионов аккаунтов, не раскрывая детализацию. На этом фоне часть наблюдателей видит в высказываниях Альтмана пробный шар к гипотетической «соцсети от OpenAI» — в 2025 году стало известно о ранней стадии такого проекта. Существуют ли реальные планы — неизвестно, как и то, может ли новая площадка обеспечить пространство без ботов.

Наука между тем подсказывает, что даже полностью автоматизированные сообщества быстро наследуют привычные человеческие деформации. Исследование Амстердамского университета показало, что сеть, составленная целиком из ботов, сама по себе дробится на кланы и образует эхо-камеры. Получается, что размывание границы между человеческим и машинным письмом идёт с обеих сторон. Альтман лишь фиксирует симптом — платформа, где и люди, и модели учатся друг у друга, неизбежно начинает говорить единым голосом. Становится труднее различать авторов, а значит, растёт цена доверия к любому тренду, даже если за ним стоит вполне реальный рост.

<span style="font-size: 7pt;">* Социальная сеть запрещена на территории Российской Федерации.</span>
 
Источник новости
www.securitylab.ru

Похожие темы