Когда искусственный интеллект делает из вас «монстра», корпорация разводит руками и винит… ваши вопросы.
Имеет ли значение, почему чат-бот вас оклеветал? Именно вокруг этого вопроса разгорается спор между Google и Робби Старбаком — блогером и бывшим режиссёром, который подал в суд на компанию из-за того, что её ИИ-сервисы распространяли о нём чудовищные выдумки, представляя его преступником, мошенником и «монстром» — и делали это якобы миллионам пользователей по всему миру.
Поводом для иска стали ответы чат-ботов Google , которые при запросах о Робби Старбаке выдавали «биографию», где он фигурировал как «детский маньяк», «серийный преступник, осуждённый за нападения», человек, занимающийся финансовой эксплуатацией и незаконными схемами в политике, а также стрелок и актёр фильмов для взрослых. Никаких оснований у этих утверждений нет — это чистая выдумка, которую в обычной жизни называли бы клеветой.
Формально юристы различают письменную клевету (libel) и устную (slander), но по сути речь об одном и том же: о заведомо ложных и порочащих честь и достоинство утверждениях. В цифровую эпоху к этой классике добавилась новая проблема — онлайн-сервисы с искусственным интеллектом . Они создают тексты «с нуля», зачастую с абсолютной уверенностью в неправде, и при этом способны мгновенно донести эти тексты до аудитории по всему миру.
По словам Старбака, уже почти 2 года «одна из крупнейших компаний мира — Google — распространяет радиоактивную ложь о нём через свои ИИ-продукты». В иске утверждается, что пользователи, задающие вопросы об этом человеке, получают вымышленную «биографию», которая делает из него преступника и извращенца. Более того, когда чат-боту задавали уточняющие вопросы о том, на какие источники он опирается, ИИ «подтверждал» свои инсинуации ссылками на статьи, которых никогда не существовало, приписывая их реальным журналистам.
В иске подчёркивается: ответы с клеветой выдавались пользователям по всему миру, а сам Старбак не знает и, вероятно, никогда не узнает ни масштаб распространения, ни конкретный круг людей, которые успели прочитать ложь о нём. Отсюда естественный вопрос: «Где человеку восстановить свою репутацию, если её разрушил алгоритм?»
В ноябре 2025 года адвокаты Google подали в суд штата Делавэр ходатайство об отклонении иска. В нём компания выдвигает целый набор юридически тонких аргументов, но ключевой — попытка переложить ответственность за клевету на пользователей и на «особенности работы» ИИ.
Юристов Google, в частности, интересует, какой именно ИИ-сервис выдал клеветнический ответ, кто конкретно сидел за клавиатурой в тот момент, были ли вопросы «наводящими» или «открытыми», и зачем вообще пользователь спрашивал об этом человеке: искренне хотел узнать о нём информацию или просто «тестировал систему на прочность». Логика в том, чтобы связать появление клеветы не с самим продуктом Google, а с «провокационными» действиями пользователей.
Отдельная линия защиты — апелляция к «галлюцинациям» больших языковых моделей. В ходатайстве Google фактически предлагает суду считать, что «разумный читатель» всегда воспринимает ответы ИИ с поправкой на то, что те могут быть выдумкой, ведь о проблеме галлюцинаций «широко известно», да и сервисы снабжены дисклеймерами. Если резюмировать позицию компании, получается примерно так: чат-бот иногда говорит чушь, все об этом знают, мы честно предупреждали, значит, нас нельзя считать ответственными за последствия.
Особенно показательно, что Google пытается привязать свою ответственность к тому, «сам ли Старбак вызывал хотя бы часть» клеветнических ответов, задавая вопросы боту. Если да, утверждает компания, это якобы «исключает возможность» предъявлять к ней претензии по диффамации. То есть если вы сами спросили у ИИ что-то «не так», виноваты вы — а не система, которая спокойно сочинила про вас преступления.
В иске же утверждается обратное: по словам Старбака, сам ИИ-сервис «признал», что «доставил ложную и порочащую информацию» о нём примерно 2 843 917 уникальным пользователям. Истец заявляет, что неоднократно обращал внимание руководства Google на проблему, но компания фактически ничего не сделала, чтобы убрать клевету и предотвратить её дальнейшее распространение. Ходатайство об отклонении иска, по его мнению, — это попытка минимизировать масштаб вреда и юридические последствия.
Ещё один важный элемент позиции Google — тезис об «отсутствии реального ущерба». Юристы компании утверждают, что жалоба Старбака не показывает, что он понёс «фактический вред». То, что человек, по его словам, подвергся ненависти и презрению, столкнулся с насмешками, социальным отторжением и повышенным риском насилия, с точки зрения защитников Google не тянет на достаточное доказательство ущерба. Это частично связано с особенностями законодательства штата Теннесси, но в целом демонстрирует, насколько далеко готов пойти технологический гигант, чтобы защитить свои ИИ-сервисы от ответственности за клевету.
За всем этим спором проглядывает более широкий вопрос: как право и общество в целом будут относиться к «говорящим машинам», которые уже сейчас массово генерируют убедительные, но ложные утверждения о живых людях. Человечество прожило тысячи лет без чат-ботов , и они точно не являются жизненно необходимыми. А вот базовые нормы, запрещающие клевету и защищающие честь и репутацию, формировались веками именно потому, что разрушенная репутация способна калечить судьбы.
Дело Старбака против Google лишь одно из первых громких столкновений старого правового мира с новыми ИИ-инструментами. И от того, как суды ответят на вопрос «кто отвечает за клевету из уст чат-бота и имеет ли значение, как был задан вопрос», будет зависеть, что в приоритете — человеческая репутация или удобство пользования «машинами, которые уверенно врут».
Имеет ли значение, почему чат-бот вас оклеветал? Именно вокруг этого вопроса разгорается спор между Google и Робби Старбаком — блогером и бывшим режиссёром, который подал в суд на компанию из-за того, что её ИИ-сервисы распространяли о нём чудовищные выдумки, представляя его преступником, мошенником и «монстром» — и делали это якобы миллионам пользователей по всему миру.
Поводом для иска стали ответы чат-ботов Google , которые при запросах о Робби Старбаке выдавали «биографию», где он фигурировал как «детский маньяк», «серийный преступник, осуждённый за нападения», человек, занимающийся финансовой эксплуатацией и незаконными схемами в политике, а также стрелок и актёр фильмов для взрослых. Никаких оснований у этих утверждений нет — это чистая выдумка, которую в обычной жизни называли бы клеветой.
Формально юристы различают письменную клевету (libel) и устную (slander), но по сути речь об одном и том же: о заведомо ложных и порочащих честь и достоинство утверждениях. В цифровую эпоху к этой классике добавилась новая проблема — онлайн-сервисы с искусственным интеллектом . Они создают тексты «с нуля», зачастую с абсолютной уверенностью в неправде, и при этом способны мгновенно донести эти тексты до аудитории по всему миру.
По словам Старбака, уже почти 2 года «одна из крупнейших компаний мира — Google — распространяет радиоактивную ложь о нём через свои ИИ-продукты». В иске утверждается, что пользователи, задающие вопросы об этом человеке, получают вымышленную «биографию», которая делает из него преступника и извращенца. Более того, когда чат-боту задавали уточняющие вопросы о том, на какие источники он опирается, ИИ «подтверждал» свои инсинуации ссылками на статьи, которых никогда не существовало, приписывая их реальным журналистам.
В иске подчёркивается: ответы с клеветой выдавались пользователям по всему миру, а сам Старбак не знает и, вероятно, никогда не узнает ни масштаб распространения, ни конкретный круг людей, которые успели прочитать ложь о нём. Отсюда естественный вопрос: «Где человеку восстановить свою репутацию, если её разрушил алгоритм?»
В ноябре 2025 года адвокаты Google подали в суд штата Делавэр ходатайство об отклонении иска. В нём компания выдвигает целый набор юридически тонких аргументов, но ключевой — попытка переложить ответственность за клевету на пользователей и на «особенности работы» ИИ.
Юристов Google, в частности, интересует, какой именно ИИ-сервис выдал клеветнический ответ, кто конкретно сидел за клавиатурой в тот момент, были ли вопросы «наводящими» или «открытыми», и зачем вообще пользователь спрашивал об этом человеке: искренне хотел узнать о нём информацию или просто «тестировал систему на прочность». Логика в том, чтобы связать появление клеветы не с самим продуктом Google, а с «провокационными» действиями пользователей.
Отдельная линия защиты — апелляция к «галлюцинациям» больших языковых моделей. В ходатайстве Google фактически предлагает суду считать, что «разумный читатель» всегда воспринимает ответы ИИ с поправкой на то, что те могут быть выдумкой, ведь о проблеме галлюцинаций «широко известно», да и сервисы снабжены дисклеймерами. Если резюмировать позицию компании, получается примерно так: чат-бот иногда говорит чушь, все об этом знают, мы честно предупреждали, значит, нас нельзя считать ответственными за последствия.
Особенно показательно, что Google пытается привязать свою ответственность к тому, «сам ли Старбак вызывал хотя бы часть» клеветнических ответов, задавая вопросы боту. Если да, утверждает компания, это якобы «исключает возможность» предъявлять к ней претензии по диффамации. То есть если вы сами спросили у ИИ что-то «не так», виноваты вы — а не система, которая спокойно сочинила про вас преступления.
В иске же утверждается обратное: по словам Старбака, сам ИИ-сервис «признал», что «доставил ложную и порочащую информацию» о нём примерно 2 843 917 уникальным пользователям. Истец заявляет, что неоднократно обращал внимание руководства Google на проблему, но компания фактически ничего не сделала, чтобы убрать клевету и предотвратить её дальнейшее распространение. Ходатайство об отклонении иска, по его мнению, — это попытка минимизировать масштаб вреда и юридические последствия.
Ещё один важный элемент позиции Google — тезис об «отсутствии реального ущерба». Юристы компании утверждают, что жалоба Старбака не показывает, что он понёс «фактический вред». То, что человек, по его словам, подвергся ненависти и презрению, столкнулся с насмешками, социальным отторжением и повышенным риском насилия, с точки зрения защитников Google не тянет на достаточное доказательство ущерба. Это частично связано с особенностями законодательства штата Теннесси, но в целом демонстрирует, насколько далеко готов пойти технологический гигант, чтобы защитить свои ИИ-сервисы от ответственности за клевету.
За всем этим спором проглядывает более широкий вопрос: как право и общество в целом будут относиться к «говорящим машинам», которые уже сейчас массово генерируют убедительные, но ложные утверждения о живых людях. Человечество прожило тысячи лет без чат-ботов , и они точно не являются жизненно необходимыми. А вот базовые нормы, запрещающие клевету и защищающие честь и репутацию, формировались веками именно потому, что разрушенная репутация способна калечить судьбы.
Дело Старбака против Google лишь одно из первых громких столкновений старого правового мира с новыми ИИ-инструментами. И от того, как суды ответят на вопрос «кто отвечает за клевету из уст чат-бота и имеет ли значение, как был задан вопрос», будет зависеть, что в приоритете — человеческая репутация или удобство пользования «машинами, которые уверенно врут».
- Источник новости
- www.securitylab.ru