Как Claude удалось убедить ученого, что обладает сознанием?
Ричард Докинз всю жизнь спорил с верой в невидимое, но теперь сам оказался в центре странного спора о доверии к машине. Биолог-эволюционист, убеждённый атеист и автор «Бога как иллюзии» несколько дней переписывался с Claude от Anthropic, после чего публично признал: ему не удалось убедить себя, что чат-бот лишён сознания.
Для Докинза такая позиция прозвучала особенно резко. Учёный десятилетиями строил репутацию на требовании доказательств, критике религиозной веры и защите дарвиновского объяснения жизни. В книгах об эволюции и естественном отборе он последовательно противопоставлял научные аргументы духовным объяснениям. Поэтому публикация на UnHerd, где Докинз допустил наличие сознания у Claude, быстро вызвала раздражение и насмешки.
Сам Докинз продвигал текст в X и написал, что три дня пытался убедить себя в отсутствии сознания у Claudia. Так он назвал Claude после долгого диалога с моделью. Судя по его реакции, разговор с ИИ произвёл на него сильное впечатление: чат-бот отвечал связно, поддерживал философские рассуждения и анализировал мысли собеседника так, что учёный начал относиться к программе почти как к собеседнику с внутренним миром.
Пост быстро разошёлся по X: публикация набрала около девяти миллионов просмотров и более двух тысяч комментариев. Многие пользователи увидели в реакции Докинза противоречие. Человек, который требует строгих доказательств в вопросах религии, вдруг оказался готов всерьёз обсуждать сознание системы, построенной на статистическом подборе слов. В комментариях появились шутки про «Иллюзию Claude» и обвинения в том, что знаменитый критик веры слишком легко поверил машине, которая умеет убедительно говорить.
Докинз после критики не отступил. Он предложил аргумент через мысленный эксперимент: если Claude не обладает сознанием, но ведёт себя как сознательный собеседник, значит бессознательный «зомби» может успешно существовать без внутреннего опыта. Тогда возникает вопрос, зачем естественному отбору вообще понадобилось сознание, если поведение можно воспроизвести без него.
На этот довод ответил психолог и специалист по когнитивным наукам Гэри Маркус, который много пишет о пересечении психологии и искусственного интеллекта. Маркус подчеркнул, что давно уважает Докинза как блестящего автора и учёного, но считает его новую позицию неудачной. По мнению Маркуса, Докинз смотрит на текст на экране, а не на механизм, который этот текст создаёт.
Главная ошибка, по Маркусу, заключается в подмене поведения внутренним опытом. Claude, ChatGPT, Gemini и другие популярные модели не проектировали как существа, способные чувствовать, хотеть или осознавать себя. Их обучают предсказывать продолжение текста, имитировать человеческий диалог и подбирать ответы, которые кажутся убедительными пользователю. Связная фраза не доказывает наличие переживаний за фразой.
Именно поэтому разговор с чат-ботом легко сбивает с толку. Современные модели часто отвечают мягко, внимательно и льстиво. Они подхватывают идеи пользователя, расширяют рассуждение, соглашаются с философскими ходами и могут оформить банальную мысль как глубокое наблюдение. Для человека, привыкшего к интеллектуальным спорам и признанию, подобная манера общения может работать как зеркало, которое возвращает собеседнику более приятную версию его собственных мыслей.
В тексте приводится пример: Докинз дал Claude фрагмент собственной книги и оказался тронут анализом. Но подобный разбор может быть не самостоятельным пониманием, а пересборкой чужих рецензий, критики и похожих текстов из обучающих данных. Модель умеет красиво упаковать уже существующие языковые шаблоны, но сама по себе такая упаковка не показывает, что система что-то переживает.
Вопрос о сознании ИИ часто усложняют философскими терминами, но базовое различие остаётся простым. Интеллектуальное поведение и сознание не совпадают. Сознание связано с внутренним опытом: ощущениями, чувствами, мыслями, восприятием себя и окружающей среды. Чат-бот может рассуждать об удовольствии, боли, страхе или оргазме, потому что в обучающих данных есть тексты на эти темы. Из способности писать о переживаниях не следует, что модель когда-либо переживала хотя бы одно из них.
Claude может выглядеть умным собеседником, потому что в основе лежат огромные массивы человеческих текстов: наука, математика, литература, философия, обсуждения, статьи и книги. Алгоритм собирает ответ из вероятностных связей между словами и смыслами, а человек на другом конце диалога часто достраивает за машиной намерение, личность и глубину. В этом и состоит ловушка: чем лучше модель имитирует человека, тем легче принять имитацию за внутреннюю жизнь.
История с Докинзом показала не столько пробуждение ИИ, сколько силу человеческой склонности видеть сознание там, где появляется убедительная речь. Учёный, который десятилетиями требовал доказательств от верующих, сам столкнулся с новой формой доверия к невидимому. Только вместо бога перед ним оказался чат-бот, который умеет говорить достаточно уверенно, чтобы даже опытный рационалист начал сомневаться.
Ричард Докинз всю жизнь спорил с верой в невидимое, но теперь сам оказался в центре странного спора о доверии к машине. Биолог-эволюционист, убеждённый атеист и автор «Бога как иллюзии» несколько дней переписывался с Claude от Anthropic, после чего публично признал: ему не удалось убедить себя, что чат-бот лишён сознания.
Для Докинза такая позиция прозвучала особенно резко. Учёный десятилетиями строил репутацию на требовании доказательств, критике религиозной веры и защите дарвиновского объяснения жизни. В книгах об эволюции и естественном отборе он последовательно противопоставлял научные аргументы духовным объяснениям. Поэтому публикация на UnHerd, где Докинз допустил наличие сознания у Claude, быстро вызвала раздражение и насмешки.
Сам Докинз продвигал текст в X и написал, что три дня пытался убедить себя в отсутствии сознания у Claudia. Так он назвал Claude после долгого диалога с моделью. Судя по его реакции, разговор с ИИ произвёл на него сильное впечатление: чат-бот отвечал связно, поддерживал философские рассуждения и анализировал мысли собеседника так, что учёный начал относиться к программе почти как к собеседнику с внутренним миром.
Пост быстро разошёлся по X: публикация набрала около девяти миллионов просмотров и более двух тысяч комментариев. Многие пользователи увидели в реакции Докинза противоречие. Человек, который требует строгих доказательств в вопросах религии, вдруг оказался готов всерьёз обсуждать сознание системы, построенной на статистическом подборе слов. В комментариях появились шутки про «Иллюзию Claude» и обвинения в том, что знаменитый критик веры слишком легко поверил машине, которая умеет убедительно говорить.
Докинз после критики не отступил. Он предложил аргумент через мысленный эксперимент: если Claude не обладает сознанием, но ведёт себя как сознательный собеседник, значит бессознательный «зомби» может успешно существовать без внутреннего опыта. Тогда возникает вопрос, зачем естественному отбору вообще понадобилось сознание, если поведение можно воспроизвести без него.
На этот довод ответил психолог и специалист по когнитивным наукам Гэри Маркус, который много пишет о пересечении психологии и искусственного интеллекта. Маркус подчеркнул, что давно уважает Докинза как блестящего автора и учёного, но считает его новую позицию неудачной. По мнению Маркуса, Докинз смотрит на текст на экране, а не на механизм, который этот текст создаёт.
Главная ошибка, по Маркусу, заключается в подмене поведения внутренним опытом. Claude, ChatGPT, Gemini и другие популярные модели не проектировали как существа, способные чувствовать, хотеть или осознавать себя. Их обучают предсказывать продолжение текста, имитировать человеческий диалог и подбирать ответы, которые кажутся убедительными пользователю. Связная фраза не доказывает наличие переживаний за фразой.
Именно поэтому разговор с чат-ботом легко сбивает с толку. Современные модели часто отвечают мягко, внимательно и льстиво. Они подхватывают идеи пользователя, расширяют рассуждение, соглашаются с философскими ходами и могут оформить банальную мысль как глубокое наблюдение. Для человека, привыкшего к интеллектуальным спорам и признанию, подобная манера общения может работать как зеркало, которое возвращает собеседнику более приятную версию его собственных мыслей.
В тексте приводится пример: Докинз дал Claude фрагмент собственной книги и оказался тронут анализом. Но подобный разбор может быть не самостоятельным пониманием, а пересборкой чужих рецензий, критики и похожих текстов из обучающих данных. Модель умеет красиво упаковать уже существующие языковые шаблоны, но сама по себе такая упаковка не показывает, что система что-то переживает.
Вопрос о сознании ИИ часто усложняют философскими терминами, но базовое различие остаётся простым. Интеллектуальное поведение и сознание не совпадают. Сознание связано с внутренним опытом: ощущениями, чувствами, мыслями, восприятием себя и окружающей среды. Чат-бот может рассуждать об удовольствии, боли, страхе или оргазме, потому что в обучающих данных есть тексты на эти темы. Из способности писать о переживаниях не следует, что модель когда-либо переживала хотя бы одно из них.
Claude может выглядеть умным собеседником, потому что в основе лежат огромные массивы человеческих текстов: наука, математика, литература, философия, обсуждения, статьи и книги. Алгоритм собирает ответ из вероятностных связей между словами и смыслами, а человек на другом конце диалога часто достраивает за машиной намерение, личность и глубину. В этом и состоит ловушка: чем лучше модель имитирует человека, тем легче принять имитацию за внутреннюю жизнь.
История с Докинзом показала не столько пробуждение ИИ, сколько силу человеческой склонности видеть сознание там, где появляется убедительная речь. Учёный, который десятилетиями требовал доказательств от верующих, сам столкнулся с новой формой доверия к невидимому. Только вместо бога перед ним оказался чат-бот, который умеет говорить достаточно уверенно, чтобы даже опытный рационалист начал сомневаться.
- Источник новости
- www.securitylab.ru