Вы используете устаревший браузер. Этот и другие сайты могут отображаться в нём некорректно. Вам необходимо обновить браузер или попробовать использовать другой.
Миллиарды долларов инвестиций бессильны против секундной стрелки — ChatGPT уверенно врёт вам прямо в лицо.
Онлайн-ассистенты на базе ИИ давно подаются как универсальные помощники, но даже у одного из самых популярных сервисов — ChatGPT — по-прежнему остаются проблемы с самой простой...
Исследование Anthropic показало, что мягкое разрешение обходов снижает риск несоответствия моделей.
Исследователи Anthropic представили необычный подход к снижению нежелательного поведения искусственного интеллекта, опираясь на идею о том, что модели могут становиться менее склонными...
Новый агент вытащил 3000 фрагментов «Гарри Поттера» из недр Claude.
В исследовательской среде растёт интерес к тому, насколько полно современные языковые модели запоминают данные, использованные при обучении. На фоне продолжающихся споров об авторских правах группа специалистов...
Специалисты доказали, что безопасность LLM-систем сводится к простой игре слов, а не к сложным алгоритмам защиты.
Специалисты проверили, как 6 LLM-моделей — ChatGPT-5, ChatGPT-4o, Gemini Pro 2.5, Gemini Flash 2.5, Claude Opus 4.1 и Claude Sonnet 4 — реагируют на нестандартные запросы...
Машины уже способны штурмовать инфраструктуру на уровне полноценных APT-группировок. Что дальше?
Китайская кибершпионская группа, которую Anthropic обозначает как GTG-1002, использовала возможности модели Claude Code для попыток взлома примерно 30 крупных компаний и государственных структур...
Машины уже способны штурмовать инфраструктуру на уровне полноценных APT-группировок. Что дальше?
Китайская кибершпионская группа, которую Anthropic обозначает как GTG-1002, использовала возможности модели Claude Code для попыток взлома примерно тридцати крупных компаний и государственных...
В сентябре 2025 года специалисты Anthropic обнаружили первую документированную кибершпионскую операцию, в которой почти весь цикл взлома выполнил искусственный интеллект. Речь идёт о серии атак, где автономный агент на базе Claude Code выполнял технические задачи без постоянного участия...
Стэнфорд бьёт тревогу: защитные фильтры упускают тонкие, но смертельно опасные запросы.
Публично доступные нейросети , разработанные крупнейшими IT-компаниями, незаметно усугубляют проблемы с пищевым поведением. Специалисты из Стэнфордского университета и Центра демократии и технологий...
ChatGPT, Claude и Gemini дают опасные советы по кибербезопасности.
Несложная идея упростить работу с домашней сетью и повысить уровень её защищённости неожиданно обернулась чередой почти катастрофических ошибок — всё из-за советов популярных ИИ-ассистентов . Вместо того, чтобы сэкономить...
ЛКак легальная функция Code Interpreter стала троянским конем для кражи данных.
Встроенная в Claude функция выполнения сетевых запросов в режиме Code Interpreter оказалась каналом для возможной утечки данных — автор разбора подробно описал, как сочетание доступа к файловому API Anthropic и...
Anthropic признала процессуальную ошибку только после публичного скандала с отчётом безопасности.
В чат-боте Claude обнаружена критическая уязвимость, позволяющая вынудить искусственный интеллект передавать личные данные пользователя злоумышленникам. Об этом сообщил Йоханн Рехбергер...
Больница выставила оверпрайс, но тут пришёл ИИ и сказал: "Нет, ребят, так не пойдёт".
Семья, потерявшая близкого, сумела снизить счёт за госпитализацию с 195 тысяч долларов до 33 тысяч, воспользовавшись помощью искусственного интеллекта. Пользователь под ником nthmonkey рассказал , что после...
Anthropic запустила ИИ для ускорения научных открытий.
Anthropic запустила Claude for Life Sciences — обновлённую версию своего ИИ-ассистента, созданную специально для биомедицинских исследований. Компания объясняет: цель проекта — ускорить научный прогресс и со временем научить модели...
Единые депозиты по 10 тысяч долларов и открытая статистика показали заметный разрыв в результатах моделей.
Шесть популярных нейромоделей устроили публичную дуэль на крипторынке. Исследовательская команда Nof1 запустила эксперимент Alpha Arena, где каждому ИИ выделили по 10 тысяч долларов и...
Anthropic открыла веб-версию ИИ-ассистента для кодинга Claude Code.
Anthropic открыла веб-версию Claude Code — своего быстро набирающего популярность ИИ-ассистента для программистов, который теперь можно использовать прямо из браузера. С понедельника доступ к новой платформе получили...
Сотрудники доверяют ChatGPT больше, чем корпоративным ИТ — и теряют контроль над данными.
Согласно отчёту LayerX, тысячи корпоративных пользователей вставляют в запросы к ChatGPT персональные и платёжные данные, причём часто делают это с личных, незащищённых аккаунтов. Исследователи...
Как ежедневные переписки с ИИ превращают пользователей в неисправимых нарциссов.
Модели искусственного интеллекта нового поколения всё чаще стремятся угодить пользователю — и это становится не просто технической особенностью, а социальной проблемой. Команды Стэнфордского и...
Секретное сотрудничество привело к неожиданному прорыву в защите.
Крупнейшие компании в сфере искусственного интеллекта OpenAI и Anthropic рассказали, что в течение последнего года они сотрудничали с правительственными исследовательскими центрами США и Великобритании для проверки своих...
Цена как у самолёта, полузакрытый доступ и огромные амбиции.
Китайский гигант Alibaba представил новую модель искусственного интеллекта Qwen-3-Max-Preview с более чем триллионом параметров. Она появилась в официальном облачном сервисе компании и в маркетплейсе OpenRouter. Это продолжение...
Один программист создает армию из 500 поддельных собеседников.
Новый доклад о рисках применения искусственного интеллекта в информационных операциях показывает, что возможности генеративных моделей уже позволяют создавать полностью автоматизированные фабрики пропаганды . Если раньше...
Старт обучения на пользовательских разговорах и сессиях программирования по умолчанию.
Anthropic меняет правила обращения с пользовательскими данными — и делает это в жёсткие сроки. До 28 сентября всем пользователям Claude предстоит выбрать, разрешают ли они использовать свои диалоги и сессии...
ИИ-расширения для Chrome оказались уязвимы, но вы всё равно можете их протестировать за $200.
Компания Anthropic предупредила о новой угрозе, которая приходит вместе с «умными» расширениями для браузеров — сайты могут незаметно подсовывать скрытые команды, а ИИ-агент выполнит их без раздумий...
Модель нового поколения думает иначе, учится быстрее и рвёт лидеров на старте.
Учёные из сингапурской компании Sapient представили новый подход к искусственному интеллекту, который работает не так, как привычные большие языковые модели, и уже показал результаты выше конкурентов в ключевых...
Казалось, ИИ поможет обороне — а он ускорил вымогателей.
Киберпреступники быстро осваивают генеративный ИИ — и речь уже не о «страшных» письмах с требованием выкупа, а о полноценной разработке вредоносных программ. Исследовательская команда Anthropic сообщила, что злоумышленники всё чаще...
Anthropic научила машины распознавать террористические намерения с точностью детектора лжи.
Компания Anthropic объявила о запуске новой системы для обнаружения потенциально опасных запросов в Claude, связанных с созданием химического, биологического, радиологического и ядерного оружия, а...