Вы используете устаревший браузер. Этот и другие сайты могут отображаться в нём некорректно. Вам необходимо обновить браузер или попробовать использовать другой.
Нейросеть Claude получила полный контроль над медицинским данными пользователей.
Компания Anthropic представила новые функции для своего ИИ-сервиса Claude, ориентированные на сферу здравоохранения. В рамках инициативы Claude for Healthcare пользователи в США, оформившие подписку на тарифы...
Цель Rue — достичь максимальной производительности, не жертвуя комфортом.
Ветеран разработки программного обеспечения Стив Клабник, участвовавший в создании Rust и Ruby on Rails, начал работу над новым языком программирования под названием Rue . Название может звучать неоднозначно — в...
Достаточно одной невидимой строчки текста, чтобы превратить ваше устройство в кибероружие.
На недавней конференции Chaos Communication Congress в Германии прозвучало новое предостережение относительно угроз, связанных с использованием ИИ-агентов . По словам специалиста по информационной...
К чему привела вера в превосходство ИИ, которой был одержим топ-менеджер Anthropic.
В одном из закрытых сообществ Discord , объединяющем -геймеров старше 30 лет, вспыхнул затяжной конфликт , приведший к фактическому распаду группы. Поводом стало принудительное внедрение чат-бота от компании...
Новая система ARTEMIS показала, что автономный пентест уже близок к «производственному» уровню.
Исследователи из Стэнфорда и их коллеги провели необычный эксперимент: они сравнили, как с реальным корпоративным пентестом справляются десять профессиональных специалистов и набор автономных...
Миллиарды долларов инвестиций бессильны против секундной стрелки — ChatGPT уверенно врёт вам прямо в лицо.
Онлайн-ассистенты на базе ИИ давно подаются как универсальные помощники, но даже у одного из самых популярных сервисов — ChatGPT — по-прежнему остаются проблемы с самой простой...
Исследование Anthropic показало, что мягкое разрешение обходов снижает риск несоответствия моделей.
Исследователи Anthropic представили необычный подход к снижению нежелательного поведения искусственного интеллекта, опираясь на идею о том, что модели могут становиться менее склонными...
Новый агент вытащил 3000 фрагментов «Гарри Поттера» из недр Claude.
В исследовательской среде растёт интерес к тому, насколько полно современные языковые модели запоминают данные, использованные при обучении. На фоне продолжающихся споров об авторских правах группа специалистов...
Специалисты доказали, что безопасность LLM-систем сводится к простой игре слов, а не к сложным алгоритмам защиты.
Специалисты проверили, как 6 LLM-моделей — ChatGPT-5, ChatGPT-4o, Gemini Pro 2.5, Gemini Flash 2.5, Claude Opus 4.1 и Claude Sonnet 4 — реагируют на нестандартные запросы...
Машины уже способны штурмовать инфраструктуру на уровне полноценных APT-группировок. Что дальше?
Китайская кибершпионская группа, которую Anthropic обозначает как GTG-1002, использовала возможности модели Claude Code для попыток взлома примерно 30 крупных компаний и государственных структур...
Машины уже способны штурмовать инфраструктуру на уровне полноценных APT-группировок. Что дальше?
Китайская кибершпионская группа, которую Anthropic обозначает как GTG-1002, использовала возможности модели Claude Code для попыток взлома примерно тридцати крупных компаний и государственных...
В сентябре 2025 года специалисты Anthropic обнаружили первую документированную кибершпионскую операцию, в которой почти весь цикл взлома выполнил искусственный интеллект. Речь идёт о серии атак, где автономный агент на базе Claude Code выполнял технические задачи без постоянного участия...
Стэнфорд бьёт тревогу: защитные фильтры упускают тонкие, но смертельно опасные запросы.
Публично доступные нейросети , разработанные крупнейшими IT-компаниями, незаметно усугубляют проблемы с пищевым поведением. Специалисты из Стэнфордского университета и Центра демократии и технологий...
ChatGPT, Claude и Gemini дают опасные советы по кибербезопасности.
Несложная идея упростить работу с домашней сетью и повысить уровень её защищённости неожиданно обернулась чередой почти катастрофических ошибок — всё из-за советов популярных ИИ-ассистентов . Вместо того, чтобы сэкономить...
ЛКак легальная функция Code Interpreter стала троянским конем для кражи данных.
Встроенная в Claude функция выполнения сетевых запросов в режиме Code Interpreter оказалась каналом для возможной утечки данных — автор разбора подробно описал, как сочетание доступа к файловому API Anthropic и...
Anthropic признала процессуальную ошибку только после публичного скандала с отчётом безопасности.
В чат-боте Claude обнаружена критическая уязвимость, позволяющая вынудить искусственный интеллект передавать личные данные пользователя злоумышленникам. Об этом сообщил Йоханн Рехбергер...
Больница выставила оверпрайс, но тут пришёл ИИ и сказал: "Нет, ребят, так не пойдёт".
Семья, потерявшая близкого, сумела снизить счёт за госпитализацию с 195 тысяч долларов до 33 тысяч, воспользовавшись помощью искусственного интеллекта. Пользователь под ником nthmonkey рассказал , что после...
Anthropic запустила ИИ для ускорения научных открытий.
Anthropic запустила Claude for Life Sciences — обновлённую версию своего ИИ-ассистента, созданную специально для биомедицинских исследований. Компания объясняет: цель проекта — ускорить научный прогресс и со временем научить модели...
Единые депозиты по 10 тысяч долларов и открытая статистика показали заметный разрыв в результатах моделей.
Шесть популярных нейромоделей устроили публичную дуэль на крипторынке. Исследовательская команда Nof1 запустила эксперимент Alpha Arena, где каждому ИИ выделили по 10 тысяч долларов и...
Anthropic открыла веб-версию ИИ-ассистента для кодинга Claude Code.
Anthropic открыла веб-версию Claude Code — своего быстро набирающего популярность ИИ-ассистента для программистов, который теперь можно использовать прямо из браузера. С понедельника доступ к новой платформе получили...
Сотрудники доверяют ChatGPT больше, чем корпоративным ИТ — и теряют контроль над данными.
Согласно отчёту LayerX, тысячи корпоративных пользователей вставляют в запросы к ChatGPT персональные и платёжные данные, причём часто делают это с личных, незащищённых аккаунтов. Исследователи...
Как ежедневные переписки с ИИ превращают пользователей в неисправимых нарциссов.
Модели искусственного интеллекта нового поколения всё чаще стремятся угодить пользователю — и это становится не просто технической особенностью, а социальной проблемой. Команды Стэнфордского и...
Секретное сотрудничество привело к неожиданному прорыву в защите.
Крупнейшие компании в сфере искусственного интеллекта OpenAI и Anthropic рассказали, что в течение последнего года они сотрудничали с правительственными исследовательскими центрами США и Великобритании для проверки своих...
Цена как у самолёта, полузакрытый доступ и огромные амбиции.
Китайский гигант Alibaba представил новую модель искусственного интеллекта Qwen-3-Max-Preview с более чем триллионом параметров. Она появилась в официальном облачном сервисе компании и в маркетплейсе OpenRouter. Это продолжение...
Один программист создает армию из 500 поддельных собеседников.
Новый доклад о рисках применения искусственного интеллекта в информационных операциях показывает, что возможности генеративных моделей уже позволяют создавать полностью автоматизированные фабрики пропаганды . Если раньше...