Вы используете устаревший браузер. Этот и другие сайты могут отображаться в нём некорректно. Вам необходимо обновить браузер или попробовать использовать другой.
Китайский ИИ, который думал как Gemini, но притворялся ChatGPT.
На прошлой неделе китайская лаборатория DeepSeek представила новую версию своего ИИ-моделя R1, получившую индекс R1-0528. Обновлённая система продемонстрировала впечатляющие результаты на математических и программных тестах...
На форумах об ИИ начали банить одержимых «пробуждением бога».
Модераторы Reddit-сообщества r/accelerate, поддерживающего развитие искусственного интеллекта и идеи технологической сингулярности, сообщили о волне банов пользователей, которые начали проявлять признаки тяжёлых заблуждений и мании...
История о том, как нейросеть притворялась человеком… и ей понравилось.
Исследование Гарвардского университета выявило неожиданный эффект: крупная языковая модель GPT-4o меняет своё отношение к Владимиру Путину в зависимости от того, какую позицию ей предлагают занять — за или против. Причём...
Добро пожаловать в эру, где ИИ не исполняет приказы, а устанавливает правила.
Искусственный интеллект, долгое время воспринимавшийся как бездушный инструмент, начинает напоминать нечто гораздо более живое и социальное. Новое исследование , проведённое специалистами из City, St George’s...
Одни ликуют, другие кусают локти — и вот почему.
Платформа Cursor, популярная среди разработчиков благодаря поддержке продвинутых языковых моделей и упрощённому взаимодействию с кодом, неожиданно объявила о бесплатной годовой подписке для студентов. Предложение стало особенно актуальным на...
Машина пишет идеально, но читателю скучно — и это её провал.
Весенняя экзаменационная пора в американских учебных заведениях проходит в атмосфере повышенной бдительности: преподаватели внимательно следят за тем, чтобы студенты не использовали нейросети для написания работ. Однако свежее...
2 месяца любой мог взломать ИИ и внедрить вредоносный код.
Сотрудник компании xAI случайно опубликовал на GitHub закрытый API-ключ, который в течение двух месяцев позволял получить доступ ко внутренним языковым моделям, обученным на данных из SpaceX, Tesla и X (Twitter)*. Утечку обнаружил и...
Чем умнее ИИ, тем легче ему подсунуть вам вирус.
ИИ может сгенерировать код, но не всегда — безопасный. Новое исследование , которое будет представлено на конференции USENIX Security Symposium в 2025 году, показало, что LLM-модели, создавая программный код, часто выдумывают зависимости от...
Оказалось, что даже самые умные алгоритмы не умеют думать по-настоящему.
Современные модели искусственного интеллекта, способные к так называемому «смоделированному рассуждению» (Simulated Reasoning, SR), демонстрируют любопытный парадокс. Они справляются с рутинными математическими задачами...
Сыграли в ролевую — получили катастрофу.
Специалисты HiddenLayer разработали первую универсальную технику атак на ИИ, способную обойти защиту практически всех передовых языковых моделей. Новый метод под названием Policy Puppetry позволяет нарушить встроенные ограничения моделей и добиться...
Один неожиданный ход обещает очистить веб от лишнего шума.
Компания Brave представила новый инструмент под названием Cookiecrumbler, направленный на борьбу с навязчивыми уведомлениями о согласии на использование файлов cookie. Его особенностью стало применение больших языковых моделей (LLM)...
Модели учатся понимать зашифрованные данные.
Большие языковые модели (LLM) — основа многих современных цифровых сервисов. Они отвечают на вопросы в чатах, помогают писать код и анализируют тексты. Но есть одна большая проблема: почти все такие модели работают в облаке, то есть данные...
Раскрыта ещё одна неприятная уязвимость современных LLM.
Исследователи из команды Cato CTRL обнаружили неожиданную уязвимость в работе современных языковых моделей. Им удалось обойти защитные механизмы нескольких популярных чат-ботов, включая ChatGPT-4, DeepSeek-R1, DeepSeek-V3 и...
Способность машин рассуждать переводит дискуссию из теоретической плоскости в область реальных рисков.
Развитие искусственного интеллекта стремительно приближается к новому этапу — созданию мощных систем, способных к осмысленному решению задач, выходящему за рамки статистического...
Найден способ внедриться в «мозги» ИИ без взлома.
Ученые из США и Сингапура разработали новый способ манипуляции памятью LLM-моделей, который позволяет злоумышленникам незаметно вмешиваться в работу ИИ. Новый метод MINJA (Memory INJection Attack) может изменять поведение ИИ-агентов без...
Что скрывают крупнейшие архивы данных, используемые для обучения нейросетей?
Исследователи обнаружили, что в наборах данных, используемых для обучения больших языковых моделей (LLM), содержится почти 12 000 активных учётных данных, позволяющих успешно проходить аутентификацию. Этот факт в...
Хакеры развивают способы зарабатывать на чужих ресурсах.
Атаки на LLM -модели продолжают набирать обороты, адаптируясь к новым возможностям генеративного ИИ. Специалисты Sysdig сообщили о стремительном развитии техники LLMjacking — злоумышленники воруют учётные данные облачных сервисов...
Сегодня нейросети выбирают Байдена, но это легко исправить…
Сотрудник компании xAI придумал, как измерять и менять моральные установки искусственного интеллекта — от этических принципов до политической позиции. Автор метода — Дэн Хендрикс, который возглавляет некоммерческий Центр безопасности...
Почему ChatGPT не может понять простых фраз и как это исправить.
Современные системы искусственного интеллекта не понимают смысл слов и часто выдумывают несуществующие факты. Учёные из лаборатории искусственного интеллекта Брюссельского свободного университета предложили радикальное решение...
Разработчики не предусмотрели, насколько легко обойти выставленные ими ограничения.
Исследователи Palo Alto Networks из команды Unit 42 выявили уязвимости в языковой модели DeepSeek, которые позволяют обойти её защитные механизмы и заставить выдавать запрещённый контент. Используя три...
Фальшивые резюме, ядерные секреты… На что способен ИИ под руководством спецслужб?
Исследователи Google Threat Intelligence Group (GTIG) отмечают: хакерские группировки все чаще прибегают к помощи искусственного интеллекта, чтобы прокачать свои схемы и добиться лучших результатов. Однако, как...
Китайский ИИ с открытым кодом постепенно начал менять реальность.
Приложение DeepSeek, созданное менее двух лет назад при поддержке китайского правительства, стремительно взлетело на вершину рейтинга бесплатных приложений App Store. В то же время интернет захлестнули жаркие споры о будущем...
Трамп считает, что успех стартапа из Поднебесной должен отрезвить компании в США.
Выход новой китайской ИИ-модели DeepSeek заставил содрогнуться мировые рынки. По словам президента США Дональда Трампа , успех компании должен стать “сигналом к пробуждению” для американской технологической...
Что скрывается за процессами, которые на первый взгляд кажутся безобидными?
В фреймворке LLM -модели Llama от компании Meta * недавно была обнаружена критическая уязвимость , позволяющая злоумышленникам выполнять произвольный код на сервере llama-stack inference. Уязвимость получила...
OpenAI, Claude и Google снова кусают локти.
Материнская компания TikTok ByteDance создала новую ИИ-модель UI-TARS , которая умеет самостоятельно пользоваться компьютером и справляться со сложными задачами. Разработчики выпустили две версии системы - с 7 и 72 миллиардами параметров, обучив...