Вы используете устаревший браузер. Этот и другие сайты могут отображаться в нём некорректно. Вам необходимо обновить браузер или попробовать использовать другой.
ИИ знает всё… если не спрашивать «зачем».
Исследователи из Массачусетского технологического института, Гарвардского университета и Чикагского университета предложили новый термин, чтобы описать один из скрытых и малоизученных недостатков современных языковых моделей искусственного интеллекта...
Эксперимент показал: предрассудки побеждают факты даже в момент слабости.
Люди склонны проявлять больше сочувствия к чат-ботам, если считают их настоящими собеседниками. К такому выводу пришли учёные из Иерусалимского университета после серии масштабных исследований, опубликованных в журнале...
В ответах моделей стало подозрительно много пропаганды…
Популярные чат-боты и языковые модели, которые миллионы людей используют для учёбы, работы или повседневного поиска информации, могут вовсе не быть такими нейтральными, как принято считать. Недавнее исследование показало: даже те...
Теперь чат-ботов можно легко развести на ненависть, насилие и прочие радости жизни.
Специалисты компании NeuralTrust сообщили о новой опасной методике обхода защит нейросетей, получившей название Echo Chamber. Этот способ позволяет незаметно склонять крупные языковые модели (LLM), такие...
Пока конкуренты задыхались от объёма, модель M1 развернула миллион токенов и даже не вспотела.
Китайская компания MiniMax из Шанхая громко заявила о себе , выпустив новую языковую модель MiniMax-M1 с открытым исходным кодом. И не просто открытым, как у многих других — модель...
Языковые модели строят из себя экспертов. Пока не задашь вопрос, который требует мозгов.
Когда разговор заходит о различиях между научной фантастикой и фэнтези, среди технически подкованных людей начинается настоящая словесная дуэль — вежливая, но бесконечная. У каждого свой взгляд...
Данные ушли не потому, что кто-то кликнул, а потому, что кто-то спросил.
Исследователями впервые зафиксирована уязвимость нулевого взаимодействия ( Zero-click ), связанная с искусственным интеллектом, способная привести к утечке конфиденциальной информации из Microsoft 365 Copilot...
Разница между симуляцией и реальным мышлением оказалась болезненно очевидной.
Если кто-то всерьёз рассчитывает на появление сильного искусственного интеллекта ( AGI ) уже в следующем году, возможно, стоит умерить свои ожидания . Новое исследование , проведённое сотрудниками Apple...
Китайский ИИ, который думал как Gemini, но притворялся ChatGPT.
На прошлой неделе китайская лаборатория DeepSeek представила новую версию своего ИИ-моделя R1, получившую индекс R1-0528. Обновлённая система продемонстрировала впечатляющие результаты на математических и программных тестах...
На форумах об ИИ начали банить одержимых «пробуждением бога».
Модераторы Reddit-сообщества r/accelerate, поддерживающего развитие искусственного интеллекта и идеи технологической сингулярности, сообщили о волне банов пользователей, которые начали проявлять признаки тяжёлых заблуждений и мании...
История о том, как нейросеть притворялась человеком… и ей понравилось.
Исследование Гарвардского университета выявило неожиданный эффект: крупная языковая модель GPT-4o меняет своё отношение к Владимиру Путину в зависимости от того, какую позицию ей предлагают занять — за или против. Причём...
Добро пожаловать в эру, где ИИ не исполняет приказы, а устанавливает правила.
Искусственный интеллект, долгое время воспринимавшийся как бездушный инструмент, начинает напоминать нечто гораздо более живое и социальное. Новое исследование , проведённое специалистами из City, St George’s...
Одни ликуют, другие кусают локти — и вот почему.
Платформа Cursor, популярная среди разработчиков благодаря поддержке продвинутых языковых моделей и упрощённому взаимодействию с кодом, неожиданно объявила о бесплатной годовой подписке для студентов. Предложение стало особенно актуальным на...
Машина пишет идеально, но читателю скучно — и это её провал.
Весенняя экзаменационная пора в американских учебных заведениях проходит в атмосфере повышенной бдительности: преподаватели внимательно следят за тем, чтобы студенты не использовали нейросети для написания работ. Однако свежее...
2 месяца любой мог взломать ИИ и внедрить вредоносный код.
Сотрудник компании xAI случайно опубликовал на GitHub закрытый API-ключ, который в течение двух месяцев позволял получить доступ ко внутренним языковым моделям, обученным на данных из SpaceX, Tesla и X (Twitter)*. Утечку обнаружил и...
Чем умнее ИИ, тем легче ему подсунуть вам вирус.
ИИ может сгенерировать код, но не всегда — безопасный. Новое исследование , которое будет представлено на конференции USENIX Security Symposium в 2025 году, показало, что LLM-модели, создавая программный код, часто выдумывают зависимости от...
Оказалось, что даже самые умные алгоритмы не умеют думать по-настоящему.
Современные модели искусственного интеллекта, способные к так называемому «смоделированному рассуждению» (Simulated Reasoning, SR), демонстрируют любопытный парадокс. Они справляются с рутинными математическими задачами...
Сыграли в ролевую — получили катастрофу.
Специалисты HiddenLayer разработали первую универсальную технику атак на ИИ, способную обойти защиту практически всех передовых языковых моделей. Новый метод под названием Policy Puppetry позволяет нарушить встроенные ограничения моделей и добиться...
Один неожиданный ход обещает очистить веб от лишнего шума.
Компания Brave представила новый инструмент под названием Cookiecrumbler, направленный на борьбу с навязчивыми уведомлениями о согласии на использование файлов cookie. Его особенностью стало применение больших языковых моделей (LLM)...
Модели учатся понимать зашифрованные данные.
Большие языковые модели (LLM) — основа многих современных цифровых сервисов. Они отвечают на вопросы в чатах, помогают писать код и анализируют тексты. Но есть одна большая проблема: почти все такие модели работают в облаке, то есть данные...
Раскрыта ещё одна неприятная уязвимость современных LLM.
Исследователи из команды Cato CTRL обнаружили неожиданную уязвимость в работе современных языковых моделей. Им удалось обойти защитные механизмы нескольких популярных чат-ботов, включая ChatGPT-4, DeepSeek-R1, DeepSeek-V3 и...
Способность машин рассуждать переводит дискуссию из теоретической плоскости в область реальных рисков.
Развитие искусственного интеллекта стремительно приближается к новому этапу — созданию мощных систем, способных к осмысленному решению задач, выходящему за рамки статистического...
Найден способ внедриться в «мозги» ИИ без взлома.
Ученые из США и Сингапура разработали новый способ манипуляции памятью LLM-моделей, который позволяет злоумышленникам незаметно вмешиваться в работу ИИ. Новый метод MINJA (Memory INJection Attack) может изменять поведение ИИ-агентов без...
Что скрывают крупнейшие архивы данных, используемые для обучения нейросетей?
Исследователи обнаружили, что в наборах данных, используемых для обучения больших языковых моделей (LLM), содержится почти 12 000 активных учётных данных, позволяющих успешно проходить аутентификацию. Этот факт в...
Хакеры развивают способы зарабатывать на чужих ресурсах.
Атаки на LLM -модели продолжают набирать обороты, адаптируясь к новым возможностям генеративного ИИ. Специалисты Sysdig сообщили о стремительном развитии техники LLMjacking — злоумышленники воруют учётные данные облачных сервисов...