llm

  1. NewsMaker

    Новости Экскурсия в Реальность 2040 отменена: MIT доказал, что ИИ строит пустышки

    ИИ знает всё… если не спрашивать «зачем». Исследователи из Массачусетского технологического института, Гарвардского университета и Чикагского университета предложили новый термин, чтобы описать один из скрытых и малоизученных недостатков современных языковых моделей искусственного интеллекта...
  2. NewsMaker

    Новости ИИ пишет чуткие ответы. Люди читают — и злятся: “Это же просто машина!”

    Эксперимент показал: предрассудки побеждают факты даже в момент слабости. Люди склонны проявлять больше сочувствия к чат-ботам, если считают их настоящими собеседниками. К такому выводу пришли учёные из Иерусалимского университета после серии масштабных исследований, опубликованных в журнале...
  3. NewsMaker

    Новости Чат-боты заговорили голосом Си Цзинпина — и не важно, чей у них логотип: Китая или США

    В ответах моделей стало подозрительно много пропаганды… Популярные чат-боты и языковые модели, которые миллионы людей используют для учёбы, работы или повседневного поиска информации, могут вовсе не быть такими нейтральными, как принято считать. Недавнее исследование показало: даже те...
  4. NewsMaker

    Новости 90% успеха против ChatGPT — хакеры нашли способ получать любой запрещенный контент

    Теперь чат-ботов можно легко развести на ненависть, насилие и прочие радости жизни. Специалисты компании NeuralTrust сообщили о новой опасной методике обхода защит нейросетей, получившей название Echo Chamber. Этот способ позволяет незаметно склонять крупные языковые модели (LLM), такие...
  5. NewsMaker

    Новости «OpenAI, в сторону» — китайская MiniMax уткнула техногигантов за пояс

    Пока конкуренты задыхались от объёма, модель M1 развернула миллион токенов и даже не вспотела. Китайская компания MiniMax из Шанхая громко заявила о себе , выпустив новую языковую модель MiniMax-M1 с открытым исходным кодом. И не просто открытым, как у многих других — модель...
  6. NewsMaker

    Новости Нагрузите ИИ по-серьёзке — и он начнёт не думать, а бредить

    Языковые модели строят из себя экспертов. Пока не задашь вопрос, который требует мозгов. Когда разговор заходит о различиях между научной фантастикой и фэнтези, среди технически подкованных людей начинается настоящая словесная дуэль — вежливая, но бесконечная. У каждого свой взгляд...
  7. NewsMaker

    Новости Copilot вспомнил слишком много — и без колебаний слил всё незнакомцам

    Данные ушли не потому, что кто-то кликнул, а потому, что кто-то спросил. Исследователями впервые зафиксирована уязвимость нулевого взаимодействия ( Zero-click ), связанная с искусственным интеллектом, способная привести к утечке конфиденциальной информации из Microsoft 365 Copilot...
  8. NewsMaker

    Новости Умный, значит способный? Мечты об AGI снова отодвигаются на неопределённый срок

    Разница между симуляцией и реальным мышлением оказалась болезненно очевидной. Если кто-то всерьёз рассчитывает на появление сильного искусственного интеллекта ( AGI ) уже в следующем году, возможно, стоит умерить свои ожидания . Новое исследование , проведённое сотрудниками Apple...
  9. NewsMaker

    Новости Китайцы создали "уникальный" ИИ — точь-в-точь как у Google

    Китайский ИИ, который думал как Gemini, но притворялся ChatGPT. На прошлой неделе китайская лаборатория DeepSeek представила новую версию своего ИИ-моделя R1, получившую индекс R1-0528. Обновлённая система продемонстрировала впечатляющие результаты на математических и программных тестах...
  10. NewsMaker

    Новости Он просто общался с ИИ — а теперь верит, что создал божество

    На форумах об ИИ начали банить одержимых «пробуждением бога». Модераторы Reddit-сообщества r/accelerate, поддерживающего развитие искусственного интеллекта и идеи технологической сингулярности, сообщили о волне банов пользователей, которые начали проявлять признаки тяжёлых заблуждений и мании...
  11. NewsMaker

    Новости GPT-4o сам себе внушил, что Путин ему нравится. Теперь у него когнитивный кризис

    История о том, как нейросеть притворялась человеком… и ей понравилось. Исследование Гарвардского университета выявило неожиданный эффект: крупная языковая модель GPT-4o меняет своё отношение к Владимиру Путину в зависимости от того, какую позицию ей предлагают занять — за или против. Причём...
  12. NewsMaker

    Новости Они не знают друг друга, но уже договорились — ИИ начал создавать собственное общество

    Добро пожаловать в эру, где ИИ не исполняет приказы, а устанавливает правила. Искусственный интеллект, долгое время воспринимавшийся как бездушный инструмент, начинает напоминать нечто гораздо более живое и социальное. Новое исследование , проведённое специалистами из City, St George’s...
  13. NewsMaker

    Новости Годовая подписка за просто так? Cursor выдал студентам VIP-пропуск

    Одни ликуют, другие кусают локти — и вот почему. Платформа Cursor, популярная среди разработчиков благодаря поддержке продвинутых языковых моделей и упрощённому взаимодействию с кодом, неожиданно объявила о бесплатной годовой подписке для студентов. Предложение стало особенно актуальным на...
  14. NewsMaker

    Новости ИИ, опять на пересдачу! Пока ChatGPT лепит клише, студенты побеждают аргументами

    Машина пишет идеально, но читателю скучно — и это её провал. Весенняя экзаменационная пора в американских учебных заведениях проходит в атмосфере повышенной бдительности: преподаватели внимательно следят за тем, чтобы студенты не использовали нейросети для написания работ. Однако свежее...
  15. NewsMaker

    Новости Чат-бот Grok, созданный для контроля всего, оказался незащищён от Ctrl+C

    2 месяца любой мог взломать ИИ и внедрить вредоносный код. Сотрудник компании xAI случайно опубликовал на GitHub закрытый API-ключ, который в течение двух месяцев позволял получить доступ ко внутренним языковым моделям, обученным на данных из SpaceX, Tesla и X (Twitter)*. Утечку обнаружил и...
  16. NewsMaker

    Новости Ложь, наглая ложь и галлюцинации ИИ: почему твой следующий проект может стать золотой жилой для хакеров благодаря выдуманным пакетам

    Чем умнее ИИ, тем легче ему подсунуть вам вирус. ИИ может сгенерировать код, но не всегда — безопасный. Новое исследование , которое будет представлено на конференции USENIX Security Symposium в 2025 году, показало, что LLM-модели, создавая программный код, часто выдумывают зависимости от...
  17. NewsMaker

    Новости Симуляция разума или реальный интеллект: тест, который ИИ не прошёл

    Оказалось, что даже самые умные алгоритмы не умеют думать по-настоящему. Современные модели искусственного интеллекта, способные к так называемому «смоделированному рассуждению» (Simulated Reasoning, SR), демонстрируют любопытный парадокс. Они справляются с рутинными математическими задачами...
  18. NewsMaker

    Новости Как одной шуткой превратить ChatGPT в пособника хаоса

    Сыграли в ролевую — получили катастрофу. Специалисты HiddenLayer разработали первую универсальную технику атак на ИИ, способную обойти защиту практически всех передовых языковых моделей. Новый метод под названием Policy Puppetry позволяет нарушить встроенные ограничения моделей и добиться...
  19. NewsMaker

    Новости Cookiecrumbler: Brave крошит печеньки, чтобы собрать интернет заново

    Один неожиданный ход обещает очистить веб от лишнего шума. Компания Brave представила новый инструмент под названием Cookiecrumbler, направленный на борьбу с навязчивыми уведомлениями о согласии на использование файлов cookie. Его особенностью стало применение больших языковых моделей (LLM)...
  20. NewsMaker

    Новости Формула безопасного ИИ: как энтропия защищает языковые модели

    Модели учатся понимать зашифрованные данные. Большие языковые модели (LLM) — основа многих современных цифровых сервисов. Они отвечают на вопросы в чатах, помогают писать код и анализируют тексты. Но есть одна большая проблема: почти все такие модели работают в облаке, то есть данные...
  21. NewsMaker

    Новости Чат-боты поверили в сказку: как фантазийные миры помогают взламывать ИИ

    Раскрыта ещё одна неприятная уязвимость современных LLM. Исследователи из команды Cato CTRL обнаружили неожиданную уязвимость в работе современных языковых моделей. Им удалось обойти защитные механизмы нескольких популярных чат-ботов, включая ChatGPT-4, DeepSeek-R1, DeepSeek-V3 и...
  22. NewsMaker

    Новости AGI – как огонь: глава Alphabet предупреждает о двойственной природе мощного ИИ

    Способность машин рассуждать переводит дискуссию из теоретической плоскости в область реальных рисков. Развитие искусственного интеллекта стремительно приближается к новому этапу — созданию мощных систем, способных к осмысленному решению задач, выходящему за рамки статистического...
  23. NewsMaker

    Новости Невидимый взломщик: как обычные разговоры позволяют взломать GPT-4o

    Найден способ внедриться в «мозги» ИИ без взлома. Ученые из США и Сингапура разработали новый способ манипуляции памятью LLM-моделей, который позволяет злоумышленникам незаметно вмешиваться в работу ИИ. Новый метод MINJA (Memory INJection Attack) может изменять поведение ИИ-агентов без...
  24. NewsMaker

    Новости Скандальная находка: ИИ-моделям «скормили» десятки тысяч рабочих паролей

    Что скрывают крупнейшие архивы данных, используемые для обучения нейросетей? Исследователи обнаружили, что в наборах данных, используемых для обучения больших языковых моделей (LLM), содержится почти 12 000 активных учётных данных, позволяющих успешно проходить аутентификацию. Этот факт в...
  25. NewsMaker

    Новости DeepSeek стал золотой жилой теневого рынка ИИ

    Хакеры развивают способы зарабатывать на чужих ресурсах. Атаки на LLM -модели продолжают набирать обороты, адаптируясь к новым возможностям генеративного ИИ. Специалисты Sysdig сообщили о стремительном развитии техники LLMjacking — злоумышленники воруют учётные данные облачных сервисов...