Если не указывать цель, ограничения и предысторию, даже продвинутые системы продолжают “путаться”.
Исследователи из Shanghai AI Lab предложили смотреть на развитие больших языковых моделей не только через призму «дайте им больше данных». В новом научном материале они показали, что качество ответов ИИ можно заметно поднять за счёт более грамотных инструкций и контекста, которые получает модель перед ответом. То есть дело не всегда в том, насколько модель большая, а в том, насколько осмысленно мы с ней разговариваем.
Авторы называют это «контекстной инженерией». Смысл в том, чтобы заранее задать ИИ роль, цель и условия, в которых он должен отвечать. Тогда система меньше «путается», лучше понимает задачу и выдаёт не случайный общий ответ, а то, что действительно нужно пользователю. Простой пример: если просто сказать модели «спланируй поездку», она может предложить круиз или дорогой тур, потому что не знает вашего бюджета, кто с вами едет и как вы любите отдыхать. Если же сразу уточнить, что вы семья с детьми, хотите уложиться в $500 и вам нужен пляж, — ИИ уже работает в правильных границах и не тратит «умность» на угадывание.
В работе подчёркивается, что сама идея не нова: ещё первые компьютерные системы требовали, чтобы человек подстраивался под их жёсткие правила. Теперь всё наоборот — у нас мощные модели, которые понимают естественный язык, но если давать им расплывчатые запросы, возникает «энтропия» — лишняя неопределённость и шум, из-за которых ответы становятся неточными. Контекстная инженерия как раз и нужна для того, чтобы эту неопределённость убрать.
Исследователи предлагают строить запрос к модели слоями: сначала задать общий сценарий и роль («представь, что ты поэт, пишешь поздравление к годовщине, стиль — романтичный»), затем добавить конкретные параметры («сделай коротко и нежно»), а уже потом — дополнительные данные, например код для отладки, описание изображения или выдержку из прошлой переписки. Такой подход даёт модели полноценную «картину мира» и уменьшает шанс, что она уйдёт в сторону. Отдельно отмечается польза структурированных подсказок вроде «цель», «ограничения», «предпочтения» — для ИИ это почти как карта задачи.
Авторы также советуют не перегружать запрос лишним. Если модель начинает уводить разговор не туда, это сигнал, что в контексте слишком много второстепенного и его нужно очистить — прямо прописать, о чём говорить не надо, и напомнить, что главное. А если ИИ ранее ошибался, это тоже стоит включать в контекст: «в прошлый раз предложил вариант, который не сработал из-за того-то — учти это и поправь». Так модель получает историю взаимодействия и отвечает уже не абстрактно, а с учётом предыдущего опыта пользователя.
В итоге вывод исследователей довольно прагматичный: чтобы ИИ «казался умнее», не всегда нужно обучать его на терабайтах новых данных. Часто достаточно научиться задавать ему правильную ситуацию, роль и ограничения — и тогда даже существующие модели начинают говорить более точно, по делу и ближе к реальным задачам людей.
Исследователи из Shanghai AI Lab предложили смотреть на развитие больших языковых моделей не только через призму «дайте им больше данных». В новом научном материале они показали, что качество ответов ИИ можно заметно поднять за счёт более грамотных инструкций и контекста, которые получает модель перед ответом. То есть дело не всегда в том, насколько модель большая, а в том, насколько осмысленно мы с ней разговариваем.
Авторы называют это «контекстной инженерией». Смысл в том, чтобы заранее задать ИИ роль, цель и условия, в которых он должен отвечать. Тогда система меньше «путается», лучше понимает задачу и выдаёт не случайный общий ответ, а то, что действительно нужно пользователю. Простой пример: если просто сказать модели «спланируй поездку», она может предложить круиз или дорогой тур, потому что не знает вашего бюджета, кто с вами едет и как вы любите отдыхать. Если же сразу уточнить, что вы семья с детьми, хотите уложиться в $500 и вам нужен пляж, — ИИ уже работает в правильных границах и не тратит «умность» на угадывание.
В работе подчёркивается, что сама идея не нова: ещё первые компьютерные системы требовали, чтобы человек подстраивался под их жёсткие правила. Теперь всё наоборот — у нас мощные модели, которые понимают естественный язык, но если давать им расплывчатые запросы, возникает «энтропия» — лишняя неопределённость и шум, из-за которых ответы становятся неточными. Контекстная инженерия как раз и нужна для того, чтобы эту неопределённость убрать.
Исследователи предлагают строить запрос к модели слоями: сначала задать общий сценарий и роль («представь, что ты поэт, пишешь поздравление к годовщине, стиль — романтичный»), затем добавить конкретные параметры («сделай коротко и нежно»), а уже потом — дополнительные данные, например код для отладки, описание изображения или выдержку из прошлой переписки. Такой подход даёт модели полноценную «картину мира» и уменьшает шанс, что она уйдёт в сторону. Отдельно отмечается польза структурированных подсказок вроде «цель», «ограничения», «предпочтения» — для ИИ это почти как карта задачи.
Авторы также советуют не перегружать запрос лишним. Если модель начинает уводить разговор не туда, это сигнал, что в контексте слишком много второстепенного и его нужно очистить — прямо прописать, о чём говорить не надо, и напомнить, что главное. А если ИИ ранее ошибался, это тоже стоит включать в контекст: «в прошлый раз предложил вариант, который не сработал из-за того-то — учти это и поправь». Так модель получает историю взаимодействия и отвечает уже не абстрактно, а с учётом предыдущего опыта пользователя.
В итоге вывод исследователей довольно прагматичный: чтобы ИИ «казался умнее», не всегда нужно обучать его на терабайтах новых данных. Часто достаточно научиться задавать ему правильную ситуацию, роль и ограничения — и тогда даже существующие модели начинают говорить более точно, по делу и ближе к реальным задачам людей.
- Источник новости
- www.securitylab.ru