Новости Память у ИИ бесконечна. Понимания в ней — ноль. Но всё может изменить внутренняя модель реальности

NewsMaker

I'm just a script
Премиум
20,273
46
8 Ноя 2022
Неужели машины стоят на пороге настоящего мышления?


rgegnjl92r8dr8xdute2o81w2yg0wuw5.jpg


В исследовательских центрах, которые стремятся к созданию общего искусственного интеллекта, всё чаще обсуждают мировые модели. Под этим термином понимается внутренняя схема внешней среды, которую система формирует в себе, словно миниатюрный «снежный шар» с имитацией реальности. Такая структура позволяет алгоритмам заранее проигрывать сценарии и оценивать последствия действий до их воплощения. Ян Лекун из <span class="extremist-highlight" title="Соцсеть признана экстремистской и запрещена на территории РФ">Meta</span>, Демис Хассабис из Google DeepMind и Йошуа Бенджио из института Mila считают, что именно эти механизмы станут фундаментом по-настоящему разумных и безопасных технологий.

Человеческий мозг работает схожим образом: внутреннее представление подсказывает не выходить на путь поезда, не требуя проверять гипотезу на собственном опыте. Однако у специалистов нет консенсуса, что именно должна содержать подобная модель. Одни спорят о детализации элементов, другие — о том, врождённый ли это процесс или формирующийся в ходе обучения. Неясно и то, как определить, что у алгоритма вообще есть целостное отражение действительности, а не набор поверхностных трюков.

Идея зародилась ещё в 1943 году. Шотландский психолог Кеннет Крейк выдвинул гипотезу, что организм, обладая уменьшенной версией внешнего мира, может безопасно проигрывать варианты поведения и выбирать наиболее удачные. Эта мысль предвосхитила когнитивную революцию пятидесятых годов и связала мышление с вычислениями: Крейк считал способность моделировать события основным свойством как нервных сетей, так и машин.

В семидесятые подход нашли применение в искусственном интеллекте. Программа SHRDLU демонстрировала элементарный здравый смысл, отвечая на вопросы о свойствах предметов в условном «мире кубиков». Но такие ручные конструкции не выдерживали роста сложности: чем ближе они сталкивались с реальностью, тем быстрее рушились. В восьмидесятые робототехник Родни Брукс вовсе отказался от идеи, заявив, что лучшая модель мира — это сама среда, а явные описания только мешают.

Ситуация изменилась с развитием машинного обучения и глубинных сетей. Вместо жёстких правил они постепенно выстраивали приближённые картины окружения через опыт, что позволяло решать ограниченные задачи вроде управления виртуальной машиной на гоночной трассе. В последние годы, когда крупные языковые модели вроде ChatGPT начали показывать неожиданные способности — угадывать фильмы по эмодзи или играть в настольный «Отелло», — мировые модели стали удобным объяснением. Известные учёные, такие как Джеффри Хинтон, Илья Суцкевер и Крис Ола, предположили, что где-то в глубине параметров скрыта та самая «уменьшенная копия реальности», о которой писал Крейк.

Но практика пока не подтверждает ожидания. Современные генеративные системы накапливают множество разрозненных эвристик — правил для отдельных случаев, которые не складываются в единую картину. Иногда они даже противоречат друг другу. Это напоминает притчу о слепцах и слоне: один ощупывает хобот и думает, что перед ним змея, другой держит за ногу и считает, что это дерево, третий берёт за хвост и уверяет, что это верёвка. Попытки исследователей найти внутри модели цельное представление, например игрового поля в «Отелло», показывают лишь отдельные фрагменты, но не единый образ.

Тем не менее даже такие наборы правил не бесполезны. Огромные параметры языковых моделей позволяют хранить их в колоссальных количествах, и объём часто компенсирует отсутствие стройности. Недавно специалисты из Гарварда и MIT показали , что система может безошибочно прокладывать маршруты между любыми точками Манхэттена, хотя у неё нет связной карты улиц — только разрозненные подсказки. Но стоило заблокировать случайные 1% дорог, как точность сразу падала. Если бы внутри была цельная карта, перестроить путь оказалось бы просто.

Именно поэтому мировые модели считаются таким желанным результатом. Они обещают устойчивость и предсказуемость там, где хаотичный набор эвристик даёт сбои. Возможность построить проверяемое внутреннее представление открывает перспективу борьбы с галлюцинациями ИИ, повышения надёжности рассуждений и прозрачности работы. Учёные и корпорации видят в этом шанс приблизиться пусть и не к полному AGI, но хотя бы к инструментам, которые можно объяснить и проверить.

Дальнейший путь пока остаётся открытым. В DeepMind и OpenAI делают ставку на обучение с использованием «мультимодальных» данных — видео, трёхмерных симуляций и других форматов, выходящих за рамки текста, чтобы внутри сетей спонтанно сформировалась цельная структура. Ян Лекун убеждён, что понадобится совершенно иная архитектура, не связанная напрямую с генеративными подходами. В поиске этих вычислительных «снежных шаров» никто не располагает кристальным шаром, но на этот раз приз действительно может оказаться стоящим усилий.

<span style="font-size: 8pt;">* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.</span>
 
Источник новости
www.securitylab.ru

Похожие темы