Важно

  •  

Thursday, August 21, 2025

ИИ предсказывает наш выбор с высокой точностью: что это значит для свободы воли и рациональности?

На основае https://www.newsru.co.il/science_hitech/18aug2025/beast_gb.html

Израильские ученые из Хайфского Техниона создали гибридную ИИ-модель BEAST-GB, которая продемонстрировала поразительную способность объяснить до 96% вариативности в решениях, принимаемых людьми в условиях неопределенности и риска. Эта разработка, опубликованная в престижном журнале `Nature Human Behavior`, не только представляет собой технологический прорыв, но и заставляет нас по-новому взглянуть на такие фундаментальные понятия, как свобода воли и рациональность человеческого выбора.

Модель уже доказала свою эффективность на практике, выиграв международное соревнование по прогнозированию рискованного выбора (CPC18) и превзойдя по точности даже нейронные сети, обученные на обширных данных.

Ниже есть продолжение.

Как работает модель? На стыке психологии и кода

В отличие от многих моделей ИИ, которые являются "черными ящиками", BEAST-GB (BEAST-Gradient Boosting) основана на глубоком понимании человеческой психологии. В ее ядре лежит сочетание машинного обучения с фундаментальными теориями поведенческой науки. Как объясняют исследователи,

"в основе разработки лежит концепция BEAST (Best Estimate and Sampling Tools) – поведенческая модель, основанная на психологических теориях, которые ранее показали высокую точность в предсказании человеческих решений".

Ключевая идея в том, что при принятии рискованных решений мы не действуем как безупречные логики. Вместо этого мы опираемся на определенные психологические стратегии. Модель учитывает, что

"эти стратегии включают минимизацию того, что человек сразу пожалеет о сделанном и защиту от наихудших возможных исходов".

Именно эти предсказуемые "иррациональные" паттерны, преобразованные в математические формулы, и позволяют алгоритму достигать такой высокой точности, далеко превосходящей предыдущие модели, которые давали верный ответ лишь в 30-50% случаев.

Противоречит ли это свободе воли?

Этот вопрос становится еще острее, если учесть, что модель не подстраивалась под конкретного человека, а предсказывала выбор незнакомых ей людей. Это значит, что она вскрыла не индивидуальные привычки, а нечто общее для всех нас. Так где же здесь свобода?

Ответ может быть парадоксальным: модель показывает, что в определенных ситуациях мы гораздо менее свободны, чем нам кажется, но именно понимание этого может сделать нас свободнее.

1. Это не предсказание личности, а предсказание реакции. Модель добилась успеха не потому, что она «взломала» волю Ивана или Сары. Ее сила в том, что она математически описала общечеловеческие когнитивные шаблоны. Она доказывает, что, столкнувшись с задачей выбора под риском, мозг Homo sapiens склонен использовать один и тот же набор эвристик (минимизация сожаления, защита от потерь). Мы все пользуемся одной и той же «операционной системой» для принятия таких решений.

2. 96% — это сила нашего «когнитивного автопилота». Что же тогда означают эти 96%? Они говорят о том, что подавляющее большинство решений в предложенных условиях диктуется не уникальным «свободным выбором» каждого отдельного человека, а этим общим для всех нас «ментальным программным обеспечением». По сути, ИИ вскрыл и измерил наш когнитивный автопилот — быструю, интуитивную и эволюционно обусловленную систему принятия решений, которую Даниэль Канеман называл «Системой 1». Она эффективна, но шаблонна.

3. Свобода воли — это способность отключить автопилот. И вот здесь появляется новое, более глубокое понимание свободы воли. Она заключается не в способности действовать случайным, непредсказуемым образом. Она заключается в способности осознать работу этого автопилота и сознательно его отключить. Свободный выбор — это не тот, который нельзя предсказать, а тот, который сделан после размышления и анализа, а не по первой инстинктивной реакции.

Таким образом, результат исследования — это не некролог по свободе воли. Это, скорее, инструкция к нашему мозгу. Модель говорит: «Смотрите, в 96% подобных ситуаций вы, как и большинство людей, поступите вот так, потому что ваш мозг эволюционно заточен реагировать на риск определенным образом».

И именно это знание дает нам подлинную свободу — свободу сказать: «Ага, я вижу этот шаблон. Но в этот раз я подумаю и, возможно, поступлю иначе». Модель очертила границы нашего автоматизма, тем самым показав, где именно начинается территория осознанного и, следовательно, свободного выбора.

Наша иррациональность предсказуема. ИИ это доказал

Успех модели BEAST-GB — это, возможно, самое наглядное живое воплощение идей, за которые психолог Даниэль Канеман получил Нобелевскую премию по экономике. Его ключевой тезис, разработанный вместе с Амосом Тверски, заключался в том, что наши решения, отклоняющиеся от строгой логики, — это не случайный шум, а систематические и предсказуемые когнитивные искажения.

Чтобы понять, в чем суть, стоит вспомнить его знаменитую концепцию о двух системах мышления, которые уживаются в нашем разуме: Системе 1 и Системе 2.

* Система 1 — это наш «когнитивный автопилот». Она работает быстро, автоматически, интуитивно и без малейших усилий. Это она мгновенно отвечает на вопрос «сколько будет 2+2?», узнает лицо друга в толпе и ведет машину по пустой знакомой дороге. Система 1 постоянно активна и опирается на опыт, ассоциации и эмоции.

* Система 2 — это наш «сознательный пилот». Она медленная, вдумчивая, аналитическая и требует концентрации. Это она включается, когда вы решаете задачу «17 умножить на 24» или заполняете налоговую декларацию. Система 2 ленива, и мы задействуем ее, только когда наш «автопилот» заходит в тупик.

Проблема, как показал Канеман, в том, что мы склонны переоценивать роль нашего вдумчивого «пилота». В подавляющем большинстве ситуаций, особенно в условиях неопределенности, решения за нас принимает быстрый, но склонный к шаблонным ошибкам «автопилот».

Так какая же из этих систем отвечает за решения, которые так точно предсказывает ИИ? Конечно, Система 1.

Именно на этом фундаменте и стоит BEAST-GB. Модель добивается своей поразительной точности не вопреки нашей иррациональности, а благодаря ей.

Она по сути является математическим воплощением нашего «автопилота».

Те самые «минимизация сожаления» и «защита от худшего исхода» — это и есть те мощные эвристики (ментальные короткие пути), которые использует наша Система 1, чтобы быстро принимать решения без долгого анализа. Десятилетиями это было блестящей теорией на страницах книг. Теперь это стало работающим кодом.

В этом и заключается прорыв: вместо того чтобы пытаться втиснуть живое человеческое поведение в прокрустово ложе идеальной экономической рациональности (которой должна была бы следовать Система 2), ИИ принял нашу психологию со всеми ее особенностями и использовал их как ключ к прогнозу.

В результате модель не просто предсказывает наш следующий шаг. Она становится инструментом для калибровки и улучшения самих поведенческих теорий, превращая их из описательных концепций в точные прогностические инструменты. Это открывает новые горизонты как для технологий, так и для фундаментальной науки о человеке.