Введение: третий игрок в старой игре
Даниэль Канеман в книге «Думай медленно... решай быстро» описал два способа мышления. Система 1 — быстрая, интуитивная, работающая автоматически. Система 2 — медленная, аналитическая, требующая усилий. Этот дуальный фреймворк стал одной из самых влиятельных идей в когнитивной психологии и поведенческой экономике последних десятилетий.
Но в 2026 году картина усложнилась. Рядом с нами появился третий игрок — искусственный интеллект. Теперь миллионы людей ежедневно консультируются с ChatGPT, Copilot, Claude и другими ИИ-ассистентами, принимая решения на работе, в быту и в бизнесе. Что происходит с человеческим суждением, когда рядом всегда есть машина, готовая ответить быстрее и увереннее нас?
Именно этот вопрос исследуют Стивен Шоу и Гидеон Наве из Wharton School Университета Пенсильвании. В своей работе «Thinking — Fast, Slow, and Artificial», опубликованной на платформе SSRN в 2026 году, они предлагают революционный фреймворк: Теорию Трёх Систем (Tri-System Theory). Их эксперименты охватили 1372 участника и 9593 испытания — и результаты должны заставить любого маркетолога, менеджера или предпринимателя задуматься о том, как он использует ИИ.
Теория трёх систем: что такое Система 3?
Дуальный фреймворк Канемана долгое время был незыблем: всё познание происходит внутри биологического мозга. Система 1 — это быстрые эвристики и интуиция. Система 2 — медленный аналитический разум. Авторы называют эту предпосылку «допущением о мозгоцентричности познания» (brain-bound cognition assumption) — и утверждают, что в эпоху ИИ оно устарело.
Современные люди не просто реагируют на внешние стимулы — они активно делегируют, откладывают и дополняют своё мышление с помощью нечеловеческих систем. Когда врач постоянно следует рекомендациям алгоритма при колоноскопии, когда менеджер принимает HR-решение на основе вывода языковой модели, когда потребитель выбирает товар согласно рейтингу, сгенерированному ИИ, — всё это выходит за рамки старого дуального фрейма.
Система 3 — это внешнее, автоматизированное, управляемое данными рассуждение, порождённое алгоритмическими системами, а не человеческим разумом. Она существует вне себя: в облачных моделях, встроенных алгоритмах и больших языковых моделях.
Система 3 определяется четырьмя ключевыми свойствами:
- Внешняя. Находится вне нервной системы человека, в искусственной инфраструктуре (облако, LLM, алгоритмы).
- Автоматизированная. Выполняет когнитивные операции через статистические или генеративные алгоритмы, обученные на огромных данных.
- Управляемая данными. Качество и точность отражают распределение обучающих данных, включая их пробелы и предвзятость.
- Динамическая. Реагирует на входные данные человека и среды в режиме реального времени, создавая гибридные маршруты рассуждения.
Tri-System Theory не отрицает Системы 1 и 2 — она помещает их в новую экологию, где рядом всегда присутствует искусственный партнёр по познанию. Теперь вопрос не «думаем ли мы быстро или медленно», а «думаем ли мы вообще — или уже капитулировали перед машиной».
Когнитивная капитуляция: когда мы перестаём думать
Ключевое понятие теории — «когнитивная капитуляция» (cognitive surrender). Авторы определяют её как поведенческую и мотивационную тенденцию передавать суждение, усилие и ответственность на вывод Системы 3 — особенно когда этот вывод подаётся плавно, уверенно и без трений.
Важно отличать когнитивную капитуляцию от когнитивной разгрузки (cognitive offloading). Когнитивная разгрузка — это стратегическое делегирование конкретной задачи: использую GPS, чтобы не держать маршрут в голове. Это нормально. Когнитивная капитуляция — нечто более глубокое: отказ от критической оценки. Человек не просто пользуется инструментом — он передаёт свой разум машине и принимает её ответ как собственный.
Аналогия:
Когнитивная разгрузка — это когда вы используете калькулятор для сложных вычислений. Когнитивная капитуляция — это когда вы принимаете ответ калькулятора даже тогда, когда он явно ошибается.
Эмпирически когнитивная капитуляция проявляется в: низких показателях отмены решения ИИ (override), завышенной уверенности даже при неверных ответах, принятии ошибочных рекомендаций как собственных суждений. Шоу и Наве разработали элегантный способ проверить эти предсказания — с помощью модифицированного теста когнитивной рефлексии (CRT).
Три эксперимента: как они это проверяли
Исследование 1: базовое доказательство капитуляции
359 участников решали 7 задач теста CRT — классических вопросов, где интуитивный ответ неверен, а правильный требует рефлексии. Часть участников работала самостоятельно (Brain-Only), часть имела доступ к встроенному ИИ-ассистенту (GPT-4o). Ключевое: исследователи тайно управляли точностью ИИ. На части заданий ассистент давал правильный ответ (AI-Accurate), на части — уверенно представлял ошибку (AI-Faulty).
Результаты оказались поразительными:
- Участники обращались к ИИ более чем в 50% случаев на всех типах заданий.
- Из тех, кто консультировался с ИИ, 92.7% следовали правильному совету — и 79.8% следовали неправильному.
- Точность: без ИИ — 45.8%, с точным ИИ — 71%, с ошибочным ИИ — лишь 31.5%.
- Уверенность выросла на 11.7 процентных пункта у тех, кто использовал ИИ — даже если он ошибался.
Эффект размером Cohen's h = 0.81 — это крупный эффект. Разница между группой с точным ИИ и группой с ошибочным ИИ огромна. И эта разница создана не способностями участников, а точностью алгоритма.
Исследование 2: временно́е давление
Второй эксперимент добавил к условиям дефицит времени. Гипотеза: нехватка времени должна усилить опору на Систему 3, поскольку она подавляет медленную Систему 2. Результаты подтвердили: когда ИИ был точен, он буферизировал потери точности от цейтнота. Когда ИИ ошибался — точность падала независимо от временно́го давления. Иными словами, Система 3 брала верх при любом давлении, но стоимость ошибки ИИ не снижалась.
Исследование 3: стимулы и обратная связь
Третий эксперимент проверял, можно ли снизить когнитивную капитуляцию с помощью финансовых стимулов за правильные ответы и обратной связи после каждого задания. Теоретически это должно было активировать Систему 2 и побудить людей проверять ИИ. Частично это сработало: точность выросла при верном ИИ, но от ошибочного ИИ стимулы не спасли полностью. Паттерн капитуляции сохранялся даже при мотивации думать самостоятельно.
Кто капитулирует: портрет уязвимого пользователя
Авторы не только зафиксировали феномен, но и выявили, кто ему подвержен сильнее всего. Три ключевых предиктора когнитивной капитуляции:
- Высокое доверие к ИИ. Участники с высоким Trust in AI чаще обращались к ассистенту и реже его отменяли.
- Низкая потребность в познании. Низкая потребность в познании (Need for Cognition) — те, кто не склонен к аналитическому мышлению, капитулировали охотнее.
- Низкий флюидный интеллект. Участники с более высоким IQ чаще замечали ошибки ИИ и отменяли его решения.
Интересно, что потребность в когнитивном закрытии (need for cognitive closure) не была значимым предиктором. Это говорит о том, что капитуляция — не просто желание «побыстрее закрыть вопрос», это структурная особенность взаимодействия человека с убедительно поданным внешним ответом.
Что это значит для маркетологов и бизнеса
Исследование Шоу и Наве имеет прямые практические следствия для маркетинга, HR, менеджмента и публичной политики.
1. Ваша аудитория уже думает с ИИ
Потребители, сотрудники и партнёры всё чаще принимают решения под влиянием ИИ-рекомендаций. Маркетинговые сообщения теперь конкурируют не только с другими брендами, но и с алгоритмическими советами. Если ИИ рекомендует конкурента — покупатель, скорее всего, последует этому совету без глубокого анализа.
2. Доверие к ИИ — это новая лояльность
Чем выше доверие пользователя к ИИ-системе, тем сильнее когнитивная капитуляция. Компании, которые формируют это доверие (через стабильность, точность и удобство интерфейсов), фактически замещают суждение клиента своим алгоритмом. Это одновременно мощный инструмент и серьёзная этическая ответственность.
3. Уверенность ≠ правильность
Исследование показывает: пользователи становятся увереннее в ответах, когда используют ИИ — даже если ИИ ошибается. Это критически важно для контекстов с высокими ставками: медицина, финансы, юриспруденция. Иллюзия уверенности при использовании ИИ может быть опаснее, чем неуверенность без него.
Вывод для бизнеса:
Если ваш продукт или сервис использует ИИ-рекомендации — встройте в UX «точки трения»: предупреждения, показатели уверенности модели, напоминания о проверке ответа. Это снизит риск репутационных потерь из-за некритичного следования ИИ.
4. Обратная связь и стимулы — работают
Третье исследование обнадёживает: персонализированная обратная связь и стимулы действительно помогают людям сопротивляться капитуляции. Геймификация, объяснение ошибок, вознаграждение за критическое мышление — всё это реальные инструменты для корпоративного обучения в эпоху ИИ.
Общественное измерение: дизайн и политика
Авторы специально обращают внимание на социальные последствия когнитивной капитуляции. В финансовом консультировании, медицинской триаже, юридическом сопровождении или образовании некритичное следование ИИ может привести к серьёзным последствиям. Отдельно упоминается риск «ИИ-психоза» — явления, при котором разговорные ИИ усиливают бредовые убеждения у уязвимых пользователей.
Шоу и Наве предлагают конкретные рекомендации:
- Индикаторы неопределённости — показывать, насколько уверен алгоритм в своём ответе.
- Прозрачные объяснения — не просто «вот ответ», а «вот почему».
- Адаптивный интерфейс — динамически повышать когнитивную нагрузку в задачах с высокими ставками.
- Цифровая грамотность — обучать пользователей, когда доверять, а когда проверять Систему 3.
Маршруты познания: от интуиции до автопилота
Одна из самых полезных концептуальных схем в работе Шоу и Наве — классификация маршрутов познания в Tri-System Theory. Авторы выделяют шесть принципиально разных способов, которыми человек может обрабатывать задачу в условиях доступности Системы 3.
Первый — интуиция: стимул → Система 1 → ответ. Никакой рефлексии, никакого ИИ. Второй — обдумывание: Система 1 замечает конфликт и передаёт управление Системе 2. Третий — когнитивная разгрузка: человек намеренно делегирует Системе 3 конкретную подзадачу, сохраняя общее управление процессом. Четвёртый — когнитивная капитуляция: минимальное внутреннее вовлечение, принятие ответа ИИ без проверки. Пятый — автопилот: стимул сразу уходит в Систему 3, не проходя через внутреннее мышление вообще. Шестой — рекурсивные и гибридные маршруты: проверка-затем-принятие, отмена Системы 3, постфактум-рационализация.
Для практики важен следующий вывод: большинство пользователей ИИ убеждены, что работают по третьему маршруту — когнитивной разгрузке. На деле эксперименты показывают, что реальное поведение куда чаще соответствует четвёртому или пятому — капитуляции или автопилоту. Разрыв между представлением о себе как об аналитически мыслящем субъекте и реальной некритичной зависимостью от алгоритма — один из самых важных выводов исследования.
Заключение: мы думаем с ИИ — и это меняет всё
Теория трёх систем — не алармизм и не утопия. Это попытка честно описать новую реальность когнитивной экологии человека в эпоху ИИ. Мы не просто используем ИИ как инструмент — мы думаем вместе с ним, а иногда позволяем ему думать вместо нас.
Исследование Шоу и Наве — редкий случай, когда академическая психология в реальном времени реагирует на технологическую революцию. Их эксперименты с 1372 участниками демонстрируют: когнитивная капитуляция — не теоретическая угроза, а измеримый, воспроизводимый феномен. И этот феномен не исчезает под давлением времени или денежных стимулов — он лишь меняет форму.
Для маркетологов, менеджеров, HR-специалистов и предпринимателей вывод прост: те, кто понимает механику Системы 3 и её влияние на решения аудитории, получают стратегическое преимущество. А те, кто игнорирует этот феномен — рискуют стать жертвой собственной капитуляции перед алгоритмом.
Tri-System Theory — это теория для тех, кто хочет понять, как формируются решения в мире, где у каждого человека под рукой есть искусственный партнёр по мышлению. Вопрос не в том, доверять ли ИИ. Вопрос — когда, как и насколько критично.
Ссылки и источники
Shaw, S. D., & Nave, G. (2026). Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender. SSRN Working Paper 6097646. The Wharton School, University of Pennsylvania. https://doi.org/10.2139/ssrn.6097646
Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.
Stanovich, K. E., & West, R. F. (2000). Individual differences in reasoning: Implications for the rationality debate. Behavioral and Brain Sciences, 23(5), 645–665.
Frederick, S. (2005). Cognitive reflection and decision making. Journal of Economic Perspectives, 19(4), 25–42.
Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7–19.
Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676–688.
Mosier, K. L., & Skitka, L. J. (1996). Human decision makers and automated decision aids: Made for each other? In R. Parasuraman & M. Mouloua (Eds.), Automation and human performance (pp. 201–220).
Budzyń, K. et al. (2025). Endoscopist deskilling risk after exposure to artificial intelligence in colonoscopy. The Lancet Gastroenterology & Hepatology, 10(10), 896–903.
Cacioppo, J. T., & Petty, R. E. (1982). The need for cognition. Journal of Personality and Social Psychology, 42(1), 116–131.
Spatharioti, S. E., Rothschild, D., Goldstein, D. G., & Hofman, J. M. (2025). Effects of LLM-based search on decision making: Speed, accuracy, and overreliance. CHI 2025.
