Tess Technology
Trusted Expertise
in Strategy and Systems
Главная
Продукты
  • Анализ технологических рынков
  • Повышение операционной эффективности
  • Матмоделирование и машинное обучение
  • Базы данных
  • Стратегические сессии
Кейсы
  • Выход на новый рынок
  • Математическое моделирование
  • Поиск новых ниш
  • Расчет экономических показателей
Блог
    Связаться с нами
    Tess Technology
    Главная
    Продукты
    • Анализ технологических рынков
    • Повышение операционной эффективности
    • Матмоделирование и машинное обучение
    • Базы данных
    • Стратегические сессии
    Кейсы
    • Выход на новый рынок
    • Математическое моделирование
    • Поиск новых ниш
    • Расчет экономических показателей
    Блог
      Tess Technology
      • Главная
      • Продукты
        • Назад
        • Продукты
        • Анализ технологических рынков
        • Повышение операционной эффективности
        • Матмоделирование и машинное обучение
        • Базы данных
        • Стратегические сессии
      • Кейсы
        • Назад
        • Кейсы
        • Выход на новый рынок
        • Математическое моделирование
        • Поиск новых ниш
        • Расчет экономических показателей
      • Блог
      • Главная
      • Информация
      • Статьи
      • Мышление быстрое, медленное и искусственное: как ИИ меняет архитектуру человеческого разума

      Мышление быстрое, медленное и искусственное: как ИИ меняет архитектуру человеческого разума

      Поделиться
      16 марта 2026 14:00
      // Бизнес-советы

      Введение: третий игрок в старой игре

      Даниэль Канеман в книге «Думай медленно... решай быстро» описал два способа мышления. Система 1 — быстрая, интуитивная, работающая автоматически. Система 2 — медленная, аналитическая, требующая усилий. Этот дуальный фреймворк стал одной из самых влиятельных идей в когнитивной психологии и поведенческой экономике последних десятилетий.

      Но в 2026 году картина усложнилась. Рядом с нами появился третий игрок — искусственный интеллект. Теперь миллионы людей ежедневно консультируются с ChatGPT, Copilot, Claude и другими ИИ-ассистентами, принимая решения на работе, в быту и в бизнесе. Что происходит с человеческим суждением, когда рядом всегда есть машина, готовая ответить быстрее и увереннее нас?

      Именно этот вопрос исследуют Стивен Шоу и Гидеон Наве из Wharton School Университета Пенсильвании. В своей работе «Thinking — Fast, Slow, and Artificial», опубликованной на платформе SSRN в 2026 году, они предлагают революционный фреймворк: Теорию Трёх Систем (Tri-System Theory). Их эксперименты охватили 1372 участника и 9593 испытания — и результаты должны заставить любого маркетолога, менеджера или предпринимателя задуматься о том, как он использует ИИ.

      Теория трёх систем: что такое Система 3?

      Дуальный фреймворк Канемана долгое время был незыблем: всё познание происходит внутри биологического мозга. Система 1 — это быстрые эвристики и интуиция. Система 2 — медленный аналитический разум. Авторы называют эту предпосылку «допущением о мозгоцентричности познания» (brain-bound cognition assumption) — и утверждают, что в эпоху ИИ оно устарело.

      Современные люди не просто реагируют на внешние стимулы — они активно делегируют, откладывают и дополняют своё мышление с помощью нечеловеческих систем. Когда врач постоянно следует рекомендациям алгоритма при колоноскопии, когда менеджер принимает HR-решение на основе вывода языковой модели, когда потребитель выбирает товар согласно рейтингу, сгенерированному ИИ, — всё это выходит за рамки старого дуального фрейма.

      Система 3 — это внешнее, автоматизированное, управляемое данными рассуждение, порождённое алгоритмическими системами, а не человеческим разумом. Она существует вне себя: в облачных моделях, встроенных алгоритмах и больших языковых моделях.

      Система 3 определяется четырьмя ключевыми свойствами:

      • Внешняя. Находится вне нервной системы человека, в искусственной инфраструктуре (облако, LLM, алгоритмы).
      • Автоматизированная. Выполняет когнитивные операции через статистические или генеративные алгоритмы, обученные на огромных данных.
      • Управляемая данными. Качество и точность отражают распределение обучающих данных, включая их пробелы и предвзятость.
      • Динамическая. Реагирует на входные данные человека и среды в режиме реального времени, создавая гибридные маршруты рассуждения.

      Tri-System Theory не отрицает Системы 1 и 2 — она помещает их в новую экологию, где рядом всегда присутствует искусственный партнёр по познанию. Теперь вопрос не «думаем ли мы быстро или медленно», а «думаем ли мы вообще — или уже капитулировали перед машиной».

      Когнитивная капитуляция: когда мы перестаём думать

      Ключевое понятие теории — «когнитивная капитуляция» (cognitive surrender). Авторы определяют её как поведенческую и мотивационную тенденцию передавать суждение, усилие и ответственность на вывод Системы 3 — особенно когда этот вывод подаётся плавно, уверенно и без трений.

      Важно отличать когнитивную капитуляцию от когнитивной разгрузки (cognitive offloading). Когнитивная разгрузка — это стратегическое делегирование конкретной задачи: использую GPS, чтобы не держать маршрут в голове. Это нормально. Когнитивная капитуляция — нечто более глубокое: отказ от критической оценки. Человек не просто пользуется инструментом — он передаёт свой разум машине и принимает её ответ как собственный.

      Аналогия:

      Когнитивная разгрузка — это когда вы используете калькулятор для сложных вычислений. Когнитивная капитуляция — это когда вы принимаете ответ калькулятора даже тогда, когда он явно ошибается.

      Эмпирически когнитивная капитуляция проявляется в: низких показателях отмены решения ИИ (override), завышенной уверенности даже при неверных ответах, принятии ошибочных рекомендаций как собственных суждений. Шоу и Наве разработали элегантный способ проверить эти предсказания — с помощью модифицированного теста когнитивной рефлексии (CRT).

      Три эксперимента: как они это проверяли

      Исследование 1: базовое доказательство капитуляции

      359 участников решали 7 задач теста CRT — классических вопросов, где интуитивный ответ неверен, а правильный требует рефлексии. Часть участников работала самостоятельно (Brain-Only), часть имела доступ к встроенному ИИ-ассистенту (GPT-4o). Ключевое: исследователи тайно управляли точностью ИИ. На части заданий ассистент давал правильный ответ (AI-Accurate), на части — уверенно представлял ошибку (AI-Faulty).

      Результаты оказались поразительными:

      • Участники обращались к ИИ более чем в 50% случаев на всех типах заданий.
      • Из тех, кто консультировался с ИИ, 92.7% следовали правильному совету — и 79.8% следовали неправильному.
      • Точность: без ИИ — 45.8%, с точным ИИ — 71%, с ошибочным ИИ — лишь 31.5%.
      • Уверенность выросла на 11.7 процентных пункта у тех, кто использовал ИИ — даже если он ошибался.

      Эффект размером Cohen's h = 0.81 — это крупный эффект. Разница между группой с точным ИИ и группой с ошибочным ИИ огромна. И эта разница создана не способностями участников, а точностью алгоритма.

      Исследование 2: временно́е давление

      Второй эксперимент добавил к условиям дефицит времени. Гипотеза: нехватка времени должна усилить опору на Систему 3, поскольку она подавляет медленную Систему 2. Результаты подтвердили: когда ИИ был точен, он буферизировал потери точности от цейтнота. Когда ИИ ошибался — точность падала независимо от временно́го давления. Иными словами, Система 3 брала верх при любом давлении, но стоимость ошибки ИИ не снижалась.

      Исследование 3: стимулы и обратная связь

      Третий эксперимент проверял, можно ли снизить когнитивную капитуляцию с помощью финансовых стимулов за правильные ответы и обратной связи после каждого задания. Теоретически это должно было активировать Систему 2 и побудить людей проверять ИИ. Частично это сработало: точность выросла при верном ИИ, но от ошибочного ИИ стимулы не спасли полностью. Паттерн капитуляции сохранялся даже при мотивации думать самостоятельно.

      Кто капитулирует: портрет уязвимого пользователя

      Авторы не только зафиксировали феномен, но и выявили, кто ему подвержен сильнее всего. Три ключевых предиктора когнитивной капитуляции:

      • Высокое доверие к ИИ. Участники с высоким Trust in AI чаще обращались к ассистенту и реже его отменяли.
      • Низкая потребность в познании. Низкая потребность в познании (Need for Cognition) — те, кто не склонен к аналитическому мышлению, капитулировали охотнее.
      • Низкий флюидный интеллект. Участники с более высоким IQ чаще замечали ошибки ИИ и отменяли его решения.

      Интересно, что потребность в когнитивном закрытии (need for cognitive closure) не была значимым предиктором. Это говорит о том, что капитуляция — не просто желание «побыстрее закрыть вопрос», это структурная особенность взаимодействия человека с убедительно поданным внешним ответом.

      Что это значит для маркетологов и бизнеса

      Исследование Шоу и Наве имеет прямые практические следствия для маркетинга, HR, менеджмента и публичной политики.

      1. Ваша аудитория уже думает с ИИ

      Потребители, сотрудники и партнёры всё чаще принимают решения под влиянием ИИ-рекомендаций. Маркетинговые сообщения теперь конкурируют не только с другими брендами, но и с алгоритмическими советами. Если ИИ рекомендует конкурента — покупатель, скорее всего, последует этому совету без глубокого анализа.

      2. Доверие к ИИ — это новая лояльность

      Чем выше доверие пользователя к ИИ-системе, тем сильнее когнитивная капитуляция. Компании, которые формируют это доверие (через стабильность, точность и удобство интерфейсов), фактически замещают суждение клиента своим алгоритмом. Это одновременно мощный инструмент и серьёзная этическая ответственность.

      3. Уверенность ≠ правильность

      Исследование показывает: пользователи становятся увереннее в ответах, когда используют ИИ — даже если ИИ ошибается. Это критически важно для контекстов с высокими ставками: медицина, финансы, юриспруденция. Иллюзия уверенности при использовании ИИ может быть опаснее, чем неуверенность без него.

      Вывод для бизнеса:

      Если ваш продукт или сервис использует ИИ-рекомендации — встройте в UX «точки трения»: предупреждения, показатели уверенности модели, напоминания о проверке ответа. Это снизит риск репутационных потерь из-за некритичного следования ИИ.

      4. Обратная связь и стимулы — работают

      Третье исследование обнадёживает: персонализированная обратная связь и стимулы действительно помогают людям сопротивляться капитуляции. Геймификация, объяснение ошибок, вознаграждение за критическое мышление — всё это реальные инструменты для корпоративного обучения в эпоху ИИ.

      Общественное измерение: дизайн и политика

      Авторы специально обращают внимание на социальные последствия когнитивной капитуляции. В финансовом консультировании, медицинской триаже, юридическом сопровождении или образовании некритичное следование ИИ может привести к серьёзным последствиям. Отдельно упоминается риск «ИИ-психоза» — явления, при котором разговорные ИИ усиливают бредовые убеждения у уязвимых пользователей.

      Шоу и Наве предлагают конкретные рекомендации:

      • Индикаторы неопределённости — показывать, насколько уверен алгоритм в своём ответе.
      • Прозрачные объяснения — не просто «вот ответ», а «вот почему».
      • Адаптивный интерфейс — динамически повышать когнитивную нагрузку в задачах с высокими ставками.
      • Цифровая грамотность — обучать пользователей, когда доверять, а когда проверять Систему 3.

      Маршруты познания: от интуиции до автопилота

      Одна из самых полезных концептуальных схем в работе Шоу и Наве — классификация маршрутов познания в Tri-System Theory. Авторы выделяют шесть принципиально разных способов, которыми человек может обрабатывать задачу в условиях доступности Системы 3.

      Первый — интуиция: стимул → Система 1 → ответ. Никакой рефлексии, никакого ИИ. Второй — обдумывание: Система 1 замечает конфликт и передаёт управление Системе 2. Третий — когнитивная разгрузка: человек намеренно делегирует Системе 3 конкретную подзадачу, сохраняя общее управление процессом. Четвёртый — когнитивная капитуляция: минимальное внутреннее вовлечение, принятие ответа ИИ без проверки. Пятый — автопилот: стимул сразу уходит в Систему 3, не проходя через внутреннее мышление вообще. Шестой — рекурсивные и гибридные маршруты: проверка-затем-принятие, отмена Системы 3, постфактум-рационализация.

      Для практики важен следующий вывод: большинство пользователей ИИ убеждены, что работают по третьему маршруту — когнитивной разгрузке. На деле эксперименты показывают, что реальное поведение куда чаще соответствует четвёртому или пятому — капитуляции или автопилоту. Разрыв между представлением о себе как об аналитически мыслящем субъекте и реальной некритичной зависимостью от алгоритма — один из самых важных выводов исследования.

      Заключение: мы думаем с ИИ — и это меняет всё

      Теория трёх систем — не алармизм и не утопия. Это попытка честно описать новую реальность когнитивной экологии человека в эпоху ИИ. Мы не просто используем ИИ как инструмент — мы думаем вместе с ним, а иногда позволяем ему думать вместо нас.

      Исследование Шоу и Наве — редкий случай, когда академическая психология в реальном времени реагирует на технологическую революцию. Их эксперименты с 1372 участниками демонстрируют: когнитивная капитуляция — не теоретическая угроза, а измеримый, воспроизводимый феномен. И этот феномен не исчезает под давлением времени или денежных стимулов — он лишь меняет форму.

      Для маркетологов, менеджеров, HR-специалистов и предпринимателей вывод прост: те, кто понимает механику Системы 3 и её влияние на решения аудитории, получают стратегическое преимущество. А те, кто игнорирует этот феномен — рискуют стать жертвой собственной капитуляции перед алгоритмом.

      Tri-System Theory — это теория для тех, кто хочет понять, как формируются решения в мире, где у каждого человека под рукой есть искусственный партнёр по мышлению. Вопрос не в том, доверять ли ИИ. Вопрос — когда, как и насколько критично.

      Ссылки и источники

      Shaw, S. D., & Nave, G. (2026). Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender. SSRN Working Paper 6097646. The Wharton School, University of Pennsylvania. https://doi.org/10.2139/ssrn.6097646

      Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.

      Stanovich, K. E., & West, R. F. (2000). Individual differences in reasoning: Implications for the rationality debate. Behavioral and Brain Sciences, 23(5), 645–665.

      Frederick, S. (2005). Cognitive reflection and decision making. Journal of Economic Perspectives, 19(4), 25–42.

      Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7–19.

      Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676–688.

      Mosier, K. L., & Skitka, L. J. (1996). Human decision makers and automated decision aids: Made for each other? In R. Parasuraman & M. Mouloua (Eds.), Automation and human performance (pp. 201–220).

      Budzyń, K. et al. (2025). Endoscopist deskilling risk after exposure to artificial intelligence in colonoscopy. The Lancet Gastroenterology & Hepatology, 10(10), 896–903.

      Cacioppo, J. T., & Petty, R. E. (1982). The need for cognition. Journal of Personality and Social Psychology, 42(1), 116–131.

      Spatharioti, S. E., Rothschild, D., Goldstein, D. G., & Hofman, J. M. (2025). Effects of LLM-based search on decision making: Speed, accuracy, and overreliance. CHI 2025.

      Поделиться
      Назад к списку Следующая статья
      Категории
      • Бизнес-советы33
      • Повышение продаж1
      • Управление проектами1
      Это интересно
      • Оценка стоимости бренда: для чего бизнесу считать нематериальный актив
        20 февраля 2026
      • R&D AI-решений: зачем бизнесу проверять модели до внедрения
        26 января 2026
      • Парадокс искусственного интеллекта в современном бизнесе
        22 января 2026
      • Рыночный анализ порошковой окраски металла (Россия и мир, 2022–2028)
        13 января 2026
      • Рынок систем «Умный дом» в России и СНГ
        12 января 2026
      • Исследование операционной эффективности российских производственных компаний
        12 мая 2025
      • Развитие Рынка Химических Материалов в Микроэлектронике России: проблемы и перспективы
        21 января 2024
      • Аппаратно-программные комплексы для Искусственного Интеллекта
        15 марта 2023
      • Маркировка электронно компонентной базы в РФ
        10 октября 2022
      • Перспективы развития литографии в РФ
        26 июня 2022
      Облако тегов
      AI Big Data R&D SMM Алгоритмический маркетинг Аналитика Аналитика рынка Биг Дата Искусственный интеллект Исследования Маркетинг Микроэлектроника Нейромаркетинг Производство Социальные медиа Фарма Цифровая экономика
      Компания
      О компании
      Принципы и ценности Tess Technology
      Реквизиты
      Продукты
      Анализ технологических рынков
      Повышение операционной эффективности
      Матмоделирование и машинное обучение
      Базы данных
      Стратегические сессии
      Проекты
      Выход на новый рынок
      Математическое моделирование
      Поиск новых ниш
      Расчет экономических показателей
      Наши контакты

      +7 (916) 729 07 16
      mail@tesstech.ru
      ООО «ТЕСС ТЕХНОЛОДЖИ» ИНН 7702421130
      © 2016 - 2026 Все права защищены.
      Связаться с нами
      Находясь на нашем сайте, Вы даете согласие на обработку файлов cookie.