Где проходит граница между подсказкой ИИ и решением в Совете директоров
Член НАКД Георгий Солдатов проходится по нюансам модной и популярной идеи приглашения ИИ как «постоянно приглашенного» на заседания Советов директоров

Член Научно-экспертного совета Института экономики РАН по проблемам управления
Сегодня весьма популярна идея приглашения ИИ как «постоянно приглашенного» на заседания советов директоров. Эта идея звучит модно и технологично. Давайте более внимательно рассмотрим это предложение с точки зрения соотношения рисков и выгод.
В октябре 2025-го стало известно: Deloitte соглашается компенсировать ущерб правительству Австралии. Причина: отчет, подготовленный с помощью ИИ, нашпигованный ошибками. Контракт длился 7 месяцев и стоил бюджету 440 000 австралийских долларов. В документе нашли академические ссылки на несуществующих людей и выдуманную цитату из решения Федерального суда; в обновленной версии убрали больше десятка фиктивных ссылок и сносок.
Давайте подумаем, если глобальная компания «Большой четверки» с регламентами и слоями верификаций не распознала ошибки ИИ за 7 месяцев, то сможет ли совет директоров, работающий в режиме «онлайн» всего несколько часов, распутать очень убедительно изложенную и не всегда правдивую аргументацию от ИИ в реальном времени?
Важно зафиксировать базовую физику процесса: большие языковые модели не «знают» мир, они предсказывают текст. Отсюда и галлюцинации — системное явление, а не редкая поломка.
По данным исследований 2025 года модель OpenAI o3 давала фактические выдумки в 33% ответов о публичных персонах, а более компактная o4 mini в 48%, на простых тестах SimpleQA у o4 mini частота галлюцинаций доходила до 79%.
Парадокс неприятный: новые модели нередко галлюцинируют чаще, но делают это гораздо убедительнее. Согласно публичному Hallucination Leaderboard Vectara (HHEM-2.1), фиксирующему частоту фактических ошибок у языковых моделей, серьезный разброс показателей. Даже у лучших систем это около 7 ошибок на каждую тысячу ответов.
А теперь давайте бесстрастно посмотрим на последние новости: Компания OpenAI, разработчик чат-бота ChatGPT ввела строгие ограничения на использование своей нейросети для предоставления персонализированных медицинских и юридических консультаций. Согласно новым правилам «…вы не можете использовать наши сервисы для следующего … предоставление специализированных консультаций, требующих лицензии, таких как юридические или медицинские консультации, без соответствующего привлечения лицензированного специалиста». К этому можно относиться как угодно и трактовать по-разному: от того, что теперь конкретно OpenAI в своих LLM будет ограничивать предоставление таких данных, до просто ограничения ответственности (самозащита компании).
Включим немного фантазию, взгляд из зала заседания совета директоров: решение по сделке, антикризисный маневр, стратегия на годы. ИИ уверенно цитирует «надежные источники», рисует диаграмму, называет проценты. Директора под давлением времени и повестки голосуют. Спустя сутки выясняется: исходная «опора», это просто очередная галлюцинация. Цена вопроса — корпоративный риск.
Там где цена ошибки человеческая жизнь, романтизм быстро кончился. Один из громких провалов, это IBM Watson Health, потрясающий своим масштабом и амбициями проект.
Компьютер IBM Watson выиграл в крутой телевикторине и было решено «перепридумать медицину», т.е если ИИ может ответить на любой вопрос в телевикторине, значит он сможет помочь в диагностике и лечении пациентов. Инвестиции в проект 5 млрд долларов, 7000 сотрудников. Результат — провал. Модель не переносилась в новые ситуации (вопрос набора обучающих данных), предвзятость данных и неверные рекомендации (очень интересный кейс, он открытый и доступен к изучению).
Ну и еще один пример, я бы сказал, с переворотом логики — это история страховой компании nH Predict.
Алгоритм автоматически отказывал пациентам в покрытии лечения, основываясь на прогнозах. Когда пациенты или врачи подавали на пересмотр решения, то в 90% случаев приходил отказ. По сути, алгоритм был не прав, но персонал компании вынужден был его придерживаться. И доверие к неправильному алгоритму (который был очень убедителен в своих прогнозах) было выше, чем доверие к профессионалам. Т.е система стала не инструментом профессионалов, а профессионалы вынуждены были исполнять решения неправильного алгоритма. В итоге профессионалы перестают думать и отвечать за результат.
Очень важны вопросы этики ИИ. На дворе 2023 год и журнал Nature проводит эксперимент. Поставлена задача ИИ от разных разработчиков дать моральные советы в разных ситуациях. Результат… Позиция ИИ была не последовательна, в похожих ситуациях он давал противоречивые советы. Люди, просившие совет, часто не замечали логической непоследовательности. По итогу многие принимали новую мораль, даже не проверяя логику.
У разных платформ разные этические «прошивки». Просто зайдите сами на официальные ресурсы разработчиков и проверьте. Получается, что одни и те же вопросы, поднятые во время заседания совета директоров, будут комментироваться абсолютно по-разному разными LLM. Тогда, может быть, стоит таких привлеченных «специалистов» пригласить несколько? Ну и понаблюдать за дискуссией на заседании совета директоров… Это конечно шутка.
Так уж у нас повелось, мы верим в экспертизу, в экспертов, но в данном случае это очень опасно. Алгоритм НЕ объективен. Простая предвзятость в данных, на которых обучен алгоритм, приводит к мультипликатору предвзятости на выходе. И чтобы это нивелировать потребуются огромные усилия. Так же сам дизайн задачи и запрос, это тоже предвзятость (и мы можем не обращать на это внимание, а алгоритм просто воспримет это как есть). Интерпретация же выданных результатов также зависит от нашей предвзятости (от наших ожиданий).
Сейчас мы говорим про себя, не про Европу (где вообще можно налететь на крупный штраф). Когда алгоритм принимает решения или советует решения, необходима ответственность. Кто ответит? Разработчик ИИ? Или члены СД, которые в очень сжатый временной период заседания без должной верификации воспримут очень правдоподобный, но ложный совет от ИИ и примут решение, имея в основе такие рекомендации?
Теперь поговорим про фидуциарные обязанности членов СД (члены органов управления обязаны действовать добросовестно и разумно в интересах общества).
Например, в США, доктрина business judgment rule защищает решения, принятые добросовестно, даже если они оказались ошибочными.
Но, вот если, к примеру, члены совета директоров слепо поверили и положились на мнение ИИ, то в этом случае можно сказать, что они просто нажали на кнопку и поверили машине. Это выходит за пределы защиты бизнес-суждения.
Представим Совет директоров нанял эксперта в какой-то области (известного в данной области бизнес-консультанта). Действительно, члены совета директоров имеют такое право, и вовсе не обязаны, и не способны знать все на свете. Что мы можем сделать с точки зрения верификации эксперта? В данном случае, мы можем проверить его образование, опыт, историю (успешные проекты), рекомендации, мы так же можем попросить его подробно описать логику по предложенному суждению. Если же мы используем ИИ, особенно закрытый, такой как ChatGPT. В данном случае как мы можем верифицировать эксперта? Мы не знаем, на каких данных его обучили, мы не знаем, как он работает внутри, почему именно такие веса расставлены, мы можем спросить, почему он так решил, но вот потом очень долго придется разбираться в его логике и логичности. Ну а в базе мы просто получим ответ и все, ну или с определенной, очень убедительной подводкой.
Очень часто сейчас в качестве примера приводят ситуацию с чат ботом Air Canada, где за ошибку бота суд признал ответственность компании. В России я пока похожих примеров не встречал. В российской практике на сегодня специальная регуляция корпоративных процедур с ИИ не закреплена, но общий принцип «кто внедрил, тот и отвечает» просматривается уже сейчас.
Как правильно использовать ИИ в корпоративном управлении
Мы живем сегодня и сегодня нам надо уметь использовать актуальные инструменты с максимальной эффективностью при этом не забывать про поле текущих объективных ограничений. Так что теперь поговорим, как же можно ИИ эффективно и безопасно использовать, уже сегодня не дожидаясь пока ИИ «поумнеет». Ну и главное правило конечно, ИИ — это, помощник. Это не босс, не эксперт, не приглашенный член СД.
ИИ — это инструмент подготовки, а не «голос в зале». Пусть анализирует массивы, находит тренды, компилирует справки, строит сценарии. Но решение должно быть человеческое. И точка. Мы не можем и не должны задавать такие типы вопросов к ИИ: «Какое решение мы должны принять?», мы не можем допускать у себя мыслей подобных «я проголосую так как скажет ИИ, он то точно обладает большей экспертизой». Мы не должны допускать даже в дискуссии «Совет директоров голосует в соответствии с рекомендацией ИИ».
Проверка до повестки. Любой вывод ИИ проходит факт-чек и методологическую верификацию до заседания совета директоров! Мы обязаны проверить источники, логику, границы применимости, риски галлюцинаций. Простой пример необходимых действий: при подготовке к заседанию СД происходит необходимый анализ (с соблюдением всех процедур и ограничений, о которых писал выше) информации с помощью ИИ. Далее уже другой сотрудник/команда сотрудников производит верификацию: источников (они реальны, в них описано именно то, на что ссылается ИИ), логики (как ИИ рассуждал, нет ли там противоречий), границы допустимости суждений/выводов/применимости (в каких ситуациях это работает, а в каких нет), риски (что может пойти не так и вообще соответствует ли аппетит к риску в решении и анализе от ИИ, аппетиту к риску принятому в компании). И вот только после данной работы результаты попадают на стол к членам СД.
Объяснимость и прозрачность. Не допускать ни в коем случае использование данных от ИИ, когда данные не имеют объяснимости и прозрачности. Или если полученные объяснения вызывают вопросы.
Политика работы с данными. Это прям золотые правила. Им просто надо следовать. Минимизация: не передавайте лишние данные, только необходимые. Локализация, шифрование: если мы все-таки работаем с конфиденциальными данными, то придется использовать Zero Trust-архитектуру. Разграничение доступа: все сессии ИИ обычно запоминаются, необходимо подходить очень внимательно к доступам и наличию сохраненных сессий с ИИ. Аудит: в некоторых случаях необходим аудит всех сессий от имени компании с ИИ (делает либо служба внутреннего аудита, либо СВК). Корпоративная политика по работе с ИИ от имени и в интересах компании, вплоть до утвержденных «белых промптов». Можно эти правила продолжать в зависимости от особенности корпоративной архитектуры компании и архитектуры корпоративной безопасности.
Регулярный аудит предвзятости. Особенно для HR-решений, риск-скоринга, портфельной приоритезации и «социально значимых» метрик. Мы верифицируем подход ИИ в рамках подхода компании к тем или иным вопросам. В том числе это вопросы этики.
Обучение. Члены совета директоров и вообще любой сотрудник компании должны быть в курсе что такое ИИ в чем его польза и как его базово использовать. Очень часто можно увидеть рекламу «мы научим вас писать промпты для ИИ». Важно понимать, что промпты — это следствие. Главное, чему необходимо учиться в данном случае, это видеть ошибки и выявлять их: галлюцинации, перенос контекста, неверные метрики, выявлять ложные подтверждения и конфликты данных. По итогу мы должны слышать рекомендации ИИ, но мы должны оставаться скептиками и всегда требовать человеческой верификации/экспертизы. Ну вот на сегодня так. Инструмент классный, но не волшебный.
Почему в СД я говорю о незаменимости человеческого подхода
Итак, как же определяют «суждение» разные философы. Для нас это важно с точки зрения глубинного понимания, что такое в целом суждение члена СД.
1. Иммануил Кант: способность суждения есть способность мыслить особенное в качестве содержащегося под общим. Если всеобщее (правило, принцип, закон) дано, то способность суждения, которая подводит под него особенное, называется определяющей; но если дано лишь особенное, для которого способность суждения должна найти всеобщее, то эта способность называется отражающей.
Кант разделяет суждение на два типа. Определяющее, это просто применять правило и отражающее, означает найти правило для новой ситуации.
Член СД должен уметь применять существующие правила (определяющее суждение) и когда нужно создавать новые (отражающее суждение), когда исходя из анализа данных принимается что-то новое, когда готовое правило не подходит.
2. Гегель рассматривает суждение как момент развития понятия, в котором оно разделяет себя на субъект и предикат. Это разделение не является внешним, а внутренне противоречивым — через него понятие проявляет свое движение. Истинное суждение, по Гегелю, — не простое утверждение совпадения или различия, а единство противоположных моментов, где субъект и предикат взаимно определяют друг друга.
Это означает, что настоящее суждение включает в себя видение противоречий (к примеру компания должна расти и одновременно сокращать расходы) и способность их преодолевать.
3. Ханс-Георг Гадамер: понимание представляет собой процесс слияния горизонтов — собственного и исторического. В ходе диалога эти горизонты пересекаются и взаимно изменяются, формируя новое поле смысла, но процесс этого слияния остается открытым и не является раз и навсегда завершенным актом. Т.е суждение — это прямой диалог между членами СД и всеми приглашенными. У каждого — разный опыт, традиции, горизонты понимания. Каждый директор в процессе этого диалога трансформирует свою точку зрения с учетом обсуждения. В том числе, что важно, горизонт не заканчивается. По некоторым вопросам необходимо принятие решение в какой-то точке и определение этого. Мы же знаем, что решение голосованием, где побеждает большинство, это решение уступает тому, которое принимается единогласно с учетом всех аргументов.
Итак, суждение, это не «больше данных». Это сплав опыта, контекста, ответственности и эмоционального интеллекта. Машина может анализировать тональность, но не строить доверие; генерировать слова, но не вдохновлять команду. Во время заседания совета директоров (ну если это конечно живой СД, но это совсем другая тема) ценятся эмпатия, этика, поиск решений и путей в неопределенности или неопределенной среде для принятия решений и та самая интуиция, которая годами оттачивается на реальных решениях.
Вывод: ИИ — это инструмент, но не член команды
Предложение использовать ИИ как «постоянного приглашенного» во время заседаний совета директоров, выглядит как технологический солюционизм. Реальность строже: галлюцинации, предвзятость, несогласованные «этики», приватность, ответственность представляет собой набор рисков, который советам пока рано брать на баланс в формате «консультанта за столом».
Источники изображений:
Сгенерировано Gemini 2.5 Flash
Интересное:
Все новости:
Публикация компании
Контакты



