Андрей Закревский объясняет, кто отвечает за решения с ИИ
ИИ ускоряет управление, но размывает ответственность. Чем опасна фраза «так предложил алгоритм» и как навести порядок

Сопровождает собственников и управленческие команды в ситуациях стресса, выгорания и личных кризисов, занимается корпоративной психологией, влиянием культуры и стиля управления на устойчивость бизнеса
Искусственный интеллект все чаще используется в управленческих решениях не как инструмент «глобальной трансформации», а тихо и повседневно. Сначала кто-то просит: «Собери тезисы для презентации». Потом: «Сравни три сценария». Дальше — «подсвети риски», «оцени последствия», «предложи варианты». И в какой-то момент в компании рождается фраза, которая звучит почти невинно: «Ну ИИ же так посчитал».
Проблема в том, что бизнес любит скорость и ощущение объективности. ИИ легко создает видимость четкой логики там, где по-прежнему есть неопределенность, конфликт интересов и риски. И вот здесь появляется опасный прецедент: решение остается за человеком, а авторство незаметно «уплывает в туман».
Почему «так предложил ИИ» — плохая управленческая формула
У любого управленческого решения должен быть владелец — даже если решение коллективное. Но с ИИ возникает удобная лазейка: психологически «передать» авторство машине.
Руководителю проще принять неприятный шаг, если он выглядит как рекомендация модели. HR-директору — объяснить сокращение результатами анализа. Коммерческому — поднять цены, опираясь на прогноз. Финансовому — урезать бюджеты согласно расчетам. Это похоже на манипуляцию, но чаще это попытка снизить внутреннее напряжение и разделить ответственность.
Пока все работает, вопросов нет. Но когда что-то идет не так, возникает типичная сцена: «Кто принял решение?» — «Мы опирались на рекомендации… Система так показала». И выясняется, что формально никто не ошибся, а фактически компания потеряла управляемость: решение было, владельца — нет.
Кейс из практики: «модель рекомендовала — отвечать некому»
В одной крупной компании обсуждали оптимизацию затрат. Руководитель направления пришел на инвесткомитет с расчетами, в которых «умный инструмент» предлагал сократить часть команды и перераспределить функции. На совещании это прозвучало уверенно: цифры, сценарии, «по модели так лучше». Решение приняли быстро.
А уже через пару месяцев начались сбои: сроки поплыли, клиентские обязательства нарушались, сотрудники выгорали на новом объеме. Вопрос был не в том, что инструмент «плохой». Вопрос был в том, что никто заранее не проговорил: какие риски недопустимы, какие допущения критичны, кто проверяет качество входных данных и кто персонально отвечает за итоговый выбор. Когда последствия проявились, каждый мог сказать: «Я же показывал расчет», «Комитет согласовал», «Так рекомендовала модель». Это и есть размывание ответственности.
Чем ИИ отличается от обычной аналитики
С классической аналитикой проще: вы видите источники данных, допущения и ограничения. ИИ же часто звучит как уверенный собеседник даже там, где оснований мало. Он может красиво обобщать, но ошибаться в деталях, «придумывать» факты, системно смещаться из-за перекоса в данных или в постановке задачи.
Другое отличие — тон. Аналитик обычно говорит осторожно. Модель легко выдает уверенный ответ, и это влияет на обсуждение: руководители начинают спорить не с человеком, а с рекомендацией алгоритма. С ней легче согласиться и сложнее конфликтовать.
И наконец — влияние. Тот, кто формулирует запрос, выбирает данные и интерпретирует результат, получает рычаг. Поэтому вопрос «кто отвечает» — это не только этика, это управленческий контроль.
Где чаще всего размывается ответственность
Все начинается с постановки задачи. Вопрос может содержать ценностное решение, которое никто формально не признал ценностным. Например: «Кого сокращать с минимальным ущербом?» — а это не только эффективность. Это еще репутация, доверие и будущая работоспособность системы.
Следующий подвох — в интерпретации. ИИ подсвечивает варианты, но решение все равно принимает человек. На практике же рекомендацию модели часто воспринимают как готовый приказ: «Раз так посчитала система — значит, так и надо», вместо того чтобы учесть ее как один из аргументов.
Ловушка кроется и в отсутствии протокола. ИИ внедрили, но не описали, где он может помогать, а где не должен участвовать вообще. В итоге ИИ «живет» везде — а ответственность размывается.
Как навести порядок: правила, которые делают ИИ полезным инструментом
Здесь не нужны громкие лозунги. Нужны управленческие договоренности.
1. Зафиксируйте: ИИ помогает принять решение, но не принимает его. У каждого решения есть владелец. И этот владелец не «исчезает» из-за рекомендаций модели.
2. Разведите решения по уровням риска.
- Низкий риск — черновики, резюме встреч, первичный сбор вариантов.
- Средний риск — деньги, сроки, клиентские отношения, репутация. Здесь нужен человек, который проверяет, задает вопросы, понимает допущения.
- Высокий риск — кадры, юридические вопросы, комплаенс, безопасность, крупные обязательства. Здесь ИИ может быть только вспомогательным источником, но не «основанием».
3. Сделайте короткий протокол решения «с участием ИИ». Не десять страниц, а несколько пунктов: кто сформулировал запрос; какие данные использовались; какие ограничения у ответа; какое решение принято и почему; кто отвечает. Это нужно не для бюрократии, а чтобы сохранять причинно-следственную цепочку и улучшать процесс.
4. Обучите задавать вопросы модели — и самим себе. Навык 2026 года — не «уметь пользоваться ИИ», а уметь проверять:
- «Что должно быть правдой, чтобы этот ответ был верным?»
- «Какие данные могут изменить рекомендацию?»
- «Какие риски мы не видим, потому что не спросили?»
- И главный управленческий вопрос: «Я использую ИИ как полезный инструмент — или как удобное алиби?»
5. Назначьте владельца ИИ-практики. В компании должен быть кто-то конкретный, кто отвечает за работу с ИИ: какие правила действуют, как обучают сотрудников, какие стоят ограничения и как разбираются кейсы. Обычно это связка нескольких подразделений. Если такого «хозяина» нет, ИИ начинают использовать кто как хочет — и это быстро заканчивается ошибками и неприятными историями.
Где здесь место корпоративной психологии
Дело в том, что ответственность — это не только регламент, но и нормы поведения. Если в компании принято наказывать за ошибки и карать за плохие новости, люди будут искать способы «размыть» ответственность. ИИ станет для этого идеальным инструментом.
А если корпоративная культура зрелая — где можно обсуждать риски, признавать неопределенность и разбирать решения без охоты на виноватых — ИИ станет помощником, а не дымовой завесой. Он усиливает то, что уже есть: зрелость делает сильнее, незрелость — опаснее.
Вместо вывода
В новых условиях выигрывают не те компании, которые просто «внедрили ИИ», а те, кто сохранил управляемость: у решений есть владельцы, у рекомендаций — границы, у рисков — раннее выявление, у ошибок — разбор и выводы.
Фраза «так предложил алгоритм» может звучать современно, но она опасна. Бизнесу нужен другой язык: «ИИ подсказал варианты, а решение принял я — и я отвечаю». С этого начинается взрослая интеграция технологий.
Интересное:
Новости отрасли:
Все новости:
Публикация компании
Профиль
Социальные сети