Почему ИИ доверяют ключевые решения, и надо ли с этим что-то делать
По данным исследований, 20% руководителей компаний в США доверяют ИИ принимать решение за них. А в Европе за что-то подобное можно получить штраф до €35 млн

ИИ — моя сфера интереса. Я твердо уверен, что нейросети не заменят людей, но люди, использующие нейросети заменят тех, кто их не использует
Появление любой новой технологии, помимо прочего, — проверка для тех, кто ее использует. В этом плане искусственный интеллект особенно эффективен. Для кого-то он становится инструментом получения знаний, повышения своих доходов и прибыли компании, а также полезным помощником в решении бытовых задач. Но если полностью переложить на него ответственность за все, что происходит с человеком, и ничего не делать самостоятельно, результат может быть прямо противоположным. И вины ИИ в этом нет.
Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и CEO онлайн-университета «Зерокодер». ИИ сопровождает меня в работе и в жизни, именно поэтому мне хочется поговорить о том, как некоторые пользователи используют его с пользой, а другие вредят самим себе.
ИИ ни при чем
Как показывает мировая практика, проблема не в ИИ, а в подходах к нейросетям со стороны пользователей. Несмотря на то, что специалисты постоянно повторяют: искусственный интеллект — помощник и советчик человека, иногда ему доверяют самостоятельно принимать важные решения.
К примеру, подобную ошибку зачастую делают студенты. Как показало одно из последних исследований Массачусетского технологического института (MIT), если учащиеся вузов полностью полагаются на ChatGPT в выполнении заданий, у 83% из них ухудшается память. При этом студенты и школьники, использующие ИИ как помощника в получении дополнительных знаний, в 53% случаев повышают свою успеваемость.
При этом эксперты Stanford AI Index 2025, IE University в Испании, компании PMC и другие говорят, что одновременно с возможностью получить больше информации, бесконтрольное и постоянное использование нейросетей может усиливать стереотипы и предубеждения, а также негативно воздействовать на критическое и креативное мышление.
Но это — сфера образования, впрочем, в бизнесе бывают похожие ситуации.
ИИ не для всех
В России вопросом перекладывания ответственности за принятие решений на ИИ озабочены как ученые, так и общество в целом. Согласно данным исследования, проведенного АНО «Национальные приоритеты» совместно с ВЦИОМ, 26% россиян считают, что искусственный интеллект способен привести к снижению умственных способностей. При этом они подчеркивают: дело не в нейросетях, а в людях.
Владимир Емельяненко, доцент Брянского государственного университета им. Петровского в своей статье «Влияние искусственного интеллекта на когнитивную сферу человека» акцентирует внимание на ценностно-мировозренческих основах личности пользователя. При развитом мировоззрении нейросети усиливают таланты и способности, в обратном случае — могут снижать творческую активность и уровень абстрактного мышления.
К тому же выводу независимо друг от друга приходят специалист IT-компании Utrace Роман Есенин и Анна Иванова, кандидат психологических наук СПбГУ. Снижение способности к критическому анализу решений и чрезмерное полагание на ИИ — проблема безответственного поведения пользователя.
При этом психолог и исследователь медиа Алексей Джура говорит об еще одном феномене восприятия нейросетей. Люди, систематически общающиеся с алгоритмами, начинают видеть в них то, что в психологии описывается понятием «значимый другой». ИИ становится в этом случае и собеседником, и советчиком. Если процесс зайдет слишком далеко, пользователь начнет делегировать нейросети выбор даже в самых стандартных бытовых ситуациях — нужно ли идти к врачу, стоит ли взять отпуск, оформлять ли визу для выезда в другую страну. По словам психолога, подобным образом урезается самостоятельность и активность, и постепенно появляется зависимость от технологий.
Несмотря на сомнения части общества и ученых, исследование СберСтрахования показало: 86% россиян ждут от ИИ положительных изменений в их жизни. В свою очередь аналитики Brand Analytics, проведя собственный опрос осенью 2025 года, пришли к выводу, что жители нашей страны уверены: нейросети предъявляют к человеку очень высокие требования, мотивируя постоянно развиваться.
Американские топ-менеджеры и ИИ
США — лидер по развитию ИИ и внедрению его как в образование, так и в бизнес. При этом американские ученые придерживаются принципа: ответственность за все, что делает искусственный интеллект, лежит на человеке, который ставит перед ним задачи. К примеру, эксперты Гарвардской школы бизнеса утверждают: нейросети не могут отличить хорошую идею от бесперспективной. Это дело специалистов.
В случае, если сотрудники компаний не соглашаются с этим тезисом и делегируют ИИ принятие решений, появляется риск не только ошибок, но и потери взаимопонимания в командах.
Есть и более тревожные тенденции. Исследование сервиса для создания резюме Resume Builder показало: более 50% топ-менеджеров в США используют искусственный интеллект при принятии ключевых решений, причем в вопросах повышения зарплаты, повышений и увольнений сотрудников обращения к нейросетям достигают 78%. В определенном смысле американцам повезло, что окончательное решение оставляют за ИИ только 20% руководителей.
Я сам профессионально занимаюсь нейросетями уже несколько лет, и подобный подход вызывает недоумение. Доверять алгоритмам можно, но лишь при условии постоянного участия человека. Просто скидывать на него ответственность, особенно в кадровых вопросах, — прямая угроза бизнесу, которую несет не ИИ, а руководитель компании.
Европейский закон об ИИ против безответственности
Европейские ученые также призывают пользователей нейросетей принять ответственность за свои решения на себя, прибегая к помощи новых технологий для быстрой аналитики и получения информации. При этом исследователи не скрывают: все беды не от ИИ, а от банальной человеческой лени.
Испанский IE University выявил ее негативное влияние не только на студентов. Полная передача своих полномочий ИИ специалистами сферы финансов, здравоохранения и юриспруденции — слишком большой риск. Конечно, так поступить проще всего, вот только нейросеть отталкивается от промпта, данного пользователем. Если у него недостаточно навыков, он не следит за результатами работы модели или просто некомпетентен, это проблема.
Еврокомиссия пытается решить вопрос законодательным путем. Так Закон об ИИ, действующий на территории ЕС, прямо требует принятия должностным лицом ответственности за критически важные решения. Кстати, штрафы за нарушения закона могут доходить до €35 млн или 7% годового оборота компаний.
Три способа справиться с ленью
Эксперты Всемирного экономического форума (WEF), анализируя ситуацию, пришли к выводу: 60% сотрудников компаний в западных странах необходимо пройти дополнительное обучение. Помимо усиления навыков работы с ИИ, им требуется детально проработать вопросы его ответственного использования. Как правило, этому помогают нейросети, разработанные с применением подхода Human in the loop (HITL), который основывается на обязательной совместной работе ИИ и человека для выполнения задач.
Над проблемой перекладывания ответственности с руководителя на кого угодно человечество бьется не первый век. Но сейчас сами технологии позволяют решать этот вопрос достаточно эффективно. Если разработчики будут создавать нейросети, требующие живого участия человека, от ответственности будет уже не уйти. То же самое можно сказать про законодательство.
С другой стороны, говорим мы о студентах или о топ-менеджменте компаний, тот, кто выбирает делегировать ИИ решения, которые должен принимать сам, действует неосознанно и не просчитывает последствий. Решить эту проблему помогают специализированные тренинги и курсы по работе с ИИ.
И последнее — регулярные аудиты работы корпоративных нейросетей и анализ поведения сотрудников позволяют довольно быстро выявить тех, кто решил, что всю работу за него будет выполнять искусственный интеллект. Что делать с таким специалистом дальше — решать руководству компании.
Интересное:
Новости отрасли:
Все новости:
Публикация компании
Достижения
Контакты