Top.Mail.Ru
РБК Компании
Главная SML 16 января 2026

ИИ в LegalTech: что мешает юристам внедрять технологии

Аналитик SoftMediaLab — о том, какие профессиональные и организационные ограничения тормозят LegalTech и какие подходы работают в практике
ИИ в LegalTech: что мешает юристам внедрять технологии
Источник изображения: Freepik.com
Георгий Чернышов
Георгий Чернышов
Аналитик

Эксперт в создании архитектуры ИИ-решений. Автор статей в ведущих журналах по цифровизации и промышленной автоматизации.

Подробнее про эксперта

Более 40% юридических фирм в России уже пробуют ИИ. Цифра из свежего исследования Research and Markets (октябрь 2025) кажется обнадеживающей: рынок LegalTech просыпается. Ассистенты анализируют документы, готовят позиции, проверяют договоры. Но за этим фасадом цифр скрывается более сложная и знакомая каждому практику реальность. 

Почти каждый юрист или руководитель legal-департамента, кивнув на потенциальную пользу технологий, сразу задаст вопрос: «А кто будет отвечать, если ИИ ошибется?» 

Интерес есть, но он быстро упирается не в возможности моделей, а в железные принципы профессии: личную ответственность, тотальную конфиденциальность и устоявшиеся процессы. Именно эти три барьера сдерживают внедрение. В статье аналитик SoftMediaLab Георгий Чернышов разберет каждый из них, опираясь на практический опыт, и покажет главное: все они преодолимы системно, без революций и замены людей.

Барьер 1. Доверие: когда ИИ-помощник юриста начинает фантазировать

Первый и самый чувствительный барьер — вопрос достоверности результатов. В юридической работе он всегда сводится к простому и жесткому принципу: модель может ошибиться, а отвечать будет человек.

ИИ не боится давать однозначные ответы, тогда как юрист по своей природе так не работает: он всегда держит в голове риски, исключения и последствия. Юристы сталкиваются с тем, что ИИ уверенно формулирует выводы, ссылается на нормы или предлагает правовую позицию — но при этом допускает неточности. Это может быть ссылка на несуществующую статью или игнорирование судебной практики. 

Именно поэтому ключевой вопрос звучит не «насколько умна модель», а «кто будет отвечать за ее рекомендации». Дополняет картину и необходимость обязательной верификации: даже при анализе типовой ситуации юрист вынужден перепроверять нормы и трактовки, потому что ИИ может не учитывать специфику правоприменительной практики.

Важно и то, что многие популярные модели не учитывают локальную правовую и налоговую специфику. Для юриста это дополнительный риск: иностранная модель может быть «грамотной», но не знать контекст российского регулирования, что делает ее выводы потенциально опасными. 

В таких условиях «довериться» модели невозможно: каждый вывод требует обязательной проверки. А если проверять нужно все, то логично возникает вопрос — где здесь экономия времени.

Что работает на практике

Перелом происходит в тот момент, когда ИИ перестают рассматривать как «советчика». В юридических процессах он не должен интерпретировать и рекомендовать. Его роль — ассистирование и первичный скрининг.

На практике это выглядит так: система работает строго по заранее утвержденному чек-листу рисков, составленному самими юристами. Она ищет в тексте договора потенциально чувствительные формулировки — штрафы, односторонний отказ, форс-мажор, ответственность, конфиденциальность — и подсвечивает соответствующие фрагменты. ИИ не делает выводов и не «оценивает договор». Он показывает, где именно в тексте есть повод для внимания, указывает источник и степень уверенности.

Финальное решение — принять формулировку, изменить ее или оставить без правок — всегда остается за юристом. В этой логике ответственность не размывается, а наоборот, становится более управляемой: специалист работает не с «черным ящиком», а с четко структурированным материалом.

Технически такой подход усиливается рядом решений. Документы разбиваются на фрагменты оптимального размера: слишком мелкие чанки повышают точность, но резко замедляют анализ, слишком крупные — снижают качество. На практике эффективен динамический подход: небольшие документы анализируются целиком, крупные — делятся на фиксированное количество частей в зависимости от объема. Это позволяет сохранить баланс скорости и точности.

Для оценки качества мы используем эталонную проверку — так называемый «золотой список» ошибок и рисков, сформированный и вручную верифицированный экспертами. Это дает возможность опираться не на субъективное ощущение, а на измеримые метрики качества. 

Отдельного внимания требует работа с «галлюцинациями» моделей: здесь помогают дополнительные проверки совпадений символов и формулировок, которые отсекают ложные срабатывания.

Интересно, что поиск юридических рисков оказался одной из самых предсказуемых задач: при корректно составленном чек-листе ИИ стабильно показывает высокий результат. Даже такие параметры, как «креативность» модели, удалось настроить экспериментально — мы наблюдали U-образную зависимость качества от температуры и выбрали оптимальный диапазон, в котором система не пропускает риски, но и не «видит опасность в каждом пункте».

Барьер 2. Конфиденциальность данных и поиск безопасной архитектуры

Второй системный барьер связан с безопасностью данных. Для большинства юридических команд загрузка договоров, претензий и исков во внешние сервисы — чувствительный, а иногда и принципиально неприемлемый шаг. Причем тревога возникает даже при работе с российскими решениями: сам факт передачи документов за пределы корпоративного контура вызывает вопросы у службы безопасности и дискомфорт у юристов.

Ключевая проблема здесь не в недоверии к технологиям как таковым, а в том, что юридические данные относятся к наиболее чувствительным. Их нельзя «просто отправить в облако» без понимания, где именно они обрабатываются, кто имеет к ним доступ и какие гарантии контроля существуют.

Что работает на практике

На практике этот барьер снимается не отказом от ИИ, а правильным архитектурным подходом. Важно сместить фокус: юридическим командам далеко не всегда нужна большая и дорогая модель, развернутая локально «на все подряд». Гораздо эффективнее проектировать решение под конкретные задачи и уровень чувствительности данных.

В реальных внедрениях хорошо работает гибридная архитектура. Все операции с чувствительными данными — работа с исходными текстами договоров, поиск рисков, сопоставление с внутренними шаблонами — выполняются на локальных моделях, внутри периметра компании. При этом такие модели не обязательно требуют дорогостоящего «железа»: для задач анализа и скрининга договоров часто достаточно компактных, специализированных решений.

Для менее чувствительных и массовых операций — технической разметки, классификации, поиска совпадений — могут использоваться облачные модели или внешние сервисы. При необходимости применяется анонимизация: имена, суммы и названия заменяются маркерами еще до обработки. Дополнительно используются механизмы шифрования при передаче данных, а также строгий контроль доступа — кто, когда и с какими правами работает с документами.

Именно по такой логике мы интегрировали ИИ-ассистентов в некоторые процессы клиентов: решение разворачивается на их серверах и встраивается в существующий контур согласования документов. Это позволяет не отдавать чувствительные данные «вовне», снизить требования к инфраструктуре и сделать стоимость владения предсказуемой. В результате архитектура становится прозрачной и для ИТ-службы, и для службы безопасности, а вопрос конфиденциальности перестает быть стоп-фактором. 

Барьер 3. Сопротивление руководства: как легализовать ИИ в компании

Третий барьер носит организационный характер. Когда руководство не понимает, как именно ИИ используется в юридической работе и каким принципам он следует, оно часто выбирает самый простой путь — запрет. Не из недоверия к технологиям, а из-за рисков: утечки данных, некорректных формулировок, несоответствия внутренним стандартам юридического анализа.

На практике запреты не решают проблему. Возникает «партизанское» использование: сотрудники применяют публичные инструменты без правил, без понимания ограничений и без общей методологии. В такой модели риски не уменьшаются, а наоборот — становятся неконтролируемыми, как с точки зрения безопасности, так и с точки зрения качества юридического результата.

ИИ начинает работать в интересах компании тогда, когда его внедряют не через энтузиазм отдельных сотрудников, а через понятный и согласованный рабочий процесс.

Что работает на практике

Ключевой момент — сделать использование ИИ прозрачным и воспроизводимым. Ассистент встраивается в существующий workflow — туда, где уже есть принятые контрольные точки: система согласования договоров, таск-трекер, корпоративное хранилище. Результат его работы появляется в привычном для юриста формате — в виде комментариев  к документу, пометок или структурированного отчета, а не «ответа чат-бота». Все действия логируются: видно, кто загрузил документ, что было найдено и кто принял финальное решение.

Важно, что система работает по заранее заданным правилам: видно, какие проверки она выполняет, по каким чек-листам ищет риски и на каких данных основывается. Все действия фиксируются — кто загрузил документ, какие фрагменты были подсвечены, кто и на каком этапе принял финальное решение. Это не про тотальный контроль, а про понимание логики работы инструмента.

Параллельно вводятся простые и понятные регламенты: какие документы можно обрабатывать автоматически, какие требуют дополнительной проверки, где проходит граница ответственности между ИИ-ассистентом и юристом. В такой модели руководство видит не «эксперимент с ИИ», а инструмент, который работает в рамках корпоративных стандартов и усиливает существующие процессы. 

Когда технология встроена в привычный контур работы и действует по ясным правилам, сопротивление снижается само собой. ИИ перестает быть источником неопределенности и становится понятным рабочим инструментом — именно это и делает его легитимным внутри компании.

От барьеров — к новой архитектуре юридической работы

Барьеры на пути ИИ в юридической практике — это не слабость рынка и не недоверие к технологиям. Это рациональная реакция профессиональной среды, где цена ошибки высока.

Опыт показывает, что они преодолимы, если сменить угол зрения:

  1. ИИ — не оракул, а ассистент. Его сила — в безошибочном следовании правилам, а не в креативности.
  2. Безопасность — в архитектуре. Ее можно обеспечить через каскадные решения и грамотное зонирование, а не только через многомиллионные инвестиции.
  3. Внедрение — через процесс. Технология должна встраиваться в существующие регламенты, делая их эффективнее, а не ломать их.

Фактически, эти барьеры задают требования к архитектуре зрелого LegalTech-решения: предсказуемого, безопасного и бесшовного. Когда ИИ проектируется как управляемый инструмент, встроенный в процесс, с понятной архитектурой и четким распределением ответственности, он перестает быть источником риска и становится источником предсказуемой эффективности. Именно в этом направлении сегодня и движется зрелый LegalTech.

Интересное:

Новости отрасли:

Все новости:

Контакты

Адрес
620075, Россия, Свердловская обл., г. Екатеринбург, ул. Мамина-Сибиряка, стр. 101, офис 8.19

Социальные сети

ГлавноеЭкспертыДобавить
новость
КейсыМероприятия