Kaspersky представила принципы использования ИИ в кибербезопасности
Компания анонсировала свои этические принципы разработки и использования систем машинного обучения на Форуме ООН по управлению Интернетом
В рамках Глобальной инициативы по информационной открытости «Лаборатория Касперского» представила этические принципы разработки и использования систем на основе машинного обучения. Компания сделала это на Форуме по управлению Интернетом под эгидой ООН, одна из ключевых тем которого в этом году — искусственный интеллект и развивающиеся технологии. «Лаборатория Касперского» организовала дискуссию, во время которой обсуждались этические принципы разработки и использования систем машинного обучения, а также технические и юридические аспекты. В новом документе компания объясняет, как она обеспечивает надежность систем, основанных на ML-алгоритмах, и призывает других участников отрасли присоединиться к диалогу и выработать общие этические принципы.
«Лаборатория Касперского» использует алгоритмы машинного обучения в своих решениях уже около 20 лет. Сочетание их с человеческим опытом позволяет компании ежедневно обнаруживать и противодействовать множеству новых угроз, причем ML играет важную роль в автоматизации процесса обнаружения угроз и выявления аномалий, а также повышает точность распознавания вредоносных программ. Чтобы способствовать развитию инноваций, «Лаборатория Касперского» сформулировала этические принципы разработки и использования систем машинного обучения и открыто делится ими с представителями отрасли, чтобы придать импульс многостороннему диалогу, цель которого — выработать единые практики использования таких технологий в кибербезопасности для улучшения жизни людей.
По мнению «Лаборатории Касперского», при разработке и использовании AI/ML должны учитываться следующие шесть принципов:
- прозрачность;
- безопасность;
- человеческий контроль;
- конфиденциальность;
- приверженность целям кибербезопасности;
- открытость к диалогу.
Принцип прозрачности означает твердое убеждение «Лаборатории Касперского» в том, что компании должны информировать своих клиентов об использовании технологий машинного обучения в своих продуктах и услугах. Компания соблюдает этот принцип, разрабатывая максимально, насколько это возможно, интерпретируемые системы ML и предоставляя заинтересованным сторонам информацию о том, как работают решения компании и каким образом в них используются технологии машинного обучения.
Принцип безопасности находит отражение в широком спектре мер, которые реализует «Лаборатория Касперского» для обеспечения качества своих систем машинного обучения. Среди них — аудит безопасности, специфичный для ML/AI, меры по минимизации зависимости от сторонних наборов данных в процессе обучения AI-решений, а также фокус на облачные технологии машинного обучения с необходимыми мерами защиты вместо моделей, устанавливаемых на машины клиентов.
Принцип человеческого контроля объясняется необходимостью проверять работу AI/ML-систем при анализе сложных угроз. Для обеспечения эффективной защиты «Лаборатория Касперского» стремится оставить человеческий контроль важнейшим элементом всех своих AI/ML-систем.
Поскольку большие данные играют важную роль в процессе обучения таких систем, компании, работающие с алгоритмами машинного обучения, должны учитывать право на цифровую приватность. «Лаборатория Касперского» применяет ряд технических и организационных мер для защиты данных и систем, чтобы обеспечить цифровую приватность пользователей.
Пятый этический принцип отражает стремление «Лаборатории Касперского» использовать AI/ML-инструменты исключительно в целях кибербезопасности. Сосредоточившись исключительно на защитных технологиях, компания следует своей миссии строить более безопасный мир и демонстрирует свою приверженность защите пользователей и их данных.
Шестой принцип касается открытости «Лаборатории Касперского» к диалогу со всеми заинтересованными сторонами с целью обмена передовым опытом в области этичного использования алгоритмов машинного обучения. Компания готова обсуждать эти темы, поскольку считает, что только сотрудничество позволяет преодолевать препятствия, стимулировать инновации и открывать новые горизонты.
«Машинное обучение может быть очень полезным для индустрии кибербезопасности, еще больше повысить киберустойчивость общества. Однако, как и любая технология, находящаяся на ранней стадии своего развития, она несет определенные риски. Мы рассказываем о своих этических принципах в области работы с технологиями машинного обучения и призываем к открытому диалогу в отрасли для выработки четких рекомендаций, как сделать разработку таких решений этичной», — комментирует Антон Иванов, директор по исследованиям и разработке «Лаборатории Касперского».