Umbrella IT 25 июня 2024

Искусственный интеллект — угроза человечеству или ключ к решению проблем

Юрий Макаренко, глава экспертного отдела Umbrella IT о том, помогает искусственный интеллект или вредит развитию общества и бизнеса

Юрий Макаренко
Руководитель экспертного отдела Umbrella IT.

IT-эксперт по стратегии реализации технической части бизнес-решений.

Рынок искусственного интеллекта в России растет: в прошлом году — на 18%. Санкции не смогли остановить этот процесс. Одновременно с этим интерес рядовых пользователей, бизнеса, государства к ИИ-решениям нарастает. Чем больше людей и организаций применяют технологию, тем очевиднее становятся потенциальные угрозы искусственного интеллекта для человека. Расспросили главу экспертного отдела Umbrella IT Юрия Макаренко о влиянии искусственного интеллекта на жизни людей и бизнес. 

Искусственный интеллект, на ваш взгляд, больше про пользу или вред человеку?  

Искусственный интеллект — это все еще просто инструмент. И степень вреда, которую он может нанести, сильно зависит от того, кто и как этот инструмент использует. 

Как потенциальный вред может выражаться? Можете ли привести примеры негативного влияния искусственного интеллекта?

Например, киберпреступники могут применять продвинутые системы ИИ для кибератак, взлома, создания вредоносных программ, угрожая безопасности не только на индивидуальном, но и на государственном уровне. ИИ может применяться и для создания фейковых новостей, изображений, видео. Все это способно управлять сознанием людей, их убеждениями и предпочтениями. 

Нет никаких гарантий, что каждый созданный человеком инструмент на базе ИИ будет действовать в согласии с общепринятыми принципами морали. Чтобы гарантировать это, необходимо обучить его этим принципам и создать систему контроля за их соблюдением. В то же время алгоритмы машинного обучения могут унаследовать предвзятость и дискриминацию и из исходных данных, что неизбежно приведет к несправедливым решениям.

Системы ИИ могут собирать, анализировать и использовать огромные объемы персональных данных. А это угроза для частной жизни и риск утечки конфиденциальной информации. 

Другая проблема — нейросети ошибаются. Чем важнее задача, которую они решают, тем больше вреда принесет случайная ошибка ИИ и неверное решение, принятое на основе уверенно звучащего ответа языковой модели. 

Какие меры предпринимает бизнес, чтобы сделать использование искусственного интеллекта безопаснее и этичнее?

Крупнейшие игроки в мире ИИ-технологий разрабатывают этические стандарты, которым в итоге следуют их продукты. Например, Google опубликовал «Принципы искусственного интеллекта Google», в которых обязуется соблюдать прозрачность, ответственность, безопасность и другие принципы в разработке и использовании ИИ. 

Техногиганты повышают прозрачность своих процессов. OpenAI предоставляет доступ к своим моделям ИИ и публикует исследования о безопасности и этике в области ИИ. Открытость позволяет другим специалистам и организациям анализировать алгоритмы и модели ИИ на предмет проблем справедливости, безопасности и этики, что помогает выявлять и исправлять ошибки.

Как можно обеспечить безопасность и прозрачность при разработке и использовании искусственного интеллекта?

При разработке нейросетей важно не только соблюдать этические нормы, но и контролировать их соблюдение, закладывать в архитектуру безопасность ИИ-решений, осознанно и аккуратно работать с персональными данными, проводить аудит своих продуктов.  

Крупный бизнес проводит аудиты алгоритмов и моделей ИИ для выявления потенциальных проблем с безопасностью и этичностью, а также разрабатывает инструменты для этой цели. Например, компания IBM создала инструментарий AI Fairness 360 для обнаружения и устранения предвзятости искусственного интеллекта.

Какие шаги правительства и организаций нужны для контроля развития искусственного интеллекта?

Ожидается, что к 2030 году ИИ внедрят до 95% российских организаций. Массовое использование технологии требует принятия законов, устанавливающих необходимые ограничения. В России уже разрабатывают правила безопасного и этичного использования ИИ, причем в этот процесс вовлечены и бизнес, и правительство. Компании активно сотрудничают с академическими и государственными учреждениями, чтобы выработать лучшие практики в этой области.

Может ли искусственный интеллект помочь решить глобальные проблемы человечества? Какие перспективы видите?

Искусственный интеллект, без сомнений, способен решить многие глобальные вопросы. Но решит ли — вопрос остается открытым. Одно очевидно уже сегодня: потенциал ИИ огромен. 

Способность ИИ быстро и качественно работать с большим объемом данных может помочь решить проблемы здравоохранения, изменения климата, транспортных систем. Точные персональные планы лечения, дороги без пробок, уменьшение выбросов углекислого газа, более комфортная повседневная жизнь людей с ограниченными возможностями — ИИ может сделать все это реальностью.

Чтобы создать это технологичное будущее и при этом минимизировать негативное воздействие ИИ на жизни людей, правительства, участники рынка и конечные пользователи должны находиться в тесном диалоге. Только так удастся разрабатывать решения, которые будут учитывать интересы всех сторон, не замедляя при этом темпы прогресса. 

Вероятно, мы находимся на пороге значительных перемен. Важно одновременно контролировать их масштаб и не бояться идти вперед, встречая вызовы и возможности, которые нам представляют инновационные технологии.