РБК Компании

Робот как властелин, психотерапевт и буржуа: три факта об ИИ

Подготовили рассказ об интересных аспектах взаимодействия человека и машины на основе книг «От «Энигмы» до ChatGPT» и «От предвидения к власти»
Робот как властелин, психотерапевт и буржуа: три факта об ИИ
Юлия Константинова
Юлия Константинова
Ведущий редактор

Курирует направление «Бизнес» в издательстве МИФ

Подробнее про эксперта

Британский словарь английского языка Collins назвал аббревиатуру AI (ИИ, «искусственный интеллект») словом 2023 года. Частота употребления этого словосочетания в обществе возрастает с пугающей скоростью. Но многих пугает не только скорость, но и само словосочетание. Подготовили рассказ об интересных аспектах взаимодействия человека и машины. 

Эффект Элизы

Однажды в научное сообщество подселили бота, работающего на ChatGPT. И всего через месяц участники стали общаться только с ним, а не друг с другом. Почему люди выбрали бота? Ответы были весьма неожиданными: вплоть до признания, что с некоторыми вопросами они не пошли бы даже к психотерапевту.  

Что-то подобное пытались создать еще в 1965 году. Джозеф Вейценбаум разработал машину, создающую в диалоге с человеком иллюзию эмоциональной привязанности. «Элиза» (имя этого чат-бота) искала в тексте запроса ключевые слова и использовала их в своем ответе.  

Полной неожиданностью стал факт эмоциональной связи между человеком и роботом: участники эксперимента рассказывали «Элизе» о самых разных личных проблемах. Удивительно, но когда Вейценбаум раскрывал им алгоритмы машины, эмоциональная связь сохранялась. Даже секретарь Вейценбаума, понимавшая, что перед ней всего лишь машина, попросила пообщаться с ней тет-а-тет. 

«Элиза» наглядно показала, что симуляции интеллекта достаточно, чтобы ввести людей в заблуждение, а осознанный диалог возможен и тогда, когда сознание есть только у одного участника. Ученый дал этому явлению название — «Эффект Элизы». Он предположил, что таким «бредомышлением» (когда один бредит, а другой наделяет его слова смыслом), человек будет страдать и в цифровую эпоху. Кажется, он был не так уж и неправ. 

Сверхдоверие и здравый смысл

При автоматизации снижается общее количество ошибок, но растет их число среди допущенных человеком. На это обратила внимание компания Deloitte еще в 1990 году. Идеальная для рутинных операций, автоматизация становится опасной, если слишком на нее полагаться. Когда умственная нагрузка снижается, понимание происходящего теряется. 

Глупеем ли мы? Нет. Становимся менее внимательными? Да. 

За примерами не нужно далеко ходить: каждый хотя бы однажды доверял умной машине больше, чем себе. Даже когда полученная информация противоречила опыту, знаниям, чувствам. 

Например, в автомобиле, когда голос навигатора говорит, что через триста метров надо повернуть направо, мы покорно поворачиваем, зная, что прямая дорога короче. Или когда почтовый клиент указывает на пунктуационные ошибки или неправильную форму слов, мы исправляем, хотя выученные нами же правила говорят совсем иное. А когда фитнес-трекер показывает 8 000 шагов вместо 10 000, мы идем еще пару километров, хотя организм кричит, что ему хватит. 

Когда вопреки здравому смыслу решение принимается в пользу машины, можно вспомнить слова Вольтера, сказавшего, что здравый смысл не так уж и распространен. 

Робот как властелин, психотерапевт и буржуа: три факта об ИИ

Роботы-властелины пришли по души работников 

Заголовки гласили: «Amazon использовала искусственный интеллект для автоматического увольнения малопроизводительных работников», «Вы бы позволили роботу уволить ваших сотрудников?», «Роботы-­властелины пришли по души низкооплачиваемых работников».

Мягко говоря, это привлекло внимание многих. Опять пробудился давний страх: что, если машины получат власть над людьми? Из этих статей можно было сделать вывод, что, покидая рабочее место, сотрудники компании проходят через небольшую комнату, где их сканируют, и на мониторе появляется ярко-зеленая надпись «До завтра» или, наоборот, красная — «Уволен», а принтер автоматически распечатывает «розовый листок» (извещение об увольнении оформлялось на бланке розового цвета). 

Конечно, в действительности ничего подобного не произошло. Да, Amazon использовала ИИ для прогнозирования производительности сотрудников. И да, это могло послужить поводом для проверки. И да, по результатам проверки работников могли уволить. Но их не выставляли за дверь без участия человека. С помощью ИИ лишь измеряли эффективность работы, чтобы установить, стоит ли беспокоиться по этому поводу. А затем менеджер принимал решение о том, что делать. В этом отношении нет никакого отличия от любых других методик, с помощью которых оценивают производительность, и это совсем не обязательно хуже некоторых более субъективных методик, с которыми нам приходится иметь дело. 

Но что, если громкие заголовки правдивы и вас могут оценить, а затем уволить без участия человека? Может быть, машины на самом деле решают, кто получит работу? Может быть, они стали своего рода буржуазией для пролетариата?

Ответ однозначен: нет. Роботы и машины в общем случае ничего не решают и, следовательно, не обладают властью. Человек или группа людей вызывают код, на основе которого принимаются решения. Конечно, можно все автоматизировать и создать видимость того, что машина делает грязную работу. Но это иллюзия. При нынешнем уровне развития ИИ реальные решения принимает человек. 

Признание того факта, что машины не принимают решений, имеет ключевое значение для правильной оценки потенциала ИИ как подрывной инновации. 

Хотя ИИ не может наделить машину правом решения, он может определить, кто из людей возьмет на себя полномочия. Машины не обладают властью, но могут передавать ее от одного человека другому. Если машины меняют ЛПР, должна меняться и базовая система. Инженеры, создающие их, должны понимать последствия суждений, которые закладывают в свои продукты. Люди, которые раньше принимали решения в нужный момент, возможно, больше не понадобятся.

Из книг «От «Энигмы» до ChatGPT» и «От предвидения к власти» (издательство МИФ).

Интересное:

Новости отрасли:

Все новости:

Профиль

Дата регистрации21.04.2014
Уставной капитал10 000,00 ₽
Юридический адрес Г.Москва ПЕР. КОЗИХИНСКИЙ Б. Д. 7 СТР. 2
ОГРН 1147746441963
ИНН / КПП 7703809969 770301001
Среднесписочная численность224 сотрудника

Социальные сети