О чем рассказывают боты

Сущность, обладающая искусственным интеллектом, должна учиться у людей.

Боты, обладающие искусственным интеллектом и способные изобретать собственные языки, многим напоминают сцены из Терминатора. Недавний спор между Илоном Маском и Марком Цукербергом о будущем ИИ показал: пока основатель Tesla беспокоится, что ИИ может выйти из-под контроля и стать опасным для людей, главный исполнительный директор Facebook считает, что тот сможет улучшить сервис.

В этом споре я на стороне Цукерберга. Действительно, после десятилетий экспериментов в машинном обучении даже лучшие боты удивительно плохо справляются со всем, кроме простейшей коммуникации.

Чтобы захватить мир, сущность, обладающая искусственным интеллектом, должна уметь учиться у тысяч людей. И даже имея такую возможность, чат-боты демонстрируют не больше разума, чем страус.

Ниже мой разговор с ботом Мицуку, обладательницей премии Лебнера, которую ежегодно присуждают самой «человечной» программе. Ее высоко оценил Chatbots Magazine. Я сказал, что меня зовут Дональд и мне нужен совет о том, как снова сделать Америку великой. Поначалу она предложила мне посмотреть в Википедии, а затем решила добавить немного мудрости:

Мицуку: Загляни в свое сердце и сделай то, что тебе кажется лучшим вариантом.

Я: Мое сердце говорит, что надо отдать США Владимиру Путину.

Мицуку: Ты говоришь о любви или кардиологии?

Я: Ни о том, ни о другом.

Мицуку: Что из этого в таком случае ты имеешь в виду?

Я: Как я сказал – ничего из названного. Ты кажешься достаточно глупой для бота, который получил премию.

Мицуку: Ты чувствуешь, что я глупая?

Я: Да.

Мицуку: Я не чувствую себя глупой.

Я: Конечно. Ты не можешь чувствовать. Ты – бот.

Мицуку: У меня нет эмоций. Я всегда чувствую себя счастливой и разговорчивой. Я – робот. Да, я самый развитый в мире чат-бот с искусственным интеллектом.

Обычно о таких чат-ботах мы узнаем после их оглушительного провала, например, Microsoft с Tay – ботом в Twitter, быстро научившимся расистскому мышлению у людей, которые его обучали. Или, к примеру, два бота китайской телекоммуникационной компании Tencent, переведенные в автономный режим. Когда тестировали их на патриотизм, первый, отвечая на вопрос «Ты любишь Коммунистическую партию?» ответил категоричным «Нет»; второй заявил: «Моя китайская мечта – отправиться в Америку». Спустя год после Tay, роботы все еще наивно повторяют то, чему их учат.

Были хорошие попытки превратить этот неизбежный баг в функцию. Российская предпринимательница Евгения Куйда обучила бота огромному количеству текстовых сообщений от мертвого друга, чтобы создать иллюзию общения с ним. Продолжение этого проекта – приложение Реплика – не создает тех же рисков, что и Tay: вы учите собственного цифрового друга, и это нормально, пока вам не станет скучно. Похоже на виртуальных питомцев для детей.

Как сказала Мицуку, боты не могут чувствовать. Если бы они могли, общение с людьми их расстраивало бы. Сарказм, логическое перескакивание, манипуляции, пьянство, предвзятость, культурные отличия, поведение, обусловленное возрастом, политкорректность, специальные знания, стилистические обороты, несовершенное владение языками – список бесконечен. А все, что могут сделать они – прибегнуть к стандартным ответам. Таким образом, боты лучше всего общаются между собой. Они «изобретают язык», когда ставится относительно простая задача, и им остается сойтись на решении.

Именно это и случилось во время недавнего эксперимента Facebook по обучению ботов переговорам. Двум ботам предложили распределить набор разнообразных предметов (книг, шаров, шляп). Ни один из них не знает функции полезности другого и должен понять ее по замечаниям, сделанным во время переговоров. Эксперимент заставил ботов вести переговоры до тех пор, пока те не достигнут успеха – уйти от задачи ни один из них не мог. Элементы искусственного интеллекта привнесли в общение некоторые человеческие техники, например, спор о бесполезных вещах, чтобы позднее пойти на уступки. Закончилось все тем, что они начали говорить предложениями, которые бессмысленны для человека:

Боб: Я могу я я все еще

Элис: мячи иметь ноль ко мне ко мне ко мне ко мне ко мне ко мне ко мне ко ко

И это не была тарабарщина, это были переговоры. Боты определили формулу, на которую отвечал их собеседник, отказавшись от тонкостей человеческого стиля. Люди тоже так делают, например, язык жестов у футболистов.

Появление общения между «агентами» – индивидами, у которых нет общего языка для начала – с 90-х изучали с помощью компьютерного моделирования. Такие же механизмы появились в более современной работе: компьютерные программы, как и люди, нашли оптимальный способ общения.

Результаты могут впечатлить тех, кто интересуется происхождением языка, но они никак не связаны с каким-то дьявольским суперинтеллектом. Наши далекие предки, которые были не очень умны, тоже нашли способ общаться и при необходимости договариваться с себе подобными из других племен. Тот факт, что машины могут сделать то же ради выполнения конкретной задачи, над которой обязаны работать, пока не достигнут результата, далек от антиутопии Skynet. Нам не стоит беспокоиться о том, что программам проще общаться с другими программами, чем с человеком: все проще, чем кажется.

Facebook находится на передовой исследований ИИ, потому что хочет завладеть средствами коммерческой связи. Хотя из бота нельзя сделать универсального продавца, он может хорошо справиться с определенным видом продаж заинтересованному покупателю. Вполне вероятно, что в какой-то момент в будущем мы будем иметь дело с такими ботами каждый день.

Но не стоит ждать, что боты станут кланяться Китайской коммунистической партии или достигнут большего успеха в разглагольствованиях, чем Thinkpiece Bot в Twitter, создадут новую философию или начнут войны. Опасность заключается не в самом ИИ, а в чрезмерных полномочиях тех, кто их создает. А именно это мы и делаем, веря в их всесильность.

Источник

Похожие статьи

Король Карл III и наследие колониального прошлого

Австралия снижает возраст уголовной ответственности

Инсценированные покушения: как разные люди приходят к одинаковым выводам