Чат-боты

Мы хотим, чтобы чат-боты действовали более человечно, но давайте оставим некоторые человеческие качества при себе

Отношения между человеком и ботом — это новая норма, поэтому мы должны критически подумать о возможном долгосрочном воздействии искусственного интеллекта глухого тона.

Есть что-то однозначно тревожное в просмотре видеозаписи Атласа, робота, разработанного Boston Dynamics. Его человеческие движения предполагают чувство телесного осознания и интуиции, присущие людям, но явно не человеческие.

Технологии, лежащие в основе искусственного интеллекта и робототехники, будут продолжать развиваться. По мере того, как они становятся все более изощренными, мы должны спросить себя, насколько человекоподобным должен быть ИИ? Где мы должны позволить границам продолжать размываться, а где провести четкую линию на песке? Это сложная головоломка, которую только усложняют заголовки о гражданстве роботов и предположения о надвигающемся апокалипсисе.

Когда мы оценим развивающуюся роль ИИ в клиентском опыте, мы сможем ответить на этот вопрос. Раннее внедрение чат-ботов служит маленьким окном в мир взаимодействия людей и ботов и примером того, как технология должна формироваться в будущем.

Когда отражение человеческого поведения имеет смысл.

Ранний ажиотаж вокруг чат-ботов был встречен множеством разочаровывающих стонов со стороны многих потребителей, преждевременно знакомых с ботами. Первоначальные боты справедливо критиковались за неэффективность и часто неспособность выполнять основные задачи, для которых они были предназначены. Однако, что, вероятно, больше всего расстраивало клиентов, имеющих дело с указанными ботами, было отсутствие у них сочувствия. Если покупатель находит время, чтобы обратиться к бренду за помощью, он действительно хочет, чтобы его понимали. Ирония заключается в том, что машины не особенно хорошо разбираются в чувствах (в свою защиту я знаю множество людей , которые не очень хорошо разбираются в чувствах).

По мере развития технологий ИИ необходимо будет более эмоционально осознавать, чтобы по-настоящему понимать человеческие запросы. Сочувствие необходимо, поскольку компании все чаще стремятся общаться с потребителями с помощью автоматизированных решений. Чат-боты прошли долгий путь с самого начала. По оценкам, 16 процентов американцев (это 39 миллионов человек) теперь владеют умным динамиком. Но даже в этих более продвинутых решениях существует довольно хроническая проблема глухоты по тону. Отношения между человеком и ботом — это новая норма, поэтому мы должны критически подумать о возможном долгосрочном воздействии искусственного интеллекта глухого тона.

Учтите, что когда вы делаете запрос к Алексе, она не скажет «пожалуйста», если вы ее поблагодарите. С одной стороны, приятно знать, что она больше не «слушает» команду, но, с другой стороны, многие обеспокоены тем, что мы создаем прецедент грубости и бессердечия для будущего поколения. Более гнусный пример — отсутствие последствий за грубость по отношению к ботам и, в частности, в их реакции на такие вещи, как сексуальные домогательства . В случае с Алекса теперь она «отключится», если ее попросят сделать что-то неуместное, но, как отмечает писательница Quartz Лия Фесслер, ее Полярная звезда должна понравиться. Это проблематично, если учесть, что скоро среди нас появятся более сложные боты, такие как София.

Чтобы избежать ботов, которые увековечивают общество глухих к тону, нам нужно обучать ИИ эмпатии. Это непростая задача, но выполнимая. Сочувствие — это «мягкий навык», но, тем не менее, это навык. Таким образом, к обучению ИИ эмпатии можно подходить так же, как мы обучаем ИИ чему угодно — с легко усваиваемым набором данных. Это будет включать само обучение «слышать» такие данные, как тон голоса (как письменный, так и вербальный), слова, которые выражают чувства и эмоции, и даже то, как человек реагирует во времени или во времени на взаимодействия. Человек переходит от возбужденного к счастливому или наоборот? Бот должен знать разницу, чтобы умерить свою реакцию, чтобы не волновать спокойного человека — или успокоить возбужденного человека. Понимание эмоций и чувств является важной частью понимания людей и их действий. чего они хотят и как правильно реагировать. Если машина не может научиться эмпатии, она не может понять, как эмпатия влияет на человеческие запросы и действия, и не может дать оптимальных результатов.

Обучение искусственного интеллекта эмпатии означает обучение машин извлечению субъективных эмоций, чувств и настроений из разговоров с людьми. Модели искусственного интеллекта могут узнать, как люди узнают, как эти качественные чувства влияют на потребности, реакции, действия и результаты. Сердитый человек, используя слова, вызывающие гнев (в том числе нецензурные выражения), громкий голос, изменяя ритм речи или выбор слов, может продемонстрировать потребность быть услышанным, подтвердить свои чувства, возможно, у него возникнут проблемы. Они хотят быстрого и эффективного ответа. Счастливому человеку, который хочет поговорить, удобнее проводить время, болтать или даже дружески поговорить с ботом на незначительные темы, такие как погода или спортивная команда. Пока ИИ не сможет распознавать эмоции и сочувствие, он не сможет узнать, как эмоции влияют на поведение, потребности и желаемые реакции человека.

Мы хотим, чтобы чат-боты действовали более человечно, но давайте оставим некоторые человеческие качества при себе

Когда боты должны быть просто ботами.

Противоречие будущему, в котором грань между ботом и человеком неразличима, заключается в том, что люди несовершенны. И зачем нам воссоздавать ИИ по нашему точному подобию, когда обещание ИИ помогает нам выйти за рамки наших ограничений? Жесткая грань на песке, которую мы должны провести между ботами и людьми, — это предвзятое принятие решений.

Одна из самых сильных сторон ботов — отсутствие стыда или эгоизма. Очень часто эти человеческие эмоции лежат в основе неспособности распознать наши собственные предубеждения, в какой бы форме они ни принимались: расистские мнения (открытые или бессознательные), сексистские предположения или что-то еще, в чем мы все были виноваты в какой-то момент или Другой. Воспользовавшись тем, что мы начинаем «с нуля», мы должны гарантировать, что боты не просто научатся по-разному реагировать на предвзятые атрибуты, такие как мужской или женский голоса или язык происхождения. Есть много атрибутов, которые ИИ может определять, влияя на человеческие реакции и потребности, но люди обязаны не позволять ботам делать чрезмерные обобщения по признаку пола, языка или страны происхождения, точно так же, как мы просим наших сотрудников-людей не допускать дискриминации.

За последние два года мы наблюдали, как робот София эволюционировала от согласия уничтожить человеческую расу до рассказа анекдота, обучения ходьбе и совсем недавно присоединения к Уиллу Смиту на «свидании». » Поскольку это такой публичный символ ИИ, очевидно, что технология улучшается семимильными шагами, но еще предстоит пройти долгий путь. Большинство из нас не будет взаимодействовать с такими, как София, но многие из нас будут продолжать взаимодействовать с Siri, Alexa и другими фирменными чат-ботами мира. Это постоянно расширяющееся распространение требует, чтобы мы продолжали добиваться большего сочувствия к ИИ и уменьшения предвзятости. Таким образом, мы надеемся прийти в место, где ИИ сможет беспрепятственно взаимодействовать с людьми, не становясь жертвами человеческой ошибки. Найти этот баланс будет непросто, но полученная гармония окажет огромное положительное влияние как на потребителей, так и на компании.