web 2.0

«В общественных местах я обычно не использую Siri — мне кажется, это выглядит странно»

Перевод материала Nielsen Norman Group об отношении пользователей к голосовым помощникам.

Перевод подготовлен командой онлайн-школы английского Skyeng.

Будущее в духе «Звёздных войн», где мы постоянно в устной форме взаимодействуем с компьютерами, ещё не наступило. Но за последние годы сделано уже немало шагов к этому — «умные» помощники, такие как Alexa, Siri и Google Assistant, становятся всё более популярны.

Преимущество виртуальных помощников с функцией речевого взаимодействия — в использовании естественного языка. Но язык — это изначально социальный инструмент: он эволюционировал, чтобы помогать нам общаться между собой. Как социальные аспекты языка влияют на то, как мы взаимодействуем с пользовательскими интерфейсами с функцией речевого взаимодействия? Этот и другие вопросы возникли в ходе наших исследований голосовых помощников.

Чтобы лучше понять, какие проблемы стоят перед этими помощниками сегодня и как они помогают пользователям, мы провели два юзабилити-исследования (одно в Нью-Йорке и одно в Сан-Франциско). В лабораторию для индивидуальных исследований пригласили 17 участников: пять в Нью-Йорке и 12 в Калифорнии.

Все участники пользовались хотя бы одним из основных голосовых помощников (Alexa, Google Assistant и Siri). Каждый сеанс состоял из комбинации тестирования юзабилити (в котором участники выполняли задания, используя Alexa, Google Assistant или Siri) и интервью.

В этой статье собраны основные выводы о восприятии пользователя, когнитивных моделях и социальных аспектах использования этих программ, а в другом материале обсуждаются результаты, связанные с удобством и взаимодействием.

Мы видели, что пользователи хорошо понимают, что их «умные» помощники не полностью интеллектуальны. Люди не всегда до конца понимают, что функции помощников ограничены и по-разному их воспринимают: для одних голосовой помощник — это что-то жутковатое или несерьёзное, другие видят в нём просто альтернативный инструмент для решения задач.

Мы пока далеки от будущего, в котором пользователи будут доверять «умному» помощнику так же, как живому человеку.

Антропоморфность голосовых помощников

Социальная природа языка заставляла людей проецировать антропоморфные качества на программу. Большинство наших участников обращались к ассистенту с использованием местоимения рода («она» или «он» в зависимости от женского или мужского голоса программы).

Некоторые демонстрировали вежливость с помощью слов «пожалуйста» или «спасибо». Или начинали вопросы с «Как вы думаете», «Не могли бы вы».

Участники часто использовали метафоры, обычно относящиеся к людям, когда говорили о помощнике. Например, одна из участниц сказала: «У неё в голове пусто. Она как будто говорит: ”Что хочет от меня эта дама? Оставьте меня в покое!”», когда Alexa издала звуковой сигнал, по-видимому, демонстрируя непонимание.

Другой участник рассказал: «Я ругаюсь на неё (Siri), когда она не понимает, а потом она говорит что-то смешное — и нам весело».

Участники исследования знали об этом антропоморфизме, многие смеялись над ним или как-то комментировали. Один пользователь Google Assistant целенаправленно пытался называть помощника «это» и прокомментировал: «Мне просто нужен ответ. Я не хочу говорить с ним, как с человеком. Искусственный интеллект меня и так достаточно пугает».

Люди думали, что помощник плохо разбирается в эмоциях и не понимает их разочарования, выраженного с помощью интонации или выбора определённых слов. Мнения участников по поводу использования сленга и идиом разнились: некоторые считали, что сленг непонятен помощнику, и целенаправленно избегали его. Другие утверждали, что пробовали употреблять сленговые выражения и идиомы, и помощник работал отлично.

Пользователи не ожидали, что голосовые помощники будут понимать тонкие смысловые различия. Например, одна участница спросила: «Сколько стоит однокомнатная квартира в Маунтин-Вью?». Девушка посчитала, что её вопрос был слишком расплывчатым для Alexa, потому что для неё слово «квартира» подразумевает «аренду» — если бы она хотела узнать про покупку, она бы использовала слово «кондо». Она не рассчитывала, что Alexa поймёт эту разницу.

Когда люди используют голосовых помощников

Как правило, мы не стесняемся разговаривать с реальным человеком в публичном месте. Но с голосовыми помощниками всё обстоит по-другому: участники исследования сказали, что предпочитают пользоваться такими программами только дома или в одиночестве. Большинство людей заявили, что они не стали бы взаимодействовать с Siri или Google Now в общественных местах. Тем не менее некоторые были готовы просить построить маршрут на ходу.

Один из участников прямо сказал: «В общественных местах я обычно не использую Siri — мне кажется, это выглядит странно. Я чувствую себя неловко, когда делаю так, и не видел, чтобы другие люди использовали программу».

Большинство людей сообщали, что используют голосовых помощников для простых однозначных запросов, часто в ситуациях, когда у них заняты руки. Другим распространённым применением было развлечение: многие говорили, что иногда они сами или кто-то из членов их семьи (обычно их дети) любят слушать шутки или играть в игры с помощником. Несколько родителей сообщили, что использовали Alexa как способ развлечь детей и отвлечь их от экрана планшета или смартфона.

Когда участники исследования задавали забавные или глупые вопросы (например, о предпочтениях программы, таких как любое блюдо), они понимали, что получают не реальные ответы искусственного интеллекта, а только серию предварительно запрограммированных шуток, написанных командой инженеров.

Манера общения с голосовыми помощниками

По манере общения с помощником участников можно разделить на две категории.

  1. Те, кто использовал ту же языковую структуру, что и при общении с человеком. Эти участники часто были вежливы в формулировке запроса, они заканчивали своё взаимодействие словом «спасибо» и часто начинали вопросы с «пожалуйста», «как вы думаете», «не могли бы вы сказать мне». Эти участники обычно позитивно относились к помощнику.
  2. Те, кто пытался сделать язык более эффективным, чтобы увеличить шансы быть понятым. В этой категории мы увидели разнообразие моделей поведения: участники меняли порядок слов в предложении так, чтобы запрос начался с ключевого слова, не употребляли артикли или сокращали свои запросы до нескольких ключевых слов, лишая фразу грамматической структуры («Ок, Google, события в Лондоне на прошлой неделе»).

Например, один из участников отметил, что запрос «рестораны рядом со Сторм-Кинг» может дать результаты, отличные от «рестораны Сторм-Кинг», но «человек в любом случае понял бы, что я имел в виду,».

Несколько участников делали свои запросы короткими, состоящими из нескольких ключевых слов. Один сказал: «Я не говорю с голосовыми помощником так же, как с живым человеком, за исключением ситуаций, когда мои вопросы начинаются с вопросительного слова (кто, что, где, когда, почему). Я бы разговаривал так с человеком, только если бы он был не носителем языка и я знал, что слишком длинное предложение может быть для него сложным».

Хотя некоторые пользователи обращались к ассистенту, используя местоимения мужского или женского рода, большинство пользователей не использовали в вопросах местоимения «это» или «этот». Они предпочитали точно называть предмет запроса, даже если название было длинным и сложным.

Люди не рассчитывали на то, что помощник сможет понять, к чему может относиться местоимение «это» или «оно», особенно если предмет запроса был назван только во время предыдущего взаимодействия с программой.

Хотя виртуальные помощники учатся лучше работать с последовательными запросами (компания Google недавно объявила о функции «беседы» в своём помощнике), большинство участников привыкли не ожидать от программы, что она сохранит контекст при переходе от одного запроса к другому.

Один из участников сказал: «Siri обычно не запоминает подобные вещи (например, черновики текстовых сообщений). Ответив на запрос, помощник просто заканчивает работать с этой информацией».

Какие запросы работают

Несмотря на то, что люди использовали речь для общения с помощниками и проецировали на них человеческие качества, у них было чёткое представление о том, какие задачи могут выполнить программы. Некоторые говорили, что помощник похож на маленького ребёнка, который не понимает сложных вещей, другие сравнивали его со старым человеком, который плохо слышит.

Один из участников отметил, что «нельзя говорить слишком долго, потому что помощник отвлекается», а другой участник сказал, что запросы должны быть не длиннее 10 слов. При этом многие утверждали, что помощник лучше человека, потому что он «знает всё» и объективен — у него нет ни эмоций, ни чувств.

Если вспомнить примеры использования пользовательских интерфейсов будущего в научной фантастике, можно отметить, что отсутствие эмоций часто описывалось как недостаток, а лейтенант Дейта был одним из самых популярных героев «Звёздного пути». Однако объективность и отсутствие необходимости беспокоиться о чувствах компьютера — это преимущество.

Пользователи считают, что помощник не может ответить на сложные вопросы

Сложные вопросы чаще всего считаются невозможной задачей для голосовых помощников. По мнению участников, запросы нужно разбивать на несколько частей. Участница рассказала, что однажды у неё не получилось узнать у Siri и Alexa, когда следующий концерт Adele в Нью-Йорке.

Другой пользователь заметил: «Вы можете говорить с голосовым помощником только как с ребёнком. Сложные вопросы не работают. Погода, математика, спорт, даты, интернет — пожалуйста, но он не сможет оплатить за вас налоги и даже заказать вам пиццу». (Обратите внимание, что аналогия с ребёнком является ещё одним примером антропоморфизации помощника.)

Ещё один участник сказал, что самым сложным запросом оказалась просьба напомнить что-то сделать в определённом месте.

Однако у некоторых людей создалось ощущение, что помощники могут ответить и на сложные вопросы, если научиться правильно их задавать. Один из участников сравнил голосового помощника с файловой системой с множеством файлов: главный трюк заключается в том, чтобы найти правильные вопросы, которые дадут доступ к информации в этой базе данных.

Другой участник исследования пожаловался, что не хочет думать о том, как правильно задать вопрос. Многие отметили, что используют голосового помощника, чтобы повысить свою эффективность: если с помощью помощника можно сделать что-то быстрее, чем самостоятельно, тогда стоит им воспользоваться. Эта мысль говорит многое о когнитивной модели пользователей — взаимодействие с помощником должно быть быстрым.

Например, легче установить таймер с помощью Siri или Alexa, а посмотреть загруженность дороги в Монток в выходной день быстрее, воспользовавшись Waze или Google Maps на компьютере. Это решение было основано на «анализе затрат и результатов», сопоставляющем, сколько усилий нужно приложить для общений с голосовым помощником и насколько вероятно, что помощник справится с задачей.

Пользователи не доверяют интерпретациям, субъективным мнениям и суждениям

Все участники исследования отметили, что они не заинтересованы в использовании «умных» помощников для поиска информации, основанной на мнениях (например, рекомендаций). Наши участники скептически воспринимали любую задачу, связанную с суждением или мнением.

«Я бы никогда не спросил помощника об этом», — самый распространённый ответ касательно задач, связанных с личной или очень субъективной информацией (например, «на сколько дней стоит ехать в Прагу»). Один пользователь сказал: «Я бы почитал форум о Праге для местных жителей, я не хочу вести себя как обычный турист».

Тем не менее участники скептически относились не только к субъективной информации. Один пользователь считал маловероятным, что Alexa сможет рассказать ему, кто был лучшим игроком «Бостон Селтикс» во вчерашней игре, потому что это подразумевало бы интерпретирование.

Этот участник изначально сформулировал свой запрос для Alexa как «Кто набрал наибольшее количество очков в последней игре Celtics?». Когда Alexa не смогла ответить на его вопрос, он изменил его на: «Предоставь мне статистику игрока в последней игре Celtics» (оба вопроса с объективно верным ответом, не подразумевающим личной оценки).

Один из участников отметил ещё одно ключевое различие между голосовыми помощниками и людьми: голосовые помощники не просят вас разъяснить вопрос, если он не до конца понятен. Люди обычно реагируют на неоднозначное заявление новыми вопросами, но «умные» помощники пытаются обработать запрос без получения дополнительной информации.

Пользователи считают, что помощник лучше всего работает с фактами

Участники исследования часто отмечали, что некоторые простые задачи хорошо подходят для голосового помощника. Лучше всего, по мнению людей, работают запросы, основанные на фактах: проверка погоды, определение возраста знаменитостей, составление маршрута до пункта назначения с заранее известным названием или просмотр результатов спортивных соревнований.

Модели мышления

Один из вопросов, который мы задавали нашим участникам, касался того, что их голосовой помощник узнал о них. Ответ был всегда один — «немногое». Участники чувствовали, что помощник может отслеживать некоторые из своих поисковых запросов и использовать эту информацию, но они не думали, что помощник тщательно адаптирует своё поведение на основе этой информации, чтобы работать лучше.

Некоторые считали, что эти программы просто ищут информацию в интернете и выступают в качестве голосового интерфейса для Google. Другие считали, что существует список предварительно запрограммированных действий, на которые программы могут реагировать — и что-либо вне этого предварительно созданного меню не будет работать.

У кого-то из участников сложилось мнение, что эти помощники не являются действительно «умными» или даже не представляют собой форму искусственного интеллекта, так как они не могут «осмыслять» запросы или творчески решать новые задачи.

Один из участников сказал: «Неправильно называть его искусственным интеллектом, потому что это неправда. То, что он может сделать, несложно. Он не обучается. Люди видят слова “искусственный интеллект”, и у них появляются неоправданные ожидания. Например, беспилотные автомобили — это ИИ. Это уже ближе».

Другой человек подобным образом высказался об Alexa: «Существует разница между тем, чтобы знать что-то и понимать это. Вы можете сказать: “Помидор — это фрукт”, и помощник не поймёт, что его не стоит добавлять во фруктовый салат. Я не думаю, что программа понимает такие вещи. Возможно, когда-нибудь компьютеры начнут обучаться таким вещам. Сейчас, я думаю, всё работает с помощью слов-триггеров: одно слово в сочетании с другим словом даёт определённый ответ. Если вы возьмёте первое слово и объедините его с другим словом, ответ будет другим».

Проблемы, связанные с доверием и конфиденциальностью

Участники нашего исследования испытывали ряд сложностей при использовании голосовых помощников:

  • опасения за личное пространство и неловкость в присутствии других людей;
  • запись информации и передача в облако;
  • последствия непонимания запроса пользователя;
  • ошибки, которые могут привести к неправильной работе смартфона;
  • чрезмерное использование трафика.

Одна из главных проблем, озвученных в исследовании, заключалась в том, что голосовые помощники передавали запись в облако. Несколько пользователей отнеслись скептически (или с откровенным недоверием) к утверждению, что программы только слушают запрос.

Во время интервью после исследований некоторые участники сообщили, что видели контекстную рекламу вещей, которые они обычно не покупают, после того как упомянули их в разговоре рядом со своим голосовым помощником.

Некоторые из участников сказали, что они даже участвовали в неофициальных тестах этой гипотезы: они упоминали выдуманное новое хобби около динамика смартфона или компьютера и затем через какое-то время видели рекламу соответствующих товаров.

Некоторые пользователи также полагали, что голосовые помощники записывали и передавали полные аудиофайлы (а не краткую версию данных о том, что они сказали) в облако для интерпретации. Один пользователь был очень удивлён, что Google Assistant смог воспринять диктовку (и отлично справился с работой), когда телефон не был подключён к интернету.

Участники сообщили, что использование программы вызывает неудобства, когда ошибка или недоразумение могут иметь последствия. Наиболее распространёнными примерами были неправильные покупки или неприятности в время использования помощника для работы.

Один пользователь рассказал, как диктовал письмо для рабочей переписки по дороге домой из метро и чуть позже застыл в панике, когда заметил, что программа заменила что-то, что он сказал, неуместным словом. Он сказал: «Мой телефон словно превратился в живую гранату в руке — мне теперь пришлось очень осторожно её разрядить».

Другой пользователь рассказал, что у него установлен смарт-кондиционер, но он не стал бы использовать его с Alexa, потому что он не уверен, что программа сможет правильно поддерживать нужную температуру дома. Он добавил: у него есть домашние животные, и он беспокоится, что если программа даст сбой, они могут задохнуться от жары: «Я забочусь о своих животных, я бы не стал доверять их Alexa».

Перспективы «умных» помощников

Хотя в научно-фантастических фильмах и сериалах — от «Космической одиссеи 2001 года» до «Она» — можно увидеть множество примеров того, как люди с комфортом используют голосовых помощников для решения целого ряда сложных задач (особенно связанных с интерпретацией, суждением или субъективным мнением), участники нашего исследования не доверяли помощникам сложные задачи и не верили, что они справятся с такими запросами.

Несмотря на то, что эти системы совершенствуются, интеграция новых функций происходит достаточно медленно: в нашей предыдущей статье на эту тему мы отмечали, что пользователи обращают внимание лишь на небольшое количество функций, доступных в «умных» помощниках, и что им часто приходится запоминать формулировки запросов, которые срабатывают.

Интеграция новых, ранее недоступных опций — сложный процесс, поскольку большинство пользователей обычно игнорирует инструкции, уведомления об обновлениях и советы.

Хотя эти системы совершенствуются, пользователям сложно изменить свои модели мышления и начать пользоваться новыми возможностями. Модели мышления пользователей, как правило, намного более стабильны, чем набор функций постоянно обновляемого продукта, поэтому здесь появляется уловка-22: пользователи не знают, что системы могут обрабатывать более сложные запросы, чем раньше, и поэтому они не используют их для тех задач, уменьшая тем самым объём данных, необходимых для улучшения работы программ.

Другими словами, есть вероятность, что появление «умных» помощников с низким уровнем юзабилити может помешать использованию значительно улучшенных помощников в будущем.

Хотя «умные» помощники постоянно совершенствуют способность правильно понимать речь пользователя, определённая модель мышления людей и некоторые социальные факторы не позволяют пользователям взаимодействовать с этими системами естественным образом. Проблемы доверия и ожидания пользователей этих программ приводят к тому, что их используют в основном для диктовки или поиска простых фактов.

Добавить комментарий