
29 мая в Москве проходит конференция Yet another Conference 2018. В ходе мероприятия директор по технологиям Яндекса Михаил Парахин рассказал, как устроена Алиса – что находится у нее «под капотом» и как она функционирует.
За распознавание голоса в сервисе отвечает технология Speechkit. При этом зачастую задача по распознаванию бывает довольно сложной: Алисе приходится иметь дело с различными затруднениями.
Чтобы научить помощницу распознавать речь, специалисты Яндекса собрали около 1 млрд голосовых сообщений за 3 года.
За формирование ответов Алисы отвечает технология Turing. Вопросы пользователей проецируются в семантическое пространство высокой размерности. На скриншоте ниже показано, как это происходит: каждая точка – это высказывание, а разными цветами обозначены различные темы.
В процессе обучения точки из одной темы становятся ближе друг к другу:
При этом разные темы плавно перетекают друг в друга. Так, тема о погоде переходит в разговор об одежде.
Выбрав ответ, Алиса должна произнести его. За это отвечает технология Text-to-speech. Специалисты Яндекса записали с актерами 360 тысяч слов, предназначенных для ответов на пользовательские вопросы. Чтобы получить голос, приближенный к человеческому, потребовалось собрать также более 1 млн фонем, а затем «пройтись» по ним нейросетью, чтобы сгладить звучание. Таким образом удалось получить речь, приближенную к человеческой.
Выступление Парахина продолжил руководитель управления машинного интеллекта Яндекса Михаил Биленко. Он сообщил о запуске платформы Яндекс.Диалоги, предназначенной для создания навыков Алисы и чатов в поиске. Через Диалоги можно подключать и ботов, и операторов – это первая гибридная платформа навыков.
Я.Диалоги были в бете последние три месяца. За это время команда Яндекса обкатала первые три когорты навыков.
Также в ходе секретного доклада Аркадий Волож презентовал Яндекс.Станцию – мультимедийную платформу со встроенной Алисой.
Стоимость устройства составит 9990 рублей. Купить его можно будет уже этим летом.
Источник: seonews.ru