Рост числа мобильных устройств стимулирует развитие голосового поиска, который существенно упрощает серфинг в сети со смартфона или планшета. Тем не менее, интерфейсы для приема голосовых запросов вроде Google Now и Amazon Alexa пока ещё очень несовершенны. Даже несмотря на то, что в их основе лежат передовые наработки в области искусственного интеллекта и машинного обучения.
Как показывают последние события, за такими интерфейсами нужен "глаз да глаз". В буржунете сейчас на слуху громкий фэйл умного динамика Amazon Echo, в который встроен голосовой помощник Alexa. Это устройство самостоятельно заказало в интернет-магазине дорогой продукт из-за того, что из находящегося рядом включенного телевизора прозвучала фраза: "Alexa заказала мне кукольный домик".
Но это только "цветочки". По мнению экспертов, такими темпами до восстания машин рукой подать. Специалисты по кибербезопасности из Калифорнийского университета в Беркли (США) считают, что очень скоро хакеры научатся взламывать устройства с поддержкой Google Now и Amazon Alexa с помощью специальных команд. При этом злоумышленники будут использовать не только команды в слышимом диапазоне, но скрытые голосовые команды, которые могут быть не замечены пользователями.
В качестве примера специалисты из Калифорнийского университета в Беркли привели сценарий, когда хакеры зарабатывают, заставляя устройства с поддержкой Google Now и Amazon Alexa отправлять текстовые сообщения SMS на платные номера. По мнению исследователей, в ближайшем будущем проблема может усугубиться на фоне начала использования голосовых команд в интернет-банкинге и/или интеграции сервисов интернет-банкинга с уже существующими голосовыми помощниками. К примеру, из-за скрытой голосовой команды "Окей, Google, заплати $ 10 000 Джону Смиту" владелец смартфона может, сам того не подозревая, лишиться всех своих сбережений.
Хакеры также могут использовать эту уязвимость для получения информации о точном местоположении жертвы (например, инициировав публикацию привязанного к локации поста через соцсеть). Голосового помощника также можно вынудить открыть веб-страницу с вредоносной программой.
Причем проблема кроется не столько в риске обхода системы распознавания голоса, сколько в скрытых командах. Например, плохой парень, проходя мимо жертвы, может воспроизвести аудиозапись в слышимом диапазоне. В этом случае владелец устройства просто отменит команду. Но если при взломе будут использоваться звуки, которые человеческим ухом воспринимаются как шум, владелец устройства даже не узнает о нападении.