Мы все очень хорошо знаем, что виртуальные помощники, такие как Siri, Alexa, Google Assistant и т. Д., Являются звездами компаний, разрабатывающих мобильные операционные системы. Однако теперь все эти личные виртуальные помощники считаются уязвимыми для новой изощренной атаки, с помощью которой хакеры могут легко взломать ваше устройство.
Виртуальные помощники, такие как Siri, Alexa, Google Assistant и т. Д., Являются звездами компаний, разрабатывающих мобильные операционные системы. Однако голос может быть не так необходим, по крайней мере, может быть способ ниспровергнуть понятие «голос» с помощью уловка природы, и, таким образом, иметь способ атаковать устройства, которые предрасположены принимать команды от человека голос.
Исследование, которое мы сейчас рассматриваем, - это группа китайских ученых, которые использовали естественные умение черпать вдохновение из своего рода ультразвуковой атаки на смартфоны, автомобили и виртуальные помощники.
Такие приложения, как Siri и Google Assistant от технологического гиганта Apple, готовы постоянно слушайте команды и сразу приступайте к работе, хотя способ ввода этих команд не такой тонкий. Это потому, что его происхождение - введение голосовой команды и тот факт, что «выкрикивать» команду для смартфона командой… совсем не элегантно и незаметно.
Таким образом, Чжэцзянский университет решил получить стандартную голосовую команду, преобразовать ее для использования в ультразвуковом диапазоне (чтобы люди не могли ее услышать) и посмотреть, реагирует ли устройство на такую информацию.
Метод, получивший название DolphinAttack, использует тот факт, что человеческие уши бесполезны при столкновении со звуками, превышающими 20 кГц. Таким образом, команда добавила усилитель, ультразвуковой преобразователь и аккумулятор к обычному смартфону (общая стоимость в штуках составляла около 3 долларов) и использовали его для отправки ультразвуковых команд на активируемые голосом системы.
«Используя нелинейность микрофонных схем, модулированные низкочастотные звуковые команды могут быть« демодулированы », извлечены и, что самое главное, интерпретированы системами распознавания речи », - сказал один из исследователей, ответственных за это опыт.
Команда проверила DolphinAttack на популярных системах распознавания речи, включая Siri, Google Assistant, Samsung S Voice, Huawei HiVoice, Cortana и Alexa. Они также тестировали автомобильный мир, чтобы доказать свою концепцию, и в автомобильной навигационной системе Audi они обнаружили, что при использовании этого метода уязвимость в системе была хорошо известна.
Поскольку голосовое управление имеет множество возможных функций, команда смогла попросить iPhone позвонить по определенному номеру - что полезно, но не так полезно, как атака. Однако они могут попросить устройство посетить определенный сайт, который может содержать вредоносное ПО. Этот метод может даже заставить виртуальных помощников затемнить экран, чтобы скрыть нападение, или просто отключить устройство, переведя его в режим полета.
Самое большое препятствие в атаке зависит не от самого программного обеспечения голосовых команд, а от возможностей устройства захвата звука. Многие смартфоны в настоящее время имеют несколько микрофонов, что делает ограбление намного более эффективным.
Что касается достижения, то наибольшее расстояние, на которое команда успела провести атаку, составило 1,7 метра, что, безусловно, практично. Обычно сигнал отправляется с частотой от 25 до 39 кГц.
Итак, что вы думаете об этом новом недостатке? Просто поделитесь своими взглядами и мыслями в разделе комментариев ниже.