Як показують останні події, за такими інтерфейсами потрібен "око та око". В буржунете зараз на слуху гучний фейл розумного динаміка Amazon Echo. в який вбудований голосовий помічник Alexa. Це пристрій самостійно замовило в інтернет-магазині дорогий продукт через те, що з знаходиться поруч включеного телевізора прозвучала фраза: "Alexa замовила мені ляльковий будиночок".
Але це тільки "квіточки". На думку експертів, такими темпами до повстання машин рукою подати. Фахівці з кібербезпеки з Каліфорнійського університету в Берклі (США) вважають. що дуже скоро хакери навчаться зламувати пристрої з підтримкою Google Now і Amazon Alexa за допомогою спеціальних команд. При цьому зловмисники будуть використовувати не тільки команди в чутному діапазоні, але приховані голосові команди, які можуть бути не помічені користувачами.
Хакери також можуть використовувати цю вразливість для отримання інформації про точне місцезнаходження жертви (наприклад, ініціювавши публікацію прив'язаного до локації поста через соцмережу). Голосового помічника також можна змусити відкрити веб-сторінку з шкідливою програмою.
Причому проблема криється не стільки в ризик обходу системи розпізнавання голосу, скільки в прихованих командах. Наприклад, поганий хлопець, проходячи повз жертви, може відтворити аудіозапис в чутному діапазоні. У цьому випадку власник пристрою просто скасує команду. Але якщо при зломі будуть використовуватися звуки, які людським вухом сприймаються як шум, власник пристрою навіть не дізнається про напад.