Știm cu toții foarte bine că asistenții virtuali precum Siri, Alexa, Google Assistant etc. sunt vedetele companiilor care proiectează sisteme de operare mobile. Cu toate acestea, acum se spune că toți acești asistenți virtuali personali sunt vulnerabili la un nou atac sofisticat prin care hackerii ar putea să vă spargă cu ușurință dispozitivul.
Asistenții virtuali precum Siri, Alexa, Google Assistant etc. sunt vedetele companiilor care proiectează sisteme de operare mobile. Cu toate acestea, vocea poate să nu fie atât de necesară, cel puțin poate exista o modalitate de a subverti conceptul de „voce” prin utilizarea unui natură și, prin urmare, au un mod de a ataca dispozitivele care sunt predispuse să accepte comenzi de la om voce.
Cercetarea pe care o analizăm acum este o echipă de oameni de știință chinezi care au folosit natura naturală a delfinilor abilitatea de a se inspira dintr-un fel de atac cu ultrasunete asupra smartphone-urilor, mașinilor și virtualelor asistenți.
Aplicații precum gigantul tehnologic Apple Siri și Asistentul Google sunt pregătite să continue ascultați comenzile și începeți imediat, deși metoda de introducere a acestor comenzi nu este așa subtil. Acest lucru se datorează faptului că geneza sa este introducerea unei comenzi vocale și faptul că „strigarea” unei comenzi pentru smartphone o comandă... este orice altceva decât elegant și discret.
Astfel, Universitatea Zhejiang a decis să preia o comandă vocală standard, să o convertească pentru a fi utilizată în gama cu ultrasunete (astfel oamenii nu o pot auzi) și să vadă dacă dispozitivul reacționează la astfel de informații.
Metoda, denumită DolphinAttack, profită de faptul că urechile umane sunt inutile atunci când se confruntă cu sunete cu mult peste 20 kHz. Așa că echipa a adăugat un amplificator, traductor cu ultrasunete și baterie către un smartphone obișnuit (costul total în bucăți a fost de aproximativ 3 USD) și l-a folosit pentru a trimite comenzi cu ultrasunete la voce activată sisteme.
„Prin valorificarea neliniarității circuitelor microfonului, comenzile audio modulate de joasă frecvență pot fi„ demodulate ”, recuperat și, cel mai important, interpretat de sistemele de recunoaștere a vorbirii ”, unul dintre cercetătorii responsabili de acest lucru experienţă.
Echipa a validat DolphinAttack pe sisteme populare de recunoaștere a vorbirii, inclusiv Siri, Google Assistant, Samsung S Voice, Huawei HiVoice, Cortana și Alexa. De asemenea, testau lumea automobilelor pentru a-și demonstra conceptul, iar în sistemul de navigație auto al Audi au descoperit că folosind această metodă, vulnerabilitatea era bine cunoscută în sistem.
Deoarece controlul vocal are multe funcții posibile, echipa a fost capabilă să ceară unui iPhone să apeleze un anumit număr - ceea ce este util, dar nu la fel de util ca un atac. Cu toate acestea, ar putea solicita dispozitivului să viziteze un anumit site care ar putea conține programe malware. Această metodă ar putea chiar face ca asistenții virtuali să diminueze ecranul, astfel încât să ascundă atacul sau pur și simplu să pună dispozitivul offline, punându-l în modul avion.
Cel mai mare obstacol în atac nu depinde de software-ul de comandă vocală în sine, ci de capacitățile de captare audio ale dispozitivului. Multe smartphone-uri au în prezent mai multe microfoane, ceea ce face ca un jaf să fie mult mai eficient.
În ceea ce privește atingerea, cea mai mare distanță pe care echipa a reușit să o facă a fost de 1,7 metri, ceea ce este cu siguranță practic. De obicei, semnalul este trimis la o frecvență cuprinsă între 25 și 39 kHz.
Deci, ce părere aveți despre acest nou defect? Pur și simplu împărtășiți opiniile și gândurile dvs. în secțiunea de comentarii de mai jos.