최근 버클리 대학과 조지 타운의 연구팀이 스마트 폰을 해킹 할 수있는 사운드 패턴을 정의했습니다.
버클리 대학과 조지 타운의 연구팀이 사운드 패턴을 정의했으며 모바일이 Siri, Google Now 또는 Cortana.
이 호기심 많은 발견의 배후에있는 연구자들은 인공 지능이 어떻게 다른지 모바일 플랫폼은 결론을 통해 목소리를 인식하고 새로운 공격 벡터를 생성하여 이러한 장치를 해킹하고 데이터.
모든 모바일을 해킹 할 수있는 "음성"
많은 사람들이 그것이 그렇게 나쁘지 않다고 생각할 가능성이 있지만 연구자들은 그들의 발견이 매우 위험해질 수 있음을 보여 주려고 노력했습니다. 여기에 주문을 듣는 장치가 작업을 수행 할 수 있도록하는 방법을 보여주는 비디오가 있습니다. 악성 코드를 숨길 수있는 웹 페이지를 여는 것과 같이 장치.
이것이 쇼핑몰의 스피커에서 대규모로 발생하거나 거기에있는 많은 사람들이 장치를 가지고있는 대규모 이벤트에서 발생한다고 상상해보십시오. 이 연구원들보다 덜한 사람이 공격 벡터를 사용할 수있는 잠재적 인 공격에 대해 생각해보십시오.
결국 이것은 인공 지능과 음성 인식이 아직 초기 단계에있는 기술로 요약되며, 유일한 문제는 이미 수백만 개의 장치에 존재한다는 것입니다. 이 문제의 설득력있는 사례는 최근 Amazon Echo에서 발생한 일입니다.
연구 논문을 찾을 수 있습니다. 여기,하지만 대부분은 대서양겉보기에는 "지능형"시스템, 음성 인식 및 가상 비서 (Cortana, Google Now 또는 Siri)의 취약성이 설명되어 있습니다.
진실은 우리가 생각하는 동안 주머니에 넣은 기술을 무시하고 사용한다고 생각하게 만듭니다. 누군가가 브라우저에 바이러스를 주입하거나 누군가가 다운로드해야하는 것을 허용하는 최악의 경우 아니. 다음의 대 인간 갈등은 인터넷을 통해 해결 될 것이라고합니다. Watch Dogs 시리즈는 때때로 우리에게 우리보다 훨씬 더 취약 해 보이는 연결된 세상을 보여줍니다. 상상했다.