DolphinAttack: Die Sicherheitsanfälligkeit, die virtuelle Assistenten betrifft

Virtuelle Assistenten werden immer wichtiger. Jedes Mal, wenn wir mehr Assistenten auf dem Markt haben, ist es schwierig , den besten für uns auszuwählen . Zu den bekanntesten virtuellen Assistenten, die wir auf dem Markt finden, gehören Bixby , Google Assistant , Alexa , Cortana und Siri . Die Assistenten wurden immer als etwas Nützliches und Sicheres angekündigt, obwohl Letzteres bereits im Zweifel ist.

Forscher der Zhejiang-Universität in China haben eine Schwachstelle entdeckt , die alle Stimmenteilnehmer betrifft. Es ist eine Verwundbarkeit, die darin besteht, mit ihnen auf einer Frequenz zu sprechen, die das menschliche Ohr nicht hören kann. Es wurde mit einer Technik namens DolphinAttack (Delfinangriff) durchgeführt. Wir erzählen Ihnen weiter unten.

Sicherheitslücke in Voice Assistants

Durch diese Technik ist es möglich, sieben Sprachassistenten unhörbare Sprachbefehle einzugeben . Dank dessen wurden verschiedene Arten von Angriffen durchgeführt. Unter diesen war es möglich, Siri zu aktivieren, um FaceTime auf dem iPhone anzurufen . All dies ohne dass der Besitzer des Telefons es merkt. Es war auch möglich, andere Aktionen auszuführen, z. B. das Telefon in den Flugzeugmodus zu versetzen oder sogar das GPS-System eines Audi Q3 zu manipulieren .

Die Technik von DolphinAttack besteht aus dem Modulieren der Frequenz der Sprachbefehle des Menschen. Und sie wandeln sie in Ultraschallfrequenzen um. Dies ist etwas, das ein Mensch nicht erkennen kann, obwohl es die Mikrofone und Geräte der virtuellen Assistenten können. Die Forscher führten diese Tests mit Google Now, Siri von Apple, Alexa von Amazon, S Voice von Samsung, Cortana und HiVoice von Huawei durch.

Zwar ist es dem Angriff bisher nicht gelungen, böswillige Aktionen auszuführen , doch viele sehen in diesem Bereich Potenzial für Hacker. Es ist jedoch auch notwendig, dass sich die Person, der das Gerät mit dem Assistenten gehört, in der Nähe des Hackers befindet. Etwas, das die Gefahr sehr begrenzt. Wenn sich ein Hacker in der Nähe befindet, kann es jedoch möglich sein, dass Ihr Telefon eine Verbindung zu einer Website herstellt, die die Infektion bestimmter Arten von Malware verursacht . Eine der empfohlenen Lösungen ist vorerst, dass virtuelle Assistenten nicht per Sprache aktiviert werden dürfen, auch wenn der Assistent zu diesem Zeitpunkt bedeutungslos ist.

See also  Warnung: Apps, die Daten stehlen, werden intelligenter

Quelle | BGR

administrator

Leave a Reply

Your email address will not be published. Required fields are marked *