Vorsicht vor „Voice-Hacking“

Vorlesen lassen? ↑↑⇑⇑↑↑ | Lesedauer des Artikels: ca. 2 Minuten -

Die spanische Polizei warnt vor einer gefährlichen Form des Betrugs, dem so genannten „Voice Hacking“. Bei dieser Technik wird künstliche Intelligenz (KI) eingesetzt, um Stimmen zu imitieren. Die Betrüger verwenden aufgezeichnete Stimmen von Opfern, um glaubwürdige Audionachrichten zu erstellen. Auf diese Weise versuchen sie, von Familienmitgliedern oder Freunden Geld zu erpressen, indem sie sich als das Opfer ausgeben.

Nach Angaben der Polizei sammeln die Kriminellen Audioaufnahmen aus sozialen Medien oder anderen öffentlichen Quellen. Mit Hilfe von künstlicher Intelligenz verwandeln sie diese Aufnahmen dann in lebensechte, falsche Stimmen. So können sie sich überzeugend wie ein Familienmitglied oder ein Freund anhören und beispielsweise behaupten, in Not zu sein.

Ein bekanntes Beispiel für „Voice-Hacking“ ist der Fall einer amerikanischen Frau, die im Jahr 2023 einen Anruf erhielt, in dem behauptet wurde, ihre Tochter sei entführt worden. Es wurde ein Lösegeld von 50.000 Dollar gefordert. Es stellte sich jedoch heraus, dass die Tochter in Sicherheit war und die Frau einem Betrug zum Opfer gefallen war.

Lesetipp:  Trump hat Pläne für einen Angriff auf den Iran genehmigt?
Vorsicht vor „Voice-Hacking“

Auch in Kanada gab es einen Vorfall, bei dem ein älteres Ehepaar betrogen wurde. Eine falsche Stimme, die sich wie ihr Enkel anhörte, verlangte Geld für eine Kaution, nachdem er angeblich verhaftet worden war. Glücklicherweise entdeckten sie den Betrug, bevor sie das Geld überweisen konnten.

Die Polizei und das spanische Nationale Institut für Cybersicherheit (INCIBE) empfehlen, Vorsichtsmaßnahmen zu treffen. Einige Tipps sind:

Seien Sie misstrauisch bei verdächtigen Anrufen: Überprüfen Sie die Identität des Anrufers, insbesondere wenn Geld oder persönliche Daten verlangt werden.
Legen Sie einen Geheimcode fest: Vereinbaren Sie mit Familienmitgliedern und Freunden ein Codewort, um die Echtheit von Anrufen zu überprüfen.
Schützen Sie Ihre Daten: Geben Sie keine persönlichen Informationen in sozialen Medien weiter und beschränken Sie die Verwendung Ihrer Stimme in öffentlichen Videos.
Bleiben Sie wachsam gegenüber der Technologie: Informieren Sie sich über die Funktionsweise von künstlicher Intelligenz und wie sie für Betrügereien genutzt werden kann.

Voice Hacking“ ist Teil eines größeren Trends von Betrugstechniken, wie z.B. ‚Vishing‘, bei dem sich Kriminelle am Telefon als Banken oder Behörden ausgeben. Der Einsatz von künstlicher Intelligenz bei diesen Betrügereien erschwert die Unterscheidung zwischen echt und unecht.

Quelle: Agenturen