Neue Abzock-Methoden mit künstlicher Intelligenz
Vorsicht vor Betrugsmaschen
Kriminelle wenden immer raffiniertere Methoden an, um an Geld zu kommen. Dabei greifen sie auf modernste Technologien mit künstlicher Intelligenz zurück. Sie erzeugen zum Beispiel Deep Fakes, lassen also täuschend echte Videos, Bilder und Tonspuren von Computern generieren. Wenn Ihr von einer bekannten Stimme kontaktiert werdet, die Euch in außergewöhnlicher Weise um Geld oder Online-Zugangsdaten bittet, insbesondere in angeblichen Notfällen, solltet Ihr äußerst vorsichtig sein. Diese Stimme könnte von einem vermeintlichen Freund, einem Verwandten oder sogar von Eurem Sparkassen-Finanzberater stammen. Es ist möglich, dass Betrüger bereits Tonaufnahmen dieser Stimme aus dem Internet oder durch persönliche Anrufe gesammelt haben. Mit diesen Tonaufnahmen können KI-Tools neue Sätze generieren, manchmal sogar in Echtzeit.
Dennoch sind diese Fakes (noch) nicht perfekt. Die gefälschten Stimmen können einen leicht metallischen Klang haben, und die Aussprache kann monoton wirken. Legt im Zweifelsfall auf und ruft die Person unter einer Euch bekannten Telefonnummer zurück. Meldet jeden Vorfall sofort der Polizei. Sollten Euch vertrauliche Informationen entlockt worden sein, zögert nicht, Euch umgehend mit der MBS in Verbindung zu setzen. Am besten im KundenServiceCenter unter 0331 89 89 89 oder per Mail an service@mbs.de.
Aktuelle Sicherheitshinweise zu Betrugsmaschen findet Ihr immer auf unserer Webseite.
Dieser Beitrag erschien zuerst im Kundenmagazin sanssouci, Ausgabe November 2023
Schreibe einen Kommentar