Deepfake: Ferrari-Betrug vereitelt

Security Awareness
19 August 2024

Wenn der ‚menschliche Faktor‘ einen Unterschied macht und Kriminelle fernhält! Ein umsichtiger Manager rettet Ferrari vor einem Betrugsversuch.

Sicherlich muss man dem Ferrari-Manager , der einen Betrugsversuch des Unternehmens aus Maranello vereitelt hat, Anerkennung zollen , aber schließlich hat er das getan, was jeder tun sollte: Er war wachsam, aufmerksam, wurde misstrauisch und wandte einen sehr einfachen Trick an, der das Risiko sofort beseitigte.

Es geschah an einem heißen Julitag.
Der Ferrari-Manager erhielt per WhatsApp Nachrichten von CEO Benedetto Vigna, in denen er vor einer angeblich großen Übernahme gewarnt wurde. Die Nachrichten kamen jedoch von einer unbekannten und unerkennbaren Nummer. Der Grund dafür war die Notwendigkeit, ein Höchstmaß an Diskretion zu wahren.

„Seien Sie bereit, die Geheimhaltungsvereinbarung zu unterzeichnen, die Ihnen unser Anwalt so bald wie möglich zusenden wird. Die italienische Marktaufsichtsbehörde und die Mailänder Börse sind bereits informiert worden.
H alten Sie sich bereit und bewahren Sie bitte äußerste Diskretion.“ So lautete der Tenor der Nachrichten, auf die ein Telefonanruf mit der sehr realistischen Stimme von Vigna folgte. Sogar mit dem Basilikata-Akzent des Ferrari-Chefs. Aber im Klang der Stimme bemerkte der Manager einige seltsame metallische Geräusche, eine Alarmglocke, die zusammen mit der unbekannten Nummer und dem anderen Profilbild den rettenden Schachzug auslöste: eine sehr einfache, themenfremde und sehr freundliche Frage:

„Entschuldigen Sie, Benedikt, wie lautet der Titel des Buches, das Sie mir empfohlen haben?“

Eine kalte Dusche für den Kriminellen, der den Betrug mit den neuesten Deepfake-Techniken durchführte. Und zwar so kalt, dass der Anruf sofort unterbrochen wurde und der Hacker seinen Betrugsversuch bei Ferrari sofort aufgab.

Die Episode, über die Bloomberg berichtet, unterstreicht zum einen, wie sehr das Deepfake-Tool zunehmend von Hackern genutzt wird, und zum anderen, wie viel Spielraum es gibt, sich gegen diese Art von Angriffen zu verteidigen. Zum einen, weil die von den Übeltätern verwendeten Techniken noch nicht perfekt sind und daher mit ein wenig Vorsicht erkannt werden können, und zum anderen, weil eine einfache Strategie ausreichte, um einen Angriff abzuwehren, der Ferrari großen Schaden zugefügt hätte.

Es handelt sich um Fotos, Videos und Audiodateien, die von einer Software mit künstlicher Intelligenz erstellt wurden, der es gelingt, ausgehend von realen Inhalten die Merkmale und Bewegungen eines Gesichts oder Körpers zu verändern oder nachzubilden und eine Stimme getreu zu imitieren. Diese Art von Angriffen wird immer häufiger eingesetzt und hat in der Regel auch Erfolg. Denken Sie nur an den Angriff auf ein Unternehmen in Hongkong im vergangenen Februar, das mit einer gefälschten Videokonferenz betrogen wurde, oder an den Betrug der beiden russischen Komiker Vovan und Lexus, die sich als Kommissionspräsident der Afrikanischen Union, Moussa Faki, ausgaben, um mehrere europäische Staats- und Regierungschefs anzurufen.

Der Punkt, der Experten große Sorgen bereitet, ist, dass diese Technologie, die heute noch Schwächen aufweist, in nicht allzu ferner Zukunft immer perfekter werden könnte, so dass es fast unmöglich wird, Fälschungen von der Realität zu unterscheiden und Betrügereien zu verhindern, wie sie bei Ferrari versucht wurden. Dies ist nicht nur ein Risiko für Unternehmen, sondern auch für Privatpersonen, die leicht betrogen werden können, wenn sie an der „Gefühlsfront“ angegriffen werden. Stellen Sie sich zum Beispiel vor, dass Eltern einen Anruf von einem Kind erhalten, das Geld braucht, oder dass Menschen, die technisch nicht versiert genug sind, Anrufe von Verwandten oder Freunden in Not erhalten.

Dies ist ein sehr hohes Risiko für jeden und kann alle treffen, so sehr, dass der Datenschutzbeauftragte selbst ein Informationsblatt erstellt hat, um die Benutzer auf die Risiken im Zusammenhang mit der böswilligen Nutzung dieser Technologie aufmerksam zu machen und den gefürchteten Identitätsdiebstahl zu verhindern.

Unter den wesentlichen Punkten, die der Bürge aufzählt, lesen wir:

  • Vermeiden Sie die unkontrollierte Verbreitung von persönlichen Bildern oder Bildern von geliebten Menschen. Wenn Sie Bilder in sozialen Medien posten, denken Sie daran, dass diese möglicherweise für immer online bleiben oder dass sie, selbst wenn Sie sich später entscheiden, sie zu löschen, bereits von jemandem angeeignet wurden.
  • Obwohl es nicht einfach ist, kann man lernen, ein Deepfake zu erkennen. Es gibt Elemente, die dabei helfen: Das Bild kann pixelig erscheinen (d.h. etwas „körnig“ und unscharf); die Augen der Personen können sich manchmal unnatürlich bewegen; der Mund kann deformiert oder zu groß erscheinen, während die Person bestimmte Dinge sagt; Licht und Schatten auf dem Gesicht können abnormal erscheinen.
  • Wenn Sie Zweifel daran haben, dass ein Video oder Audio ein Deepfake ist, das ohne das Wissen der betreffenden Person erstellt wurde, sollten Sie es auf jeden Fall nicht weitergeben (um den Schaden für andere Menschen durch die unkontrollierte Verbreitung nicht zu vergrößern). Und vielleicht sollten Sie das Video oder Audio als mögliche Fälschung an die Plattform melden, auf der es gehostet wird (z. B. ein soziales Netzwerk).
  • Wenn Sie der Meinung sind, dass der Deepfake in einer Weise verwendet wurde, die eine Verletzung der Privatsphäre darstellt, können Sie sich an die Polizeibehörden (z.B. die Postpolizei) oder die Datenschutzbehörde wenden, je nach Sachlage.

Generell gilt die Empfehlung, präsent und aufmerksam zu sein, niemals impulsiv zu handeln und niemandem blind zu vertrauen, insbesondere wenn Sie um Geld gebeten werden.
Selbst wenn es unser oberster Chef ist, der uns schreibt, ist es schwer, Nein zu sagen. Es ist immer besser, den Betreffenden anzurufen und sich von der Echtheit der Anfrage zu überzeugen.

Diese Verhaltensweisen sind nicht schwer zu erlernen. Es geht darum, eine Aufmerksamkeit und Sensibilität zu entwickeln, die sicherlich durch effektive und maßgeschneiderte Schulungen trainiert werden kann, in die es wichtiger denn je ist, Zeit und Ressourcen zu investieren.

Ein einziger erfolgreicher Angriff reicht aus, um ein Unternehmen wie Ferrari sowohl wirtschaftlich als auch in Bezug auf seinen Ruf zu ruinieren.

Der jüngste Fall von Ferrari beweist es: ein Manager mit einer angemessenen digitalen Haltung hat das Unternehmen vor einem schlimmen Abenteuer bewahrt. Eine Bestätigung dafür, dass der menschliche Faktor als schwächstes Glied in der Kette nach wie vor am stärksten betroffen ist. Ihn zu stärken bedeutet, Menschen und Unternehmen wirklich zu schützen.

Ähnliche Artikel

Clusit Report 2024: Wichtige Daten

Clusit Report 2024: Wichtige Daten

In Italien ist das verarbeitende Gewerbe das Ziel, aber die Angriffe auf das Gesundheitswesen nehmen im Vergleich zum ersten Halbjahr 2023 um 83% zu. Die zentrale Bedeutung des menschlichen Faktors. Von der Cyber-Front kommen keine guten Nachrichten. Im Gegenteil, der...

mehr lesen