Gesichter sind das nächste Ziel für Betrüger

Gesichter sind das nächste Ziel für Betrüger

BANGKOK. Hacker gehen neue Wege, um Gesichtserkennungssysteme auszutricksen, vom Ausschneiden der Augen aus Fotos bis hin zum „Nicken“ eines Porträts mit künstlicher Intelligenz.

Gesichtserkennungssysteme, die seit langem als schnelle und zuverlässige Methode zur Identifizierung von Mitarbeitern und Hotelgästen angepriesen werden, sind im Fadenkreuz der digitalen Betrüger.

 

Gesichter sind das nächste Ziel für Betrüger
Gesichter sind das nächste Ziel für Betrüger

Laut ID.me haben Tausende von Menschen solche Masken und Attrappen verwendet, um die Verifizierung der Gesichtserkennung zu täuschen.

 

Seit Jahren warnen Forscher vor den Schwachstellen der Technologie, doch jüngste Pläne haben ihre Befürchtungen bereits bestätigt – und die schwierige, aber notwendige Aufgabe der Verbesserung der Systeme unterstrichen.

Im vergangenen Jahr haben Tausende von Menschen in den USA versucht, die Verifizierung der Gesichtserkennung auszutricksen, um betrügerisch Arbeitslosengeld von staatlichen Arbeitsagenturen in Anspruch zu nehmen, so die Identitätsüberprüfungsfirma ID.me Inc.

Das Unternehmen, das Gesichtserkennungssoftware verwendet, um Einzelpersonen im Namen von 26 US-Bundesstaaten zu verifizieren, gibt an, dass es zwischen Juni 2020 und Januar 2021 mehr als 80.000 Versuche gefunden hat, den Selfie Schritt bei der Identifizierung von Regierungsausweisen unter den Agenturen, mit denen es zusammengearbeitet hat, zu täuschen.

Dazu gehörten auch die Menschen, die spezielle Masken trugen, Deepfakes verwendeten – lebensechte Bilder, die von KI generiert wurden – oder Bilder oder Videos anderer Personen hochhielten, sagt Blake Hall, der CEO von ID.me.

Die Gesichtserkennung für die Eins-zu-Eins Identifikation ist zu einer der am häufigsten verwendeten Anwendungen der künstlichen Intelligenz geworden, die es den Menschen ermöglicht, Zahlungen über ihr Telefon zu tätigen, Passkontrollsysteme zu durchlaufen oder sich als Arbeiter zu verifizieren.

Die Fahrer von Uber Technologies Inc. müssen beispielsweise regelmäßig nachweisen, dass sie lizenzierte Kontoinhaber sind, indem sie Selfies auf ihren Telefonen aufnehmen und sie an das Unternehmen hochladen, das das Gesichtserkennungssystem von Microsoft Corp. verwendet, um sie zu authentifizieren.

Uber, das das Selfie Verifizierungssystem weltweit einführt, tat dies, weil es mit den Fahrern zu kämpfen hatte, die sein System hackten, um ihre Konten zu teilen.

Uber lehnte bis jetzt eine Stellungnahme zu ihrem gehackten System ab.

Amazon.com Inc. und kleinere Anbieter wie Idemia Group SAS, Thales Group und AnyVision Interactive Technologies Ltd. verkaufen Gesichtserkennungssysteme zur Identifizierung. Die Technologie funktioniert, indem ein Gesicht abgebildet wird, um einen sogenannten Gesichtsabdruck zu erstellen. Die Identifizierung einzelner Personen ist in der Regel genauer als das Erkennen von Gesichtern in einer Menschenmenge.

Dennoch hat diese Form der biometrischen Identifizierung auch ihre Grenzen, sagen Forscher.

Warum Kriminelle die Gesichtserkennung täuschen

Analysten des Kreditbewertungsunternehmens Experian PLC sagten in einem Sicherheitsbericht vom März, dass sie erwarten, dass Betrüger zunehmend sogenannte „Frankenstein Gesichter“ erstellen und KI verwenden, um die Gesichtsmerkmale von verschiedenen Personen zu kombinieren, um eine neue Identität zu bilden, um die Gesichts-ID-Systeme zu täuschen.

Die Analysten sagten, die Strategie sei Teil einer schnell wachsenden Art von Finanzkriminalität, die als synthetischer Identitätsbetrug bekannt ist, bei der Betrüger echte und gefälschte Informationen kombinieren, um eine neue Identität zu schaffen.

Bis vor kurzem waren es Aktivisten, die gegen die Überwachung protestierten, die Gesichtserkennungssysteme ins Visier nahmen. Datenschutzbeauftragte in Großbritannien zum Beispiel haben ihre Gesichter mit asymmetrischem Make-up bemalt, das speziell entwickelt wurde, um die Gesichtserkennungssoftware zu verschlüsseln, die die Kameras antreibt, während sie durch städtische Gebiete gehen.

Kriminelle haben mehr Gründe, dasselbe zu tun, von der Gesichtsfälschung, um auf die digitalen Geldbörsen ihrer Telefone zuzugreifen, bis hin zu Hochsicherheitseingängen in Hotels, Geschäftszentren oder Krankenhäusern, so Alex Polyakov, der CEO von Adversa.ai, einem Unternehmen, das eine sichere KI erforscht.

Jedes Zugangskontrollsystem, das menschliche Sicherheitsleute durch Gesichtserkennungskameras ersetzt habe, sei potenziell gefährdet, sagt er und fügt hinzu, dass er Gesichtserkennungssoftware durch das Tragen einer speziell entwickelten Brille oder eines Pflasters verändert habe, um zu glauben, jemand anderes zu sein.

Eine wachsende Bedrohung

Die Idee, diese automatisierten Systeme zu täuschen, reicht bereits mehrere Jahre zurück.

Im Jahr 2017 versuchte ein männlicher Kunde der Versicherungsgesellschaft Lemonade, seine KI für die Beurteilung von Ansprüchen zu täuschen, indem er eine blonde Perücke und einen Lippenstift anzog und ein Video hochlud, in dem es hieß, dass seine 5.000 Dollar Kamera gestohlen wurde.

Die KI-Systeme von Lemonade, die solche Videos auf Anzeichen von Betrug analysieren, markierten das Video als verdächtig und stellten fest, dass der Mann versuchte, eine gefälschte Identität zu erstellen.

Er habe zuvor unter seinem normalen Deckmantel erfolgreich einen Anspruch geltend gemacht, teilte das Unternehmen in einem Blog Beitrag mit.

Lemonade, das auf seiner Webseite sagt, dass es Gesichtserkennung verwendet, um Behauptungen zu kennzeichnen, die von derselben Person unter verschiedenen Identitäten eingereicht wurden, lehnte einen Kommentar ab.

Anfang dieses Jahres beschuldigten Staatsanwälte in China zwei Personen, mehr als 77 Millionen Dollar gestohlen zu haben, indem sie eine gefälschte Briefkastenfirma gegründet haben, die vorgibt, Ledertaschen zu verkaufen, und betrügerische Steuerrechnungen an ihre angeblichen Kunden geschickt haben.

Das Paar war in der Lage, offiziell aussehende Rechnungen zu versenden, indem es das Gesichtserkennungssystem des lokalen Finanzamts täuschte, das eingerichtet wurde, um Zahlungen zu verfolgen und Steuerhinterziehung zu bekämpfen, so die Staatsanwälte, die in einem März Bericht im Xinhua Daily Telegraph zitiert wurden .

Die Staatsanwälte teilten in einem Posting im chinesischen Chat-Dienst WeChat mit, die Angreifer hätten den Gesichtserkennungsdienst der lokalen Regierung mit selbst erstellten Videos gehackt.

Die Staatsanwaltschaft von Shanghai war für eine Stellungnahme nicht zu erreichen.

Das Paar kaufte hochauflösende Fotos von Gesichtern von einem Online Schwarzmarkt und erstellte dann mit einer App Videos aus den Fotos, um es so aussehen zu lassen, als würden die Gesichter nicken, blinzeln und den Mund öffnen, heißt es in dem Bericht.

Das Duo mit den Nachnamen Wu und Zhou benutzte ein spezielles Mobiltelefon, das seine nach vorne gerichtete Kamera ausschaltete und die manipulierten Videos hochlud, wenn es ein Video-Selfie für Shanghais Steuersystem aufnehmen sollte, das Gesichtserkennung verwendet und Steuererklärungen beglaubigt, heißt es in dem Bericht.

Wu und Zhou waren nach den Angaben der Staatsanwaltschaft bereits seit 2018 in Betrieb.

Das Spoofing eines Gesichtserkennungssystems erfordert laut John Spencer, dem Chief Strategy Officer des biometrischen Identitätsunternehmens Veridium LLC, nicht immer eine ausgeklügelte Software.

Eine der häufigsten Methoden, um ein Face ID-System zu täuschen oder einen sogenannten Präsentationsangriff durchzuführen, besteht darin, ein Foto von einem Gesicht zu drucken und die Augen auszuschneiden, wobei das Foto als Maske verwendet wird.

Viele Gesichtserkennungssysteme, wie sie von Finanzhandelsplattformen verwendet werden, überprüfen, ob ein Video eine lebende Person zeigt, indem sie ihre zwinkernden oder sich bewegenden Augen untersuchen.

Die meiste Zeit, sagt Mr. Spencer, könnte sein Team diese und andere Taktiken anwenden, um die Grenzen von Gesichtserkennungssystemen zu testen und manchmal das Papier „Gesicht“ zu falten, um ihm mehr Tiefe zu verleihen.

„Innerhalb einer Stunde mache ich fast alle [diese Systeme] kaputt“, sagt er.

Die Face ID von Apple Inc., die 2017 mit dem iPhone X eingeführt wurde, gehört laut den Wissenschaftlern zu der am schwersten zu täuschenden Software.

Seine Kamera projiziert mehr als 30.000 unsichtbare Punkte, um eine Tiefenkarte des Gesichts einer Person zu erstellen, die sie dann analysiert und gleichzeitig ein Infrarotbild des Gesichts aufnimmt.

Mit dem Chip des iPhones verarbeitet es dieses Bild dann zu einer mathematischen Darstellung, die es mit seiner eigenen Datenbank der Gesichtsdaten eines Benutzers vergleicht, so die Apple Webseite.

Auf der Webseite des Unternehmens heißt es, dass die Daten von Face ID aus Datenschutzgründen niemals ein iPhone verlassen, sagt eine Apple-Sprecherin.

Einige Banken und Finanzdienstleistungsunternehmen verwenden Gesichtserkennungsdienste von Drittanbietern und nicht das Face ID-System von Apple, um ihre Kunden über ihre iPhone Apps anzumelden, sagt Mr. Spencer. Dies ist möglicherweise weniger genau, fügte er weiter hinzu.

„Am Ende schaut man sich normale Kameras auf einem Mobiltelefon an“, sagt er. „Es gibt keine Infrarotfunktion, keine Punktprojektoren.“

Viele Online Banken bitten ihre Benutzer, Video-Selfies zusammen mit einem Foto ihres Führerscheins oder Reisepasses hochzuladen und dann die Gesichtserkennungssoftware eines Drittanbieters zu verwenden, um das Video mit dem Ausweis abzugleichen.

Die Bilder gehen manchmal an menschliche Prüfer, wenn das System einen Fehler meldet, sagt Mr. Spencer.

Auf der Suche nach einer Lösung

Herr Polyakov testet regelmäßig die Sicherheit von Gesichtserkennungssystemen für seine Kunden und sagt, dass es zwei Möglichkeiten gibt, solche Systeme vor Täuschungen zu schützen.

Eine besteht darin, die zugrunde liegenden KI-Modelle zu aktualisieren, um sich vor neuartigen Angriffen zu schützen, indem die Algorithmen, die ihnen zugrunde liegen, neu gestaltet werden. Die andere besteht darin, die Modelle mit so vielen Beispielen wie möglich der veränderten Gesichter zu trainieren, die sie fälschen könnten, die als gegnerische Beispiele bekannt sind.

Leider kann es zehnmal mehr Bilder dauern, bis ein Gesichtserkennungsmodell trainiert wird, um es auch vor Spoofing zu schützen – ein kostspieliger und zeitaufwändiger Prozess.

„Für jede menschliche Person müssen Sie die Person mit der gegnerischen Brille mit einem gegnerischen Hut hinzufügen, damit dieses System alle Kombinationen kennt“, sagt Herr Polyakov.

Unternehmen wie Google, Facebook und Apple arbeiten an Möglichkeiten, Präsentationsangriffe zu verhindern, so die Analyse von Herrn Polyakovs Firma von mehr als 2.000 wissenschaftlichen Forschungsarbeiten zum Thema KI-Sicherheit.

Facebook beispielsweise kündigte letzten Monat an, ein neues Tool zur Erkennung von Deepfakes herauszubringen.

Mr. Hall von ID.me sagt, dass sein Unternehmen im vergangenen Februar fast alle betrügerischen Selfie Versuche auf den Regierungsseiten stoppen konnte, wodurch die Zahl der Millionen von Forderungen auf eine einstellige Zahl reduziert wurde.

Das Unternehmen konnte bestimmte Masken besser erkennen, indem es Bilder als betrügerisch bezeichnete und das Gerät, die IP-Adressen und die Telefonnummern wiederholter Betrüger über mehrere gefälschte Konten hinweg verfolgte, sagt er.

Es prüft jetzt auch, wie das Licht eines Smartphones die Haut einer Person oder ein anderes Material reflektiert und mit ihr interagiert. Auch die Versuche der Gesichtsfälschung sind zurückgegangen.

„[Angreifer] sind in der Regel nicht bereit, ihr wahres Gesicht zu verwenden, wenn sie ein Verbrechen begehen“, sagt Hall.

 

  • Quelle: Bangkok Post