Teurer Anruf

Googles AI Overview verwies Unternehmer auf Betrüger-Hotline

Google AI Overview
Bildquelle: Koshiro K/Shutterstock.com

Ein Unternehmer fiel auf eine gefälschte Kundenservice-Nummer herein, die ihm Googles KI-Übersichten anzeigten.

Alex Rivlin wollte nur schnell eine Shuttle-Buchung für seinen Europaurlaub erledigen, wie die Washington Post berichtet. Stattdessen geriet der Immobilienunternehmer aus Las Vegas in eine KI-gestützte Betrugsmasche, die zeigt, wie Betrüger moderne Technologie für alte Tricks ausnutzen.

Anzeige

Rivlin suchte über Google nach der Kundenservice-Nummer einer Kreuzfahrtgesellschaft, um einen Shuttle zum Schiff zu buchen. Die Telefonnummer, die er anrief, wurde ihm in Googles “AI Overviews” hervorgehoben präsentiert – den KI-generierten Antworten auf Suchanfragen. Am Telefon sprach er mit einem scheinbar kompetenten Mitarbeiter und gab seine Kreditkartendaten preis.

Professionelle Betrüger mit Insiderwissen

Der falsche Royal Caribbean-Kundenservice wirkte täuschend echt: Der Mitarbeiter kannte Preise und Abholstandorte für Shuttles in Venedig, hatte plausible Erklärungen für Gebühren und Trinkgelder parat und bot sogar an, bestimmte Shuttle-Gebühren zu erlassen. Rivlin zahlte 768 Dollar.

Erst als am nächsten Tag verdächtige Abbuchungen auf seiner Kreditkarte erschienen, erkannte der Unternehmer den Betrug. “Ich bin technisch versiert, und trotzdem bin ich darauf reingefallen”, sagt der Gründer der Rivlin Group.

Anzeige

Klassischer Betrug trifft auf moderne KI

Die Masche funktioniert nach einem bewährten Schema: Betrüger platzieren ihre Nummern auf Bewertungsportalen, in Foren und auf anderen Websites und geben vor, offizielle Kundenservice-Zentren zu betreiben. Wenn solche Falschinformationen oft genug als vermeintliche Wahrheit wiederholt werden, kann Googles Suchalgorithmus sie als relevant einstufen.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Google und OpenAI als unwillige Komplizen

Sowohl Googles AI Overviews als auch OpenAIs ChatGPT greifen auf ähnliche Quellen zurück wie klassische Suchmaschinen. Das macht sie anfällig für die gleichen Manipulationen durch Betrüger. Google bestätigte gegenüber der Washington Post, bei mehreren gemeldeten Fällen “Maßnahmen ergriffen” zu haben und an “umfassenderen Verbesserungen” zu arbeiten.

OpenAI erklärte, viele der problematischen Webseiten seien mittlerweile entfernt worden, es könne jedoch dauern, bis sich Änderungen in den KI-Antworten niederschlagen.

Warnung vor der neuen Betrugs-Ära

Rivlin, der seine Europareise trotz des Vorfalls genießen konnte, überwacht weiterhin seine Konten auf verdächtige Aktivitäten. Sein Fall zeigt, dass auch technisch versierte und über Betrugsmaschen informierte Menschen vor KI-gestützten Tricks nicht gefeit sind.

“Ich kann nicht glauben, dass ich darauf reingefallen bin”, sagt Rivlin. “Seid vorsichtig.” Seine Warnung kommt zur rechten Zeit: Mit der zunehmenden Verbreitung von KI-Tools dürften solche Betrugsmaschen weiter zunehmen.

Lars

Becker

Redakteur

IT Verlag GmbH

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.