Scam-Anrufe per KI erkennen: Datenschützer halten Googles Vorstoß für gefährlich
Android soll einen betrügerischen Anruf künftig per KI während des Telefonats erkennen. Datenschützer warnen vor der Technologie dahinter.
Google hat am 14. Mai 2024 eine neue KI-Funktion für Android vorgestellt, mit der das mobile Betriebssystem betrügerische Anrufe während eines Telefonats künftig automatisch erkennen und Nutzer warnen soll. Obwohl die Schutzwirkung des Features für Anwender durchaus zu begrüßen ist und die dafür nötige Gesprächsanalyse auf dem Endgerät selbst stattfindet, zeigen sich Datenschützer besorgt: Gewarnt wird vor möglichen Gefahren, die von der Technologie ausgehen.
Laut Google kommt für die Erkennung der Scam-Anrufe Gemini Nano zum Einsatz. Die KI soll während eines Telefonats Gesprächsmuster erkennen, die üblicherweise mit Betrug in Verbindung gebracht werden. Nutzer sollen in Echtzeit gewarnt werden.
Das werde der Fall sein, wenn der Gesprächspartner aufgefordert werde, "dringend Geld zu überweisen, eine Zahlung mit einer Geschenkkarte vorzunehmen oder persönliche Daten wie Karten-Pins oder Passwörter" auszuhändigen, erklärt Google. Der Schutz finde auf dem Endgerät statt und Unterhaltungen der Nutzer blieben damit "privat", betont der Konzern.
Umstrittene Funktion
Meredith Whittaker hält die neue Funktion für "unglaublich gefährlich", sie ebne den Weg für das umstrittene Client-Side-Scanning, warnt die Präsidentin der verschlüsselten Messaging-App Signal auf X. Um das Prinzip auf die Erkennung weiterer Muster anzuwenden – um Whistleblower aufzuspüren – sei es nur ein "kleiner Schritt".
Auch der Kryptografie-Experte Matthew Green ist besorgt. "In Zukunft werden KI-Modelle Ihre Texte und Anrufe analysieren, um illegales Verhalten zu erkennen und zu melden", sagt er in einem X-Beitrag.
Der Datenschutzexperte Lukasz Olejnik begrüßt zwar Googles Bemühungen, gegen Scam-Anrufe vorzugehen, warnt jedoch ebenfalls vor den Risiken, die mit der dafür entwickelten Technologie einhergehen. Diese lasse sich auch einsetzen, um Anrufe oder Texte auf illegale, schädliche, hasserfüllte oder anderweitig unerwünschte oder ungerechte Inhalte zu durchsuchen.
Olejnik sieht darin eine "große Bedrohung für die Privatsphäre, aber auch für eine Reihe von Grundwerten und Freiheiten". In Software und Betriebssysteme eingebaute KI-Tools könnten dafür eingesetzt werden, "verschiedene Formen menschlicher Aktivitäten zu erkennen oder zu kontrollieren", ergänzte er bei Techcrunch.
"Dies ist wahrscheinlich eine der gefährlichsten informationstechnischen Möglichkeiten, die jemals entwickelt wurden", so der Experte. Damit lasse sich das Verhalten von Gemeinschaften gezielt steuern.
Enkeltrick usw. Gab es nicht mal Untersuchungen, dass Smartphones schon jetzt...
Eine Wanze in jedem Gerät, die automatisch die Gespräche analysiert und dann an das...
Es sagt keiner, dass du in der Lage wärst, das Client-Side-Scanning ein- oder...
Wennn indischer Akzent dann gleich Scam.