Apple Intelligence: Der Apple-Vorteil
Durch die geschlossene Plattform und die M-Chips hat Apple schon zu Anfang einige Vorteile gegenüber der Konkurrenz. Die neue KI-Strategie ist clever.
Lange Zeit hat Apple sich zum Thema KI bedeckt gehalten. Viele stellten sich die Frage, ob das Unternehmen hier nicht den Anschluss verloren habe. Auf der Hausmesse WWDC 2024 hat das Unternehmen nun sein KI-Vorhaben enthüllt: Apple Intelligence. Doch wie genau will der Konzern KI auf seinen Geräten und im Apple-Ökosystem integrieren? Und wie setzt er dabei Apple Silicon ein, seinen großen Vorteil gegenüber Konkurrenten wie Microsoft und Google?
- Apple Intelligence: Der Apple-Vorteil
- Geschlossene Server mit Apple Silicon
Auf den ersten Blick erinnert die Funktionalität von Apple Intelligence an Microsofts Copilot. Mittels KI-gestützter Software sollen User sprachlich und über Texteingaben mit ihren Geräten interagieren können. Ein iPhone kann so etwa Nachrichten priorisieren, Schreibtools können Texte selbst verfassen, zusammenfassen oder editieren.
Zudem soll es einen Bildgenerator geben, der auch auf Kontakte und andere personalisierte Informationen zugreifen kann. KI-Systeme sollen Einstellungen auf Geräten vornehmen und so einige Arbeitsschritte erleichtern. Dabei nimmt die Software den jeweiligen Kontext mit in die Analysen auf und kann Aktionen bestimmten Menschen zuordnen.
Das Problem mit dem Datenschutz
All diese Funktionen benötigen teilweise umfassenden Zugriff auf persönliche Daten. Schließlich sollen Apple-Geräte etwa auch auf die angezeigten Elemente auf dem Bildschirm zugreifen können. Apple könnte hier auf ähnliche Kritik stoßen wie Microsoft mit dem Recall-Feature, das Screenshots auf Windows 11 anlegt und lokal abspeichert.
Apple Intelligence wird deshalb in drei Stufen unterteilt und von Grund auf auf das Apple-Ökosystem zugeschnitten. Die Geschlossenheit und Interoperabilität zwischen verschiedenen Apple-Geräten kann hier als Vorteil genutzt werden.
Funktionen für Text, Bild und Kontext sollen in der ersten Ebene auf den Geräten selbst verarbeitet werden. Das gilt für iPads, iPhones und Macs.
Apple hat hier einen weiteren signifikanten Vorteil gegenüber dem sehr diversen Markt der Windows- und Android-Geräte. Mit Apple Silicon hat das Unternehmen schon seit der M1-Generation einheitliche Coprozessoren für KI-Aufgaben, Apple nennt sie Neural Engine, in Geräten integriert. Auch iPhones mit Bionic-Chip, etwa dem A17 Pro, sind seit vielen Jahren damit ausgestattet. Nur wurde dieser Teil der Hardware bisher nicht wirklich gebraucht.
Lokales Modell für einfache Tasks
Das soll sich mit Apple Intelligence ändern. Dafür wird ein lokal gespeichertes KI-Modell mit 3 Milliarden Parametern entwickelt, das möglichst latenzarm Antworten geben kann. Laut Apple soll das Modell auf dem A17-Pro-Chip des iPhone 15 für einen Prompt-Token etwa 0,6 Millisekunden benötigen. Eine Anfrage besteht allerdings oft aus mehreren Tokens. Je nach Prompt kann sich die Antwortzeit also ändern.
Wie alle anderen Modelle des Herstellers wurde es mit dem AXlearn-Framework trainiert, das auch auf Github einsehbar ist. Das lokale Modell kann auf ein Vokabular von 49.000 Wörtern zugreifen. Zunächst konzentriert es sich allerdings auf die englische Sprache. Weitere Sprachen würden das Modell komplexer machen. Bisher hat Apple nicht mitgeteilt, inwiefern der Ansatz mit dem lokal gespeicherten Modell erweiterbar ist.
Effizient soll es trotzdem sein. Die Hardware legt dafür einen semantischen Suchindex für wichtige Informationen an und speichert sie lokal. Mithilfe dieser Informationen wissen KI-Modelle, welche Aktionen und Kontexte mit bestimmten Personen oder Apps zusammenhängen. Das soll die Geschwindigkeit und Fähigkeiten von lokaler KI verbessern.
Allerdings funktioniert dieser Ansatz nicht immer.
Geschlossene Server mit Apple Silicon |
- 1
- 2
Apple I gabs doch nur wenige, Apple II war der Renner. TGIF hh
Deswegen versucht man es als nächstes ja nicht mehr mit Algorithmen sondern mit ML. :)