Apples OpenELM-Modelle für die lokale Ausführung auf Geräten entwickelt, nicht nur für die Cloud

Gábor Bíró 26. April 2024
4 Min. Lesezeit

Apple hat OpenELM (Open Efficient Language Models) vorgestellt, eine neue Familie von Open-Source-Sprachmodellen, die speziell für die lokale Ausführung auf Geräten wie iPhones und iPads entwickelt wurden. Dies stellt eine bedeutende Abkehr von der starken Abhängigkeit von Cloud-basierten Serverprozessen dar, die für die meisten leistungsstarken KI-Modelle heute typisch ist. Obwohl Apple mit seiner Neural Engine Pionierarbeit im Bereich der On-Device-KI-Beschleunigung geleistet hat, war das Unternehmen im Bereich der großen generativen Modelle, der von Cloud-Diensten dominiert wird, weniger sichtbar. Diese Entwicklung ist ein wichtiger Bestandteil von Apples umfassenderer Strategie, fortschrittlichere KI-Funktionen direkt in seine Hardware zu integrieren, um den Datenschutz der Nutzer zu verbessern, die Latenz zu reduzieren und Offline-Funktionalität zu ermöglichen.

Apples OpenELM-Modelle für die lokale Ausführung auf Geräten entwickelt, nicht nur für die Cloud
Quelle: Apple

Die Herausforderung von On-Device-KI

Die Ausführung komplexer Large Language Models (LLMs) direkt auf Endgeräten stellt erhebliche technische Hürden dar. Moderne LLMs enthalten oft Milliarden, manchmal Billionen von Parametern – die Variablen, die das Modell während des Trainings lernt. Die Verarbeitung dieser Modelle erfordert immense Rechenleistung (komplexe Matrixmultiplikationen) und riesige Mengen an Arbeitsspeicher (RAM), allein um die Modellgewichte zu laden. Cloud-Server haben Zugriff auf leistungsstarke GPUs und nahezu unbegrenzte Ressourcen, aber mobile Geräte unterliegen strengen Beschränkungen:

  • Begrenzter RAM: Smartphones haben deutlich weniger Speicher als Server.
  • Eingeschränkte Rechenleistung: Mobile CPUs, GPUs und Neural Processing Units (NPUs wie Apples Neural Engine) sind zwar leistungsstark, erreichen aber nicht die Leistung dedizierter Server-Hardware.
  • Akkulaufzeit: Intensive Berechnungen entladen den Akku schnell.
  • Thermische Grenzen: Geräte können bei anhaltend hoher Rechenlast überhitzen.

Aufgrund dieser Einschränkungen ist die Ausführung eines wirklich "intelligenten" LLMs, das zu komplexen Schlussfolgerungen und Generierungen fähig ist, direkt auf einem Telefon extrem schwierig. Dies erfordert Kompromisse bei der Modellgröße und -fähigkeit. Genau deshalb ist die Entwicklung effizienter Modelle wie OpenELM, die für die Leistung innerhalb von Ressourcenbeschränkungen optimiert sind, für die Zukunft der On-Device-KI von entscheidender Bedeutung.

OpenELM Übersicht: Effizienz ist der Schlüssel

Die OpenELM-Modelle verwenden eine schichtweise Skalierungsstrategie, die Parameter innerhalb jeder Schicht der Transformer-Architektur effizient zuweist, um die Genauigkeit für ein gegebenes Rechenbudget zu maximieren. Zum Beispiel berichtet Apple, dass OpenELM innerhalb eines Budgets von etwa einer Milliarde Parametern eine Verbesserung der Genauigkeit um 2,36 % im Vergleich zum vorherigen OLMo-Modell erreichte, und das entscheidenderweise bei nur der Hälfte der Pre-Training-Token (Daten). Diese Effizienz ist von größter Bedeutung: Bessere Ergebnisse mit weniger Ressourcen zu erzielen, macht diese Modelle praktikabler für die direkte Ausführung auf Endgeräten, ohne den Akku übermäßig zu belasten oder das Gerät zu verlangsamen. Apple hat OpenELM in verschiedenen Größen (270M, 450M, 1,1B und 3B Parameter) veröffentlicht, sodass Entwickler die beste Lösung für die Fähigkeiten des jeweiligen Zielgeräts auswählen können.

Funktionen und Fähigkeiten

Das OpenELM-Projekt umfasst mehrere Schlüsselelemente, die es auszeichnen:

  • Open-Source-Verfügbarkeit: In einem bemerkenswerten Schritt für das Unternehmen im KI-Bereich stellt Apple OpenELM auf dem Hugging Face Hub zur Verfügung. Dies ermöglicht Entwicklern und Forschern nicht nur den Zugriff auf die Modelle zur Nutzung, sondern auch zur Untersuchung, zum Aufbau und zur Weiterentwicklung. Diese Strategie könnte Apple helfen, Fortschritte zu beschleunigen und Talente im wettbewerbsorientierten KI-Umfeld anzuziehen.
  • Umfassendes Trainings-Framework: Im Gegensatz zu vielen Modellveröffentlichungen, die nur Modellgewichte und Inferenzcode bereitstellen, liefert Apple das komplette Framework für Training und Evaluierung auf öffentlich zugänglichen Datensätzen mit. Dies umfasst Trainingsprotokolle, mehrere Checkpoints und Pre-Training-Konfigurationen, was die Transparenz und Reproduzierbarkeit erheblich verbessert.
  • Verbesserter Datenschutz und Geschwindigkeit: Durch die lokale Ausführung auf dem Gerät macht OpenELM die Übertragung potenziell sensibler Nutzerdaten zur Verarbeitung an Cloud-Server überflüssig und adressiert damit direkt Datenschutzbedenken – ein zentraler Grundsatz der Marke Apple. Darüber hinaus reduziert die lokale Verarbeitung die Netzwerklatenz, was zu schnelleren und reaktionsfreudigeren KI-gestützten Funktionen führt.

Integration mit iOS und zukünftige Perspektiven

Es wird erwartet, dass Apple OpenELM in die kommende iOS 18-Version integriert, von der erwartet wird, dass sie eine Reihe neuer KI-Funktionen einführen wird. Diese Integration wird wahrscheinlich verschiedene On-Device-KI-Funktionen unterstützen. Es ist jedoch wichtig, realistische Erwartungen zu setzen: Diese effizienten Modelle, insbesondere die kleineren Varianten, werden wahrscheinlich nicht die umfassenden Denkfähigkeiten riesiger Cloud-basierter Modelle wie GPT-4 erreichen. Stattdessen sind sie besser für spezifische, lokale Aufgaben geeignet, wie z. B. intelligente Textzusammenfassung, verbesserter prädiktiver Text, Offline-Siri-Verbesserungen, Analyse von On-Device-Inhalten (wie Fotos oder Notizen) und Generierung kontextbezogener Antworten.

Es ist möglich, dass Apple einen hybriden Ansatz verfolgen wird, bei dem OpenELM für Aufgaben eingesetzt wird, die am meisten von Geschwindigkeit und Datenschutz auf dem Gerät profitieren, während für komplexere Anfragen möglicherweise auf Cloud-basierte Modelle (vielleicht sogar von Partnern) zurückgegriffen wird. Insgesamt ist die Veröffentlichung der OpenELM-Modelle ein bedeutender Schritt zur Weiterentwicklung der On-Device-KI. Durch die Betonung von Effizienz, Datenschutz und einem Open-Source-Ansatz positioniert sich Apple, um eine prominentere Rolle in der nächsten Generation von KI zu spielen, die direkt in mobile Geräte und Endgeräte integriert wird, und nutzt dabei sein eng integriertes Hardware- und Software-Ökosystem.

Gábor Bíró 26. April 2024