home

Apple stellt lokale LLM im Foundation Models‑Framework vor

Apple präsentiert im Juni 2025 das Foundation Models‑Framework für macOS/iOS 26, das eine lokale, offline lauffähige LLM bereitstellt. Diese LLM ermöglicht typische Aufgaben wie Textgenerierung, kurze Geschichte schreiben, Coding‑Beispiele und historische Infos – jedoch ist die Leistung deutlich geringer als bei führenden Cloud‑LLMs.

Key Takeaway

Apple bietet mit dem Foundation Models‑Framework in macOS/iOS 26 eine lokale, offline lauffähige LLM an, die zwar schneller und zugänglicher ist als herkömmliche Online‑Modelle, jedoch deutlich weniger leistungsfähig, stärker eingeschränkt und hauptsächlich für Entwickler in Swift gedacht.

Summary

  • Ankündigung & Veröffentlichung – Präsentiert von Apple im Juni 2025, in iOS/macOS 26 im September 2025 verfügbar. Teil von „Apple Intelligence“, eines neuen Frameworks für lokale KI‑Modelle.
  • Funktionalität – Ermöglicht typische LLM‑Aufgaben wie Textgenerierung, kurze Geschichte schreiben, Coding‑Beispiele und historische Infos. Leistungsumfang vergleichbar mit einem einfachen lokalen Modus, nicht mit führenden Cloud‑LLMs wie ChatGPT vergleichbar.
  • Limitierungen – Nicht dafür konzipiert, Siri als Offline‑Backup zu ersetzen oder ein freies Chat‑Interface zu bieten. Deutlich weniger „flüssig“ und interaktiv – Nutzer bemerken schnell den Unterschied zu Cloud‑Modellen. Eingeschränkte Nutzung durch Apples “Acceptable Use Requirements”, die den Einsatz stark regulieren.
  • Anforderungen für Nutzer – Betriebssystem: iOS 26.0+ oder macOS 26.0+. Apple Intelligence muss aktiviert sein. Gerät muss Apple Silicon besitzen.
  • Entwicklungsumfeld – Xcode 26 als Entwicklungsplattform. Das Beispielprojekt Quack (GitHub: zdgeier/quack) zeigt einen einfachen, in weniger als einer Stunde geschriebenen Swift‑Chat‑App‑Code.
  • Alternative Open‑Source‑ProjekteApple-Intelligence-Chat (PallavAg), FoundationChat (Dimillian), Foundation-Models-Framework-Example (rudrankriyam). Diese Projekte demonstrieren bessere Chat‑Interfaces und sind empfehlenswerter für praktische Anwendungen als das Beispiel von Quack.
  • Zukunfts‑Potenzial – Offline‑Funktionalität ermöglicht Nutzung ohne ständige Internetverbindung. Einschränkungen hinsichtlich Plattform (nur Apple‑Geräte) und Sprache (Swift), sowie begrenzte API‑Verfügbarkeit könnten die Verbreitung hemmen.

Related queries

Welche Einschränkungen gelten laut Apples Acceptable Use Requirements für Foundation Models?
Wie lässt sich die lokale LLM via Foundation Models in einer Swift-App nutzen?
Gibt es alternative Open‑Source‑Chat-Apps, die das Framework nutzen?

Quelle: https://zdgeier.com/macoschat.html