Apple hat acht Modelle seiner OpenELM-Familie (Open-source Efficient Language Models) veröffentlicht. Sie sind Open Source und auf Hugging Face verfügbar. Die acht Modelle wurden mithilfe Apples eigener CoreNet-Bibliothek trainiert und vier von ihnen sind auf Instruktionen trainiert. Apple hat den gesamten Code und Trainingsprotokolle der Modelle veröffentlicht.
Es ist bisher nicht klar, ob und wie Apple die LLMs einsetzen wird. In den eigenen Benchmarks von Apple schneidet das Modell ziemlich durchschnittlich ab, zumindest die 3B-Token-Version. Auf dem Open-LLM-Leaderboard würde es dort nicht die Top-Plätze einnehmen. Die kleinen Modelle wirken aber sehr vielversprechend, sollen sie ja lokal laufen. Mal abwarten, was Apple noch bringt. Offen gesagt glaube ich nicht, dass das die Modelle sind, die wir in iOS 18 sehen werden.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.