
Apple schraubt weiter an Siri und probiert laut Bericht intern eine Funktion aus, mit der der Assistent mehrere Aufträge in einer Anfrage abarbeiten kann. Statt nacheinander nach Wetter, Termin und Nachricht zu fragen, soll eine kombinierte Anweisung reichen. Aktuell braucht Siri für so etwas noch einzelne Kommandos, auch wenn Folgefragen ohne erneutes „Hey Siri“ laufen.
Die Mehrfachabfragen sind Teil der nächsten großen Softwarewelle mit iOS 27, iPadOS 27 und macOS 27, die für dieses Jahr geplant ist. Intern geht es Apple darum, Siri näher an aktuelle KI-Assistenten zu bringen, die solche Sammelbefehle schon länger beherrschen. Ziel ist ein Assistent, der mehr Kontext versteht, etwa persönliche Daten, Inhalte auf dem Display oder laufende Apps.
Gezeigt werden soll das Paket aus neuem Siri und den Apple-Intelligence-Funktionen zur WWDC am 8. Juni. Apple hatte bereits im Juni 2024 eine aufgebohrte Siri-Version in Aussicht gestellt, den Start dann aber mehrfach verschoben. Laut Berichten ist der Rollout jetzt für den Herbst angepeilt. Offiziell kommentiert Apple die Pläne natürlich nicht.
Im Hintergrund ändert sich auch die Form, wie Siri bedient wird. Der Assistent soll sich stärker wie ein Chatbot verhalten, inklusive eigener App, davon hörten wir ja schon in früheren Berichten. Außerdem arbeitet Apple an einer Funktion, mit der Siri Webinhalte direkt anzapft und zusammenfasst. Intern läuft das unter dem Namen World Knowledge Answers und soll über das hinausgehen, was aktuell über die Anbindung an ChatGPT möglich ist.
Parallel experimentiert Apple mit einer überarbeiteten Tastatur. Die Autokorrektur soll alternative Formulierungen und Wörter vorschlagen, grob in der Richtung von Tools wie Grammarly. Ob dieses Feature tatsächlich freigeschaltet wird, ist laut Insidern noch offen. Die bestehenden Algorithmen für die Autokorrektur hat Apple in den letzten iOS-Versionen ohnehin schon nachgebessert.
Ein weiterer Baustellenpunkt sind die Siri-Extensions. Darüber soll der Assistent künftig direkter mit Diensten aus dem App Store sprechen können, statt nur über die ChatGPT Schiene zu laufen. Das würde Drittanbieter stärker ins System holen und mehr Aufgaben aus Apps heraus per Stimme erlauben. Muss man mal sehen, was in der Beta so startet, bin gespannt.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.