Apple: Das kann das nächste iPhone-System

Mit einer moderneren Optik und neuen Funktionen gibt Apple einen Ausblick auf die kommende Software für iPhones, iPads, Macs und Apple Watches. Die Geräte werden nun zu Echtzeit-Dolmetschern.

Ab jetzt wird alles einfacher. Zumindest, was die Namen angeht. Wer bisher beim Durchzählen der Software-Version bei Apples Geräten schon einmal durcheinander gekommen ist, darf nun aufatmen. Ab sofort orientieren sich die Namen an den Jahreszahlen. Im Herbst kommen iOS 26 für die iPhones, iPad 26 für die iPads, macOS 26 – und so weiter. Für einige Monate also muss man etwas in die Zukunft rechnen, dann passt es.

Zum Start seiner hauseigenen Entwicklerkonferenz WWDC im kalifornischen Cupertino hat Apple neben den neuen Namen auch eine neue Optik vorgestellt, das nach eigenen Worten umfänglichste Re-Design seit 2013. Apple nennt sein neues Designmaterial „Liquid Glass“. Bedienelemente, Navigation, App-Symbole, Widgets und sogar Benachrichtigungen sind durchscheinend, passen sich dem Hintergrund dynamisch an und lassen noch erahnen, was dort gezeigt wird.

Hier zeigt sich, dass Apple detailverliebt ist. Der Konzern nimmt sich viel Zeit, um sein Design in allen Ausprägungen vorzuführen. Doch primär geht es eher um eine optische Verfeinerung, die das Nutzererlebnis zwar verschönert, aber keine fundamentalen Interaktionen verändert.

iOS mit Live-Übersetzung

Für Nutzer dürften die neuen Funktionen interessanter sein, die im Herbst auf ihre Geräte kommen. Der Konzern hat eine ganze Menge davon präsentiert. So werden die iPhones mit iOS 26 in der Lage sein, Nachrichten-Chats und Anrufe live übersetzen zu können. Bei FaceTime-Anrufen werden die übersetzten Live-Untertitel angezeigt und bei Telefonaten wird die Übersetzung sogar gesprochen. Dabei muss der Gesprächspartner noch nicht einmal ein iPhone nutzen. Diese Funktionen laufen laut Apple vollständig auf dem Gerät und nicht in der Cloud, um die Privatsphäre zu schützen. Eine ähnliche Funktion hatte Samsung Anfang vergangenen Jahres bei seinem Galaxy S24 eingeführt.

Apple hatte bereits im vergangenen Jahr seine visuelle Intelligenz präsentiert, bei der die Kamera Objekte erkennt und Informationen dazu gibt. Künftig wird die Funktion erweitert, um den Bildschirminhalt des iPhones zu analysieren. Nutzer können beispielsweise ChatGPT Fragen zum Bildschirminhalt stellen oder ähnliche Produkte auf Plattformen wie Etsy suchen, indem sie Elemente hervorheben. Auch das Erkennen von Terminen auf dem Bildschirm und der Vorschlag, diese dem Kalender hinzuzufügen, gehören dazu. All dies erinnert stark an Google Lens und die Google-Funktion Circle to Search.

Mehrere iPhone-Anwendungen wurden überarbeitet. So sind in der Kamera-App viele Einstellungen für Fotos und Videos endlich leichter erreichbar. Auch die Telefon-App sieht frischer aus. Wer bei einem Anruf in einer Warteschlange landet, kann sich vom iPhone künftig benachrichtigen lassen, wenn eine echte Person den Anruf entgegennimmt. In der Nachrichten-App gibt es neue Optionen für Hintergründe und die Möglichkeit, Umfragen zu erstellen, die von Apple Intelligence vorgeschlagen werden können. Die Apple-Music-App ist nun auch in der Lage, Songtexte live zu übersetzen. Apple Maps lernt bevorzugte Pendelrouten und benachrichtigt frühzeitig den Nutzer, wenn es auf der Strecke eine Verzögerung gibt.

iPad kann jetzt auch Fenster

Apple hat schon in der Vergangenheit versucht, das iPad als Alternative zum Arbeiten mit dem Computer einzuführen. Doch erst mit iPadOS 26 erhält das Gerät zum ersten Mal ein echtes Fensterverwaltungssystem, bei dem Nutzer Anwendungen frei in der Größe anpassen, platzieren und zwischen ihnen wechseln können. Funktionen wie Tiling per Wischgeste, Exposé zur Übersicht aller offenen Fenster und eine neue Menüleiste sollen das Multitasking verbessern. Bisherige iPad-Nutzer dürften die Änderungen als überfällig empfinden.

Viele der neuen iPhone-Funktionen, darunter auch die Live-Übersetzung, werden auch auf dem iPad verfügbar sein. Verbessert wird die Dateien-App, mit einer aktualisierten Listenansicht, anpassbaren Ordnern mit Farben und Symbolen sowie der Möglichkeit, Ordner ins Dock zu ziehen. Die aus macOS bekannte App Preview kommt auf das iPad und bietet Funktionen zum Anzeigen, Bearbeiten und Markieren von PDFs und Bildern.

Zwar hatte das iPad bisher auch schon eine FaceTime-App, doch nun kommt noch eine Telefon-App hinzu, wie man sie vom iPhone kennt. Wer auf dem iPad Videos schneidet, wird sich über die Möglichkeit freuen, rechenintensive Aufgaben im Hintergrund ausführen zu können. Überhaupt wird die Audio- und Video-Produktion aufgewertet, weil nun auch eine flexible Audio-Eingangssteuerung pro App und Website möglich ist. Auch Audioaufnahmen mit AirPods sollen sich besser anhören.

MacBook als Telefon

Auch das neue Update für Apples MacBooks und iMacs mit dem Namen macOS Tahoe 26 wird im neuen „Liquid Glass“-Design gestaltet. Für Nutzer dürfte aber das neue Spotlight interessanter sein, das zu einem zentralen Werkzeug des Systems wird. Spotlight ist jetzt nicht mehr nur eine Suchfunktion, sondern entwickelt sich zu einer echten Steuerzentrale für den Mac. Eine der größten Neuerungen ist die Möglichkeit, Hunderte von Aktionen direkt aus Spotlight heraus auszuführen, ohne dafür die jeweilige App öffnen zu müssen. So können Nutzer direkt aus Spotlight heraus E-Mails verfassen, Notizen anlegen, Podcasts abspielen oder Termine erstellen. Auch System- und App-Aktionen wie das Aktivieren von Bluetooth oder das Stellen eines Timers sind jetzt direkt über Spotlight möglich.

Die Suche selbst ist deutlich intelligenter geworden. Spotlight sortiert die Ergebnisse jetzt nach persönlicher Relevanz und lernt aus den Gewohnheiten der Nutzer, sodass ihnen häufig benötigte Aktionen und Kontakte schneller vorgeschlagen werden. Mit neuen Filteroptionen kann die Suche gezielt eingegrenzt werden, zum Beispiel auf PDFs, E-Mails oder Dateien aus bestimmten Cloud-Diensten.

Mit dem neuen macOS bekommen die Computer nun auch eine Telefon-App, auf die Anrufe vom iPhone weitergeleitet werden können, inklusive der bekannten Funktionen wie Anrufliste, Voicemails und Anruffilter. Live-Aktivitäten vom iPhone erscheinen nun auch in der Menüleiste des Macs, was einen schnellen Überblick über Echtzeit-Informationen wie Flugstatus ermöglicht und die Interaktion über das Spiegeln des iPhones erlaubt. Natürlich ist die Live-Übersetzung auch auf den Macs verfügbar.

Realistischere Avatare

Kleinere Veränderungen gibt es auf der Apple Watch und der Apple Vision Pro. watchOS 26 bringt einen Work-out Buddy auf die Uhr, der auf Grundlage von früheren und aktuellen Fitnessdaten während des Work-outs per Stimme den Nutzer motivieren soll. Auch auf der Uhr werden ein- und ausgehende Nachrichten auf Wunsch live übersetzt. Die Apple Watch kann künftig automatisch die Lautstärke von Benachrichtigungen je nach Umgebungsgeräuschen anpassen. Zum ersten Mal bekommt die Uhr auch eine Notizen-App von Apple.

Auf der Apple-Brille können Nutzer Widgets im Raum platzieren, beispielsweise eine Uhr an der Wand. Selbst nach einem Neustart der Brille finden Nutzer die Widgets dort wieder, wo sie platziert wurden. Apple hat in der Vergangenheit versucht, das Gesicht von Nutzern mit der Brille zu scannen, um sie als digitale Abbilder beispielsweise in FaceTime-Anrufen übertragen zu können. Die Qualität ließ jedoch zu wünschen übrig, Anwender fanden das oftmals befremdlich. Nun sollen jedoch diese Personas, wie Apple die Abbilder nennt, realistischer und ausdrucksstärker werden.

Mit visionOS 26 unterstützt die Vision Pro nun die native Wiedergabe von 180-Grad- und 360-Grad-Videos von Kameras der Hersteller Insta360, GoPro und Canon. Außerdem kann die Apple-Brille künftig mit den Playstation VR2 Sense Controllern genutzt werden, um Spiele zu steuern.

Thomas Heuzeroth ist Wirtschaftsredakteur in Berlin. Er berichtet über Verbraucher- und Technologiethemen, Unterhaltungselektronik und Telekommunikation.