Während der WWDC23-Keynote letzte Woche wurden von Apple mehrere neue Betriebssysteme vorgestellt, so auch iOS 17 fürs iPhone. Doch nicht alle der präsentierten neuen Funktionen und Einstellungen sind für alle kompatiblen Modelle gedacht. Obwohl ab einschließlich dem iPhone XR und iPhone XS alle Modelle ab 2018 mit iOS 17 ausgestattet werden können, so werden einige Features erst ab dem iPhone 12 bzw. dessen Pro-Version von 2020 nutzbar. Hier findet ihr eine entsprechende Übersicht.
Kapitel in diesem Beitrag:
iOS 17 Features, die nicht mit allen iPhones funktionieren
iOS 17 bringt etliche Neuerungen und verbesserte Funktionen aufs iPhone. So kann man das Apple-Smartphone etwa horizontal an einer Ladestation als Informations- und Steuerdock fürs Smart Home nutzen. Es wird eine Journal- bzw. Tagebuch-App geben, Kontaktposter zeigen Bilder oder Memojis von Kontakten an, Check-In sorgt für mehr Sicherheit auf dem Heimweg, und mehr. Doch gerade was die Kamera angeht, gibt es ein paar Modell-Beschränkungen:
- Die Gesten-Reaktionen, bei denen AR-Effekte wie Feuerwerk oder Konfetti mit Handzeichen ausgelöst werden, setzen mindestens das iPhone 12 voraus. Am Mac wird der Apple Silicon oder das iPhone 12 oder neuer als Webcam dafür benötigt.
- Die Vorschläge für Wörter- und Satzvervollständigungen setzen mindestens ein iPhone 12 voraus und sind zudem vorerst nur auf Englisch verfügbar.
- Die „Zeigen und Sprechen“-Bedienungshilfe, dank der man die iPhone-Kamera auf ein Objekt mit Tasten, Bedienungsfeldern oder anderen Inhalten richtet, auf einen Inhalt zeigt und diesen dann vorgelesen / beschrieben bekommt, setzt ein Pro-Modell ab 2020 voraus, also iPhone 12 Pro (Max), iPhone 13 Pro (Max) oder iPhone 14 Pro (Max). Denn dafür wird der LiDAR-Scanner benötigt.
Möglicher Grund: Neural Engine bringt erst ab dem A14 genug Leistung
Neben dem LiDAR-Scanner, der das erste Mal am iPhone 12 Pro (Max) zum Einsatz kam und der für die oben genannte Bedienungshilfe benötigt wird, ist wahrscheinlich das SoC ein Grund für die aufgelisteten Einschränkungen. Denn die Algorithmen und Prozesse für die Augmented Reality, welche für die Gesten-Reaktionen zum Einsatz kommen, werden mit der Neural Engine berechnet. Diese wurde mit dem A11 Bionic Chip in 2017 das erste Mal eingeführt, bringt aber scheinbar erst mit dem A14 Bionic Chip aus 2020 genug Rechenpower für die Gesten-Effekte sowie für die Satzvervollständigung. Die Neural Engine des A14 soll 80% mehr Leistung bringen als die des A13 (Quelle).
Meine Tipps & Tricks rund um Technik & Apple
Ähnliche Beiträge
Johannes hat nach dem Abitur eine Ausbildung zum Wirtschaftsassistenten in der Fachrichtung Fremdsprachen absolviert. Danach hat er sich aber für das Recherchieren und Schreiben entschieden, woraus seine Selbstständigkeit hervorging. Seit mehreren Jahren arbeitet er nun u. a. für Sir Apfelot. Seine Artikel beinhalten Produktvorstellungen, News, Anleitungen, Videospiele, Konsolen und einiges mehr. Apple Keynotes verfolgt er live per Stream.