Während der WWDC23-Keynote letzte Woche wurden von Apple mehrere neue Betriebssysteme vorgestellt, so auch iOS 17 fürs iPhone. Doch nicht alle der präsentierten neuen Funktionen und Einstellungen sind für alle kompatiblen Modelle gedacht. Obwohl ab einschließlich dem iPhone XR und iPhone XS alle Modelle ab 2018 mit iOS 17 ausgestattet werden können, so werden einige Features erst ab dem iPhone 12 bzw. dessen Pro-Version von 2020 nutzbar. Hier findet ihr eine entsprechende Übersicht.
Kapitel in diesem Beitrag:
- 1 iOS 17 Features, die nicht mit allen iPhones funktionieren
- 2 Möglicher Grund: Neural Engine bringt erst ab dem A14 genug Leistung
- 3 Ähnliche Beiträge
- 4 Was bringt iOS 19 aufs Apple iPhone? (Gerüchteküche)
- 5 iPhone 6s und 2018er Mac mini jetzt auf der „Vintage“-Liste
- 6 PDF Secure: Am iPhone PDFs mit Passwort versehen oder sie davon befreien
- 7 Fenstermanagement und Produktivität: iPadOS 19 soll näher an macOS rücken
- 8 Qi2-Ladegerät mit Lüfter: Perfekt für den Sommer oder kompletter Quatsch?
- 9 Apple Karten im Web – Jetzt auch auf dem iPhone nutzbar
- 10 Mit MagSafe und Qi2: Pitaka Powerbank fürs iPhone ausprobiert
- 11 Anleitung: iPhone Umgebungsmusik-Wiedergabelisten anzeigen und ändern
iOS 17 Features, die nicht mit allen iPhones funktionieren
iOS 17 bringt etliche Neuerungen und verbesserte Funktionen aufs iPhone. So kann man das Apple-Smartphone etwa horizontal an einer Ladestation als Informations- und Steuerdock fürs Smart Home nutzen. Es wird eine Journal- bzw. Tagebuch-App geben, Kontaktposter zeigen Bilder oder Memojis von Kontakten an, Check-In sorgt für mehr Sicherheit auf dem Heimweg, und mehr. Doch gerade was die Kamera angeht, gibt es ein paar Modell-Beschränkungen:
- Die Gesten-Reaktionen, bei denen AR-Effekte wie Feuerwerk oder Konfetti mit Handzeichen ausgelöst werden, setzen mindestens das iPhone 12 voraus. Am Mac wird der Apple Silicon oder das iPhone 12 oder neuer als Webcam dafür benötigt.
- Die Vorschläge für Wörter- und Satzvervollständigungen setzen mindestens ein iPhone 12 voraus und sind zudem vorerst nur auf Englisch verfügbar.
- Die „Zeigen und Sprechen“-Bedienungshilfe, dank der man die iPhone-Kamera auf ein Objekt mit Tasten, Bedienungsfeldern oder anderen Inhalten richtet, auf einen Inhalt zeigt und diesen dann vorgelesen / beschrieben bekommt, setzt ein Pro-Modell ab 2020 voraus, also iPhone 12 Pro (Max), iPhone 13 Pro (Max) oder iPhone 14 Pro (Max). Denn dafür wird der LiDAR-Scanner benötigt.
Möglicher Grund: Neural Engine bringt erst ab dem A14 genug Leistung
Neben dem LiDAR-Scanner, der das erste Mal am iPhone 12 Pro (Max) zum Einsatz kam und der für die oben genannte Bedienungshilfe benötigt wird, ist wahrscheinlich das SoC ein Grund für die aufgelisteten Einschränkungen. Denn die Algorithmen und Prozesse für die Augmented Reality, welche für die Gesten-Reaktionen zum Einsatz kommen, werden mit der Neural Engine berechnet. Diese wurde mit dem A11 Bionic Chip in 2017 das erste Mal eingeführt, bringt aber scheinbar erst mit dem A14 Bionic Chip aus 2020 genug Rechenpower für die Gesten-Effekte sowie für die Satzvervollständigung. Die Neural Engine des A14 soll 80% mehr Leistung bringen als die des A13 (Quelle).
Ähnliche Beiträge
Johannes hat nach dem Abitur eine Ausbildung zum Wirtschaftsassistenten in der Fachrichtung Fremdsprachen absolviert. Danach hat er sich aber für das Recherchieren und Schreiben entschieden, woraus seine Selbstständigkeit hervorging. Seit mehreren Jahren arbeitet er nun u. a. für Sir Apfelot. Seine Artikel beinhalten Produktvorstellungen, News, Anleitungen, Videospiele, Konsolen und einiges mehr. Apple Keynotes verfolgt er live per Stream.