Falls Sie es gestern verpasst haben, Apple hat uns gerade unseren ersten offiziellen Blick auf iOS 16 gegeben. Natürlich hat es es nicht wirklich so genannt – wie im letzten Jahr hat das Unternehmen mehrere bevorstehende Verbesserungen der Barrierefreiheit seiner Betriebssysteme hervorgehoben und gesagt nur dass sie „später in diesem Jahr mit Software-Updates für alle Apple-Plattformen“ kommen. Das ist im Grunde Code für iOS 16, iPadOS 16, watchOS 9 und macOS 13.
Während die von Apple angekündigten Funktionen fantastische Verbesserungen für Menschen mit verschiedenen Seh-, Sprach- oder motorischen Beeinträchtigungen sind, sprechen sie auch für einige allgemeine Verbesserungen – insbesondere in den Bereichen KI und maschinelles Lernen – die wir wahrscheinlich in den nächsten Generationen von Apples Betriebssystemen sehen werden. Wenn wir uns die Ankündigungen durchlesen, sind hier einige der wichtigsten Fortschritte, die wir in iOS 16 erwarten können:
Live-Untertitel = Bessere Spracherkennung
Android hat seit Version 10 eine Funktion für Live-Untertitel, und jetzt wird Apple sie drei Jahre später erhalten. Wenn diese Einstellung aktiviert ist, produziert Ihr iPhone oder Mac (sofern Apple-Silizium vorhanden ist) automatisch Untertitel in Echtzeit für buchstäblich alle Audioinhalte, einschließlich Videos, FaceTime-Anrufe, Telefonanrufe und mehr. Es ist eine natürliche Erweiterung der Sprachverarbeitung auf dem Gerät, die letztes Jahr in iOS 15 eingeführt wurde, aber es spricht für eine große Verbesserung der Raffinesse dieser Funktion.
Wir hoffen, dass dies Siris Verständnis Ihrer Befehle und Diktate verbessert, aber man könnte leicht sehen, dass diese Funktionen an anderen Stellen auftauchen. Nehmen wir zum Beispiel die Notes-App, wo man sich eine „Transkriptions“-Funktion vorstellen kann, um Text aus jeder Audioaufnahme oder jedem Video zu erstellen. Wenn Apple es als Barrierefreiheitsfunktion in Rechnung stellt, muss die Transkription von Live Caption absolut solide sein, und es eröffnet eine Welt voller Möglichkeiten für den Rest von iOS 16.
Apple Watch-Spiegelung = AirPlay-Verbesserungen
Eine weitere Zugänglichkeitsfunktion, die später in diesem Jahr eingeführt wird, ermöglicht es Ihnen, Ihre Apple Watch auf Ihrem iPhone zu spiegeln und das Display Ihres iPhones zur Steuerung Ihrer Uhr zu verwenden zusätzliche Zugänglichkeitsfunktionen.
Apple wird die Apple Watch-Spiegelung später in diesem Jahr zulassen – dank neuer AirPlay-Fortschritte.
Manzana
Die Apple Watch-Spiegelung hat jedoch auch faszinierende Auswirkungen. Laut Apple nutzt die Funktion „Hardware- und Softwareintegration, einschließlich Fortschritten, die auf AirPlay basieren.“ Das tut es nicht Notwendig bedeutet, dass wir so etwas wie AirPlay 3 sehen werden, aber es hört sich so an, als ob es einige Verbesserungen für AirPlay geben wird, wahrscheinlich in Form von neuen Frameworks für Entwickler.
Insbesondere scheint dies den Geräten zu ermöglichen, die Kontrollabsicht auf eine Weise zu kommunizieren, die AirPlay derzeit nicht tut. AirPlay überträgt Audio und Video auf Geräte und ermöglicht einfache Steuerungen (Wiedergabe/Pause, Lautstärke usw.), aber AirPlay-kompatiblen Geräten zu erlauben, erweiterte Touch-Steuerungen zu signalisieren, scheint neu zu sein und könnte zu einigen unglaublichen neuen Funktionen führen.
Hier ist ein Killer-Szenario: Wenn Apple Ihre Apple Watch auf Ihr iPhone spiegeln und Ihnen erlauben kann, vollständig damit zu interagieren, könnte es wahrscheinlich Ihr iPhone auf Ihren Mac oder Ihr iPad spiegeln und dasselbe tun! Das allein wäre ein bahnbrechendes Feature.
Türerkennung = Erkennung von realen AR-Objekten
Apple verbessert seit einiger Zeit heimlich seine Objekterkennung. Zum Beispiel können Sie in der Fotos-App nach allen möglichen Dingen suchen und Bilder erhalten, die diese enthalten, und iOS 15 hat eine nette visuelle Suchfunktion hinzugefügt, die die Kamera verwendet, um Pflanzen und Tiere, berühmte Sehenswürdigkeiten, Kunstwerke und andere Dinge zu identifizieren.
Jetzt hat Apple angekündigt, dass es die Möglichkeit hinzufügen wird, Türen in Echtzeit mit der Magnifier-App zu erkennen, einschließlich der Beurteilung ihrer Entfernung und des Lesens von Text darauf. Es ist nur für Geräte mit LiDAR (was den Messbereich betrifft), spricht aber für eine umfassendere Verbesserung der Objekterkennung.

Die Kamera des iPhones wird bald erkennen können, ob Türen geöffnet sind.
Manzana
Der naheliegendste Anwendungsfall sind Augmented-Reality-Brillen oder -Goggles, die frühestens im nächsten Jahr auf den Markt kommen sollen. Aber Apple hat bereits ein robustes ARKit-Framework für Entwickler, das für AR-Apps verwendet wird, und es beinhaltet die Fähigkeit, bestimmte Alltagsgegenstände zu erkennen und zu verfolgen. Und es wäre für Apple nicht untypisch, eine Vorschau auf neue Technologien zu geben, die noch eine Weile nicht auf den Markt kommen.
Es scheint vernünftig anzunehmen, dass die Türerkennungsfunktion eine natürliche Erweiterung der Arbeit ist, die Apple bereits in der Augmented-Reality-Szenen- und Objekterkennung leistet. Seien Sie also nicht überrascht, wenn Sie auf der WWDC eine Demo der neuen ARKit-Framework-Funktionen für Entwickler sehen. Es könnte in iOS 16 mit neuen AR-Apps beginnen, aber es wird sich auch in viel größeren Projekten zeigen, da Apple seine AR-Softwaretools weiter in Richtung einer möglichen Integration in AR-Brillen marschiert.