iPhones, iPads, Macs, um Live-Untertitel auf dem Gerät zu erhalten

Ein Foto der Bedienungshilfen von Apple

Die neuesten Eingabehilfen von Apple klingen ordentlich, obwohl sie noch nicht verfügbar sind.
Bild: Apfel

Apples WWDC Die jährliche Entwicklerkonferenz rückt immer näher, also machen Sie sich bereit für jede Menge Lecks und enthüllt in Erwartung dessen, was kommen wird Cupertino. Tseine neuste Vorschau kommt direkt von Apple, in Ordnung Pressemitteilung mit Einzelheiten zu den neuen Barrierefreiheitsfunktionen des Unternehmens, kommt bald auf iOS.

Das erste der wichtigsten Funktionsangebote wird die Türerkennung sein, die so klingt, als würde sie das tun, was sie bewirbt. Benutzer mit körperlichen und motorischen Behinderungen können dies tun nutze die eingebaute Lupen-App um zu messen, wie weit eine Tür von ihrer Person entfernt ist und ob sie offen oder geschlossen ist. Die App hilft auch Menschen mit Sehbehinderungen, die Tür nach dem Firmennamen und den Öffnungszeiten zu scannen. Die Funktion ist nur auf iPhone- und iPad-Geräten mit integriertem LIDAR-Scanner verfügbar, einschließlich des iPhone 13 und 12. Dez Serie und die iPad Pro 11 Zoll.

Als nächstes wird Apple Apple Watch Mirroring in zukünftigen Versionen von iOS hinzufügen. Die Funktion ermöglicht es den Benutzern, ihre jeweiligen Apple Watch-Bildschirme über ein gekoppeltes iPhone zu sehen und anzuzeigen. Die Idee ist, denen zu helfen, die die Apple Watch finden ein unter zwei Zoll großes Display ist zu klein, um damit zu interagieren. Die einzige Einschränkung ist, dass Sie Ihre Apple Watch auf die neuesten Modelle aktualisieren müssen, da sie verfügbar sein werden Serie 6 und nur neuere Modelle.

Eine der überzeugenderen Barrierefreiheitsfunktionen, die bald verfügbar sein werden, ist die Fähigkeit von iOS, Offline-Live-Untertitel auf iPhones, iPads und Macs anzubieten. Sie sehen eine Live-Vorlesung gesprochener Worte in FaceTime-Anrufen, Video-Chats und sozialen Medien. Die Transkription erfolgt ausschließlich auf dem Gerät, anstatt die Wolke zu treffen und zu Ihnen zurückzuprallen. Apple plant auch, die Transkriptionen Apps wie FaceTime zuzuordnen. damit Sie wissen, wer was gesagt hat.

Die Live-Untertitel von Apple sind denen von Google nicht unähnlich Live-Untertitel Funktion, die auf Android-Smartphones, -Tablets und -Chromebooks verfügbar ist. Aber wie die Apple Watch Mirroring-Funktion ist sie auf neuere Geräte beschränkt, einschließlich iPhone 11 oder neuer, iPads mit dem A12 Bionic-Chip oder höher und M1-fähig Macs. Das liegt daran, dass die in diesen Modellen enthaltenen benutzerdefinierten Chips dazu beitragen, diese Art der Offline-Transkriptionsfunktion zu erleichtern.

Small, helpful features

A screenshot showing the new book themes

Apple’s new Book themes will make it easier to read on your phone.
Image: Apple

Apple will also push through a few accessibility-tinged features that are more subtle and under-the-hood compared to the new Door Detection feature and offline captions.

There will be new themes for Apple Books users that let you choose between more background colors and spacing options. This should be helpful to folks with vision impairments and even to folks like myself who suffer from chronic headaches as a result of an overly-bright blue screen.

Apple’s VoiceOver ability, which functions like Android’s TalkBack, will also gain support for an additional 20 languages and locales. This feature declares what each of the user interface elements is, including buttons and menu items. Apple currently supports 30 languages for VoiceOver on the iPhone and iPad. The additional languages will make it available to more users around the globe.

You can check out the complete list of new accessibility features coming through to the next version of iOS in the full press release. While Apple doesn’t specifically mention iOS 16 as the next version that will see these feature additions, it seems inevitable we’ll learn more at WWDC.

.

Leave a Comment