Der World Accessibility Awareness Day ist Donnerstag, also hat Apple damit begonnen Newsroom-Blog Diese Woche, um mehrere wichtige neue Barrierefreiheitsfunktionen für iPhone, Apple Watch, iPad und Mac anzukündigen.
Die Live-Untertitel-Funktion wird wahrscheinlich die am häufigsten verwendete sein, die auf iPhone, Mac und iPad verfügbar sein wird. Die Funktion zeigt KI-Untertitel, die live für Sprache aktualisiert werden, die von einer beliebigen Audioquelle auf dem Telefon kommt, unabhängig davon, ob der Benutzer „in einem Telefon- oder FaceTime-Anruf ist, Videokonferenzen oder eine Social-Media-App verwendet, Medieninhalte streamt oder ein Gespräch führt mit jemand neben ihnen.“
Der Text (dessen Größe beliebig geändert werden kann) wird oben auf dem Bildschirm angezeigt und zeigt, während die Person spricht. Darüber hinaus können Mac-Benutzer Antworten eingeben und sie anderen Gesprächspartnern vorlesen lassen. Live Captions wird später in diesem Jahr auf unterstützten Geräten („iPhone 11 und höher, iPad-Modelle mit dem A12 Bionic-Chip und höher und Macs mit Apple-Silizium”) in die öffentliche Beta-Phase gehen.
Es gibt auch eine Türerkennungsfunktion. Leider funktioniert es nur auf iPhones und iPads mit einem Lidar-Sensor (wie dem iPhone 12 Pro, iPhone 13 Pro oder neueren iPad Pro-Modellen), aber es scheint nützlich für Menschen zu sein, die blind sind oder eine Sehbehinderung haben. Es verwendet die Kamera und Augmented-Reality-Sensoren des iPhones zusammen mit maschinellem Lernen, um Türen zu lokalisieren und den Benutzern laut mitzuteilen, wo sich die Tür befindet, ob sie offen oder geschlossen ist, wie sie geöffnet werden kann und was es für Schrift oder Aufkleber sein könnte.
Die Türerkennung wird sich der Erkennung von Personen und Fotobeschreibungen im neuen „Erkennungsmodus“ für blinde und sehbehinderte Benutzer in iOS und iPadOS anschließen. Der Apple-Blog-Beitrag erwähnte jedoch nicht, wann diese Funktion gestartet wird.
Weitere Ergänzungen zur Barrierefreiheit, von denen Apple sagt, dass sie sehr nahe sind, umfassen 20 neue Voice-Over-Sprachen, neue Handgesten auf der Apple Watch und eine Funktion, mit der Spieler Hilfe von einem „Freund“ mit einer anderen Spielkonsole annehmen können, ohne die Verbindung zu trennen. Darüber hinaus gibt es neue Siri- und Apple Books-Anpassungen, die darauf abzielen, die Zugänglichkeit für Menschen mit Behinderungen, Spracherkennungsanpassungen und Apple Watch-Bildschirmspiegelung auf dem iPhone zu erweitern – wodurch Watch-Benutzer Zugriff auf viele der auf dem iPhone verfügbaren Barrierefreiheitsfunktionen erhalten iPhone aber nicht auf der Uhr. .
Technologiebegeisterte beklagen oft, dass Smartphones (und persönliche Technologie im Allgemeinen) ohne viele aufregende neue Entwicklungen stagnieren. Aber das ist für viele Menschen mit Behinderungen weit von der Wahrheit entfernt. Google, Apple und viele Forscher und Start-ups haben große Durchbrüche erzielt und leistungsstarke neue Zugriffsfunktionen für mobile Geräte eingeführt.
Bilderliste von Apfel
More Stories
Dieses 100-W-GaN-Ladegerät ist dünn und faltbar
Kuo: Das RAM-Upgrade auf 12 GB im nächsten Jahr wird auf das iPhone 17 Pro Max beschränkt sein
Verdansk kehrt endlich zu Call of Duty Warzone zurück und die Fans freuen sich darüber