DAJ CYNK

Apple szykuje nowe ułatwienia dostępu. Do sterowania iPhonem wystarczą oczy

Marian Szutiak

Aplikacje

Apple szykuje nowe ułatwienia dostępu. Oto, czego można się spodziewać

Firma Apple zapowiedziała, że jeszcze w tym roku wprowadzi szereg nowych ułatwień dostępu, z których skorzystają użytkownicy iPhone'ów i iPadów. Urządzeniami tymi będzie można na przykład sterować za pomocą oczu.

Apple szykuje nowe ułatwienia dostępu, które w szczególności osobom niepełnosprawnym pomogą w sterowaniu iPhonem lub iPadem. Zapowiedziane funkcje opierają się na połączeniu potężnych możliwości sprzętu i oprogramowania amerykańskiego giganta, w tym układu scalonego Apple, a także sztucznej inteligencji i działających na urządzeniu algorytmów uczenia maszynowego. Jednocześnie wpisują się one w realizowane od dekady zobowiązanie firmy z Cupertino do tworzenia produktów dla wszystkich użytkowników.

Jesteśmy głęboko przekonani, że innowacje mogą wpływać na życie ludzi i je wzbogacać. Właśnie dlatego firma Apple już od blisko 40 lat kładzie duży nacisk na inkluzywność swoich produktów, której wyrazem są ułatwiania dostępu wbudowane w DNA naszego sprzętu i oprogramowania. Nieustannie przesuwamy granice technologii, a zapowiadane funkcje odzwierciedlają nasze długoletnie zobowiązanie, żeby zapewniać wszystkim naszym użytkownikom jak najlepsze doświadczenia.

– oświadczył Tim Cook, dyrektor generalny Apple'a

Co roku dokonujemy przełomu w dziedzinie ułatwień dostępu. Dzięki udostępnieniu nowych sposobów komunikacji, sterowania urządzeniami czy poruszania się w świecie wprowadzane funkcje wpłyną na życie wielu różnych użytkowników.

– dodała Sarah Herrlinger, starszy dyrektor Apple'a w pionie Accessibility Policy and Initiatives

Eye Tracking na iPadzie i iPhonie

Wspierana sztuczną inteligencją funkcja Eye Tracking oferuje użytkownikom wbudowane rozwiązanie do sterowania iPadem i iPhonem przy użyciu samych oczu. Nowość została opracowana z myślą o użytkownikach z niepełnosprawnościami fizycznymi i korzysta z przedniego aparatu, by w zaledwie kilku sekund wprowadzić ustawienia i wykonać kalibrację. Jak zapewnia Apple, działające na urządzeniu algorytmy uczenia maszynowego sprawiają, że wszystkie dane użyte do konfiguracji funkcji i jej sterowania są bezpiecznie przechowywane na urządzeniu, bez wysyłania ich do amerykańskiej firmy.

Funkcja Eye Tracking działa w aplikacjach z systemem iPadOS i iOS oraz nie wymaga dodatkowych urządzeń czy akcesoriów. Dzięki temu rozwiązaniu użytkownicy mogą przechodzić pomiędzy elementami aplikacji oraz korzystać z narzędzia Sterowanie zatrzymaniem do aktywacji poszczególnych elementów i uzyskiwania dostępu do dodatkowych funkcji, takich jak fizyczne przyciski czy machnięcia, oraz innych gestów, wyłącznie za pomocą oczu.

Music Haptics ułatwi dostęp do piosenek

Kolejna nowość to funkcja Music Haptics, która otwiera przed niesłyszącymi lub niedosłyszącymi użytkownikami nowe sposoby doświadczania muzyki odtwarzanej z iPhone’a. Po włączeniu tego ułatwienia dostępu, sygnalizator taktylny wbudowany w iPhone’a będzie odtwarzać stuknięcia, teksturę oraz bardziej wyczuwalne wibracje odwzorowujące brzmienie muzyki. Funkcja Music Haptics obsługuje miliony utworów w katalogu Apple Music i zostanie udostępniona deweloperom jako API, tak aby zwiększyć dostępność muzyki w tworzonych przez nich aplikacjach.

Apple music

Obsługują większej liczby sposobów mówienia

Udogodnienie Vocal Shortcuts daje użytkownikom iPhone’a i iPada możliwość przypisania własnych, zrozumiałych dla Siri, wypowiedzi aktywujących skróty i realizujących złożone zadania. Z kolei funkcja Listen for Atypical Speech pozwala użytkownikom na rozbudowanie funkcji rozpoznawania mowy o większą liczbę różnych sposobów mówienia. Rozpoznaje ona wzorce mowy użytkownika za pomocą działających na urządzeniu algorytmów uczenia maszynowego.

Oba ułatwienia powstały z myślą o użytkownikach z trwałymi lub postępującymi schorzeniami upośledzającymi mowę, takimi jak porażenie mózgowe, stwardnienie zanikowe boczne (ALS) lub stany poudarowe, a udostępniany w tych ułatwieniach wyższy poziom personalizacji i sterowania bazuje na rozwiązaniach wprowadzonych w systemie iOS 17 dla osób niemówiących lub zagrożonych utratą mowy.

Sztuczna inteligencja jest w stanie udoskonalić rozpoznawanie mowy milionów ludzi z nietypowym sposobem mówienia i z przyjemnością patrzymy, jak Apple przynosi konsumentom wspierające ten proces nowe ułatwienia dostępu. W swoich założeniach projekt Speech Accessibility Project miał być szerokozakrojonym, wspieranym lokalnie działaniem pomagającym przedsiębiorstwom i uczelniom w usprawnianiu i zwiększaniu skuteczności rozpoznawania mowy, a firma Apple, będąc jednym z orędowników ułatwień dostępu, umożliwiła realizację tych założeń inicjatywy Speech Accessibility Project.

– powiedział Mark Hasegawa-Johnson, główny badacz w projekcie Speech Accessibility Project

Vehicle Motion Cues pomoże złagodzić chorobę lokomocyjną

Vehicle Motion Cues to nowa funkcja wprowadzana na iPhone’a i iPada, która ułatwia łagodzenie objawów choroby lokomocyjnej u osób w jadących pojazdach. Badania pokazują, że choroba lokomocyjna jest zwykle powodowana przez konflikt sensoryczny pomiędzy tym, co osoba widzi, a tym, co czuje. W rezultacie część użytkowników podróżujących pojazdami nie może komfortowo korzystać z iPhone’a lub iPada.

Animowane kropki funkcji Vehicle Motion Cues, wyświetlane na krawędzi ekranu, mają pomóc złagodzić konflikt sensoryczny, nie przeszkadzając przy tym użytkownikowi w skupieniu się na głównej treści. Korzystając z czujników wbudowanych w iPhone’a i iPada, Vehicle Motion Cues wykrywa, kiedy użytkownik znajduje się w jadącym pojeździe, i odpowiednio reaguje. Funkcję można skonfigurować tak, by automatycznie wyświetlała się na iPhonie. Można ją też włączać i wyłączać w Centrum sterowania.

Vehicle Motion Cues

CarPlay zyskuje Sterowanie głosowe

Ułatwienia dostępu wprowadzane w CarPlay obejmują Sterowanie głosowe, Filtry barwne i Rozpoznawanie dźwięków. Sterowanie głosowe pozwala użytkownikom na poruszanie się w usłudze CarPlay oraz sterowanie aplikacjami tylko za pomocą głosu. Rozpoznawanie dźwięków daje niesłyszącym i niedosłyszącym kierowcom oraz pasażerom możliwość włączenia alertów informujących ich o dźwięku klaksonu i syren. Użytkownikom mającym trudności w rozpoznawaniu kolorów Filtry barwne uproszczą wizualnie interfejs usługi CarPlay przy użyciu dodatkowych ułatwień dostępu, takich jak Pogrubiony tekst i Duża czcionka.

Apple CarPlay rozpoznawanie dźwięku

Dodatkowe uaktualnienia:

  • Użytkownicy niewidzący lub niedowidzący znajdą w VoiceOver nowe głosy, elastyczne pokrętło Voice Rotor, programowalne elementy sterowania głośnością oraz możliwość dostosowania skrótów klawiszowych VoiceOver na komputerze Mac.
  • Aplikacja Lupa oferuje nowy tryb Reader oraz możliwość łatwego uruchamiania trybu wykrywania za pomocą przycisku czynności.
  • Dla osób posługujących się alfabetem Braille’a wprowadzony został nowy, usprawniający sterowanie oraz edycję tekstu sposób uruchamiania i użytkowania trybu Wejście ekranu Braille’a. Ponadto tryb Wejście ekranu Braille’a jest teraz dostępny dla języka japońskiego, obsługiwany jest wielowierszowy tekst pismem Braille’a z wyświetlacza Dot Pad oraz istnieje możliwość wyboru różnych tablic źródłowych i docelowych.
  • Użytkownicy niedowidzący zyskają funkcję Hover Typing, powiększającą tekst wpisywany w polu tekstowym w czcionce i kolorze wybranych przez użytkownika.
  • Funkcja Głos indywidualny, przeznaczona dla osób zagrożonych utratą mowy, będzie dostępna w języku chińskim mandaryńskim. Użytkownicy mający trudności w wymawianiu lub czytaniu pełnych zdań będą mogli za pomocą krótkich fraz utworzyć własny głos indywidualny.
  • Funkcja Mowa na żywo, wspierająca osoby niemówiące, zostanie poszerzona o kategorie oraz możliwość jednoczesnego korzystania z ułatwienia Podpisy na żywo.
  • Użytkownicy z niepełnosprawnościami fizycznymi będą mogli za pomocą Virtual Trackpad w funkcji AssistiveTouch sterować swoim urządzeniem na niewielkim obszarze ekranu, pełniącym funkcję skalowalnego gładzika.
  • Funkcja Sterowanie przełącznikami zyska możliwość użycia kamer iPhone’a i iPada do odczytywania gestów stuknięcia palcem jako gestów oznaczających przełączenie.
  • Sterowanie głosowe będzie obsługiwać własne słowniki i złożone słowa.

Zobacz: Apple iPhone 16 Pro z najjaśniejszym ekranem w historii
Zobacz: Mokry sen retrograczy. iPhone doczekał się emulatora PlayStation

Chcesz być na bieżąco? Obserwuj nas na Google News

Źródło zdjęć: Arkadiusz Bałą / Telepolis.pl, Apple

Źródło tekstu: Apple