Apple poinformowało na swoim oficjalnym blogu o kolejnych nowościach, które trafią do użytkowników jeszcze w tym roku. Najciekawszą wydaje się być Apple Live Speech, ale wszystkie mają ogromne znaczenie.

Apple poinformowało na swoim blogu o nowych funkcjach, które trafią do systemów iOS, iPadOS oraz MacOS, jeszcze w tym roku. Należy to rozumieć najprawdopodobniej jako funkcje, które zadebiutują podczas premiery nowego systemu iOS 17, której spodziewamy się już w połowie wrześniu tego roku (2023).

Co ciekawe, jest to zestaw wybranych, bardzo ważnych funkcji ułatwiających dostępność produktów apple dla osób chorych w różnym spektrum. Poinformowano o nich już teraz z okazji jutrzejszego (18 maja) Światowego Dnia Wiedzy o Dostępności (ang. Global Accessibility Awareness Day — GAAD). To, co robi gigant z Cupertino w tej materii, robi ogromne wrażenie.

Apple

Apple Live Speech to jest to, za co kocham technologię

Nie tak dawno temu, zaledwie dwa miesiące temu (a może i wcześniej) serwisy technologiczne informowały o nowych botach AI, które potrafią klonować nasz głos i wykorzystywać go w nagraniach dźwiękowych lub wideo. W ten sposób dowiedzieliśmy się nie tylko o kolejnej niesamowitej możliwości, ale również nowym zagrożeniu, które może przynieść taka technologia. Apple część tej technologii wykorzystuje dla dobra ogółu i pokazuje, jak wspaniała może być technologia.

.large_2x.jpegApple Live Speech

Boty AI to nie tylko czaty do zdawania egzaminów czy generatory obrazków, które wygrywają konkursy, czy też udają prawdziwe zdjęcia. Czasami mogą przysłużyć się też naszym indywidualnym potrzebom (czy pomagając nam w pracy). Dopiero Apple pokazuje jednak, jak wielkie mają znaczenie dla ogółu.

Apple Live Speech
Apple Live Speech – podpowiedzi.

Apple wykorzystało elementy sztucznej inteligencji oraz uczenia maszynowego, by stworzyć rozwiązania dla osób chorych, które cierpią na różne dolegliwości i choroby. Z pokaźnego pakietu funkcji, jeden wybija się ze względu na swoje spektakularne możliwości.

Dzięki Apple Live Speech na iPhonie, iPada i Maka użytkownicy mogą pisać to, co chcą przekazać, aby wypowiedzieć to własnym syntezowanym głosem podczas rozmów telefonicznych i FaceTime, a także innych czatów i korespondencji. Użytkownicy mogą również zapisywać powszechnie używane zwroty, aby szybko wtrącać je podczas rozmów z rodziną, przyjaciółmi i współpracownikami. Live Speech został zaprojektowany, aby wspierać miliony ludzi na całym świecie, którzy nie są w stanie mówić, którzy stracili mowę, stracą ją lub w których głosie nastąpiły zmiany utrudniające komunikację.

Jednym z takich przypadków może być ALS (stwardnienie zanikowe boczne), ale takich chorób jest znacznie więcej i należałoby również wspomnieć tu o uszkodzeniach fizycznych, które powstały np. w wypadkach lub podczas planowanych, koniecznych zabiegów medycznych.

Apple Live Speech
Apple Live Speech – proces syntezowania głosu jest prosty.

Apple Live Speech to prosty i bezpieczny sposób na stworzenie głosu, który brzmi jak nasz własny. W celu utworzenia takiej syntezy jesteśmy proszenie o jednorazowe przeczytanie testowych fraz, z których wyodrębniona zostanie cecha naszego głosu. Ponoć wystarczy do tego 15-minutowa próbka z 150 fraz, o których przeczytanie zostaniemy poproszeni na ekranie telefonu. Resztę w magiczny sposób załatwi za nas Apple.

Pod koniec dnia najważniejszą rzeczą jest możliwość komunikowania się z przyjaciółmi i rodziną” – powiedział Philip Green, członek zarządu i specjalista ALS w organizacji non-profit Team Gleason, który doświadczył znaczących zmian w swoim głosie od czasu diagnozy ALS w 2018 roku. „Jeśli możesz im powiedzieć, że ich kochasz, głosem, który brzmi tak jak twój, robi to różnicę na świecie — a możliwość stworzenia swojego syntetycznego głosu na iPhonie w zaledwie 15 minut jest niesamowita.

 

Więcej dobra w technologii

To nie jedyna nowa funkcja. Apple przygotowało pokaźny pakiet funkcji, kolejny raz pokazując, że dba o każdego swojego użytkownika. Nowościami będą również:

  • Assistive Acces — funkcja destyluje aplikacje, ich funkcję i wygląd tak, aby łatwiej było je zrozumieć.
  • Apple Lupa i nowy tryb Point and Click — teraz w funkcji Lupa, będzie można wykryć funkcje na obrazie. Funkcja Point and Speak łączy dane wejściowe z kamery, skanera LiDAR i uczenia maszynowego na urządzeniu, aby przeczytać tekst na każdym przycisku, gdy użytkownicy przesuwają palcem po klawiaturze — np. przy menu mikrofalówki czy innych urządzeń AGD.
  • Dodatkowe, pełniejsze wsparcie dla aparatów słuchowych z certyfikatem „made for iPhone” dla MacBooków
  • Rozszerzone funkcje sterowania głosowego oraz przewodnika sterowania głosowego
  • Switch Control teraz będzie mógł zamienić dowolny przełącznik w wirtualny kontroler gier, aby można było grać w swoje ulubione gry na iPhonie i iPadzie.
  • Dla osób niedowidzących rozmiar tekstu będzie teraz łatwiejszy do dostosowania w aplikacjach Mac, takich jak Finder, Wiadomości, Poczta, Kalendarz i Notatki.
  • Osoby wrażliwe na dynamiczne obrazy, mogą zablokować animację GIFów w aplikacjach Wiadomości oraz przeglądarce Safari.
  • W funkcji Voice Over głosy Siri brzmią naturalniej i wyraziściej nawet przy wysokim wskaźniku sprzężenia zwrotnego. Użytkownicy mogą również dostosować szybkość, z jaką Siri do nich mówi, z opcjami od 0,8 X do 2 X.

Dodatkowo Apple przygotowało specjalny program i kilka dodatków, które pozwolą promować Światowy Dnień Wiedzy o Dostępności. Więcej informacji o tych nowych funkach znajdziecie na oficjalnym blogu Apple.

Tanie smartfony z GPU NVIDIA? MediaTek zadba o zjawiskową grafikę