WWDC23 za nami. Moc nowości takich jak iOS 17, iPadOS, watchOS 10, nowy system operacyjny macOS Sonoma, czy sprzętowo – nowy MacBook Air 15 zostały zdecydowanie przyćmione tym, co Apple nazwało: Apple Vision Pro. Jest jednak kilka mniejszych nowości, które mogły gdzieś zaginąć we wszystkich tych wielkich zapowiedziach, a jedną z najciekawszych dla mnie jest… Adaptive Audio, które będzie serwowane w słuchawkach AirPods z serii Pro. Będzie ono odpowiedzialne za adaptacyjne serwowanie… ANC. Co to znaczy w praktyce?

Aktywna redukcja szumów w AirPods/AirPods 2 działa naprawdę dobrze. Do tego stopnia, że nie słyszę pracy swojej kosiarki akumulatorowej, kiedy włączę ten tryb. Uwielbiam korzystać z Airpodsów, bo to kawał wygodnego sprzętu do rozmów, a nawet treningów, bo jakość dźwięku jest naprawdę świetna. Teraz słuchawki zyskają dodatkową funkcję, wraz z pojawieniem się iOS 17 i macOS Sonoma.

Adaptive Audio

Adaptive Audio w AirPods

Nowa funkcja Adaptive Audio będzie się płynnie dopasowywać do otaczających nas dźwięków. W efekcie, kiedy będziemy mieli tę opcję włączoną, redukcja szumów będzie włączana, kiedy słuchawki wykryją większy hałas wokół nas i oczywiście odwrotnie, zmniejszą natężenie redukcji, kiedy otoczenie będzie cichsze. To w praktyce oznacza, że inny poziom ANC będzie w parku, a inny w centrum miasta. Słuchawki dostosują się automatycznie do akustycznego otoczenia.

To nie koniec smaczków, gdyż jeśli spotkamy naszego znajomego, który wyskoczy tuż zza rogu, wystarczy, że zaczniecie mówić, a AirPods przełączą się automatycznie w tryb kontaktu, byście mogli usłyszeć swojego rozmówce. Proste, funkcjonalne i znane już rozwiązanie, dostarczone przez innych producentów, ale świetnie, że pojawi się taka opcja w AirPods. Tym bardziej że dotychczas trzeba była albo wyjąć słuchawkę z uszu, wyklikać tryb kontaktu w telefonie lub ścisnąć słuchawkę na kilka sekund, by wyłączyć tryb ANC.

Subskrybuj DailyWeb na Youtube!

Pojawi się też Personalized Volume

To nie koniec nowości. Apple zapowiedziało, że wraz z iOS 17 pojawi się również funkcja o nazwie Personalized Volume. Ma być ona oparta o machine learning, które zbada preferencje głośnika, jak podkreśla Apple: …to deliver best media experience. 

Jestem bardzo ciekaw, jak to będzie działało w praktyce i kusi mnie, by już pobawić się wersją beta, którą można pobrać. Wersja oficjalna zostanie wypuszczona oczywiście przy jesieni, tuż po premierach nowych iPhonów. Więcej ciekawostek i tego, co zostało pokazane na tegorocznej konferencji Apple dla developerów, znajdziecie pod #wwdc23.

Polacy pokochają iOS 17. Polska klawiatura z pisaniem gestami i podpowiedziami