Kwestie prywatności użytkowników od kilku dobrych lat pozostaje jednym z najważniejszych tematów branży tech. Najwięksi gracze prześcigają się w pomysłach na to, jak poprawić ochronę danych, często kosztem własnego rozwoju czy też możliwości rozwoju innych firm.

Od dłuższego czasu Apple pozostaje w czołówce jeśli chodzi o szybkość wdrażania podobnych rozwiązań. Wystarczy wspomnieć tu chociażby blokowanie ciasteczek przez niektóre przeglądarki, co ma realny wpływ na niemal całą branżę marketingu online.

Apple będzie skanować treści użytkowników

Kilka dni temu gigant z Cupertino zrobił jednak spory krok do tyłu w zakresie poszanowania prywatności użytkowników. Tak przynajmniej twierdzą niektórzy eksperci, którym nie spodobała się zapowiedź nowej funkcji. Nowe narzędzie, którego rollout w USA zaplanowany jest na końcówkę tego roku, będzie skanować zdjęcia i wiadomości tekstowe na urządzeniach Apple w poszukiwaniu szkodliwego contentu.

Choć pomysł na sprawdzanie prywatnych zdjęć użytkowników wydaje się mocno kontrowersyjny, trzeba przyznać, że w założeniu przyświeca mu szczytny cel. Nowa funkcja ma bowiem być sposobem na aktywne przeciwdziałanie szerzeniu pornografii dziecięcej i powstała we współpracy z amerykańską jednostką rządową mającą na celu ochronę nieletnich.

apple iphone

Jak Apple będzie skanować Twoje dane?

Jak w praktyce ma działać owa funkcja? Algorytm będzie porównywał zdjęcia przesyłane na iCloud z rzeczywistymi zdjęciami pornograficznymi znajdującymi się w bazie. Te, które będą wzbudzać wątpliwości, zostaną oflagowane jako potencjalnie niebezpieczny content. W momencie, gdy liczba oflagowanych zdjęć na koncie użytkownika przekroczy pewną określoną wartość, konto zostanie zgłoszone do weryfikacji przez pracownika Apple. W przypadku wykrycia nieprawidłowości, informacja o podejrzeniu popełnienia przestępstwa zostanie wysłana do odpowiedniej jednostki administracyjnej.

Pomysł brzmi całkiem sensownie, jednak budzi (dość słuszne zresztą!) obawy o inwigilację użytkowników. Zwraca się także uwagę na fakt, że skanowanie treści za pomocą predefiniowanej bazy danych może prowadzić do niebezpiecznych przypadków nadużyć.

Sprawę na Twitterze skomentował m.in. Edward Snowden:

Co z nadużyciami?

O ile słuszność tropienia śladów pornografii dziecięcej raczej nie budzi wątpliwości, o tyle nie trudno wyobrazić sobie próbę innego zastosowania owego algorytmu. Na przykład w krajach, w którym homoseksualizm jest przestępstwem, rząd może zacząć wymagać, aby klasyfikator został przeszkolony w celu ograniczenia widocznych treści LGBTQ+. W efekcie otrzymujemy kolejne narzędzie represji.

Według zapowiedzi nowa funkcja ma pojawić się jeszcze w tym roku w aktualizacjach do iOS 15, iPadOS 15, WatchOS 8 i MacOS Monterey. W kontekście silnego stanowiska odnośnie prywatności, jakie Apple reprezentowało w ciągu ostatnich lat, na pewno w jej interesie będzie rozwianie wszelkich wątpliwości jeszcze przed rolloutem. Zwłaszcza, że pochodzą one zarówno od ekspertów z zakresu cyberbezpieczeństwa, prawa, jak i samych użytkowników.