18-letni nowojorczyk został niesłusznie oskarżony o kradzież sprzętu z salonów Apple. Do jego zatrzymania doszło po tym, jak jego dane zostały błędnie przyporządkowane przez algorytm do wizerunku innego mężczyzny.
l8-letni mieszkaniec Nowego Yorku Ousmane Bah został zatrzymany pod koniec zeszłego roku za szereg kradzieży w salonach Apple. Oskarżenie okazało się bezpodstawne, a sam Bah twierdzi, że padł ofiarą technologii. Konkretnie funkcji rozpoznawania twarzy.
Prawdziwy złodziej, który został przyłapany na gorącym uczynku w maju ubiegłego roku, w chwili zatrzymania posługiwał się bowiem kradzionym dokumentem tożsamości 18-latka. Dokument nie posiadał zdjęcia i nikt nie podjął trudu, aby sprawdzić prawdziwość danych. Po tym zatrzymaniu Apple stworzyło więc w swoim systemie profil osobowy bazujący na fałszywych danych i zdjęciu zatrzymanego.
Technologia rozpoznania twarzy Apple, która zidentyfikowała tę samą osobę jako uczestnika kradzieży w innych salonach, przypisała go więc do danych 18-latka. To błędne założenie stało się podstawą do jego niesłusznego aresztowania. Po porównaniu wyglądu nowojorczyka z nagraniami ze sklepu stało się jasne, że mowa o zupełnie innej osobie. Oczyszczony z zarzutów Bah domaga się obecnie od Apple zadośćuczynienia w postaci okrągłego miliarda dolarów.
Niedługo urządzenia Apple będą analizowały nasz pot, wykryją też smog i czad!
Sprawa pewnie nie osiągnęłaby takiego rozgłosu, gdyby nie ta astronomiczna kwota, a także pojawienie się sztucznej inteligencji w tle. Cała sytuacja stawia bowiem Apple w dość niekorzystnym świetle. Nie tylko wyszło na jaw, że gigant bacznie śledzi wszystkich klientów pojawiających się w swoich sklepach, lecz także tworzy ich profile osobowe. O ile można zrozumieć, że marka stara się ochronić swój asortyment przed złodziejami, trudno nie przyznać, że sama metoda zakrawa na inwigilację. Co, jeśli podobne profile tworzone są także dla niewinnych klientów?
Twarz zamiast karty pokładowej, czyli biometria na pokładzie Lufthansy
Dużo mówi się o wpadkach systemów rozpoznawania twarzy. O tym, że nie potrafią odróżnić prawdziwej osoby od plakatu; o tym, że nie radzą sobie z bliźniakami czy też mocnym makijażem. O ile w tym przypadku system zadziałał bezbłędnie (niestety na podstawie fałszywych danych), to czy aby na pewno sama technologia jest gotowa, aby uzależniać od niej czyjąś niewinność? Podobne systemy są już wykorzystywane (na dość szeroką skalę) w Chinach. Nie jestem jednak przekonana, czy jest z czego brać przykład.