Nick Clegg, prezes ds. Globalnych Meta posypał głowę popiołem. Przyznał, że nie wszystkie mechanizmy moderacji działają dobrze, a wielu użytkowników dostaje blokady za niewinność, bo algorytm tak chciał.
Meta, czyli Facebook, Instagram i Threads algorytmem stoi. Od dłuższego czasu da się zauważyć, że wiele treści jest banowana przez system moderacji. Oczywiście – w większości przypadków mamy do czynienia z reakcją automatycznego systemu na słowa kluczowe.
Pamiętam jak komentarz mojego znajomego został usunięty, kiedy pod moim postem na blogu na temat aktora Petera Stormare napisał, że wykreował świetną kreację w filmie o… dosyć znanym, choć wątpliwej moralności austriackim dyktatorze. Zwrot „ Hitler” wystarczył, aby użytkownik otrzymał niesprawiedliwy alert. A to tylko jedna z wielu kontrowersyjnych decyzji Meta.
Meta przyznaje się do błędów
Meta jakiś czas temu zbanował konto Mistrzowie.org. Algorytm nagle stwierdził, że strona na Facebooku narusza standardy społeczności, gdyż rzekomo podszywa się pod inną markę lub osoby. Kuriozalna sytuacja, patrząc na memiczny charakter strony. Autor strony oczywiście napisał odwołanie, bowiem doszło ewidentnie do złego zrozumienia jednego z postów przez algorytm Facebooka. Na szczęście support zadziałał i Mistrzowie.org wrócili na Facebooka, ale nie zawsze takie sytuacje kończą się pozytywnym rozwiązaniem sprawy.
I nigdy bym nie pomyślał, że Meta może przyznać się do błędu, ale jednak w ten poniedziałek stało się zupełnie inaczej. Nick Clegg, prezes ds. Globalnych Meta powiedział, że poziomy błędów w moderacji firmy są nadal zbyt wysokie i trzeba wdrożyć zmiany. Odniósł się również do czasów ograniczania treści użytkowników podczas pandemii COVID-19
Wiemy, że nasze poziomy błędów są nadal zbyt wysokie, co przeszkadza w swobodnym wyrażaniu swojego zdania. Zbyt często nieszkodliwe treści są usuwane lub ograniczane, a zbyt wiele osób jest karanych niesprawiedliwie. Mieliśmy bardzo surowe zasady usuwające bardzo duże ilości treści poprzez pandemię. Nikt podczas pandemii nie wiedział, jak się ona rozwinie, ale z perspektywy czasu czujemy, że trochę przesadziliśmy. Jesteśmy tego świadomi, ponieważ użytkownicy słusznie podnieśli głos i narzekali, że czasami nadmiernie egzekwujemy i popełniamy błędy oraz usuwamy lub ograniczamy nieszkodliwe lub niewinne treści
System moderacji Meta do zmiany
Wszystko prawda. Systemy Meta działają źle.Mechanizm banuje ludzi za niewinność, a kiedy użytkownicy zgłaszają słuszne, kontrowersyjne treści, które powinny być usuwane – to jakoś nie widać efektów. Zdaje sobie sprawę, że w ciągu dnia takich zgłoszeń Meta ma pewnie całą masę, ale nie zapominajmy, że to wielka firma, która powinna dbać o swój support.
Messenger z dużą aktualizacją. Wideo z jakością HD, ulepszone audio i tła AI
Problem nie dotyczy tylko Facebooka, ale również Threadsa. Ostatnio system ograniczał widoczność lub usuwał wpisy użytkowników, które były całkowicie niewinne. Przykładowo – jedno z kont zostało zbanowane po poście o treści… chce umrzeć z powodu fali upałów.
Nick Clegg zobowiązał się do się do poprawy precyzji i dokładności, z jaką działają narzędzia Meta. Jakie firma zamierza dokładnie podjąć kroki – nie wiadomo, ale dobrze, że Meta oficjalnie przyznaje, że istnieje problem z moderacją. Pytanie tylko – czy cokolwiek się zmieni dla użytkowników, a jeśli tak – to kiedy to nastąpi?