23.10.2025 10:18 | Aktualizacja: 23.10.2025 10:29

YouTube wprowadzi narzędzie do walki z deepfake’ami, ale to poszkodowany musi udowodnić, że jest ofiarą

Fala publikowanych w sieci deepfake’ów przybiera na sile, a fakt, że są one technicznie coraz lepsze, wcale nie ułatwia walki z nimi. YouTube chce pomóc twórcom i daje narzędzie do zgłaszania nadużyć.

YouTube

Końcówka roku 2022 przejdzie do historii rozwoju internetu, a może i nawet całej ludzkości. Na przełomie listopada i grudnia OpenAI udostępniło publicznie chatGPT, który diametralnie zmienił sposób, w jaki na co dzień korzystamy z sieci, pracujemy, uczymy się i zbieramy informacje. Generatywna AI kształtuje rzeczywistość dookoła czy nam się to podoba, czy nie, pisze i interpretuje teksty, odpowiada na pytania, coraz częściej wspiera w pracy programistów, a nawet lekarzy. Niecałe trzy lata po debiucie chatGPT, który już w znaczący sposób zmienił świat, ta sama firma udostępniła inne, rewolucyjne narzędzie, jakim jest Sora 2.

YouTube ułatwi twórcom zgłaszanie deepfake’ów

OpenAI uruchomiło przed kilkoma tygodniami w USA serwis przypominający TikTok. Format jest znany i nie ma w nim nic innowacyjnego: krótkie, pionowe filmy, które scrollować można bez końca. Różnica jest jednak taka, że każdy jeden opublikowany materiał to nagranie wygenerowane przez AI. Wszystko, co użytkownik tam zobaczy, jest całkowicie sztuczne. Problem polega jednak na tym, że w stworzonym z promptu filmie można umieścić postać czy twarz każdego człowieka, rzecz jasna bez jego wiedzy i zgody. W ciągu kilku dni serwis zalała fala śmiesznych materiałów przedstawiających np. Stephena Hawkinga wywijającego w skateparku, skaczącego na nartach czy tłukącego się w klatce z Tupackiem.


Microsoft prezentuje MAI-Image-1. To model stworzony z myślą o generowaniu fotorealistycznych obrazów

Microsoft prezentuje MAI-Image-1. To model stworzony z myślą o generowaniu fotorealistycznych obrazów

Microsoft pozostawał trochę w tyle za największymi graczami na rynku AI. Wreszcie jednak zaczyna odrabiać straty. Właśnie ogłoszono MAI-Image-1, własny model językowy stworzony do generowania fotorealistycznych obrazów. Własny to słowo…

Nawet jeśli choć na chwilę przyjmiemy, że umieszczanie w groteskowych sytuacjach martwych osobistości, muzyków i naukowców jest okej, bo nikt przecież nie uwierzy, że Einstein podjeżdża do McDrive’a po frytki, to co z pozostałymi, żywymi ludźmi umieszczonymi w nagraniach do złudzenia przypominających prawdziwe sytuacje? Cóż problem jest poważny. Na tyle, że Google postanowiło dać twórcom treści na YouTube specjalne narzędzia ułatwiające wykrywanie i zgłaszanie deepfake’ów, w których wykorzystywany jest często szanowany i cieszący się zaufaniem wizerunek. Funkcja dostępna jest w YouTube Studio. Działa w oparciu o AI wyszukując w zasobach serwisu materiałów z wygenerowaną lub zmodyfikowaną twarzą realnego twórcy.


ChatGPT pomoże ci z playlistami na Spotify. Serwis muzyczny ogłasza współpracę z OpenAI

ChatGPT pomoże ci z playlistami na Spotify. Serwis muzyczny ogłasza współpracę z OpenAI

ChatGPT będzie zintegrowany ze Spotify. Serwis muzyczny ogłasza współpracę z OpenAI, dzieki której użytkownicy mogą znaleźć swoje ulubione utwory lub stworzyć spersonalizowane playlisty. ChatGPT rośnie w siłę o kolejne funkcje…

Aby skorzystać z rozwiązania, należy się przez YouTubem uwierzytelnić przesyłając skan dowodu tożsamości oraz nagranie wideoselfie. Gdy sztuczna inteligencja wykryje materiały wygenerowane przez inną sztuczną inteligencję, z poziomu YouTube Studio będzie można od razu wysłać zgłoszenie do Google’a z prośbą o usunięcie nieautoryzowanego nagrania. Narzędzie ma być udostępniane użytkownikom etapami, tak, by ostatni z nich uzyskali dostęp do stycznia 2026. To, że tego typu funkcja będzie dostępna to dobra wiadomość zarówno dla poszkodowanych twórców jak i dla nas wszystkich, którzy moglibyśmy przypadkiem natrafić na fake i dać się nabrać. Nasuwa mi się jednak pytanie, dlaczego z problemem, które stworzyły największe na świecie korporacje technologiczne na końcu i tak musi mierzyć się zwykły człowiek? Czy big techy tworzące narzędzia do masowego produkowania deepfake’ów nie powinny wziąć na siebie odpowiedzialności za to, co wypuszczają w świat?

Na moje pytania odpowiedział niedawno Sam Altman, który w podkaście a16z zwrócił uwagę na problem szerzących się w sieci fałszywych filmów tak dobrej jakości, że trudno odróżnić je od prawdziwych nagrań. Szef OpenAI powiedział wprost: Spodziewam się, że z powodu tej technologii wydarzy się coś naprawdę złegoAltman stwierdził następnie, że groźne nie są tylko deepfake’i, ale także fakt, że ludzie będą podejmować decyzje opierając się na algorytmach, których nie rozumieją, co w prostej linii może prowadzić do powstania dziwnych społecznych zjawisk na globalną skalę. 

Można dostrzec wiele sposobów, w jakie może to pójść bardzo źle. Mam jednak nadzieję, że skupimy się wyłącznie na obciążeniach regulacyjnych dotyczących tych kwestii, a nie wszystkich wspaniałych rzeczy, które potrafią mniej wydajne modele. Bo można by po prostu wprowadzić całkowite ograniczenia w stylu europejskim, ale to byłoby bardzo złe.

Mimo to CEO OpenAI nie jest przeciwko regulowaniu AI na podobnych zasadach jak w Europie i argumentuje, że to społeczeństwo (czyli my) powinno samo wypracować metody radzenia sobie z deepfake’ami, a ludzie muszą nauczyć się ewoluować razem z technologią. Co więcej, według Altmana dobrze się stało, że Sora czy chatGPT są już teraz tak zaawansowane, bo dzięki temu, że niejako uzyskaliśmy wcześniejszy dostęp do tych narzędzi, będziemy mogli stworzyć normy i zabezpieczenia, zanim te modele staną się jeszcze potężniejsze.