New York Times oskarży Microsoft i OpenAI. Potrzeba nam pilnych działań prawnych
New York Times pozywa Microsoft oraz OpenAI (twórcę ChatGPT) o tworzenie swoich modeli językowych na bazie milionów artykułów, które znajdują się w serwisie. Sprawa ma jednak głębsze dno, bo dotyka również innych wydawców i twórców treści.

Modele językowe AI zaczynają stwarzać sporo problemów, doprowadzając np. do sporów w kwestii powstawania pewnych dzieł, ponieważ twórcy traktują generatywny wynik jak coś własnego. Kwestia przypisania sobie praw do nich lub nieinformowanie o wygenerowaniu przez AI prowadzi także do wielu debat. Problemem są również częste halucynacje AI, czyli sytuacje, w których nie otrzymuje się prawdziwych danych, wręcz przeciwnie, bywają one właśnie nieprawdziwe lub całkiem zmyślone.
Ostatni z problemów jest najpoważniejszym. Modele językowe, jak ChatGPT czy Google Bard, potrzebują olbrzymich ilości danych do przetworzenia wyniku. Czasami dzieje się to z pogwałceniem praw, a przynajmniej tak sądzi dziennik New York Times, który właśnie pozwał twórców ChatGPT oraz Microsoft.
OpenAI zagraża wydawcom i twórcom
Było już sporo dziwnych spraw wokół modeli AI, które odbiły się negatywnym echem na całym świecie. Czasami takie narzędzia były używane w złym celu, czasami nieświadomie łamały prawo.
Od kilku miesięcy na sprawę rzucają światło wydawcy i twórcy. Ich dzieła, czyli obrazy, fotografie, artykuły i książki są materiałami używanymi do szkolenia algorytmów AI. Nie byłoby to takie złe, gdyby nie to, że przy okazji łamane jest prawo. Przynajmniej zdaniem tych twórców.
27 grudnia do sądu okręgowego na Manhattanie przedstawiciele gazety New York Times pozwali Open AI oraz Microsoft w sprawie niedozwolonego użycia i łamania własności intelektualnej.
Sprawa wydaje się dosyć prosta, bo w pozwie (który znajdziecie tutaj) zauważycie, że oprogramowanie Microsoftu oraz ChatGPT robią prawdziwe cuda z tekstami New York Times, których są miliony. W przykładach podanych przez gazetę można zobaczyć, jak łatwo ominąć paywall, poprosić o skrót artykułu lub wyciągnąć z niego wnioski. Gdyby tego było mało, narzędzia AI potrafią manipulować danymi pojawiającymi się w artykułach. W tekście o polecanym sprzęcie ChatGPT podał listę 4 rzeczy z artykułu, dokładając do tego również dwie inne, które nie znalazły się w przytoczonym zestawieniu.
New York Times ma więc wiele zarzutów — manipulacja danymi, fałszowanie artykułów, zmiany treści czy wydźwięku, omijanie zabezpieczeń serwisu, konkurowanie z serwisem przy użyciu scrapingu danych czy pozbawiania wpływów z reklam i umów reklamowych. Na 69 stronach pozwu znalazło się wiele niepokojących scenariuszy, do których posunęły się narzędzia AI.
W kwietniu tego roku gazeta zwróciła się do OpenAI, aby rozwiązać problem, ponieważ był znany już wtedy. Nie wypracowano jednak żadnych działań, a rozmowy zostały zerwane przez NYT. Producenci OpenAI twierdzą, że faktycznie rozmawiali z przedstawicielami dziennika, a prace nad rozwiązaniem problemu szły do przodu, dlatego są bardzo zdziwieni rozwojem wydarzeń.
Sądowy pozew nie zawiera roszczeń odnośnie do konkretnej kwoty. Mowa jest natomiast o naprawieniu wyrządzonych krzywd i bezwarunkowym usunięciu możliwości AI, które do nich doprowadziły.
Trzeba tu również przypomnieć, że w przeszłości zdarzały się podobne sprawy, ale na mniejszą skalę. Można tutaj przytoczyć przykłady pozwów aktorki Sary Silverman czy autorów bestselerowych książek Jonathana Franzena i Johna Grishama, których dzieła wprowadzono do modelu szkoleniowego AI. Getty Images również zaskarżyło Stability AI ze względu na zebrane przez agencję zdjęcia do tworzenia wyników z wykorzystaniem tekstu.