OpenAI właśnie zamknęło projekt, który miał się zajmować identyfikowaniem tekstów napisanych przez sztuczną inteligencję. Powodem takiego obrotu zdarzeń był fakt, że narzędzie miało za małą skuteczność w swojej roli.

OpenAI właśnie postanowiło zamknąć projekt, który tworzył narzędzie do sprawdzenia, czy tekst stworzył człowiek, czy też sztuczna inteligencja. W obecnych czasach coś takiego miałoby sporo sensu – zwłaszcza w branżach kreatywnych, jak scenopisarstwo czy dziennikarstwo.

Niestety, jak na swoim blogu napisało OpenAI, narzędzie zakończyło żywot 20 lipca 2023 roku. Cytując samych twórców:

Pracujemy nad tym, by zebrać jakiś konkretny feedback i wykorzystać te informacje do stworzenia bardziej efektywnych technik w przyszłości. 

Z oświadczenia firmy wynika też, że chociaż zamknęli projekt zajmujący się rozpoznawaniem AI w pisowni, to nadal pracuje nad “mechanizmem, który pozwoli użytkownikom na zrozumienie, czy materiały audio-wizualne były wygenerowane przez sztuczną inteligencję”. Brzmi intrygująco, ale tutaj na razie nie znamy żadnych dat, ani konkretniejszych szczegółów. 

Nawet OpenAI nie potrafi stworzyć narzędzia rozpoznającego tekstów tworzonych przez AI

Firma nie ukrywała, że ich narzędzie nie było specjalnie dobre w wykrywaniu tekstów wygenerowanych przez sztuczną inteligencję i “wypluwało” im sporo fałszywych pozytywów – w tym wypadku mowa o tekstach napisanych przez ludzi, które były klasyfikowane jako stworzone przez AI. Jak zwykle w przypadku nowych technologii bywa, OpenAI wyjaśniło, że prawdopodobnie w przyszłości projekt miałby szansę się stać lepszy, gdyby przetworzył jeszcze więcej danych. 

Debiut szalenie popularnego ChatuGPT od OpenAI sprawił, że ludzie szybko chcieli się dowiedzieć jak najwięcej na temat materiałów tworzonych przez sztuczną inteligencję. Tutaj oczywiście pojawiły się np. pytania o potencjalne prawa autorskie w przypadku spieniężania materiałów tworzonych przy pomocy AI. Swoje zaniepokojenie wygłaszali też nauczyciele, którzy bali się, że cały proces edukacji zostanie teraz wywrócony do góry nogami – w końcu uczniowie będą mogli odrabiać pracę domową wpisując polecenia do ChatuGPT.

Logo OpenAI

Doszło do tego, że szkoły w Nowym Jorku zakazały dostępu do ChatuGPT w swoich placówkach, by chociaż spróbować jakkolwiek ukrócić ten proceder i zmniejszyć ryzyko tego, że uczniowie będą ściągali.  

Ludzkość nie nadąża za technologią i w tym momencie jesteśmy jeszcze w fazie identyfikowania kolejnych potencjalnych zagrożeń niesionych przez sztuczną inteligencję. Problemem może być chociażby dezinformacja – co zostało stworzone przez człowieka, a co jest zaledwie serią słów wygenerowaną przez AI?

W tym momencie wychodzi na to, że odpowiedzi na to pytanie nie ma nawet firma, która jest odpowiedzialna za stworzenie najpopularniejszego narzędzia bazującego na sztucznej inteligencji. 

Im dalej w las, tym ten proces będzie jeszcze trudniejszy – w końcu sztuczna inteligencja z czasem będzie jeszcze potężniejsza i jeszcze lepsza w udawaniu “ludzi”. Dojdzie więc do tego, że odróżnienie materiałów generowanych przez AI od dzieła ludzkiego będzie wręcz niewykonalne. Może brzmi to bardzo dramatycznie, ale z drugiej strony – czy nie jest to prawdopodobne?