Oto zastosowania ChatGPT, których mogą wstydzić się twórcy generatora tekstu opartego o sztuczną inteligencję.

Serwis Mashable przygotował listę „niespecjalnie” pozytywnych scenariuszy, w których wykorzystywany jest ChatGPT. Pięć z nich to w mojej ocenie powodów do wstydu. Jeśli jednak odłożymy moralność na bok, wypada docenić sprawność usługi. Okazuje się, że rozwiązanie w dużym stopniu nagina prawo oraz zasady życia społecznego.

R E K L A M A

ChatGPT

ChatGPT: oszustwa, plagiaty, fejkowe randki i wyłudzenia – nie wygląda to dobrze

Nie jest tajemnicą to, że ChatGPT potrafi pisać nie tylko złożone zdania, ale także kod. Jeśli odpowiednio wyartykułujemy swoje polecenie, narzędzie stworzy złośliwe oprogramowanie. Co gorsze, opracowany kod możemy ponownie modyfikować przy użyciu AI, a to czyni go jeszcze nie niebezpieczniejszym.

ChatGPT poszedł na studia prawnicze. Jak mu poszedł egzamin?

Korzystacie z aplikacji randkowych, takich jak Tinder? Jeśli tak, pewnie wiecie, że prowadzenie angażującej konwersacji z drugim użytkownikiem/użytkowniczką nie jest zadaniem łatwym. Cóż, tutaj potrafi pomóc ChatGPT. Dla mnie zalatuje to oszustwem, które w skrajnych przypadkach może zahaczyć o sprawę karną. Wszak to nic innego, jak podstęp, ale wiele zależy od interpretacji.

Art. 197 KK

§ 1. Kto przemocą, groźbą bezprawną lub podstępem doprowadza inną osobę do obcowania płciowego, podlega karze pozbawienia wolności od lat 2 do 12.

ChatGPT może służyć także do tworzenia phishingowych maili, których celem jest oszukanie adresata. Ta popularna metoda wymaga oczywiście opracowania „wiarygodnej” komunikacji. Narzędzie od Open AI niestety może być tu wyjątkowo skuteczne. Ostatnia rzecz, na którą warto zwrócić uwagę dotyczy procesu rekrutacyjnego. ChatGPT, jeśli będziemy tego chcieli, stworzy nam idealnie skrojony list motywacyjny. To mocno kłóci się z moralnością.

ChatGPT za $42, poszło szybciej niż zakładaliśmy