Norman - psychopatyczna sztuczna inteligencja | DailyWeb.pl

Norman - psychopatyczna sztuczna inteligencja

Opublikowano 1 miesiąc temu -


O sztucznej inteligencji słyszymy teraz naprawdę dużo, ponieważ niezwykle dużo się w tym temacie dzieje. Samsung otwiera centra sztucznej inteligencji, pojawiają się nowe funkcje w telefonie czy wirtualni, domowi asystenci, którzy mogą dla nas zrobić praktycznie wszystko. Pytanie - czy jest jakaś granica, której nie przekroczymy?

Poznajcie Normana. Dostał imię po słynnym bohaterze powieści “Psychoza” Roberta Blocha. Naukowcy z MIT postanowili sprawdzić czy to, czym karmimy algorytm ma istotny wpływ na jego reagowanie w określonych sytuacjach.

Poznajcie Normana

Sieć neuronową opracowała trójka naukowców: Pinar Yanardag, Manuel Cebrian oraz Iyad Rahwan, wszyscy pracują w MIT Media Lab i zajmują się uczeniem maszynowym.  Chcieli udowodnić, że algorytmy maszynowego uczenia mogą być jak najbardziej stronnicze w swoim “rozumowaniu”. Wszystko zależy od zestawu danych, którymi zostaną nakarmione. Żeby eksperymentowi dodać nieco kolorytu postanowiono potrenować z nieco cięższym materiałem i tak, od "małego" Norman karmiony był wiedzą z ciemnych zakątków Internetu - Reddita. Algorytmowi dano dostęp na przykład do zdjęć ludzi umierających w makabrycznych okolicznościach. Po ich przeanalizowaniu algorytm poddano testowi Rorschacha.

Czym jest test Rorschacha?

Jest to popularny test plam polegającym na rozpoznawaniu kształtów z prezentowanych plansz. Aby rezultaty badań były jak najbardziej obiektywne, ten sam test rozwiązywała też kontrolna sztuczna inteligencja, która nie miała dostępu do tak makabrycznych treści.

Jakie były efekty?

Tam, gdzie większość normalnych ludzi i kontrolna sztuczna inteligencja widzieli czerwono-biały parasol, Norman dostrzegał człowieka poddawanego wstrząsom elektrycznym, a tam, gdzie kontrolna sztuczna inteligencja widziała kwiaty i ciasto weselne, Norman dostrzegał zastrzelonego mężczyznę i człowieka zabitego przez rozpędzony samochód. Algorytm w każdym obrazku widział śmierć, krew i zniszczenie.

Zachowanie SI jest w dużej mierze zdeterminowane informacjami, jakie zdobywa podczas nauki. Ten sam zespół MIT Media Lab swego czasu pokazał światu Shelley, sieć neuronową, która razem z użytkownikami pisała opowiadania grozy. Inną ich kreacją było Nightmare Machine – sztuczna inteligencja przekształcająca zdjęcia w mroczne obrazy. Prof. Rahwan swoim eksperymentem z Normanem chce udowodnić, że "inżynierowie muszą znaleźć sposób na zbilansowanie danych, na których pracuje algorytm". W powstawaniu algorytmów nie mogą brać udziału wyłącznie programiści. Badania prof. Rahwana powinny być wstępem do debaty prowadzącej do uświadomienia społeczeństwu w jak zaawansowanym technologicznie świecie żyjemy i z jakich algorytmów codziennie korzystamy.

Wszystko brzmi i wygląda nieco strasznie. Pozostaje jednak mieć nadzieję. że ludzie pozostaną ostrożni i nie pozwolą, by wszystko wymknęło im się spod ręki. Samo zagadnienie jest niesamowicie ciekawe. Pomysł? Trudno mi powiedzieć po co ktoś miałby chcieć to robić, ale jak widać wyniki są atrakcyjne dla nas wszystkich i są pewnego rodzaju przestrogą.