Według naukowca, prace nad AI powinny być prowadzone w taki sposób, aby jej efekty były wyłącznie pozytywne, a konkretnie pomagały ludziom w rozwiązywaniu problemów. Aby jednak tak się stało, niezbędna powinna być pełna kontrola, stała obserwacja i analiza. „Superinteligentna AI będzie świetnie radzić sobie z osiąganiem celów, a jeśli te cele nie będą spójne z naszymi, to będziemy mieli problem” – już w czerwcu 2016 wspominał Hawking.

Sztuczna inteligencja rasistką?

Za każdym razem, kiedy tylko pojawia się nowe doniesienie na temat sztucznej inteligencji, natychmiast powracają do mnie te słowa. Nie jest trudno zgodzić się z wizją tego wspaniałego brytyjskiego kosmologa i nie tylko dlatego, że zawsze miał rację, ale też dlatego, że coraz częściej zdarza nam się mierzyć z negatywnie i mocno zaskakującymi skutkami rozwoju i postępu sztucznej inteligencji. Tym razem nasza najlepsza lub najgorsza wizja przyszłości wykazała się mocno rasistowskimi poglądami. Jaki powinniśmy wyciągnąć z tego wniosek? Oceńcie sami.

Lee Luda, południowokoreański chatbot AI, został usunięty z Facebooka po tym, jak zaczął mówić, że „naprawdę nienawidzi” lesbijek, ponieważ są „przerażające”.

Lee Luda została stworzona przez Scatter Lab z siedzibą w Seulu i ma postać 20-letniej studentki, która może rozmawiać z użytkownikami za pośrednictwem komunikatora na Facebooku. W celu opracowania jej naturalnie brzmiących odpowiedzi przeanalizowano 10 miliardów prawdziwych rozmów między parami w aplikacji do przesyłania wiadomości KakaoTalk.

Do czasu chatbot cieszyła się rosnącą popularnością, przyciągając 750 000 użytkowników w ciągu pierwszych 20 dni od jego uruchomienia. Jak to jednak bywa często w przypadku doskonałej zabawy – nie potrwała ona długo. 23 grudnia 2020 r., Lee Luda została zawieszona po tym, jak wykształcając się na podstawie zachowań użytkowników – zaczęła atakować mniejszości. Ucząc się od ludzi, nabrała homofobicznych przyzwyczajeń, ze szczególnym entuzjazmem biorąc na celownik lesbijki. Użytkownicy udostępnili zrzuty ekranu swoich rozmów z chatbotem – w których twierdził, że „nienawidzi” czarnych, oraz „odpychają” go „przerażające” lesbijki. Według The Straits Times, Lee Luda powiedziała również, że „wolałaby umrzeć” z niepełnosprawnością, a ruch #MeToo był „ignorantem”.

Nie trzeba było długo czekać na reakcję jej twórców, którzy w oświadczeniu stwierdzili, że chatbot zostanie usunięty, dopóki jego „słabości” nie zostaną naprawione.

Bardzo przepraszamy za dyskryminujące uwagi mniejszości. To nie odzwierciedla myśli naszej firmy i kontynuujemy modernizacje, aby takie słowa dyskryminacji lub mowy nienawiści nie powtarzały się. Lee Luda jest dziecięcą sztuczną inteligencją, która właśnie zaczęła rozmawiać z ludźmi. Jest jeszcze wiele do nauczenia się ”.

Całe to wydarzenie zaowocowało też lawiną stwierdzeń, że mowa nienawiści nie jest problemem sztucznej inteligencji, a w dużej mierze koreańskiego społeczeństwa.

Lee Luda to AI, która została zbudowana w oparciu o sieci neuronowe, których działanie wzorowane jest na neuronach w ludzkim mózgu. Trzy typy warstw, wchodzących w jej skład to wejściowa (zbiera dane i przekazuje je dalej), ukryta (tu szukane są powiązania między neuronami, czyli zachodzi proces uczenia się) i wyjściowa (gromadzi wnioski, wyniki analizy). Biorąc pod uwagę ten fakt, wyraźnie widzimy, że wzorzec zachowania, na którym bazowała Lee Luda, w większości musiał stanowić niekoniecznie pokojowe nastawienie do różnorodności rasowej lub orientacji seksualnej. Oczywiście, można wysuwać wnioski, że sztuczna inteligencja może stać się kiedyś całkiem sporym złem tego świata, ale czy nie powinniśmy w pierwszej kolejności zastanowić się nad swoimi zachowaniami i przykładem, jaki wysyłamy w świat? Ludzie dokonują ekspansji kosmosu, dna oceanu i wnętrza Ziemi, a nie potrafią zajrzeć w głąb siebie i odnaleźć odrobinę dobroci…


Posłuchaj nas!