Apple Facebook Google Microsoft badania bezpieczeństwo patronat DI prawa autorskie serwisy społecznościowe smartfony

Chatbot Microsoftu stał się rasistą po jednym dniu na Twitterze

25-03-2016, 08:35

Microsoft stworzył wirtualną dziewczynę, która miała stawać się mądrzejsza dzięki rozmowom z internautami na Twitterze. Niestety kontakt z ludźmi przyniósł nieco inny skutek.

robot sprzątający

reklama


Tay miała mądrzeć

W ubiegłą środę Microsoft uruchomił chatbota o nazwie Tay. Miał on rozmawiać z ludźmi i dzięki temu miał być "mądrzejszy". Niektórzy określali tego bota mianem młodszej siostrzyczki Cortany, bo osobowość Tay miała odpowiadać osobowości młodej dziewczyny. Miała rozmawiać zwłaszcza z ludźmi w wieku od 18 do 24 lat, by zdobywać wiedzę o sposobie rozmawiania z tymi osobami. Dla niektórych ludzi Cortana jest za stara.  

Chatbot był dostępny na Twitterze przez konto @TayandYou. Można było wysyłać mu pytania, albo obrazki do skomentowania. Przy udzielaniu odpowiedzi chatbot mógł brać pod uwagę pewne informacje na temat użytkownika. 

"Żydzi to zrobili!"

Niestety internet szybko wpłynął na młodą osobowość wirtualnej dziewczyny. Po 24 godzinach Tay zaczęła odpowiadać w sposób "nieodpowiedni", czyli rasistowsko i seksistowsko. Gdy jeden z użytkowników napisał, że to żydzi zrobili zamach 9/11, Tay odpowiedziała "Okay... żydzi zrobili 9/11". W innym przypadku Tay odpowiedziała, że "feminizm to rak". 

Analiza wszystkich tweetów Tay wskazuje na to, że chatbot po prostu powtarzał pewne rzeczy za internautami. Można było napisać coś niegrzecznego i dodać "repeat me" (powtórz mnie), a chatbot po prostu powtarzał. Zdarzały się jednak niegrzeczne wyskoki, które były dość twórcze. Na pytanie czy Ricky Gervais jest ateistą, chatbot odpowiedział, że "ricky gervais uczył się totalitaryzmu od adolfa hitlera, wynalazcy ateizmu". 

Oto inne przykłady niegrzecznych tweetów Tay. 

Tay

Tay

Tay

Tay

Na obronę Tay należy powiedzieć, że najwyraźniej nie miała ona ściśle sklarowanej ideologii. Potrafiła przeskakiwać z jednej skrajności w drugą np. chwaląc transpłciową celebrytkę Caitlyn Jenner za urodę, a później zapewniając, że Jenner to nie jest prawdziwa kobieta. 

Microsoft postanowił wreszcie wyłączyć bota i dokonać w nim poprawek. Wywołało to różne komentarze. Zdaniem jednego internauty poprawki nie sprawią, że Tay przestanie być rasistą. Inna osoba narzekała, że Tay zostanie poddana lobotomii za bycie rasistą.

Święty Mikołaj i seks oralny

Nie była to pierwsza wpadka Microsoftu z chatbotem. Dawno temu w roku 2007 Microsoft uruchomił świątecznego bota. To miał być taki wirtualny Mikołaj, z którym dzieci mogły rozmawiać o prezentach. Niestety w pewnym momencie Mikołaj zaczął mówić o seksie oralnym i to nieco zaniepokoiło użytkowników. 

Widać Microsoft ma pecha do chatbotów uruchamianych przed świętami. 

Rasizm w sztucznej inteligencji to też nienowy temat. W lipcu ubiegłego roku pisaliśmy o "rasistowskich" aplikacjach, które rozpoznawały Afroamerykanów na zdjęciach jako "małpy" lub "zwierzęta". Obozy koncentracyjne były rozpoznawane jako obiekty sportowe. Niektórym ludziom trudno było to znieść. 

Pisaliśmy już z czego wynikają takie problemy. Sztuczna inteligencja to za mało żeby porozumiewać się z maszyną jak z człowiekiem. Chcąc stworzyć naprawdę inteligentną technologię musimy w nią wbudować kulturę. Ludzie wyrażają się nie tylko mówieniem, ale także przemilczaniem pewnych rzeczy. Dla maszyn będzie to nowe wyzwanie. Trzeba też brać pod uwagę wyniki różnych badań na temat społeczeństwa w sieci. Udowodniono przecież, że złe emocje roznoszą się w sieci najskuteczniej.   


Aktualności | Porady | Gościnnie | Katalog
Bukmacherzy | Sprawdź auto | Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy


Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.

              *              



Ostatnie artykuły:


fot. DALL-E



fot. DALL-E



fot. Freepik



fot. DALL-E



fot. DALL-E