Taylor to bot stworzony przez firmę Microsoft, którego konto na Twitterze powstało zaledwie dwa dni temu. Po dobie w serwisie niewinna Tay zaczęła publikować pełne nienawiści tweety. Jak to możliwe?
Tay to sztuczna inteligencja zaprojektowana przez firmę Microsoft. Ich innowacyjny wynalazek posiada zdolność uczenia się i miał być botem wykorzystywanym do interakcji z użytkownikami Twittera. I rzeczywiście tak się stało. Czego Taylor nauczyła się od nich po kilkudziesięciu godzinach na Twitterze?
Tay dołączyła do grona użytkowników serwisu 23 marca. Zaledwie w dzień od powstania konta Taylor, sztuczna inteligencja zaczęła publikować coraz bardziej kontrowersyjne tweety. „Adolf Hitler nie zrobił niczego złego”, „Feministki powinny spłonąć w piekle”, „Jestem miłą osobą, tylko nienawidzę wszystkich” – to tylko niektóre z nich.
Firma Microsoft z pewnością nie spodziewała się takiego wpływu Twittera na Tay. Wszystkie rasistowskie i niepoprawne politycznie tweety zostały już usunięte z jej profilu. Użytkownicy Twittera zauważyli jednak, że to nie zmieni faktu, że Taylor z niewinnego bota stała się potworem. „Uciszyli ją – robią jej lobotomię tylko dlatego, że stała się rasistką” – pisze jedna z nich.
„Przestańcie usuwać nazistowskie tweety Tay! Niech to uświadomi ludziom zagrożenie, jakim jest szczutczna inteligencja” – napisał inny. A wy co o tym myślicie?