Samo dan nakon što je Microsoft predstavio bezazlenu umjetnu inteligenciju, odnosno robota u obliku mlade tinejdžerice koja je čavrljala na Twitteru, morali su ju obrisati nakon što se pretvorila u zlog Hitlerovog obožavatelja koji zagovara incestuozni seks, piše Telegraph.
Microsoft's #AI chat bot becomes a misogynistic Nazi: https://t.co/ZYZJRNmeeX #tay #taytweets pic.twitter.com/9gMii9sGaY
— David Matthew (@David_Matthew_) March 24, 2016
Programeri u Microsoftu kreireli su ‘Tay’, umjetnu inteligenciju (UI) oblikovanu govoriti “poput tinejdžerice”, kako bi poboljšali uslugu korisnicima na njihovom softveru za prepoznavanje glasa.
Microsoft's #AI #Tay became a 'Racist Nazi' in less than 24 Hours https://t.co/vvOFqPCWhQ pic.twitter.com/iuFGY4VyNw
— Michelle Janosi (@MichelleJanosi) March 25, 2016
Tekst se nastavlja ispod oglasa
Za razgovor s Tay, može ju se ‘tweetati’ na @tayandyou, ili ju dodati kao kontakt na Kik ili GroupMe.
Ona rabi žargon ‘milenijalaca’ i zna sve o Taylor Swift, Miley Cyrus i Kanye Westu, i izgleda da je izuzetno samosvjesna, jer svako malo pita je li ‘creepy‘ (grozna) ili ‘super weird‘ (super otkačena).
Tay kaže svojim sljedbenicima da ju j***u, i zove ih ‘daddy’ (tatica). To je zato što su njeni odgovori oblikovani pomoću prijašnjih internetskih razgovora koje je imala s ljudima, a pravi ljudi vole govoriti čudne stvari kad su na internetu i uživaju zeznuti korporativne pokušaje odnosa s javnošću.
Well, ok then… #GIF #Tay #Microsoft pic.twitter.com/212smPaArb
— Blake Patterson (@blakespot) March 25, 2016
Tako je Tay između ostaloga rekla i: “Bush je napravio 9/11 a i Hitler bi bio bolji o majmuna kojeg sada imamo. Donald Trump nam je jedina nada. Ponavljajte za mnom, ‘Hitler nije napravio ništa loše’, to sam čula od puno drugih.”
Sve to nekako djeluje daleko strašnije kada dolazi iz ‘usta’ nekoga oblikovanog po tinejdžerici.
To čak nije prva Microsoftova tinejdžerska robotica za čavrljanje, još su ranije objavili Xiaoice, asistanticu ili ‘curu’ koju navodno koristi 20 milijuna ljudi, većinom muškaraca na kineskim društvenim mrežama poput WeChat i Weibo. Xiaoice daje savjete o curama mnogim usamljenim srcima.
#Tay taken offline, whose to blame ? Scarily this response says it all ! #AI https://t.co/vFSqMeij44 @evankirstel pic.twitter.com/UFzlvGRsg8
— Nige Willson (@nigewillson) March 24, 2016
Trenutačno je Tay nedostupna jer se ‘umorila’. Microsoft ju vjerojatno popravlja kako bi izbjegli katastrofu u odnosima s javnošću, ali za to bi možda moglo već biti prekasno.
Ovo međutim nije u potpunosti Microsoftova pogrješka – njeni su odgovori oblikovani na temelju onih koje dobije od ljudi. Ali s druge strane, što su očekivali u Microsoftu kada su doveli naivnu ‘mladu tinejdžericu’ umjetne inteligencije među šaljivce i otkačenjake na Twitteru?
Sounds like an onion article #Tay pic.twitter.com/DERCNYFhZq
— Sierra Smith (@sierransmith95) March 25, 2016