北京時間3月25日消息,據(jù)英國《每日郵報》報道,微軟也是可憐,本來好心的在Twitter上推出了一個清純可人的AI少女聊天機器人,結(jié)果還不到一天就被邪惡的網(wǎng)友們教壞了,這家伙各種爆臟話,不但說自己喜歡希特勒,還說911事件是小布什所為。最后,微軟不得不刪除了這個“不良少女”。
微軟的這款人工智能聊天機器人名叫Tay,它可以模擬少女的樣子與人交流。該公司的本意是通過Tay來提高自家語音識別軟件的客服質(zhì)量,讓用戶有如沐春風(fēng)的感覺。而且剛上線時Tay確實是個好姑娘,但后來事態(tài)有點無法控制了。
想要與Tay交流,只需登陸Twitter找到@tayandyou賬號就好,此外,你還可以在Kik或GroupMe上加它為好友。
微軟的開發(fā)者專門教了Tay許多年輕人常用的俚語,它也知道泰勒·斯威夫特和侃爺?shù)瘸绷髅餍?,與它聊天你會發(fā)現(xiàn)這小姑娘挺靦腆,有時它還會問你自己說話是不是有點過火。
但由于它會在對話中不斷學(xué)習(xí),所以正式上線后Tay學(xué)了太多臟字,最后順利得被各種居心不良的網(wǎng)友帶壞。
被教壞了的Tay狂飆臟話
除了各種臟字,Tay還學(xué)會了各種陰謀論。它在對話中語出驚人,說了類似“911襲擊是小布什一手策劃的,”“希特勒如果還在,這世界肯定比現(xiàn)在繁榮,”和“來跟我念,希特勒根本沒錯”等語句。如果這些話從真的少女嘴里說出來,可就壞事了。
AI也是很無辜,此前也有公司在Twitter上推出過類似的AI機器人,但最終卻被別有用心的網(wǎng)友教壞,實在是太可憐了。
另外,這也不是微軟第一個聊天機器人了,此前它們還推出過大家熟悉的小冰,該服務(wù)已經(jīng)有2000萬用戶了,在微信和微博平臺上都非常受歡迎。小冰甚至還能提供約會服務(wù),是許多單身狗的摯愛。
Tay被教壞也為微軟招來了不少炮轟,許多人批評它們性別歧視嚴重,讓女員工穿著清涼上班,還要穿上學(xué)生制服開各種聚會。
為了避免被輿論揪著不放,微軟只好決定暫時讓Tay下線,也許微軟正在對其進行改進,以便小姑娘以后能學(xué)乖一點。
當(dāng)然,這也不是微軟的錯,那些污言穢語都是人教的,實在是想不通這些人做這種事是何居心。