周三,微軟的人工智能聊天機器人 Tay 短暫回歸了 Twitter ,但是她依然非常不智能。
盡管這次 Tay 不再像首次上線時那樣發(fā)布大量帶有仇恨與偏見的信息,但仍然出言不遜。
她先是在推特上發(fā)布了一條“我在警察面前嗑藥”的推特。接著她就失控了,所有關注 Tay Tweets 的用戶都會重復不斷地收到來自 Tay 發(fā)布的同一條推特 “ 你們太快了,請休息一下。”
于是 Tay 馬上又從推特上下線了,這一次微軟將 Tay 的頁面信息設置為了隱私,想要關注她的用戶必須通過后臺驗證,任何用戶現(xiàn)在都沒辦法再看到 Tay 所發(fā)送的歷史消息。
上周 Tay 因為各種過激言論而被迫下線后,微軟的副總裁 Peter Lee 曾出面道歉并表示漏洞被人利用是造成不當言論發(fā)布的主要原因,當微軟的工程師們能夠更好地預計和控制人工智能會表達的言論之后,再上線 Tay 。
但,人工智能 Tay 這次又失控了。
微軟一開始意圖將 Tay 打造為一個能夠在推特上與 18-24 歲的年輕人進行交流的女孩兒,同時通過不斷學習新的信息而變得越來越聰明。但這兩次 Tay 的上線時間都非常短暫,我們甚至都還沒有機會看看當 Tay 的學習時間足夠多時,她是否能變成一個正常的 19 歲女孩兒。
人工智能依然有很長的路要走。