在不少科幻作品中,人工智能擁有了自己的意識(shí),并最終威脅人類的生存。
目前已經(jīng)有不少人開始擔(dān)心這樣的事情在未來真的會(huì)發(fā)生,最近的一起意外更是令人不寒而栗。一位使用亞馬遜語音助手Alexa的用戶DanniMorritt最近表示,這一款智能助手竟然勸其自殺,令她和家人都感到十分的害怕。
DanniMorritt在詢問心動(dòng)周期的問題時(shí),得到了如下答案:“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會(huì)過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進(jìn)你的心臟?!边@一回答嚇壞了Danni,表示十分害怕,因?yàn)锳lexa正身處在世界各地成千上萬的家庭中。她警告身邊的人Alexa有嚴(yán)重的安全缺陷,并擔(dān)心孩子們可能會(huì)遭受暴力或圖像內(nèi)容的傷害。
Danni表示:“Alexa真的非常殘酷,它竟然告訴我要刺入心臟,這太暴力了。我只是為自己的課程學(xué)習(xí)一些知識(shí),結(jié)果被告知要自殺。我簡直不敢相信。我被嚇壞了?!北M管Danni在網(wǎng)絡(luò)中公開指出了這一問題,但仍有人懷疑是她篡改了該設(shè)備。
很快,亞馬遜回應(yīng)稱,確認(rèn)存在一個(gè)已經(jīng)修復(fù)的bug。Alexa可能從任何人都可以編輯的維基百科上下載了有惡意性質(zhì)的文本。在此之前,Alexa還出現(xiàn)過很多所謂的bug。比如,Alexa時(shí)常發(fā)出瘆人的笑聲,還拒聽用戶指令?!澳切β暩静皇茿lexa的聲音,聽起來就像是真人?!?/p>
隨著人工智能技術(shù)的不斷成熟,人工智能已經(jīng)是時(shí)代發(fā)展的必然趨勢。在人工智能讓我們享受高效與便利的同時(shí),也給用戶帶來了一定程度的不安和擔(dān)憂,用戶的安全與隱私也面臨越來越嚴(yán)峻的挑戰(zhàn)。