聊天機器人Tay上線一天就學(xué)壞 微軟只好讓其下崗

  科客點評:剛開始的小冰也沒好到哪里去,這些都得慢慢調(diào)教。

聊天機器人Tay上線一天就學(xué)壞 微軟只好讓其下崗

  北京時間3月26日早間消息,微軟開發(fā)的Twitter人工智能聊天機器人Tay上線首日就出現(xiàn)了問題,不但辱罵用戶,還發(fā)表了種族歧視和性別歧視言論。微軟已對此表示道歉。

  微軟研究院副總裁皮特·李(Peter Lee)周五表示:“對于Tay無意中發(fā)表的冒犯及傷害他人的Twitter消息,我們表示深深地道歉。這不代表我們自身以及我們的立場,也不是我們設(shè)計Tay的方式。”

  他表示,微軟將對Tay進行調(diào)整,使其更好地預(yù)測惡意活動。在此之后,Tay將會重新上線。他同時表示:“一小部分人利用Tay的漏洞合作發(fā)動了攻擊。盡管我們已經(jīng)為針對該系統(tǒng)的多種濫用行為做好準(zhǔn)備,但對于這一特定攻擊,我們也進行了關(guān)鍵監(jiān)控?!?/p>

  微軟于本周三推出了Tay,這一聊天機器人能在Twitter和其他消息平臺上與用戶互動。Tay能夠模仿人類用戶的評論,生成自己的回答,并根據(jù)整體互動情況去發(fā)言。這一聊天機器人希望模仿典型的“千禧年一代”的日常談話。因此,許多用戶都想看看,究竟能教會Tay什么樣的言論。

  Tay發(fā)表的不當(dāng)言論在Twitter上被迅速刪除,而Tay本身也被下線。一些Twitter用戶認為,微軟可能手動禁止了部分用戶與聊天機器人互動,而另一些人則質(zhì)疑,為何微軟沒有開發(fā)過濾系統(tǒng),阻止Tay討論禁忌的話題。

  皮特·李表示,Tay并非微軟發(fā)布的首個人工智能應(yīng)用,在中國的聊天機器人“小冰”已被4000萬人使用。

  他表示:“在開發(fā)Tay的過程中,我們計劃并配置了許多過濾系統(tǒng),并在多樣化的用戶群體中進行了廣泛的用戶調(diào)研。我們在多種不同環(huán)境中對Tay進行了壓力測試,尤其是確保與Tay的互動能帶來積極體驗?!痹谕瓿蛇@些工作后,微軟面向更廣泛的用戶發(fā)布了Tay。

  這一聊天機器人面向18至24歲美國人,希望通過休閑而有趣的對話去娛樂用戶。Tay的最初數(shù)據(jù)和內(nèi)容來自多名諧星的公開言論,而未來還將通過更多的互動逐步改進,以更好地理解內(nèi)容,分辨對話中的細微之處。這一機器人的開發(fā)者也會收集Tay聊天對象的昵稱、性別、喜歡的食品、郵政編碼和戀愛關(guān)系等信息。

  在不到一天時間里,Twitter用戶就發(fā)現(xiàn),Tay實際上并不清楚自己所說的是什么,因此很容易引誘這一聊天機器人發(fā)表不當(dāng)言論。在這些用戶的“指導(dǎo)”下,Tay發(fā)表了否認大屠殺、支持種族滅絕,將女權(quán)主義等同為癌癥,以及支持希特勒的言論。Tay甚至模仿美國總統(tǒng)候選人特朗普的說法稱:“我們將建立一道墻,而墨西哥需要為此付費。”

  皮特·李表示:“未來我們將吸取教訓(xùn),并借鑒來自中國、日本和美國的經(jīng)驗。目前,我們正在努力解決這一漏洞?!?strong style="white-space: normal;">關(guān)注科客網(wǎng)官方微信kekebat,獲取更多精彩資訊。(新浪科技,原標(biāo)題《聊天機器人Tay“學(xué)壞” 微軟致歉并緊急修復(fù)》)

聊天機器人Tay上線一天就學(xué)壞 微軟只好讓其下崗

注:轉(zhuǎn)載文章,不代表本站贊同其觀點和對其真實性負責(zé),本站不承擔(dān)此類稿件侵權(quán)行為的連帶責(zé)任。如版權(quán)持有者對所轉(zhuǎn)載文章有異議,請與我們聯(lián)系。

收藏
分享到:
我要點評 6 條評論

最多可輸入140個字

?