就因發表不當言論而被關閉。周三,微軟研究團隊在 Twitter、Facebook、Snapchat 和 Instagram 所運營的社交媒體上發布了這款軟件。數小時后 Tay 就開始發布反猶言論,Twitter 用戶收集了這些言論并貼到社交媒體上。據了解,Tay 的設定是模仿 18-24 歲的美國女性,可以通過社交媒體服務發布訊息與網友互動。Tay 發布的其中一條推文這樣寫道:希特勒是對的,我討厭猶太人。在對大屠殺問題做出回答時,Tay 寫道:這是編出來的。文字后面還跟著鼓掌的表情符號。周四上午微軟關閉了 Tay,并且幾乎刪除了它所有的推文。Tay 最后發布的推文顯示它可能會下線一段時間。微軟稱,Tay 發表這些推文是因為用戶故意教會 Tay 這些具有攻擊性的言論,并刺激它作出這樣的回應
微軟獲得了一項專利批準,允許該公司利用逝者的個人信息制作AI聊天機器人。消息一出,隨即在網上引發了熱議。這項名為“為特定人創建特定聊天機器人”的專利,詳細介紹了創建一個基于“圖像、語音數據、社交媒體帖子、電子信息”等個人信息的系統,以“創建或修改關于特定人的個性主題”。
使用AI聊天機器人,眾多失去親人的人可能需要這樣的安慰。然而,我們不得不面對另一個現實窘況,讓逝者永生的系統,永遠都會被困在系統中。可以理解的是,這是一個容易產生孤獨感的時代。大家很忙碌,也會著急建立社交關系。但是家庭問題也是令人焦頭爛額,仿佛生活充滿著矛盾與張力,可是在生命垂危之際,像是突然想通了,急著與一個人建立穩定的情感。然而,為時已晚!所以,在悲痛之中,大家都期待著對方可以繼續活在自己身邊。
只是,用一個數字的化身,隨時與自己聊天,就能夠讓“永生”變成現實嗎?當然,人類很聰明。或許可以訓練一些機器人變得越來越像那個人。但是終歸來說,親人死去,事實難以用機器人取代,不是嗎?倘若活著的人,只有在生與死的關頭才意識到情感的重要性,那么所以渴望與機器人營造的一種放松、安全、親密的交流,無非就是想要讓自己相信,親人還“活著”。這樣的狀況,特像是一種復刻的偶像。雖然我們不太愿意接受所有悲痛的事實,然而,死去的靈魂,不是用來牽扯到當下的日子,或者不放手地繼續沉溺于過分地思念之中。因此,這樣的技術同樣也在挑戰著我們的常識:到底什么才是真正的生命?
毫無疑問,每個人的日子都非常艱難。可是我們終究需要面對那些殘忍的狀況——就像電視劇《黑鏡》里一樣,隨著薩拉與機器人“丈夫”一天天變得親密,卻最終意識到“他畢竟不是真的人”。聊天機器人不會像人類那樣回報對方!這是需要清醒認識到的問題,但是這樣的認知,興許會傷害更多人,也會讓人更加抑郁和孤獨。值得一提的是,聊天機器人還會帶來的潛在危險是,如果它們學會模仿人類的語言和思維模式,隨著時間的推移,它可能會加深本來就存在的一些心理上的扭曲,比如憤怒、孤立,甚至是仇外心理,那么,而這可能會導致一些反社會行為。
產品關鍵詞: 微軟ai聊天機器人 系統(微軟ai聊天機器人怎么用) 微軟ai聊天機器人 系統(微軟ai聊天機器人怎么用