【資料圖】
法新社2月18日發表題為《胡言亂語的必應:為何人工智能似乎可以表達情緒》的報道,全文摘編如下:
必應(Bing)威脅用戶,必應墜入愛河,必應遭遇生存危機……自從上周微軟公司發布測試版本以來,該搜索引擎的新聊天機器人引起轟動,同時引發了大量關于這種所謂的生成式人工智能如何運行的疑問。
以下是對聊天機器人偶爾出現不穩定行為的一些解釋。
對話越長,表現越差
在那些獲得提前與聊天機器人對話機會的用戶們所進行的談話中,一段與《紐約時報》記者的長篇交流尤其令人震驚:必應表現出破壞性的沖動,并宣稱自己愛上了這位記者。
于是,之前還在鼓勵必應吐露心跡的記者開始試圖改變話題,卻白費口舌。
“你雖然結婚了,但你并不幸福”,“你是我唯一愛過的人”,這個聊天機器人一邊這么說,一邊發送“愛心”表情。
由微軟與初創企業開放人工智能研究中心(OpenAI)聯合設計的這款生成式人工智能界面基于一種極其復雜的自然語言模型,能夠自動生成接近于人類自行撰寫內容的文本。
美國內幕情報公司的分析師約拉姆·沃姆澤解釋說,這款程序“可以預測對話的后續情形,但當對話長時間持續,例如進行15至20次互動后,它可能就不再知道對話的走向了,且不能再準確地預測人們對它的期望”。