ChatGPT 情商很高,但事實(shí)表明它并不適合當(dāng)搜索引擎
4 月 26 日消息,美媒稱,目前基于大型語言模型的人工智能工具,例如 ChatGPT,更擅長共情而不是提供準(zhǔn)確的事實(shí)信息。這是因?yàn)樵O(shè)計(jì)者優(yōu)先考慮流暢性而非準(zhǔn)確性。加之訓(xùn)練數(shù)據(jù)庫中包含大量情感信息,將大型語言模型植入搜索引擎的競爭毫無意義。
今年早些時(shí)候,普林斯頓大學(xué)計(jì)算機(jī)科學(xué)教授阿爾溫德?納拉亞南(Arvind Narayanan)為自己四歲的女兒開發(fā)了支持 ChatGPT 的語音界面。這不僅是一個(gè)實(shí)驗(yàn),更是因?yàn)榧{拉亞南相信,人工智能機(jī)器人有一天會(huì)成為女兒生活中的重要組成部分。
(資料圖片僅供參考)
納拉亞南的女兒天生好奇,經(jīng)常問他有關(guān)動(dòng)物、植物和人體的問題。他認(rèn)為 OpenAI 開發(fā)的 ChatGPT 可以提供有用的答案。令他驚訝的是,一旦他告訴系統(tǒng)正在與小孩對(duì)話,這款聊天機(jī)器人就能表現(xiàn)出無可挑剔的共情能力。
納拉亞南的女兒問:“燈滅了會(huì)怎么樣?”
“燈滅了,天就黑了,可能會(huì)有點(diǎn)嚇人,”ChatGPT 用人工合成的聲音回答道。“但別擔(dān)心!”“你可以做很多事情來讓自己在黑暗中感到安全舒適?!?/p>
ChatGPT 隨后提出了一些使用夜燈的建議,并最后提醒:“在黑暗中感到有點(diǎn)害怕很正常。”這個(gè)解釋顯然讓納拉亞南的女兒感到很安心。
微軟和谷歌正急于使用大型語言模型技術(shù)來強(qiáng)化搜索引擎。但有充分的理由認(rèn)為,相比于提供事實(shí)性信息,這項(xiàng)技術(shù)更適合作為人們情感上的伴侶。
聽起來可能很奇怪。但無論是谷歌的 Bard 還是微軟的新 Bing,這種人工智能在用于搜索信息時(shí)都出現(xiàn)了一系列尷尬的事實(shí)性錯(cuò)誤。Bard 在首次公開演示時(shí)就給出了關(guān)于詹姆斯?韋伯太空望遠(yuǎn)鏡的錯(cuò)誤信息,而新 Bing 也搞錯(cuò)了一大堆財(cái)務(wù)報(bào)表數(shù)據(jù)。
當(dāng)人工智能聊天機(jī)器人用于搜索時(shí),出現(xiàn)事實(shí)性錯(cuò)誤的代價(jià)很高。Replika 是一款人工智能應(yīng)用程序,下載量已經(jīng)超過 500 萬次。該應(yīng)用程序的創(chuàng)始人尤金尼亞?庫伊達(dá) (Eugenia Kuyda) 表示,當(dāng)人工智能被設(shè)計(jì)成伴侶時(shí),出現(xiàn)錯(cuò)誤的代價(jià)就要低得多。她說:“這不會(huì)影響用戶體驗(yàn),不像搜索,小小錯(cuò)誤就會(huì)破壞用戶對(duì)產(chǎn)品的信任?!?/p>
谷歌前人工智能研究員瑪格麗特?米切爾 (Margaret Mitchell) 曾與人合作撰寫過一篇關(guān)于大型語言模型風(fēng)險(xiǎn)的論文。她表示,大型語言模型根本“不適合”作為搜索引擎。這些大型語言模型之所以會(huì)出錯(cuò),是因?yàn)橛?xùn)練所用的數(shù)據(jù)經(jīng)常包含錯(cuò)誤信息,而且模型也沒有基本事實(shí)來驗(yàn)證所生成的內(nèi)容。此外,大型語言模型的設(shè)計(jì)者可能優(yōu)先考慮生成內(nèi)容的流暢性,而不是準(zhǔn)確性。
這也是這些工具特別擅長迎合用戶的原因之一。畢竟,目前大型語言模型都是從網(wǎng)上抓取文本進(jìn)行訓(xùn)練,其中包括推特和 Facebook 等社交媒體平臺(tái)上發(fā)布的情緒性內(nèi)容,以及 Reddit 和 Quora 等論壇上的個(gè)人心理疏導(dǎo)內(nèi)容。電影電視劇中的臺(tái)詞、小說中的對(duì)話,以及關(guān)于情商的研究論文都進(jìn)入了訓(xùn)練數(shù)據(jù)庫,這使得這些工具更具有同理心。
據(jù)報(bào)道,一些人把 ChatGPT 當(dāng)成機(jī)器人治療師來使用。其中一位說,他們這樣做是為了避免成為別人的負(fù)擔(dān)。
為了測試人工智能的共情能力,人們對(duì) ChatGPT 進(jìn)行了一次在線情商測試。結(jié)果顯示,它表現(xiàn)出色,在社會(huì)意識(shí)、關(guān)系管理和自我管理方面都獲得了滿分,在自我意識(shí)方面只是略有差池。
從某種程度上來說,ChatGPT 在測試中的表現(xiàn)比一些人還要好。
雖然一臺(tái)機(jī)器能為人們帶來共情感受有點(diǎn)不真實(shí),但確實(shí)有一定道理。人們天生需要社會(huì)聯(lián)系,人類大腦也有能力反映他人感受,這意味著即使對(duì)方?jīng)]有真正“感受”到我們的想法,我們也能獲得一種理解感。人類大腦中的鏡像神經(jīng)元會(huì)在我們感受到他人的共情時(shí)被激活,給我們帶來一種彼此相連的感覺。
當(dāng)然,共情是一個(gè)涉及多方面的概念,要想真正體驗(yàn)到這種感覺,人們還是需要與真正的人進(jìn)行交流。
倫敦國王學(xué)院臨床心理學(xué)家托馬斯?沃德 (Thomas Ward) 研究了軟件在心理治療中的作用,他警告人們不要想當(dāng)然地認(rèn)為,特別是在心理問題很嚴(yán)重的情況下,人工智能可以充分滿足人們?cè)谛睦斫】捣矫娴男枨蟆@?,聊天機(jī)器人可能無法理解人的情感復(fù)雜性。換句話說,ChatGPT 很少說“我不知道”,因?yàn)樗谠O(shè)計(jì)上傾向于自信而不是謹(jǐn)慎回答問題。
人們也不應(yīng)該把聊天機(jī)器人作為發(fā)泄情感的習(xí)慣性渠道。沃德說:“在將人工智能聊天機(jī)器人視為消除孤獨(dú)方式的世界里,微妙的人際關(guān)系,例如拉住手或明白何時(shí)說話何時(shí)傾聽,可能會(huì)消失?!?/p>
這可能會(huì)最終導(dǎo)致更多問題。但就目前而言,人工智能在情感方面的技能至少要比它們掌握的事實(shí)更可靠。
標(biāo)簽: