環(huán)球熱點(diǎn)評(píng)!ChatGPT 爆火之下,生成式人工智能同樣存在“遠(yuǎn)憂近慮”
十多年前三位人工智能研究人員取得的一項(xiàng)突破,永久性地改變了人工智能領(lǐng)域。
他們創(chuàng)造了一個(gè)名為“AlexNet”的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng),并采用 120 萬張網(wǎng)絡(luò)圖片來訓(xùn)練這個(gè)系統(tǒng)。最終,該系統(tǒng)成功地識(shí)別了諸如貨柜船、美洲豹之類的各種物體,準(zhǔn)確度遠(yuǎn)超以往的圖像識(shí)別系統(tǒng)。
三位開發(fā)人員分別是亞歷克斯?克里日夫斯基(Alex Krizhevsky)、伊利亞?薩茨基弗(Ilya Sutskever)和杰弗里?辛頓(Geoffrey Hinton)。他們憑借這項(xiàng)發(fā)明在 2012 年度的 ImageNet 圖像辨識(shí)競(jìng)賽中獲勝。AlexNet 的研制成功,使得科技界開始認(rèn)識(shí)到機(jī)器學(xué)習(xí)的潛力,并就此帶來了一場(chǎng)人工智能革命。
(資料圖)
很大程度上,這場(chǎng)人工智能革命是一個(gè)靜悄悄的常人并不注意的革命。對(duì)于基于機(jī)器學(xué)習(xí)的人工智能在未來可能接管所有人類工作的前景,大部分人在不久前還對(duì)此一無所知。機(jī)器學(xué)習(xí)是一項(xiàng)涉及計(jì)算機(jī)從大量數(shù)據(jù)中學(xué)習(xí)的底層技術(shù),已被廣泛應(yīng)用于許多過去只能由人類完成的工作中,比如信用卡欺詐識(shí)別和在線內(nèi)容關(guān)聯(lián)廣告等。
但近期,人工智能領(lǐng)域又取得了一項(xiàng)波及到整個(gè)人類社會(huì)的突破,使得這場(chǎng)革命不再如過去那般靜悄悄 —— 人們終于意識(shí)到,自己的“飯碗”正受到人工智能的威脅。
ChatGPT 引爆新一輪人工智能革命
這一突破的代表事例之一就是 ChatGPT,一個(gè)在去年 11 月底發(fā)布的問答文本生成系統(tǒng)。這樣的系統(tǒng)過去一般只在科幻小說中見到,但現(xiàn)在,它已走進(jìn)了公眾視野,成為光芒閃耀的存在。
ChatGPT 由美國人工智能研究機(jī)構(gòu) OpenAI 所創(chuàng)建,是大熱的所謂生成式人工智能系統(tǒng)中最新同時(shí)也最引人注目的一個(gè)。這種生成式人工智能可以按照人類發(fā)出的指令來生成相應(yīng)的內(nèi)容。AlexNet 的創(chuàng)建者之一伊利亞?薩茨基弗正是 OpenAI 的聯(lián)合創(chuàng)始人。
據(jù)悉,如果在 ChatGPT 中輸入一個(gè)問題,它將生成一段簡(jiǎn)明扼要的文字,這段文字包含了問題答案和相關(guān)的背景知識(shí)。例如,當(dāng)問它是誰贏得了 2020 年的美國總統(tǒng)選舉,它會(huì)告訴你是喬?拜登在選舉中獲勝,此外,它還會(huì)額外告訴你拜登是何時(shí)開始就職的。
ChatGPT 使用簡(jiǎn)單,問題輸入后瞬時(shí)就生成問題答案,看起來就像是一個(gè)正常人類在和你進(jìn)行交流。正是因?yàn)檫@個(gè)特性,人工智能現(xiàn)在很有希望走進(jìn)人們的日常生活。截至目前,微軟已向 OpenAI 投資了數(shù)十億美元,這也足以說明該技術(shù)的看好度。ChatGPT 很有可能在這場(chǎng)人工智能革命的下一階段扮演中心角色。
不過,ChatGPT 只是近期一系列引人注目的人工智能成果中的一項(xiàng)。OpenAI 的另一個(gè)人工智能系統(tǒng),即自動(dòng)寫作系統(tǒng) GPT-3,在 2020 年首次演示時(shí)就已經(jīng)讓科技界為之震驚。此后,其他公司也很快推出了各自的大型語言模型系統(tǒng)。然后,人工智能技術(shù)在去年進(jìn)一步擴(kuò)展到圖像生成領(lǐng)域,代表產(chǎn)品包括 OpenAI 的 Dall-E2、Stability AI 的開源型 Stable Diffusion,以及 Midjourney 等系統(tǒng)。
隨著這些技術(shù)成果的出現(xiàn),人們開始蜂擁為這些技術(shù)尋找各種新的應(yīng)用場(chǎng)景。預(yù)料新應(yīng)用將會(huì)大量出現(xiàn),可能足以比擬史前寒武紀(jì)時(shí)期的生命形態(tài)大爆發(fā)。
如果計(jì)算機(jī)能學(xué)會(huì)寫作和繪畫,那還有什么是它們做不到的呢?最近,人工智能已開始實(shí)驗(yàn)性地應(yīng)用于視頻生成(Google)、數(shù)學(xué)問題回答(Google)、音樂創(chuàng)作(Stability AI)、代碼生成等領(lǐng)域。制藥公司也計(jì)劃利用人工智能技術(shù)來針對(duì)性地輔助設(shè)計(jì)新藥物。已有生物技術(shù)公司利用人工智能來設(shè)計(jì)新抗體,并大大縮短了臨床前測(cè)試所需的時(shí)間。
人工智能將徹底改變?nèi)祟惻c計(jì)算機(jī)互動(dòng)的方式,它將以一種前所未有的方式來理解人類意圖,并采取相應(yīng)的行動(dòng)。人工智能將成為一項(xiàng)基礎(chǔ)性的技術(shù),觸及人類社會(huì)的所有方面。
隨著人工智能日益廣泛的應(yīng)用,人們需要考慮該技術(shù)可能給人類社會(huì)帶來的負(fù)面影響。例如,ChatGPT 可能會(huì)被青少年利用來代替他們完成家庭作業(yè)。更嚴(yán)重的是,人工智能可能被故意用來產(chǎn)生大量虛假信息。此外,它還可以將許多人類工作自動(dòng)化,這可能會(huì)造成嚴(yán)重的失業(yè)問題。
人工智能是否可靠?
認(rèn)同生成式人工智能的人士認(rèn)為,這些系統(tǒng)可以提高人類的生產(chǎn)力和創(chuàng)造力。對(duì)于任何需要?jiǎng)?chuàng)意性的工作而言,生成式人工智能系統(tǒng)有助于人們破除思想束縛,并向工作人員建議新想法,協(xié)助檢查工作,乃至幫助生產(chǎn)大量?jī)?nèi)容。然而,盡管“生成式”人工智能易于使用,并有可能顛覆大部分技術(shù)領(lǐng)域,但它對(duì)公司和個(gè)人都提出了深刻的挑戰(zhàn)。
人工智能帶給人類的最大挑戰(zhàn)在于可靠性。人工智能系統(tǒng)能夠生成看起來很可信的結(jié)果,但事實(shí)上未必是那么回事。人工智能是根據(jù)海量數(shù)據(jù)按照概率原理來做出最佳猜測(cè)并形成問題答案。但是,對(duì)它們所生成的結(jié)果,人工智能并不具備人類思維意義上的那種真正理解。
人工智能無法記住與人類的對(duì)話,他們并不真正理解人類,對(duì)現(xiàn)實(shí)世界中的文字符號(hào)沒有任何概念。人工智能只是根據(jù)人類發(fā)出的指令,給出看起來很有說服力的回應(yīng)。它們是既聰明又無腦的人類模仿者,它們的結(jié)果輸出只是一種數(shù)字幻覺。
已經(jīng)有跡象表明,該技術(shù)可能產(chǎn)生看起來可信但并不值得信賴的結(jié)果。例如,去年底,F(xiàn)acebook 母公司 Meta 展示了一個(gè)名為 Galactica 的生成式系統(tǒng),該系統(tǒng)使用學(xué)術(shù)論文作為數(shù)據(jù)集來進(jìn)行訓(xùn)練。很快,人們就發(fā)現(xiàn),該系統(tǒng)可按要求生成看起來可信但實(shí)際上完全虛假的研究結(jié)果。于是,Meta 不得不在幾天后就撤回了這一系統(tǒng)。
ChatGPT 的創(chuàng)建者也承認(rèn),該系統(tǒng)有時(shí)會(huì)給出很荒謬的答案,這是因?yàn)樵谟?xùn)練人工智能時(shí),無法保證數(shù)據(jù)集的真理性 / 正確性。OpenAI 稱,所謂的監(jiān)督式學(xué)習(xí)(即在人類監(jiān)督下接受訓(xùn)練,而不是讓它自學(xué)訓(xùn)練)對(duì) ChatGPT 并不奏效,因?yàn)樵撓到y(tǒng)往往比它的人類老師更善于找到 “理想的答案”。
一個(gè)可能的解決方案是在結(jié)果輸出之前對(duì)結(jié)果進(jìn)行合理性檢查。Google 在 2021 年發(fā)布的實(shí)驗(yàn)性 LaMDA 系統(tǒng),對(duì)每個(gè)人類指令都給出了大約 20 個(gè)不同回應(yīng),然后 Google 對(duì)每一個(gè)回應(yīng)的安全性和可靠性(groundedness)都進(jìn)行評(píng)估。然而,有專家認(rèn)為,任何依靠人類來驗(yàn)證人工智能輸出結(jié)果的系統(tǒng)都可能會(huì)帶來更多問題。比如,這可能教會(huì)人工智能去產(chǎn)生有欺騙性但看起來更可信的內(nèi)容,從而再次愚弄人類。真相有時(shí)難以捉摸,而人類并不十分擅長(zhǎng)探究真相,因而,靠人類來評(píng)估人工智能的輸出結(jié)果也并不一定靠譜。
也有專家認(rèn)為,對(duì)諸如輸出結(jié)果是否合理之類的哲學(xué)式問題其實(shí)無需多慮,只需要專注于人工智能技術(shù)的實(shí)用價(jià)值就行。比如,互聯(lián)網(wǎng)搜索引擎的輸出有時(shí)也同樣包含錯(cuò)誤信息和有用結(jié)果,但人們自己會(huì)對(duì)結(jié)果進(jìn)行鑒別,并從中找出對(duì)他們有用的東西。人們需要學(xué)會(huì)鑒別性的使用這些人工智能工具,以從中受益。當(dāng)然,孩子們不能利用這些系統(tǒng)來在學(xué)校舞弊。
但是,實(shí)踐表明,讓人們?nèi)プ孕需b別“生成式”人工智能的輸出結(jié)果,可能并不是一個(gè)好主意,原因是人們往往過度相信人工智能的輸出結(jié)果 —— 他們會(huì)不自覺地將人工智能當(dāng)作真正的人來看待,而忘記了這些系統(tǒng)其實(shí)并不真正理解人類的意思。
由此看來,人工智能的可靠性可能的確是一個(gè)問題。這項(xiàng)技術(shù)有可能會(huì)被不良人士蓄意利用,成為虛假信息生成工廠,虛假信息可能因此充斥社交媒體平臺(tái)。人工智能還可能被用于模仿特定人士的寫作風(fēng)格或說話聲音??傊?,虛假內(nèi)容的制作將變得前所未有的容易、廉價(jià)且無限制。
Stability AI 的總裁?,?shù)?莫斯塔克(Emad Mostaque)對(duì)此表示,可靠性問題是人工智能與生俱來的內(nèi)在問題。人們既可以以一種合乎道德法律的方式去使用這項(xiàng)技術(shù),也可以不道德不合法地使用它。他聲稱,居心不良的人士必然會(huì)利用這些先進(jìn)的人工智能工具,對(duì)此唯一的防范措施就是盡可能廣泛地傳播該技術(shù),以及對(duì)所有人開放這項(xiàng)技術(shù)。
但是,在專業(yè)人士眼里,人工智能技術(shù)的廣泛傳播,究竟是否可以有效防范該技術(shù)的負(fù)面效應(yīng),仍有很大爭(zhēng)議。許多專家主張,應(yīng)該限制對(duì)人工智能基礎(chǔ)技術(shù)的訪問。來自微軟的人士就表示,他們公司會(huì)與客戶緊密溝通,以了解他們對(duì)該技術(shù)的使用情況,確保人工智能得到負(fù)責(zé)任的使用。
此外,微軟也盡力防止利用它的人工智能產(chǎn)品做不良事情的行為。該公司會(huì)為客戶提供必要的工具,以掃描輸出結(jié)果中的攻擊性內(nèi)容,以及客戶不想見到的特定內(nèi)容。這家公司深刻認(rèn)識(shí)到,人工智能也會(huì)出現(xiàn)行為異常:就在 2016 年,微軟在推出智能聊天機(jī)器人 Tay 僅僅一天后,就不得不匆忙撤回這款產(chǎn)品,原因是這個(gè)機(jī)器人向用戶輸出種族主義等偏激言論。
在某種程度上,技術(shù)本身就有可能抑制住人工智能的濫用。例如,Google 已經(jīng)開發(fā)出一個(gè)語言系統(tǒng),能夠以 99% 的準(zhǔn)確率檢測(cè)一段語音是否是用人工智能合成。Google 所有在研的人工智能模型都禁止生成真實(shí)人物的圖像,這對(duì)預(yù)防深度偽造(deep fake)將起到一定作用。
人類的工作是否會(huì)被大量取代?
隨著生成式人工智能的橫空出世,人們?cè)俅伍_始激辯人工智能對(duì)人類工作的影響。智能機(jī)器是否會(huì)大量取代人類工作?又或者,通過接管人類工作中的程序性部分,人工智能反而提高了人類的生產(chǎn)力,并進(jìn)一步提高成就感?
涉及大量設(shè)計(jì) / 寫作元素的職業(yè)和工作崗位將面臨著人工智能的直接沖擊。去年夏末,Stability AI 推出了人工智能文本轉(zhuǎn)圖像模型“Stable Diffusion”。這個(gè)模型可以根據(jù)人類提供的文字描述瞬時(shí)生成相匹配的圖像。這款人工智能工具給整個(gè)商業(yè)藝術(shù)界和設(shè)計(jì)界都帶來了一陣恐慌。
一些科技公司已經(jīng)在嘗試將“生成式”人工智能應(yīng)用于廣告業(yè)。這方面的代表公司是 Scale AI,它正在使用廣告圖片來訓(xùn)練一個(gè)人工智能模型。這個(gè)模型可能用于為小型零售商和小品牌制作專業(yè)的產(chǎn)品廣告圖片,從而為商家節(jié)省廣告制作費(fèi)用。
總之,人工智能有可能影響到那些內(nèi)容創(chuàng)作人士的生計(jì)。這項(xiàng)技術(shù)徹底改變了整個(gè)媒體行業(yè)。全球的主要內(nèi)容供應(yīng)商都認(rèn)為,他們需要一個(gè)元宇宙戰(zhàn)略,同時(shí)也需要一個(gè)“生成式”媒體戰(zhàn)略。
部分處于被人工智能取代邊緣的創(chuàng)作人士認(rèn)為,問題并不僅僅止于他們的工作生計(jì),還有更深層次的東西。一位音樂家在看到 ChatGPT 創(chuàng)作的很像他的風(fēng)格的歌曲時(shí),他是如此的震驚,以至于他在網(wǎng)上發(fā)出了如下感嘆:音樂家是在痛苦中創(chuàng)作音樂,這種創(chuàng)作建立在復(fù)雜的內(nèi)心苦痛的基礎(chǔ)之上,但對(duì)人工智能而言,它們沒有人類的感覺,感受不到人類的痛苦。
技術(shù)樂觀主義者的看法則有所不同。他們認(rèn)為,人工智能并不會(huì)取代人類的創(chuàng)造力,反而可以增強(qiáng)人類的創(chuàng)造力。比如,在過去,設(shè)計(jì)師僅能一幅幅地去創(chuàng)作單一圖片,但在有了人工智能圖像生成器后,他就可以更多聚焦于整個(gè)視頻或整個(gè)作品集的創(chuàng)作了。
不過,現(xiàn)有的版權(quán)制度對(duì)創(chuàng)作人士并不是很有利。采用人工智能技術(shù)的公司聲稱,美國允許“合理使用”(fair use)受版權(quán)保護(hù)的材料,因此他們可以免費(fèi)利用所有可用的數(shù)據(jù)來訓(xùn)練他們的系統(tǒng)。但許多藝術(shù)家及相關(guān)團(tuán)體對(duì)此非常不滿,他們認(rèn)為,人工智能公司使用他們的藝術(shù)作品來訓(xùn)練人工智能,是對(duì)這一版權(quán)特許權(quán)利的濫用。就在上周,蓋蒂圖片社(Getty Images)和三位藝術(shù)家對(duì) Stability AI 和其他人工智能公司采取了法律行動(dòng)。這是創(chuàng)作界首次針對(duì)人工智能訓(xùn)練數(shù)據(jù)問題采取行動(dòng)。
一名代理人工智能公司應(yīng)訴的律師說,人工智能業(yè)界都已清楚,法律訴訟不可避免,也為此做好了準(zhǔn)備。這些訴訟事關(guān)數(shù)據(jù)在人工智能中的地位問題,將確立相關(guān)的基本規(guī)則 —— 這對(duì)科技行業(yè)的影響并不亞于當(dāng)年智能手機(jī)剛興起時(shí)的專利大戰(zhàn)。
從根本上,法院和立法者將扮演為人工智能時(shí)代的版權(quán)制度確立基本框架的角色。如果他們認(rèn)為人工智能技術(shù)已經(jīng)顛覆了現(xiàn)有版權(quán)制度的基礎(chǔ),那么版權(quán)制度就將面臨變革。