經(jīng)濟日報:人工智能大模型要按暫停鍵嗎 當前最新
(資料圖片)
ChatGPT引發(fā)的人工智能大模型競賽,令很多人擔心人工智能失控。3月底國際上就有一批專家發(fā)出聯(lián)名公開信呼吁:立即暫停訓練比GPT-4更強大的人工智能系統(tǒng)。人工智能大模型要按暫停鍵嗎?
從可行性來看,這個暫停鍵目前還沒人能按下去。就在5月10日,谷歌宣布推出最新的大型語言模型PaLM 2,稱其在部分任務上已經(jīng)超越GPT-4。這很明顯是無視了公開信的呼吁,公開對GPT-4等競爭對手發(fā)起挑戰(zhàn)。
人工智能大模型已經(jīng)成為當前國際投資熱點,各方不斷加碼,競賽不斷提速。技術狂飆的背后,是科技企業(yè)和風險投資公司的盈利沖動,除非觸發(fā)政府部門的強制干涉,依賴行業(yè)自律按下暫停鍵的目標不太可能實現(xiàn)。此外,目前大模型的權力集中在“大玩家”手中,現(xiàn)實中行業(yè)壟斷的危害比未來可能出現(xiàn)的人工智能危害更迫在眉睫,與簡單叫停大模型研究相比,規(guī)范人工智能“玩家”是更緊迫的需求。技術創(chuàng)新難以抑制,與其叫停研究,還不如盡快制定和完善人工智能治理相關法規(guī),讓創(chuàng)新研究在陽光下運行,在規(guī)則內(nèi)運行。
從復雜性來看,大模型的健康發(fā)展本身就有賴于技術進步,需要以人工智能來監(jiān)督、限制人工智能。
人工智能大模型“涌現(xiàn)”出寫文章、做翻譯、寫代碼、制圖像等許多意想不到的能力,部分能力和人不相上下,生產(chǎn)速度則遠超人類,已讓許多人感受到?jīng)_擊。它為什么能夠達到目前的能力?目前大模型的“智能涌現(xiàn)”是個黑箱,沒有人能理解、預測或可靠地控制這些大模型,甚至模型的創(chuàng)造者也不能。
對人工智能大模型開黑箱、對數(shù)據(jù)泄露上鎖、對虛假內(nèi)容做標記、對網(wǎng)絡攻擊等危險行為實施監(jiān)測防范,一方面需要從科研倫理規(guī)范上增加透明度,讓大模型研發(fā)、訓練、生成、推理的鏈路變得更加透明;另一方面也需要使用好技術工具,用人工智能大模型來幫助人類理解和控制人工智能大模型。這話聽起來繞口,實際已有成功案例。ChatGPT的締造者美國OpenAI公司近日發(fā)布一項成果,就是用GPT-4大模型來自動解釋GPT-2大模型的行為,在人工智能可解釋性研究領域獲得重大突破。
眼見可為虛,耳聽也不為實。人工智能大模型以其彪悍的信息造假能力,對社會信任帶來重大沖擊。從一些調查結果看,不少人贊同暫停超越GPT-4能力的大模型研究,先解決已知風險再按啟動鍵。人工智能是國家戰(zhàn)略技術,是未來引領經(jīng)濟發(fā)展的助推器。對中國人工智能產(chǎn)業(yè)而言,需要的不是暫停研究,而是吸取國外大模型發(fā)展的前車之鑒,讓大模型研發(fā)在合規(guī)下運行。
科技治理為科技創(chuàng)新保駕護航,人工智能治理已成為重要的國際科技競爭力。大禹治水,“堵”不如“疏”。在研發(fā)人工智能大模型的同時,構建高效透明的科研倫理商談審批機制,拆壁壘、緩痛點、疏堵點,才能建立起更有競爭力、更可持續(xù)發(fā)展的人工智能產(chǎn)業(yè)生態(tài)。
(文章來源:經(jīng)濟日報)
標簽: