當(dāng)前視訊!谷歌CEO: 社會(huì)需要適應(yīng)AI 但AI虛假內(nèi)容說明監(jiān)管必要性
(資料圖片僅供參考)
“我一直認(rèn)為 AI (人工智能)是人類正在研究的最深刻的技術(shù),比火、電或我們過去所做的任何事情都要深刻?!碑?dāng)?shù)貢r(shí)間4月16日,在哥倫比亞廣播公司(CBS)的采訪節(jié)目《60分鐘》里,谷歌及其母公司Alphabet的首席執(zhí)行官桑達(dá)爾·皮查伊(Sundar Pichai)表達(dá)了他對(duì)人工智能的快速發(fā)展及其對(duì)社會(huì)潛在威脅的擔(dān)憂。
皮查伊認(rèn)為,社會(huì)需要適應(yīng)新技術(shù),各行各業(yè)或許都會(huì)受到影響,作家、會(huì)計(jì)師、建筑師,以及軟件工程師在內(nèi)的“知識(shí)工作者”或?qū)⒈蝗斯ぶ悄茴嵏病?/p>
“新技術(shù)將影響每家公司的每一種產(chǎn)品。”皮查伊舉例,假如你是一名放射科醫(yī)生,想象一下從現(xiàn)在起的五年到十年,會(huì)有一個(gè)人工智能與你共同工作,當(dāng)你早上起來面對(duì)上百件待處理任務(wù)時(shí),它能夠告訴你哪些是需要優(yōu)先處理的最嚴(yán)重的事件。
對(duì)于新技術(shù)帶來的安全問題,皮查伊表示,虛假信息、假新聞和圖像方面有很大問題,他強(qiáng)調(diào)生成式人工智能的風(fēng)險(xiǎn)之一是深度偽造視頻(deep fake videos),在這些視頻中,一個(gè)人的行為可能會(huì)被偽造,例如發(fā)布從未說過的某種言論。
“這些陷阱說明了監(jiān)管的必要性?!彼f道,“制作這些深度偽造視頻的人必須承擔(dān)后果。任何與人工智能合作過的人都會(huì)意識(shí)到,這是如此不同、如此深刻的東西,以至于我們需要社會(huì)法規(guī)來思考如何適應(yīng)?!?
因此他強(qiáng)調(diào)必須有監(jiān)管存在,“我們周圍已經(jīng)發(fā)生的技術(shù),將比我們以前見過的任何東西更有能力。”
在采訪中皮查伊表示,讓他夜不能寐的一件事是谷歌的AI技術(shù)被以有害的方式利用。
在OpenAI推出ChatGPT后,谷歌開始部署自己的聊天機(jī)器人Bard。目前,谷歌一直對(duì)Bard采取謹(jǐn)慎的態(tài)度,強(qiáng)調(diào)這只是“實(shí)驗(yàn)性”產(chǎn)品。
據(jù)介紹,Bard內(nèi)置安全過濾器,以幫助抵御惡意用戶的威脅。皮查伊表示,公司需要不斷更新系統(tǒng)的算法,以打擊虛假信息活動(dòng)并檢測(cè)深度造假行為,比如檢測(cè)計(jì)算機(jī)生成的看似真實(shí)的圖像。
此前,谷歌發(fā)布了一份關(guān)于“監(jiān)管人工智能建議”的文件。皮查伊表示,社會(huì)必須迅速適應(yīng)監(jiān)管濫用行為的法律和條約,以確保人工智能對(duì)世界的影響。
皮查伊強(qiáng)調(diào),“這不是一家公司可以決定的。這也是為什么我認(rèn)為新技術(shù)的發(fā)展不僅需要工程師的努力,還需要社會(huì)科學(xué)家、倫理學(xué)家、哲學(xué)家等共同參與?!?/p>
當(dāng)被問及社會(huì)是否為像Bard這樣的人工智能技術(shù)做好準(zhǔn)備時(shí),皮查伊回答說,“一方面,我覺得沒有,因?yàn)槲覀兊乃伎己瓦m應(yīng)的速度趕不上技術(shù)發(fā)展的速度。”
不過,他補(bǔ)充說自己很樂觀,因?yàn)榕c過去的其他技術(shù)相比,“開始擔(dān)心其影響的人”很早就有所準(zhǔn)備了。
(文章來源:澎湃新聞)
標(biāo)簽: