AI反詐技術(shù)不能落在后頭
【資料圖】
原標題:AI反詐技術(shù)不能落在后頭
最近,話題“AI詐騙正在爆發(fā)”沖上熱搜。內(nèi)蒙古包頭市公安局發(fā)布一起使用智能AI技術(shù)進行電信詐騙的案件,案件中福州市一家科技公司的法人代表郭先生在10分鐘內(nèi)被騙430萬元。騙子通過智能AI換臉和擬聲技術(shù),佯裝好友對他實施了詐騙。等到郭先生撥打好友電話時,才知道被騙。警方表示,一些詐騙分子利用社交平臺發(fā)布的視頻,截取面部視頻畫面后再利用AI換臉技術(shù)合成,制造視頻聊天的假象騙取其信任,從而實施詐騙。
技術(shù)天然是價值中立的,沒有對錯和善惡之分。一項突破性的技術(shù),與生俱來就擁有強大力量。能不能約束和駕馭這股力量,決定了這項技術(shù)在現(xiàn)代社會所發(fā)揮的現(xiàn)實影響。當下,實現(xiàn)了質(zhì)變的生成式人工智能,無疑走到了關(guān)鍵的十字路口。誠如我們所看到的,AI詐騙、AI造假事件近段時間來密集發(fā)生。此類案件預示著某種風險:過往那種基于生物信息、知識壁壘、專業(yè)身份等所建構(gòu)的關(guān)乎真實與安全的社會防線,備受考驗。
有人運用AI換臉冒充好友視頻聊天借錢,輔之以毫無破綻的聲音合成,簡直可以以假亂真。在很多人的潛意識里,活生生的視頻、面對面的對話,那種基于聲畫一體所形成的神經(jīng)反射式感官反饋,足以形成“就是他本人”的篤定判斷。然而,AI技術(shù)帶來了新的挑戰(zhàn),也即“是他又不是他”。倘若角色視角互換,這就是個如何證明“我是我”的命題。稍有不慎,就可能搭進去真金白銀。
不管承不承認,相比于生成式人工智能一日千里的發(fā)展,人類社會那套基于記憶、經(jīng)驗、直覺、印象以及簡單肖像特征來“識人”的認知體系千古未變,時至今日這套系統(tǒng)正在趨于瓦解和失效。眼見為實,越發(fā)成為一種錯覺式的存在。當然,就算如此,也大可不必陷入“技術(shù)悲觀主義”的悵然情緒中,須知,圍繞技術(shù)工具的善惡交鋒、攻防對壘,本就是現(xiàn)代社會的常態(tài),且結(jié)果往往都導向積極的一面。
隨著AI技術(shù)的普及、通用化,其門檻和成本越來越低,使用者越來越多,由此注定會導致與之相關(guān)的侵權(quán)、違法案例越來越多發(fā)??梢灶A見,在未來的一段時間,群眾或許會感嘆“AI造假層出不窮,AI詐騙防不勝防”。為此破局,一方面要強化公共宣教,確立新的防騙反詐意識;另一方面,還是要加快防御性、對抗性技術(shù)工具的推廣落地和應用嵌入。比如,不妨嘗試在常用的社交媒介軟件中,內(nèi)嵌聲紋、人臉識別的身份核驗模塊。如此,或許就能少些“換臉冒充好友借錢”之類的案件。(然玉)
標簽: