微軟推出 Azure AI Content Safety,可自動檢測仇恨暴力等負(fù)面網(wǎng)絡(luò)內(nèi)容|今日精選
(資料圖片僅供參考)
IT之家 5 月 24 日消息,微軟推出了一款由人工智能(AI)驅(qū)動的內(nèi)容審核服務(wù)型產(chǎn)品 ——Azure AI Content Safety(Azure AI 內(nèi)容安全服務(wù)),旨在降低社區(qū)環(huán)境中的負(fù)面信息。
該產(chǎn)品提供了一系列經(jīng)過訓(xùn)練的 AI 模型,能夠檢測圖片或文本中與偏見、仇恨、暴力等相關(guān)的負(fù)面內(nèi)容,并可以理解并檢測包含八種語言的圖片或文本,為被標(biāo)記的內(nèi)容嚴(yán)重性進(jìn)行打分,指示人工審核員哪些內(nèi)容需要采取行動。
Azure AI 內(nèi)容安全服務(wù)內(nèi)置于 Azure OpenAI 服務(wù)中,并向第三方開發(fā)者開放,支持包括英語、西班牙語、德語、法語、中文、日語、葡萄牙語、意大利語在內(nèi)的八種語言。Azure OpenAI 服務(wù)是一項由微軟管理、以企業(yè)為中心的服務(wù)產(chǎn)品,旨在讓企業(yè)訪問 AI 實驗室 OpenAI 的技術(shù)并增加治理功能。與其他同類型產(chǎn)品相比,Azure AI 內(nèi)容安全服務(wù)能更好地理解文本內(nèi)容和文化背景,在處理數(shù)據(jù)和內(nèi)容時更加精準(zhǔn)。
微軟表示,與其他同類型產(chǎn)品相比,該款產(chǎn)品在公正性和理解上下文方面有顯著改進(jìn),但該款產(chǎn)品仍需要依賴人工審核人員標(biāo)記數(shù)據(jù)和內(nèi)容。這意味著最終其公正性還是取決于人類。而在處理數(shù)據(jù)和內(nèi)容時,人工審核人員可能帶著自己的偏見,因此依然無法做到完全中立審慎。
而在處理涉及機(jī)器學(xué)習(xí)視覺感知的議題時,因由 2015 年,谷歌的 AI 圖像識別軟件曾將有色(黑)人種標(biāo)記成猩猩,引發(fā)巨大爭議事件影響。在八年后,現(xiàn)在的科技巨頭們?nèi)該?dān)心“政治正確”“重蹈覆轍”。而本月早些時候,OpenAI 首席執(zhí)行官山姆?阿爾特曼在美國參議院小組委員會聽證會上,呼吁政府對人工智能(AI)進(jìn)行監(jiān)管。他指出,如果這項技術(shù)出錯,會錯得很嚴(yán)重,會對世界造成重大傷害。IT之家提醒,即使是先進(jìn)的 AI 技術(shù)也可能被濫用或誤用,因此對 AI 進(jìn)行監(jiān)管和規(guī)范至關(guān)重要。
標(biāo)簽: