【社交网媒】《華爾街日報》(WSJ)周日(17日)報道,社交網站facebook(fb)內部文件顯示,該公司的人工智能(AI)技術演算法不夠強大,未能有效自動將仇恨和暴力言論等有問題內容屏蔽,自動清除仇恨言論比率甚至只有個位數,與高層向外宣稱的說法不符。
內部文件指AI僅刪約2%帖
據《華爾街日報》取得的fb內部文件顯示,fb的AI無法持續穩定地找出種族仇狠言論、第一身射擊影片,令內部研究人員百思不得其解。其中一個例子是,AI將人們洗車的影片誤以為第一身射擊的影片,另一例子是它誤以為一段射擊影片是車禍片段。
在仇恨言論上,文件顯示fb員工估計公司只移除了不足5%的違反平台守則內容,帖文者的帳戶也往往沒有被懲罰。文件顯示,fb兩年前將花在人工審查仇恨言論的時間減少,令公司更依賴AI代為執行審查,然後在公開數據中誇大AI「執法」的成功率。報道稱,一名高級工程師和研究科學家在2019年中曾估計,被AI系統自動識別後刪除的仇恨言論,僅佔平台內總數約2%。今年3月,fb另一員工小組得出類似結論, 指AI刪除的相關言論只佔所有仇恨言論的3%至5%,佔所有違反fb反暴力和煽動內容的0.6%。
有關數字與fb高層向外宣稱的說法有很大出入。fb總裁朱克伯格曾表示,在2019年底時,fb可以利用AI偵測出絕大部分有問題的內容。fb又曾聲稱,直到今年較早時,近98%的被刪除仇恨言論都是在有用戶舉報前先由AI發現。
fb:數據未反映降內容排序效用
fb發言人斯通(Andy Stone)稱,這些百分比顯示AI移除的內容,但未包括公司令用戶減少看到這類內容而採取的行動,例如將這些內容在動態消息(news feed)的次序降低。fb強調,降低內容次序的做法,令違規內容被看到的機會減少,散播的程度也因此降低,那是公司認為最重要的做法。
(華爾街日報)