根據《美國國家公共廣播電台》(NPR)報導,臉書母公司 Meta 正計劃大幅調整產品風險評估流程,未來 高達90% 的審核工作將交由 AI系統 執行,取代傳統的人工審核,以加快決策速度。此舉引發內部員工及外界對潛在風險的擔憂。

Meta公司總部 - 翻拍自網路

AI全面接管風險評估,涵蓋青少年安全與假訊息審查

Meta 內部文件顯示,新政策將使 AI 主導包括 青少年安全、暴力內容、虛假資訊 等敏感領域的審核。過去,這些評估主要由人工團隊進行,以確保新功能或產品更新不會對用戶造成潛在危害。

然而,近兩個月 Meta 已加速推動 AI 審核機制。現在,產品團隊只需填寫問卷並提交 AI 系統,即可獲得 「即時決策」,大幅縮短審核時間。

員工警告:AI可能忽略人工能識別的風險

多名現任及離職 Meta 員工向 NPR 表示,AI 系統可能 無法辨識某些複雜風險,例如:

  • 隱蔽的霸凌或騷擾行為

  • 具有爭議但未違規的誤導性內容

  • 針對特定族群的潛在危害

一位前高層更直言,減少人工審核意味著 「創造更高風險」,產品變更的負面影響可能在問題爆發前 難以被即時阻止

Meta回應:AI處理低風險決策,人類仍負責複雜問題

Meta 官方聲明強調,公司仍會保留 「人類專業知識」 來處理 「新穎且複雜的問題」,AI 主要負責 「低風險決策」,以提高效率。

然而,Meta 稍早公布的 最新季度誠信報告 顯示,在調整審核政策後:
✅ 被刪除的內容數量下降(符合預期)
⚠️ 但霸凌、騷擾、暴力內容卻略有上升

業界觀察:AI審核成趨勢,但準確性仍待驗證

科技媒體《IT之家》分析,Meta 此舉反映科技業 「AI優先」 的策略方向,但如何在 效率與安全 之間取得平衡,將是未來關鍵挑戰。

關注我們

投票

分類

評論