多年來每當Meta 為Instagram、WhatsApp和Facebook推出新功能時,審核團隊都會評估可能的風險:它會侵犯用戶隱私嗎?它會對未成年人造成傷害嗎?它會加劇誤導性或有害內容的傳播嗎?直到最近Meta內部所謂的隱私和完整性審查幾乎完全由人工評估員進行。但現在根據NPR獲得的公司內部文件,高達90%的風險評估將很快自動化。
實際上這意味著Meta演算法的關鍵更新、新的安全功能以及公司平台上內容共享方式的改變等內容將主要由人工智慧系統批准——不再受到負責討論平台變化如何產生不可預見的後果或被濫用的工作人員的審查。
在Meta內部這項變更被視為產品開發者的一大優勢,他們現在可以更快地發布應用程式更新和功能。但Meta的現任和前任員工擔心,新的自動化措施的代價是允許人工智慧做出一些棘手的判斷,判斷Meta的應用可能在現實世界中造成哪些危害。
從功能上來說這種流程意味著更多產品可以更快地發布,審查和反對力度也更小,但也意味著風險更高,一位因擔心遭到公司報復而要求匿名的前Meta高層表示。 產品變更帶來的負面外部效應不太可能在它們開始給世界帶來問題之前就被阻止。
消息來源
|