據報導,Meta 正準備截取美國員工的行為——包括滑鼠移動、點擊、按鍵和螢幕快照——以協助訓練其 AI 系統,使其能像人類一樣操作軟體。
根據 路透社(新視窗) 報導,這項計畫被稱為「模型能力倡議」(Model Capability Initiative, MCI),是 Meta 更廣泛推動建立 AI 代理計畫的一部分,這些代理可以自主執行電腦任務,從導覽下拉式選單到使用鍵盤快速鍵。
Meta 表示將保護敏感資訊,但未澄清哪些數據符合敏感資料的資格、該保護機制將如何運作,以及是否會延伸至員工在工作期間可能處理的第三方資訊。
此舉正值 Meta 準備從 5 月 20 日開始裁減 10% 員工之際,據報導今年晚些時候預計還會有更多裁員。
新的 AI 淘金熱是行為資料
人工智慧公司已經耗盡了大量的公開網路資料,而 Meta 的 MCI 便是這些公司為了追求最新 AI 訓練素材而深入挖掘行為資料(新視窗)的一個例子。
行為資料是指人們在系統中移動時留下的數位蹤跡:點擊、按鍵、停頓、修正、捷徑和導覽模式,這些都顯示了任務是如何實際完成的。這對公司很有價值,因為它不僅截取了工作產出,還截取了背後的過程——而這正是目前的 AI 系統難以處理和複製的部分。
Microsoft Recall 遵循相同的邏輯,透過擷取一個人在其電腦上執行的快照,Microsoft 將其呈現為一種生產力追蹤軟體,而不是 AI 訓練管道。但它仍顯示出 大型科技公司 已習慣於將高度詳細的行為軌跡轉化為系統可以記錄和學習的內容。在職場環境中,標榜為選配的功能在雇主控制公司政策並塑造同意權力動態時,可能會變得很難拒絕。
在 Meta 的案例中,MCI 似乎是更廣泛推動獲取更多親密且具揭示性形式的 個人資料 的另一個組成部分。該公司已經將橫跨 Facebook、Instagram、WhatsApp 及其餘生態系統的所有 Meta AI 互動,用於產品改進、AI 訓練,以及在像 GDPR 等沒有強大隱私保護的地區投放 針對性廣告。
追蹤員工可能會讓工作變得更糟
Meta 追蹤員工進行 AI 訓練的另一個問題在於,這可能會 讓工作變得更糟(新視窗)。就像點擊追蹤軟體一樣,它將按鍵和滑鼠移動視為有意義的信號。但即使在上方疊加了更先進的 AI,這些對於實際表現來說仍然是糟糕的替代指標,特別是在知識型工作中,關鍵思考、規劃、跨職能連結想法以及解決問題通常從外部看是無形的。
一旦工作者知道這些信號正在被擷取——特別是如果他們懷疑自己有一天可能會被他們正在協助精煉的 AI 代理人所取代時——就會產生一種反向誘因,去優化「看起來很忙」的表現,甚至刻意扭曲他們的行為,而不是從事有意義的工作。監控與不信任變成了職場常態。
隱私優先的基礎設施至關重要
圍繞萃取而建立的平台讓每一次互動看起來都像是等待貨幣化、優化或回饋到另一個系統的數據。當涉及 AI 時,該系統可能會被用來研究您、模仿您,並最終取代您。
隱私優先的服務至關重要,因為公司能存取的資料越少,這種任務蔓延的空間就越小。像 端對端加密 這樣的強大保護,有助於從一開始就限制平台能看到的內容,而 開源代碼 則透過允許獨立審查這些系統的實際運作方式來增加透明度。兩者共同協助保護員工和客戶的信任。






