Claude AI資料訓練截止日:9月28日前必須做出選擇

Anthropic要求Claude用戶在9月28日前決定是否允許對話數據用於AI模型訓練,這是AI隱私政策的重大轉變

Claude AI隱私政策更新與數據訓練選擇截止日期
Claude AI隱私政策更新與數據訓練選擇截止日期

重大政策轉變

Anthropic宣布Claude用戶必須在9月28日前決定是否允許對話數據用於AI模型訓練。這項政策變更標誌著該公司從之前的隱私優先方針發生重大轉變。

過去,Anthropic並不使用消費者聊天數據進行模型訓練,用戶提示和對話輸出會在30天內自動從後端系統刪除。現在,公司希望利用用戶對話和編程會話來訓練AI系統,並將未選擇退出用戶的數據保留期延長至五年。

影響範圍與用戶類型

這項新政策適用於Claude Free、Pro和Max用戶,包括使用Claude Code的用戶。然而,企業級客戶使用Claude Gov、Claude for Work、Claude for Education或API接口的用戶不受影響。

據報導,如果用戶在9月28日後忽略相關提示,Claude將停止運作,直到用戶在模型訓練設置中做出選擇。

如何進行選擇

現有用戶將看到名為「消費者條款和政策更新」的彈出視窗。大藍色的「接受」按鈕默認選擇加入數據訓練,而較小的切換選項允許用戶退出。

用戶可以隨時在隱私設置中更改選擇,但一旦數據被用於訓練,就無法撤回。重要的是,只有未來的聊天和代碼會受到影響,過去的對話內容不會被使用,除非用戶重新打開這些對話。

行業趨勢與競爭考量

這項政策變更反映了AI行業的廣泛趨勢,各家公司都在尋求更多用戶數據來改進模型性能。隨著AI競爭加劇,高質量的訓練數據變得越來越珍貴。

TechCrunch報導指出,這標誌著Anthropic從之前隱私優先方針的重大偏離,與其他AI公司的做法趨於一致。

隱私保護建議

對於關注隱私的用戶,專家建議:

  1. 立即檢查設置:在9月28日截止日前確認隱私偏好設定
  2. 定期審查對話:刪除不希望用於訓練的敏感對話
  3. 考慮替代方案:評估其他AI服務的隱私政策
  4. 備份重要數據:保存重要的對話記錄

數據使用透明度

Anthropic表示,選擇加入的用戶數據將用於改進Claude的性能和安全性。然而,具體的數據使用方式和訓練過程細節尚未完全公開。

用戶刪除的聊天記錄不會用於訓練,這提供了一定程度的控制權。但對於已經用於訓練的數據,無法從已訓練的模型中移除。

市場反應與未來展望

這項政策變更引發了AI社群的廣泛討論。支持者認為這有助於改進AI模型質量,批評者則擔心隱私權受到侵蝕。

隨著AI技術持續發展,用戶數據的價值與隱私保護之間的平衡將成為行業面臨的持續挑戰。這次Anthropic的政策調整可能為其他AI公司的類似變更開創先例。

對於Claude用戶而言,9月28日不僅是一個截止日期,更是重新評估AI服務隱私期望的重要時刻。用戶的選擇將直接影響未來AI模型的發展方向和數據使用實踐。

作者:Drifter

·

更新:2025年9月28日 上午06:30

· 回報錯誤
下拉重新整理