Slack from Salesforce 標誌
新聞

Slack 在使用機器學習和 AI 時如何保護你的資料

Slack 團隊2024 年 5 月 17 日

最近聽到有些 Slack 社群成員說我們發布的隱私權原則不夠明確,這可能會造成人們對我們在 Slack 中使用客戶資料的方式有所誤解。我們很重視這些意見,因此在審視我們網站上的用語後,發現他們說的沒錯。我們的確可以對此做更好的說明,特別是有關傳統機器學習 (ML) 模型與生成式 AI 之間的資料使用差異何在。

今天,我們更新了這些原則,以期更清楚地說明 Slack 在提供 ML 及生成式 AI 體驗時如何保護客戶資料。以下是原則的修改要點說明:

  • Slack 採用業界標準及保護隱私權的機器學習技術,來提供頻道和表情符號推薦與搜尋結果。我們建立或訓練這些模型時,絕不會讓它們有能力學習、記住或重現任何類型的客戶資料。儘管客戶可以選擇退出,但這些模型可為使用者提供更好的產品體驗,無需擔心其資料遭到分享。Slack 的傳統 ML 模型使用去識別化的彙總資料,且不會存取訊息內容 (包含私訊、私人頻道或公開頻道中的內容)。
  • Slack 的擴充生成式 AI 產品 Slack AI 採用第三方 LLM。沒有任何客戶資料會被用來訓練 LLM 模型。我們也不會用客戶資料來開發 LLM 或其他生成式模型。

信任是我們的最高價值,而這必須從確保透明度開始做起。我們理應向客戶清楚解釋我們如何使用,還有更重要的是,如何不使用客戶資料來盡可能提供最佳的 Slack 體驗。

這篇貼文旨在更深入的釐清相關疑義。我們希望這對釋疑有所幫助,我們至始至終都很重視你的意見。

保護你的資料:Slack 如何使用傳統機器學習模型

Slack 的使命是要讓人們的工作生活變得更簡單、更愉快且更有效率。Slack 擁有大量資訊,為了把工作做到最好,你必須要能夠有效率地導覽這些內容並迅速找到所需資訊。自 2017 年起,我們即開始採用業界標準、保護隱私權的機器學習技術,將正確的資訊適時呈現給正確的使用者,舉例來說,在搜尋中開始輸入時自動完成頻道名稱,或在加入你的工作空間時推薦新頻道。

我們以隱私權原則做為在 Slack 中使用機器學習系統的指導原則。我們對外公布本隱私權原則以確保透明度和問責性。這些原則符合 Slack 致力於維護客戶和使用者隱私的長久承諾。它們旨在確保:

  • 資料不會外流至不同的工作空間。我們在建立和訓練 ML 模型時,絕不會讓它們有能力學習、記住或重現客戶資料。
  • ML 模型從未直接存取訊息或檔案內容。它們是仰賴謹慎推導出的數值特徵。例如:
    • 頻道中傳送最後一則訊息的時間戳記可幫助我們建議封存頻道,讓使用者的頻道測欄保持簡潔。
    • 兩人之間的互動次數會整合到使用者推薦清單中,如此當使用者要開始新的對話時,他們即可取得相關共事者的清單。
    • 頻道名稱與使用者所屬其他頻道間重複的字詞數量,可用來判斷頻道與該使用者的相關性。
  • 技術控管機制可防止未經授權的存取。在我們開發 AI/ML 模型或以其他方式分析客戶資料時,Slack 並不會存取底層內容。我們有各種技術措施來避免此事發生。如果想要瞭解有關保護客戶資料機密和安全的控管機制詳情,請參閱我們的安全性白皮書
  • 客戶可以選擇是否要採取該等作法。如果不想要你的客戶資料被用來訓練 Slack 的 ML 模型,你可以選擇退出,相關說明請參閲這裡。由於我們設有強大的保護措施來確保安全地訓練這些 ML 模型,以利盡可能提供最佳產品體驗,因此工作空間並未預設為選擇退出。

以下幾個範例說明 Slack 是如何運用非生成式 ML 模型,幫助你輕鬆找到所需資訊。

搜尋排名

在使用者搜尋人員、訊息或檔案時,建立按優先順序排列的個人化結果清單。

運作方法:
我們的搜尋機器學習模型可藉由識別特定查詢的正確結果,協助使用者找到他們所要尋找的資訊。我們做法是根據過去的搜尋結果和先前的參與度,而非學習搜尋查詢、結果或 proxy 的底層文本。簡而言之,我們不會使用實際的搜尋查詢來訓練機器學習模型,而是學習搜尋的情境脈絡,例如搜尋的字詞數。

推薦
在產品內的各個位置推薦相關使用者、頻道、表情符號和其他內容,例如建議你可以加入的頻道。

運作方法:
我們常會在使用者的工作空間中推薦他們加入新的公開頻道,協助他們充分利用 Slack 的價值。這些建議是以頻道成員資格、活動和主題的重疊性為依據。我們藉由使用開放原始碼的 ML 模型來保護隱私權,並用這些模型來分析主題相似度和輸出的數值評分,模型的開發完全沒有使用到 Slack 資料。我們的模型僅根據這些數值分數和非客戶資料進行推薦。

自動完成
協助你將使用者、頻道和檔案名稱新增到使用 Slack 搜尋用戶端的訊息中。

運作方法:
當使用者想要在訊息中引述頻道或使用者時,他們會在開頭處輸入 # 符號,接著開始輸入頻道名稱。我們的模型會根據幾種輸入來建議與使用者搜尋相關性最高的頻道,這些輸入包括使用者所屬頻道,以及他們最近和經常性的頻道互動。

總結來說,Slack 的傳統 ML 模型使用去識別化的彙總資料,且不會存取私訊、私人頻道或公開頻道中的原始訊息來提供建議。實際上,它們是收集彙總資料來增進搜尋和推薦能力,以及提供更好的建議。

客戶選擇退出和使用者體驗

客戶可以透過寄送電子郵件給 Slack 來選擇退出非生成式 ML 模型的訓練。一旦這麼做,你工作空間的所有相關資料只會用來增進你自身工作空間的體驗。即使不對底層模型做出貢獻,你還是可以享受我們全域訓練模型的優勢。我們不會關閉任何產品功能,但產品內某些使用者原本可以提供意見的地方可能會遭到移除。由於我們不會再針對你的特殊使用模式進行優化,貴團隊的全域模型表現可能會稍差。

換言之,每一個選擇退出的客戶都會感受到些微影響,但選擇退出的客戶數目越多,這類模型的整體表現會越差。

進入生成式 AI

生成式 AI 引進了新型模型,明確來說是大型語言模型 (LLM) 來改善使用者體驗。Slack 單獨販售的擴充產品 Slack AI 即會使用到 LLM。我們在建立 Slack AI 時,總是把安全和信任放在首位,特別是:

  • 客戶資料絕不會從 Slack 外流。
  • 我們不會用客戶資料來訓練 LLM。
  • Slack AI 的運作基礎只包含使用者原本就能看見的資料。
  • Slack AI 符合 Slack 的所有企業級安全性和合規性要求。

Slack 不會使用客戶資料訓練 LLM 或其他生成式模型,也不會與任何 LLM 提供者分享客戶資料。

你可以參閲這裡,進一步瞭解我們如何建立兼顧安全與隱私性的 Slack AI。

這則貼文有幫助嗎?

0/600

超讚!

非常感謝你提供意見回饋!

知道了!

感謝你提供意見回饋。

糟糕!我們遇到問題了。請稍後再試一次!

繼續閱讀

新聞

深度防禦:三大安全性新功能,保護數位總部安全

這些增強功能不僅提供更高的透明度,還讓團隊可以在未來的工作中獲得安全感