AI 原則
本譯文僅供參考,若與英文版本牴觸,應以英文版本為準。
我們對 AI 和機器學習的方法
在 Slack,人工智慧 (AI) 和機器學習 (ML) 技術是我們產品服務的核心。我們對資料隱私權和安全性的承諾是一切工作的核心原則,確保有完善的管制機制來保護你的資訊。Slack 的原生 AI 功能即秉持這些承諾來打造。你的客戶資料 (例如訊息和檔案) 絕不會用來訓練任何大型語言模型。
我們所建置設計的 AI 和 ML 功能,旨在讓 Slack 中的作業更簡單、更聰明、更有效率。儘管對 Slack 而言,AI 是較新的功能,然而一直以來,ML 早已是 Slack 體驗重要的一環。本指南深入挖掘將這些技術建置到 Slack 的方法,以及技術之間的鮮明差異:
- 具體而言,AI 是指生成式 AI 功能,由大型語言模型 (LLM) 支援,例如頻道摘要。
- ML 包含的各項功能使用預測模型,例如當提及其他使用者時的表情符號建議和顯示名稱建議。
Slack AI
AI 功能包含在 Slack 付費方案中。管理員可以啟用或停用 AI 功能,讓客戶全權控制在其工作空間中如何及是否使用 AI 功能。
我們在設計 AI 架構時即考慮到隱私權問題。
我們所有 AI 功能都受到 Slack AI 安全機制保護,這是一套內建的基礎防護措施。這類防護措施包括:減少 AI 幻覺的內容限制門檻;限制提示工程的明確安全指示;減少提示插入風險的情境工程;防止網路釣魚攻擊的網址過濾;輸出格式驗證;以及供應商風險緩解措施。
Slack AI 安全機制還會自動套用內容安全篩選器,針對需處理使用者輸入內容的 AI 功能增添安全防護。這些篩選器會即時分析查詢內容,在查詢進入 Slackbot 和搜尋答覆等 AI 系統之前,已識別並防範有害內容、提示插入攻擊和安全風險。
我們的 AI 方針建立在以下三個原則之上:
- 你可以控制 AI 能存取的內容:
你儲存在 Slack 的客戶資料 (例如訊息和檔案) 不會用來訓練大型語言模型。 - 你的資料絕不會用來訓練大型語言模型。
工作空間與組織管理員可以隨時開啟或關閉 AI 功能,讓客戶完全掌控 AI 的使用方式。Slack AI 只會使用你有權檢視的內容。舉例來說,AI 搜尋答覆僅包含你也能透過標準搜尋方式找到的結果。 - 你的資料會保留在 Slack 受信任的基礎架構內。
我們使用的大型語言模型部署在 Slack 的雲端環境中,因此模型供應商無法存取你的資料。
注意:管理員可以決定工作空間或 Enterprise 組織中的成員是否有權限存取我們的 AI 功能。請參閱管理 Slack 的 AI 功能存取權瞭解詳情。
Slack 的機器學習
我們也採用預測式的機器學習模型,協助提升 Slack 體驗。當你在表情符號選擇器中看到你和團隊成員最近使用過的某個表情符號,或者某個自動完成建議幫助你在公司找到使用一般名稱的正確人員,這背後都是因為我們的 ML 模型能確保這些建議的關聯程度與準確性之故。
- 透過機器學習模型,我們可以提供高品質、個人化的體驗。
- 我們建置並訓練模型,使模型不會再製客戶資料,且模型的輸出不會連結特定客戶的資料。
提示:請參閱我們的隱私權原則,一覽我們在 Slack 和客戶控制方面所遵循的產品開發告知原則。
深入瞭解模型與資料
如需深入瞭解我們使用的生成式模型與預測模型,以及這些模型如何為我們的 AI 和機器學習功能提供技術支援,請參閱 Slack 人工智慧、機器學習與資料使用。此資源詳細說明我們的 AI 及機器學習資料處理做法,適合想要深入瞭解相關資訊的使用者參考。



