Slack 中 AI 功能的安全性
人工智能 (AI) 是 Slack 产品体验的核心,我们所做的一切都是基于我们对数据安全和隐私的承诺。Slack 的原生 AI 功能正是基于这些承诺而构建。概述如下:
- 客户数据会始终保留在由 Slack 控制的基础设施内,绝不会被用于训练大型语言模型 (LLM)。如需了解更多信息,请参阅我们的 AI 准则。
- Slack 中的 AI 功能仅基于成员有权访问的数据运行,并遵守 Slack 所有企业级安全与合规要求。
- Slack AI 安全护栏为我们的 AI 功能(包括新版 Slackbot)提供多层级安全框架,既保障数据隐私,又降低滥用风险。查看下方的常见问题以了解更多详情。
常见问题
Slack 中的 AI 功能如何运作?
Slack 使用托管在我们安全的云基础结构中的第三方大型语言模型 (LLM),以及你的 Slack 工作区或组织中已有的数据,为你提供成套的个性化 AI 效率工具。当你使用 Slack 原生 AI 功能时,我们会使用运行于标准安全架构之上的内部排序模型,以查找并整理最相关的信息。当 LLM 生成回复时,信息会包含在推理请求中,但请求处理完成后不会保留信息。
我的 Slack 数据是否会被用于训练 LLM?
客户数据绝不会用于训练第三方 LLM。我们使用的是一种称为“检索增强生成”(RAG) 的技术,仅在推理时向 LLM 发送每项任务必需的数据。在使用 RAG 时,数据是在推理请求的上下文中发送的。虽然模型可能会临时缓存这些数据,但不会将其存储在数据库或磁盘中。
Slack 的 AI 功能如何保障频道和消息的隐私?
Slack AI 功能仅使用请求时成员可以访问的 Slack 数据,不会显示或使用成员未加入的私人频道或私信 (DM) 中的数据。例如,AI 搜索绝不会出现任何 Slack 常规搜索中不会出现的结果。同样,摘要和 Slackbot 回复也不会包含你在阅读频道或私信时无法看到的内容。
什么是 Slack AI 安全护栏
Slack AI 安全护栏采用多层防护,旨在保障数据隐私、降低滥用风险,并符合企业级安全标准。其中包括:
- 旨在防止幻觉的内容阈值
- 具备明确安全说明的提示工程
- 旨在减少提示注入风险的上下文工程
- 旨在防止网络钓鱼攻击的网址筛选器
- 输出格式验证
- 内容安全筛选器
我们的内容安全筛选器为依赖用户生成输入的 Slack 功能(例如搜索答案和 Slackbot)增添了额外保护层,以降低滥用和恶意输入带来的风险。
Slack 如何防止 AI 回复中出现不相关或不正确的信息?
Slack AI 功能的回复可包含引用信息,告知用户相关答案是利用哪些源消息形成的。选择引用,跳转至原始消息,查看更多详情或验证。Slack 部署了质量监测系统,对 AI 输出结果进行评估。一旦检测到幻觉现象或其他评估指标,系统就会向团队发出质量倒退警报。此外,在使用 AI 功能的过程中,LLM 发送的提示信息均遵循模型提供商的最佳实践,以确保获得准确、一致且安全的结果。
Slack 中的 AI 功能会留存数据多长时间?
对话摘要和搜索答案
摘要和搜索答案会生成临时的 AI 回复(例如,当你离开当前页面或关闭搜索结果时,回复最终会消失),而这些数据不会存储在设备或服务器上。
要点回顾
要点回顾的数据会储存 90 天,这样便于你查看以往的要点回顾历史记录。如果要点回顾中使用的消息因任何删除或合规政策而被删除或埋藏(例如,显示数据已被删除的记录),存储的要点回顾也将被删除。
工作流程生成的频道摘要
与用户为自己生成的对话摘要不同,当你使用汇总公共频道工作流程步骤生成频道摘要时,生成的摘要不是短暂的 AI 响应。根据工作流程的后续步骤,频道摘要可以作为消息发送到对话,或添加并存储在画板中。在这些情况下,包含 AI 生成的摘要的消息或画板将根据你的组织的数据留存设置保留在 Slack 中。
我是否可以关闭 AI 功能或限制访问权限?
是。拥有者和管理员可以决定哪些 AI 功能可供其工作区或企业组织内的成员使用。在企业套餐中,组织拥有者和管理员还可以将 AI 功能的访问权限限制为仅供特定用户和群组使用。如需了解更多详情,请参阅在 Slack 中管理 AI 功能访问权限。
