隐私原则:搜索、学习和人工智能
此翻译文本仅供参考。如果本版本与英文版本存在任何歧义,则以英文版本为准。
隐私原则:搜索、学习和人工智能
我们的使命是构建一种可以让生活更简单、更美好、更有成效的产品。我们的隐私政策、安全文档和 SPARC 以及 Slack 条款已详细说明,我们在构建本产品时的指导原则是不得侵犯客户数据的隐私和安全。
Machine Learning (ML) and Artificial Intelligence (AI) are useful tools that we use in limited ways to enhance our product mission. We do not develop LLMs or other generative models using customer data. To develop non-generative AI/ML models for features such as emoji and channel recommendations, our systems analyze Customer Data (e.g. messages, content, and files) submitted to Slack as well as Other Information (including usage information) as defined in our Privacy Policy and in your customer agreement. To ensure the privacy and security of Customer Data in this particular context, we have a few guiding principles:
- 数据不会在不同的工作区中泄露。 对于将在所有客户中广泛使用的任何模型,我们不会为了构建或训练模型而让它们学习、记忆,或重现某些客户数据。
- 我们利用适当的技术控制措施阻止访问。在开发 AI/ML 模型或以其他方式分析客户数据时,Slack 无法访问底层内容。我们借助多种技术手段防止发生这种访问行为。请参阅安全白皮书,进一步了解帮助保护客户数据隐私和安全的控制措施。
- 我们为客户提供关于此类实践的选择。 如果不希望将你的客户数据用于帮助训练 Slack 全局模型,你可以选择拒绝授权。如果你选择拒绝授权,你所在工作区中的客户数据将仅用于改善工作区使用体验,即便未授权用于底层模型,你仍然可以享受 AI/ML 全局训练模型带来的所有益处。
联系我们退出。 如果不希望将你的客户数据用于 Slack 全局模型,你可以选择拒绝授权。要选择退出,请让你的组织或工作区所有者或主要拥有者通过 feedback@slack.com 联系我们的客户体验团队,并提供你的工作区/组织 URL 和主题行 “Slack 全球模型退出请求”。 Slack 将处理你的请求,并在你完成退出后予以回复。
客户数据和其他信息
Slack 如何使用客户数据(例如消息、内容、文件)和其他信息来更新我们的服务
根据上述准则,我们的产品和分析团队采用改进措施和隐私保护技术来开发、更新和完善 Slack,示例如下:
- 频道建议:Slack 可借助洞察建议用户是否在其公司中加入新的公共频道。Slack 根据频道成员、活动和主题重叠度提出建议。Slack 的模型从以往建议中以及某用户是否加入所建议的频道中学习。我们的模型不会获取客户数据,因此可以保护隐私。我们使用外部建造的模型(未针对 Slack 消息进行训练)评估主题相似度,并输出分数。我们的全局模型仅根据分数以及除客户数据外的信息提出建议。如需进一步了解技术详情,请查看工程博客了解更多。
- 搜索结果:我们的搜索机器学习模型通过识别特定查询的正确结果帮助用户找到搜索内容。这种实践以历史搜索结果和过往交互情况为基础,而不是从搜索查询、结果或代理的底层文本中学习。简而言之,我们的模型不会重建搜索查询或结果。相反,该模型从团队特定的语境信息中进行学习,例如:搜索中点击消息的次数,或查询和建议消息中的字词数量重叠情况。
- 自动完成:Slack 可能提出建议,以便完成搜索查询或补充其他文本,例如在用户键入词组“客户支持”时的第一个字“客”后自动完成输入。这些建议是符合当地语言习惯的,并且来源于用户所在工作区中的常用公开消息短语。我们的算法从潜在建议中进行筛选,且根据之前建议的和接受的短语补充结果进行全局训练。Slack 按照规则以多种方式对键入文本与建议之间的相似度进行评分,包括在算法中仅使用过往交互产生的评分和计数,以此保护数据隐私。
- 表情建议:Slack might suggest emoji reactions to messages using the content and sentiment of the message, the historic usage of the emoji, and the frequency of use of the emoji on the team in various contexts. For instance, if 🎉 is a common reaction to celebratory messages in a particular channel, we will suggest users react to new, similarly positive messages with 🎉. To do this while protecting Customer Data, we might use an external model (not trained on Slack messages) to classify the sentiment of the message. Our model would then suggest an emoji only considering the frequency with which a particular emoji has been associated with messages of that sentiment in that workspace.
只有当我们研究和理解用户如何与 Slack 交互之后,才可能做出此类周详的个性化设置和改善。
Slack 非常重视隐私,我们的客户协议和隐私政策中描述的保密义务适用于这些情况。客户拥有自己的客户数据。Slack 对客户数据进行汇总和分离,以确保在使用客户数据更新服务时,不会将我们的任何客户或个人确定为任何改进的来源,提供给除 Slack 的附属公司或委外厂商外的任何第三方。
Generative AI
Generative AI is a newer category of AI systems that can generate content, such as text, in response to prompts a user enters. This AI category includes Large Language Models (LLMs). Slack uses generative AI in its Slack AI product offering, leveraging third-party LLMs.
Customers purchase Slack AI as an add-on, and the generative AI functionality is not included in the standard Slack offering. No Customer Data is used to train third-party LLM models. Slack does not train LLMs or other generative models on Customer Data, or share Customer Data with any LLM providers. Learn more about How We Built Slack AI To Be Secure and Private.
Slack AI uses off-the-shelf LLMs where the models are not updated by and don't in other ways retain Customer Data after a request to them. Additionally, because Slack AI hosts these models on its own AWS infrastructure, Customer Data never leaves Slack's trust boundary, and the providers of the LLM never have any access to the Customer Data.