Principes de confidentialité : recherche, apprentissage et intelligence artificielle
Cette traduction n’est fournie qu’à titre informatif. Dans l’éventualité où des incohérences apparaîtraient entre celle-ci et la version anglaise, c’est la version anglaise qui prévaudrait.
Principes de confidentialité : recherche, apprentissage et intelligence artificielle
Notre mission est de proposer un produit qui rend la vie professionnelle plus simple, plus agréable et plus productive. La confidentialité et la sécurité des données de nos clients sont essentielles, comme nous l’expliquons dans notre Politique de confidentialité, notre documentation à propos de la sécurité, ainsi que la documentation SPARC de Salesforce et les conditions d’utilisation de Slack.
Machine Learning (ML) and Artificial Intelligence (AI) are useful tools that we use in limited ways to enhance our product mission. We do not develop LLMs or other generative models using customer data. To develop non-generative AI/ML models for features such as emoji and channel recommendations, our systems analyze Customer Data (e.g. messages, content, and files) submitted to Slack as well as Other Information (including usage information) as defined in our Privacy Policy and in your customer agreement. To ensure the privacy and security of Customer Data in this particular context, we have a few guiding principles:
- Les données ne pourront pas passer d’un espace de travail à un autre. Pour tout modèle qui sera utilisé par l’ensemble de nos clients dans le monde, nous ne concevons ni n’entraînons pas ces modèles de manière à ce qu’ils puissent apprendre, mémoriser ou reproduire une partie des données des clients.
- Nous avons mis en place des contrôles techniques pour bloquer certains accès. Lors du développement de modèles d’AI/AA ou de l’analyse des données clients, Slack ne peut pas accéder au contenu sous-jacent. Nous avons mis en place de multiples mesures techniques pour éviter que cela ne se produise. Veuillez lire notre Livre blanc sur la sécurité pour plus d’informations sur ces contrôles qui protègent la confidentialité et la sécurité des données des clients.
- Nous offrons aux clients la possibilité des choix quant à ces pratiques. Si vous le souhaitez, vous pouvez exclure vos données client de la formation des modèles globaux de Slack. Si vous choisissez de ne pas participer, les données clients de votre espace de travail seront utilisées uniquement pour améliorer l’expérience sur votre propre espace de travail, et vous continuerez à bénéficier de tous les avantages de nos modèles d’IA/AA formés à l’échelle mondiale sans contribuer aux modèles sous-jacents.
Contactez-nous pour exclure le partage de vos données. Si vous le souhaitez, vous pouvez exclure vos données client des modèles globaux de Slack. Pour ce faire, demandez à un propriétaire de l’organisation ou de l’espace de travail, ou un propriétaire principal, de contacter l’équipe de l’expérience client à l’adresse feedback@slack.com, en indiquant l’URL de votre espace de travail ou organisation, et « Slack Global model opt-out request » en objet de l’e-mail. Nous vous enverrons une confirmation lorsque votre demande aura été traitée.
Données client et autres informations
Comment Slack peut utiliser les données client (comme les messages, les contenus et les fichiers) ainsi que d’autres informations pour mettre à jour nos services
En partant des principes ci-dessus, voici quelques exemples d’améliorations et de méthodes de protection de la confidentialité que notre produit et les équipes chargées des analyses des données peuvent utiliser pour développer, mettre à jour et améliorer Slack :
- Recommandations de canaux : Nous pouvons utiliser ces informations pour recommander à un utilisateur de rejoindre un nouveau canal public dans son entreprise. Ces suggestions sont basées sur la souscription à un canal, l’activité et les correspondances de sujets. Notre modèle apprend des suggestions précédentes et de la souscription ou non d’un utilisateur au canal que nous recommandons. La confidentialité est garantie en séparant notre modèle des données des clients. Nous utilisons des modèles externes (non formés sur les messages Slack) pour évaluer la similarité des sujets, en générant des scores numériques. Notre modèle global ne propose des recommandations que sur la base de ces scores numériques et de données non liées au client. Pour obtenir des détails techniques, veuillez consulter notre blog d’ingénierie pour en savoir plus.
- Résultats de recherche : Nos modèles d’apprentissage automatique de la recherche aident les utilisateurs à trouver ce qu’ils recherchent en identifiant les bons résultats pour une requête particulière. Pour ce faire, nous nous basons sur l’historique des résultats de recherche et sur les engagements précédents, sans que le texte de la requête, le résultat ou l’indicateur de la recherche ne contribuent à son apprentissage. En d’autres termes, notre modèle ne peut pas reconstituer la requête ou le résultat de la recherche. Il apprend à partir d’informations contextuelles propres à l’équipe, comme le nombre de clics sur un message lors d’une recherche ou une correspondance entre le nombre de mots dans la requête et le message recommandé.
- Saisie semi-automatique : Slack pourrait proposer des suggestions pour compléter des requêtes de recherche ou d’autres textes, par exemple en complétant automatiquement la phrase « assistance client » après qu’un utilisateur a saisi les premières lettres de cette expression. Ces suggestions sont locales et proviennent de messages publics courants dans l’espace de travail de l’utilisateur. Notre algorithme, qui sélectionne les suggestions potentielles, est entraîné de manière globale sur les compléments précédemment suggérés et acceptés. Nous protégeons la confidentialité des données en utilisant des règles pour évaluer la similitude entre le texte saisi et la suggestion de différentes manières, notamment en utilisant uniquement les scores numériques et le nombre d’interactions passées dans l’algorithme.
- Suggestion d’émoji : Slack might suggest emoji reactions to messages using the content and sentiment of the message, the historic usage of the emoji, and the frequency of use of the emoji on the team in various contexts. For instance, if 🎉 is a common reaction to celebratory messages in a particular channel, we will suggest users react to new, similarly positive messages with 🎉. To do this while protecting Customer Data, we might use an external model (not trained on Slack messages) to classify the sentiment of the message. Our model would then suggest an emoji only considering the frequency with which a particular emoji has been associated with messages of that sentiment in that workspace.
Ces personnalisations et ces améliorations ne sont possibles que si nous étudions et comprenons comment nos utilisateurs interagissent avec Slack.
Slack prend la confidentialité très au sérieux. Nos obligations de confidentialité décrites dans nos accords client et dans notre politique de confidentialité s’appliquent dans chacun de ces trois scénarios. Les données client appartiennent aux clients auxquelles elles se réfèrent. Slack agrège et dissocie les données client de façon à ce que l’utilisation que Slack fait de ces données pour améliorer ses services ne permette jamais à une partie tierce d’identifier un client comme étant la source de ces améliorations (à l’exception des sociétés affiliées de Slack et de ses sous-traitants).
Generative AI
Generative AI is a newer category of AI systems that can generate content, such as text, in response to prompts a user enters. This AI category includes Large Language Models (LLMs). Slack uses generative AI in its Slack AI product offering, leveraging third-party LLMs.
Customers purchase Slack AI as an add-on, and the generative AI functionality is not included in the standard Slack offering. No Customer Data is used to train third-party LLM models. Slack does not train LLMs or other generative models on Customer Data, or share Customer Data with any LLM providers. Learn more about How We Built Slack AI To Be Secure and Private.
Slack AI uses off-the-shelf LLMs where the models are not updated by and don't in other ways retain Customer Data after a request to them. Additionally, because Slack AI hosts these models on its own AWS infrastructure, Customer Data never leaves Slack's trust boundary, and the providers of the LLM never have any access to the Customer Data.