Recientemente, algunos miembros de la comunidad de Slack expresaron que nuestros principios de privacidad publicados no son lo suficientemente claros y podrían llevar a confusiones acerca de cómo usamos los datos de los clientes en Slack. Apreciamos sus comentarios y, a medida que revisábamos el texto del sitio web, nos dimos cuenta de que tenían razón. Podríamos haber explicado mejor nuestro enfoque, especialmente en relación con las diferencias en las formas en las que se usan los datos tanto para el aprendizaje automático (ML) tradicional como para la IA generativa.
Hoy, actualizamos esos principios para explicar, con más claridad, cómo Slack protege los datos de los clientes cuando brinda servicios de ML e IA generativa en Slack. Estos son los puntos importantes:
- Slack usa técnicas de aprendizaje automático que protegen la privacidad y son estándares en el sector para funciones como las recomendaciones de canales y emojis, y los resultados de búsqueda. No construimos ni entrenamos estos modelos de manera tal que puedan aprender, memorizar o reproducir datos de los clientes. Estos pueden elegir que se excluyan sus datos, pero estos modelos mejoran la experiencia del producto para los usuarios sin el riesgo de que se compartan sus datos. Los modelos de ML tradicionales de Slack usan datos agregados desidentificados y no acceden al contenido de los mensajes en las conversaciones de mensajes directos, canales privados o canales públicos.
- El complemento de IA generativa de Slack, IA de Slack, utiliza modelos grandes de lenguaje (LLM) de terceros. No se usan datos de los clientes para entrenar LLM. Además, no desarrollamos LLM u otros modelos generativos con datos de los clientes.
La confianza es nuestro valor principal, y sabemos que comienza con la transparencia. Nuestros clientes merecen una explicación clara acerca de cómo usamos (y, más importante aún, cómo no usamos) los datos de los clientes para brindar la mejor experiencia posible dentro de Slack.
Esta entrada brindará un nivel más avanzado de claridad. Deseamos que sea de utilidad. Como siempre, apreciamos tus comentarios.
Protección de tus datos: el uso de los modelos de aprendizaje automático tradicionales en Slack
La misión de Slack es hacer que el trabajo de las personas sea más simple, agradable y productivo. Hay mucha información dentro de Slack, y, para hacer tu trabajo lo mejor posible, debes poder navegar ese contenido de forma eficaz a fin de encontrar lo que necesitas rápido. Desde 2017, hemos usado técnicas de aprendizaje automático que protegen la privacidad y son estándares en el sector para ayudar a encontrar la información correcta para el usuario correcto en el momento correcto, por ejemplo, para completar, automáticamente, el nombre de un canal cuando comienzas a escribirlo en un cuadro de búsqueda o para recomendar canales a los que puedes unirte en tu espacio de trabajo.
Nuestros Principios de privacidad nos guían para el uso de sistemas de aprendizaje automático dentro de Slack. Los publicamos de forma externa para brindar transparencia y garantizar su cumplimiento. Estos principios se alinean con el compromiso que Slack siempre ha demostrado con la privacidad de los clientes y usuarios. Garantizan lo siguiente:
- Los datos no se comparten entre espacios de trabajo. No construimos ni entrenamos modelos de ML de manera tal que puedan aprender, memorizar o reproducir datos de los clientes.
- Los modelos de ML nunca acceden de forma directa al contenido de los mensajes o archivos. En su lugar, usan funciones numéricas extraídas cuidadosamente. Por ejemplo:
- La marca de tiempo del último mensaje enviado en un canal puede ayudarnos a recomendar que un usuario archive un canal para organizar mejor las barras laterales.
- El número de interacciones entre dos individuos se incorpora a la lista de recomendaciones de usuarios. Así, cuando un usuario quiere iniciar una nueva conversación, obtiene una lista de compañeros de trabajo relevantes para él.
- El número de palabras coincidentes entre el nombre de un canal y otros canales a los que pertenece un usuario puede mostrarle si un canal es relevante para él.
- Los controles técnicos evitan el acceso no autorizado. Al desarrollar modelos de IA o ML, o al analizar datos de los clientes de alguna otra manera, Slack no accede al contenido subyacente. Contamos con diferentes medidas técnicas para evitar que esto ocurra. Puedes leer nuestro Informe técnico de seguridad para obtener más información sobre estos controles que protegen la confidencialidad y la seguridad de los datos de los clientes.
- Los clientes puedan elegir o no participar en estas prácticas. Si quieres que tus datos de cliente no se incluyan para ayudar a entrenar modelos de ML de Slack, puedes elegir no participar, como se describe aquí. Debido a que contamos con protecciones para entrenar estos modelos de ML de forma segura a fin de brindar la mejor experiencia del producto, no se excluyen los espacios de trabajo de forma predeterminada.
Los siguientes son algunos ejemplos específicos de cómo se usan en Slack los modelos de ML no generativo para ayudarte a encontrar lo que necesitas fácilmente:
Posicionamiento de resultados de búsqueda
La creación de una lista con resultados prioritarios y personalizados cuando un usuario busca personas, mensajes o archivos.
Cómo funciona:
Nuestros modelos de aprendizaje automático de búsqueda ayudan a los usuarios a encontrar lo que buscan al identificar los resultados correctos para una solicitud en particular. Hacemos esto sobre la base de resultados de búsqueda históricos e interacciones anteriores sin tener que incorporar el aprendizaje del texto subyacente de la consulta, el resultado o el proxy de la búsqueda. En pocas palabras, nuestros modelos no se entrenan con la consulta de búsqueda en sí, sino que aprenden del contexto que rodea la búsqueda, como el número de palabras de una consulta.
Recomendaciones
La recomendación de usuarios, canales, emojis y otro contenido relevantes en diferentes ubicaciones dentro del producto, como sugerencias de canales a los que puedes unirte.
Cómo funciona:
Solemos recomendar a los usuarios que se unan a canales públicos nuevos dentro de su espacio de trabajo para que aprovechen Slack al máximo. Estas sugerencias se realizan sobre la base de la coincidencia entre los canales a los que pertenecen los usuarios, su actividad y los temas. Logramos esto a la vez que protegemos la privacidad gracias al uso de modelos de ML de código abierto, los cuales se desarrollaron sin usar ningún dato de Slack, para evaluar la similitud entre los temas y brindar calificaciones numéricas. Nuestro modelo realiza recomendaciones únicamente sobre la base de estas calificaciones numéricas y de datos que no son de los clientes.
Autocompletar
Ayuda para agregar usuarios, canales y nombres de archivos a mensajes mediante el cliente de búsqueda de Slack.
Cómo funciona:
Cuando los usuarios quieren hacer referencia a un canal o usuario en un mensaje, primero escriben # y luego comienzan a escribir el nombre de un canal. Nuestros modelos sugieren los canales más relevantes que podrían ser los que buscan según un número de entradas, que incluyen los canales a los que pertenece el usuario y sus interacciones más recientes y frecuentes.
En resumen, los modelos de ML tradicionales de Slack usan datos agregados desidentificados y no acceden al contenido original de los mensajes de conversaciones de mensajes directos, canales privados o canales públicos para realizar sugerencias. En su lugar, recopilan datos agregados para mejorar las búsquedas, realizar mejores recomendaciones y ofrecer sugerencias.
Elección de no participar del cliente y experiencia del usuario
Los clientes pueden enviar un correo electrónico a Slack para elegir no participar en el entrenamiento de los modelos de ML no generativo. Luego de hacerlo, todos los datos asociados a tu espacio de trabajo se usarán para mejorar la experiencia en tu propio espacio de trabajo. Seguirás teniendo todos los beneficios de nuestros modelos de ML entrenados de forma global sin contribuir a los modelos subyacentes. No se desactivará ninguna función del producto, pero se quitarán algunas opciones dentro del producto que los usuarios podían usar previamente para enviar comentarios. Es probable que se vea afectado ligeramente el rendimiento de los modelos globales para tu equipo, ya que no se optimizarán los patrones particulares de tu uso.
Si un único cliente elige no participar, el impacto será mínimo. Sin embargo, cuantos más clientes elijan no participar, peor será el rendimiento general de estos tipos de modelos.
Inclusión de IA generativa
La IA generativa incorpora un tipo nuevo de modelos que se usan para mejorar la experiencia del usuario, más específicamente modelos grandes de lenguaje (LLM). Los LLM se usan en IA de Slack, el complemento vendido por separado de Slack. Para construir IA de Slack, priorizamos la seguridad y la confianza, específicamente teniendo en cuenta lo siguiente:
- Los datos de los clientes nunca salen de Slack.
- No entrenamos LLM con datos de los clientes.
- IA de Slack solo opera con los datos que el usuario ya puede ver.
- IA de Slack cumple con todos los requisitos de cumplimiento y seguridad de nivel empresarial de Slack.
Slack no entrena LLM ni otros modelos generativos con datos del cliente ni los comparte con ningún proveedor de LLM.
Puedes obtener más información aquí acerca de cómo construimos IA de Slack para garantizar la seguridad y la privacidad.