Laptop com um cadeado giratório, representando segurança e confiança.

Como a confiança desbloqueia todo o potencial da IA no ambiente de trabalho

Saiba como o Slack incorpora confiança no desenvolvimento de IA para enfrentar o “paradoxo sobre a adoção da IA”.

Autor: Alexandra Gassel, Product Marketing Manager at Slack20 de julho de 2025

O que você precisa saber: 

  • Embora os executivos estejam ansiosos pela eficiência impulsionada pela IA, as preocupações dos trabalhadores com privacidade e segurança geram um “paradoxo sobre a adoção de IA.”
  • No Slack, a confiança está incorporada ao desenvolvimento da IA, garantindo segurança e um design centrado nas pessoas. Isso transforma o paradoxo da IA em um caminho escalável para a inovação.

 

A inteligência artificial chegou a um ponto de virada no âmbito empresarial. O que antes estava restrito a laboratórios de P&D agora está redefinindo como as empresas enfrentam seus maiores desafios: encontrar talentos, controlar custos e acelerar a transformação digital. A IA de agentes, em especial, promete fluxos de trabalho mais ágeis, menos gargalos e uma capacidade de resposta contínua, a uma fração do custo operacional.

Uma pesquisa recente do Slack confirma essas prioridades, revelando que 94% dos executivos planejam investir em IA nos próximos 12 meses e 84% estão contando com os agentes para automatizar tarefas, escalonar operações e aumentar a eficiência.

Ainda assim, os mesmos dados revelam que 41% dos trabalhadores (e não apenas os executivos) expressam preocupação com riscos de exposição, especialmente em relação à privacidade, direitos autorais e responsabilidade. Isso evidencia o que a KPMG chama de paradoxo sobre a adoção da IA: uma tensão entre inovação e controle, velocidade e certeza. 

Superando os impasses: como operar uma IA de confiança 

A inovação avança na velocidade da confiança e, no Slack, isso significa incorporar a confiança diretamente no modo como o trabalho é realizado, não apenas como princípio, mas na prática.

Na era dos agentes, operacionalizar a confiança exige construir sistemas com transparência, segurança e foco nas pessoas desde o início. Alguns exemplo são:

  • Começar com uma supervisão multifuncional: envolver as equipes dos setores Jurídico, TI, Operações e as equipes de linha de frente desde o início, garantindo uma avaliação abrangente de riscos.
  • Permissões e rastreabilidade como padrão: usar plataformas que já aplicam controles de acesso e mantêm trilhas de auditoria automaticamente, sem a necessidade de ajustes posteriores.
  • Inserir a IA onde o trabalho acontece, e não em silos desconectados: integrar a IA diretamente aos fluxos de trabalho existentes reduz a movimentação de dados e a troca de contexto, tornando tudo mais rápido e seguro.
  • Criar fluxos com proteções humanas: desenvolver processos com caminhos claros de escalonamento, mecanismos de segurança e pontos de verificação para garantir que decisões de alto impacto permaneçam sob controle humano.
  • Mensurar o sucesso em duas dimensões: velocidade e segurança: a verdadeira inovação acelera resultados ao mesmo tempo em que fortalece a segurança e a conformidade. A confiança é um multiplicador, não uma limitação.

Ao escolher plataformas criadas com isso em mente, as organizações conseguem transformar o paradoxo da IA em um caminho escalonável para a inovação.

Operacionalizando a confiança: velocidade e segurança juntas com o Slack

Com a confiança como pilar central, o Slack transforma esses princípios em ações concretas.

Da criptografia e conformidade até o controle administrativo e o uso responsável da IA, o Slack estabelece a base para adotar a IA de agentes com confiança. Os clientes mantêm controle total sobre seus dados por meio das configurações padrão de retenção no nível do workspace, exportações personalizáveis e exclusão de conteúdo (Trust Center do Slack).

Os dados são criptografados em trânsito e em repouso, e o Slack pode ser configurado para atender às regulamentações do setor e aos padrões internacionais de segurança e privacidade de dados. A conformidade com diversas regulamentações reconhecidas globalmente, estruturas, programas e padrões de segurança e privacidade de dados permite que os clientes gerenciem riscos e protejam dados em seus ambientes Slack.

A IA e o aprendizado de máquina não são exceção. Ambos são regidos pelo mesmo compromisso com a confiança:

  • Os dados dos clientes não são usados para treinar modelos de IA generativa.
  • Os dados não vazam entre workspaces. Não criamos nem treinamos modelos de ML de forma que possam reproduzir dados do cliente.
  • A IA e o aprendizado de máquina no Slack só exibe dados que o usuário já tem permissão para acessar.

Veja como o Slack transforma esses princípios em prática:

Como é a confiança Com o Slack a viabiliza
Prevenção proativa de riscos

Detecção de anomalias integrada, integrações com DLP e funções administrativas, monitoramento em tempo real com alertas e APIs de auditoria.

Políticas de retenção personalizáveis, fluxos de acesso e fluxo de trabalho automatizados para evitar compartilhamento excessivo.

A2F e SSO podem ser ativados para todos os usuários.

Segurança por padrão

A IA no Slack nunca usa os dados dos clientes para treinar modelos de IA generativa.

O conteúdo permanece dentro do sistema operacional. A exclusão de mensagens, a exportação limitada de dados e a criptografia de ponta a ponta são ativadas por padrão.

Exposição mínima de dados O Slack incorpora privacidade em todas as camadas, da criptografia aos controles de acesso e à IA. Não é um complemento, é parte fundamental da estrutura.
Controle granular por parte do usuário Configurações de administração granulares para retenção, exclusão, exportação e acesso, todas configuráveis por workspace.
Segurança de ponta a ponta

O Slack criptografa dados em repouso e em trânsito, oferece ferramentas de monitoramento em tempo real e é compatível com integrações com plataformas de segurança como CASBs e SIEMs.

A IA opera dentro dos mesmos limites de segurança.

Visibilidade e transparência A IA no Slack exibe tudo o que gera e preserva a visibilidade total de canais, conversas e atividades, garantindo controle e supervisão contínuos.
Supervisão com participação humana Agentes e IA sempre atuam como suporte para as decisões humanas, mas nunca as substituem. A IA no Slack só acessa os dados que o usuário solicitante tem permissão para ver.

Mais do que apenas caixas para marcar, são a estrutura para uma IA confiável e escalonável.

Confiança é a base da inovação

No futuro do trabalho, a confiança não é apenas um requisito básico, é o que potencializa de fato o crescimento. Embora o paradoxo da IA seja real, ele também tem solução. Com os princípios certos, a IA não precisa ser um risco, e sua promessa pode ser concretizada. Plataformas que preservam a confiança do usuário ajudam a equilibrar velocidade, inovação e segurança. O Slack foi pensado para oferece a base sólida e transparente necessária para conectar o rápido avanço da IA à confiança fundamental dos usuários.

Com a inovação acontecendo em tão ritmo acelerado, o maior risco não é adotar a IA, mas sim ficar para trás por não agir. A IA de agentes traz a capacidade de ampliar a tomada de decisões, aumentar a produtividade e manter a competitividade em um cenário onde velocidade, contexto e confiança são inegociáveis.

Sistemas que integram comunicação, dados e IA de agentes diretamente no fluxo de trabalho têm um papel fundamental para solucionar esse paradoxo. Eles reduzem atritos, aceleram a adoção e incorporam governança onde o trabalho realmente acontece, não como um complemento, mas como parte da estrutura.

No fim das contas, a inovação será liderada por aqueles que incorporarem confiança em todos os níveis da estrutura. Com a IA no Slack, suas equipes avançam com mais agilidade, sabendo que os dados permanecem seguros, seus fluxos de trabalho estão em conformidade e sua confiança permanece intacta.

Que tal começar a usar a IA no Slack? 

    Esta postagem foi útil?

    0/600

    Ótimo!

    Agradecemos seu feedback!

    Entendi!

    Agradecemos seu feedback.

    Estamos com problemas. Tente novamente mais tarde.