Et si, dans un futur proche, les agents IA pouvaient collaborer harmonieusement avec vous et vos collègues ? Certains agiraient pour le compte des clients, d'autres au nom des membres d’équipe, et tous communiqueraient dans les termes spécifiques à votre secteur d’activité, même dans plusieurs langues. Ces agents mettraient continuellement à jour une base de connaissances partagée, intégrant à la fois des informations établies et de nouvelles perspectives en temps réel.
Progressivement, nous nous éloignons des agents IA à utilisation unique. Des systèmes combinant plusieurs agents se développent, et il est probable que chaque entreprise possède à l’avenir son propre « omni-agent ». Nous verrons alors les agents IA agir dans différents contextes avec une autonomie renforcée. Nous commencerons nos journées avec des questions telles que : « Quels sont les nouveaux problèmes soulevés par les clients cette semaine ? » ou « Quelles sont les principales préoccupations de mes collaborateurs ? » Un ensemble d'agents fournira une réponse résumée à partir de milliers d'échanges avec les clients, de conversations, et d’informations provenant de vos collègues. C'est la promesse de l’ère des agents IA.
Mais comment mettre en place cet environnement ? Pour ce faire, le contexte est essentiel : il est nécessaire car il fournit les informations dont les agents ont le plus besoin afin d’exécuter efficacement leurs tâches.
Pourquoi le contexte est essentiel à l’IA
Le contexte est essentiel pour que les agents IA puissent apporter une réelle valeur aux entreprises. Les architectures agentiques exploitent la puissance d'inférence des LLM pour automatiser les tâches malgré les ambiguïtés. Plus elles disposent de contexte pour interpréter ces ambiguïtés, meilleures elles sont.
Les agents introduisent une nouvelle façon d'utiliser les ordinateurs pour l’automatisation, qui ne nécessite pas de prédéfinir de manière exhaustive des règles pour chaque scénario. Les systèmes des agents IA peuvent utiliser les capacités de reconnaissance de modèles d'un LLM pour déduire les particularités de chaque situation, et ils deviennent plus efficaces à mesure qu'ils reçoivent un contexte plus riche, dans la mesure où ils ont moins à deviner par eux-mêmes.
La collaboration entre humain et IA est compromise lorsque les agents IA doivent constamment demander des détails avant d'agir.
Aujourd’hui, la plupart des agents IA ont un fonctionnement peu optimum. En effet, nombre d’entre eux se retrouvent en difficulté lorsqu’ils sortent de leurs paramètres prédéfinis. Ils peuvent ainsi mal interpréter les demandes s'ils perdent le fil. Or, s'ils attendent que l'utilisateur leur dise quoi interpréter, ils contraignent celui-ci à devenir un ingénieur de requête (prompt).

Un exemple d'instruction utilisateur trop vague, qui nécessite des précisions supplémentaires pour compenser le manque de contexte.
S’ils n’ont pas accès à un contexte suffisamment riche, les développeurs d'agents se retrouvent face à un dilemme. Ils peuvent soit concevoir des cas d'utilisation étroits avec des indices contextuels prévisibles et des performances fiables, mais une flexibilité limitée, soit adopter une approche plus large et concevoir des agents qui se déploient initialement sans contexte. Mais cela impose aux utilisateurs de fournir les détails manquants au dernier moment. La promesse de la collaboration entre l’humain et l’IA n’est pas tenue lorsque les agents doivent constamment demander des détails avant d'agir. Les deux stratégies peuvent apporter des gains progressifs, mais elles peuvent aussi empêcher l'adoption des agents à grande échelle.
Lorsqu'un agent manque de contexte, les utilisateurs sont obligés de passer plus de temps à clarifier leur prompt qu’à accomplir la tâche elle-même. La solution consiste à lancer des agents IA dans un environnement où ils peuvent observer les conversations en cours sur le travail effectué et utiliser leur capacité d'interprétation pour adapter leurs instructions et leurs outils au contexte du travail dans le monde réel.
Les conversations offrent le contexte le plus riche et le plus dynamique que les modèles de langage naturel des agents IA peuvent facilement déchiffrer. Elles contiennent l'intention en temps réel, les nuances sur ce qui est utile ou non, et des indices sur l’évolution des besoins, fournissant ainsi les indices essentiels dont les agents IA ont besoin pour gérer les compromis. Les substrats des conversations permettent aux agents IA de s'adapter, de devenir proactifs et d'agir avec une précision qui serait impossible à atteindre autrement.

Un exemple d'un agent Slack utilisant le contexte conversationnel pour interpréter le même prompt utilisateur imprécis et y répondre efficacement.
Avec du contexte, les agents peuvent acquérir l’autonomie qui les rend si puissants. Ils ont besoin d'un environnement où ils peuvent absorber suffisamment de contexte pour discerner ce qui est important, ce qui ne l'est pas, quand procéder, quand demander de l'aide, et même quand ils sont eux-mêmes inutiles. S'ils peuvent voir l’évolution d’une situation, ses contraintes et les dernières informations à jour, leur adoption à grande échelle devient possible.
Les agents ont besoin d'un environnement où ils peuvent absorber suffisamment de contexte pour discerner ce qui est important, ce qui ne l'est pas, quand procéder, quand demander de l'aide, et même quand ils sont eux-mêmes inutiles.
Comment Slack favorise le déploiement d’une IA contextuelle
Slack vous donne tout ce dont vous avez besoin pour équilibrer contrôle et autonomie. En utilisant Slack comme substrat pour vos agents, les données non structurées de votre entreprise — contenu généré par les utilisateurs, texte en langage naturel, audio et vidéo — améliorent le raisonnement et la prise de décision des agents pour une meilleure pertinence. Cela aide les agents à comprendre ce qu'ils peuvent faire pour aider, quand ils doivent intervenir et quand ils doivent rester en retrait.
Slack vous permet également de garder le contrôle sur les données auxquelles vos agents peuvent accéder. Nous n'entraînons jamais les LLM sur les données des clients. À la place, nous fournissons le meilleur environnement pour que vous puissiez effectuer une génération augmentée de récupération contextuelle (RAG) sur vos propres données afin de fournir aux agents les informations dont ils ont besoin, au moment où ils en ont besoin. Cela signifie que vos agents peuvent déduire rapidement quelles données récupérer de vos bases de données en fonction du contexte entourant leur tâche.
Avec l’API d'historique des conversations de Slack et l'API d'accès aux données, vous pouvez créer des agents adaptatifs capables d'effectuer des ajustements en temps réel en fonction de l’évolution de la conversation. Chaque nouveau message Slack met à jour le contexte. Au lieu de réponses rigides générées par script, Slack permet aux agents de devenir dynamiques, en utilisant des indices des conversations en cours et passées pour être plus flexibles dans leurs instructions et plus efficaces dans l'exécution de leurs rôles ou objectifs assignés. La puissance d'un contexte clair en temps réel réside dans sa capacité à aider l'IA à comprendre les humains. L'architecture de Slack soutient cette adaptabilité, permettant aux créateurs d'agents d'utiliser le contexte le plus à jour, et même de contextualiser davantage ce que les agents écoutent à partir d'interactions passées ou de conversations en cours dans d'autres canaux Slack.
Les systèmes multi-agents deviennent plus courants, ce qui place les plateformes conversationnelles au cœur de l'adoption et de la transformation des agents IA. Slack sert d’interface conversationnelle d'entreprise nécessaire pour permettre une communication harmonieuse entre les agents et les humains, en s'assurant que les réponses sont alignées et productives. Les agents peuvent travailler de manière autonome, collaborer pour améliorer les capacités des uns et des autres en temps réel, et se renforcer ou améliorer le modèle sous-jacent. Les agents deviennent des collaborateurs informés, et avec les services de contexte de Slack, les développeurs d'agents peuvent se concentrer sur l'automatisation plutôt que sur les derniers ajustements complexes. De même, ils n’ont pas à se résigner à la prédéfinition et à la limitation de leurs agents. Et bientôt, les agents Slack pourront facilement gérer et orchestrer d'autres agents, à travers toutes les applications connectées à Slack, avec un substrat standardisé permettant à chaque agent de se reconnecter aux conversations avec et entre les humains pour rester ancré dans la réalité.
Dans Slack, les agents peuvent véritablement augmenter les capacités humaines
N’oubliez pas que le contexte est essentiel pour que vos développeurs puissent construire et déployer des agents : c’est lui qui fait la différence. Slack offre un environnement où les agents ne sont plus de simples exécutants de tâches, mais deviennent des partenaires adaptatifs et collaboratifs. Slack est l'endroit où les interactions entre agents et humains permettent de construire un corpus de connaissances d'entreprise en constante expansion, mis à jour avec chaque message. C'est le puissant contexte utilisateur de Slack qui rend cela possible, permettant finalement à chaque agent de mieux comprendre les humains qu'il aide.
Prêt à démarrer ? Contactez notre équipe d'experts pour en savoir plus. n