Identifier les hallucinations dans les réponses de Slackbot
Identifier les hallucinations dans les réponses de Slackbot
Les modèles de langage de grande taille (LLM) qui alimentent Slackbot peuvent parfois générer des réponses qui ne sont pas factuelles ou n’ont aucun sens dans le contexte de la conversation. Ces réponses, appelées hallucinations, ont souvent l’air plausibles et sont fournies avec assurance.
Poursuivez votre lecture pour découvrir comment reconnaître les hallucinations, les éviter et signaler les suspicions d’hallucinations à Slack. Il est important de vérifier les réponses avec un œil critique, et de vérifier les informations par vous-même avant de les utiliser pour prendre des décisions ou de partager ces réponses avec d’autres personnes.
Remarque : lorsque vous travaillez avec Slackbot, il est important de vérifier les réponses avec un œil critique, et de vérifier les informations par vous-même avant de les utiliser pour prendre des décisions ou de partager ces réponses avec d’autres personnes.
Comment reconnaître les hallucinations
Les réponses de l’IA dans Slack contiennent uniquement les informations auxquelles vous avez accès (comme les canaux publics, les canaux privés dont vous êtes membre, ou les messages directs). Si elles contiennent des réponses inhabituelles, il s’agit probablement d’une hallucination.
Les hallucinations que Slack peut détecter
Voici les types d’hallucinations que nous pouvons identifier et signaler dans les réponses de Slackbot :
Liens vers du contenu Références à des fichiers qui n’existent pas dans votre espace de travail Slack ou organisation Enterprise.
Personnes, canaux et messages Références à des personnes, canaux ou messages qui n’existent pas.
Lorsque nous détections l’une de ces hallucinations, les liens, noms de canaux ou noms de personnes sont remplacés par une balise Lien introuvable, Canal introuvable ou Personne introuvable. Si vous voyez des hallucinations signalées dans une réponse, vérifiez attentivement la précision des informations de cette réponse.
Que faire en cas d’hallucinations de Slackbot
Slackbot a été entraîné pour être aussi utile que possible, mais ne dispose pas toujours d’assez d’informations ou de contexte pour fournir une réponse de qualité dans certains cas. Si Slackbot indique qu’il ne sait pas ou ne dispose pas d’assez d’informations pour répondre à une question, et si vous lui demandez de réessayer en fournissant de nouvelles instructions, il est possible qu’il commence à halluciner pour vous donner les réponses qui vont vous satisfaire.
Suivez ces conseils pour vérifier les informations que Slackbot vous fournit ou l’aider lorsqu’il a du mal à fournir une réponse :
Renvoyez votre demande à Slackbot Posez la même question à Slackbot dans une nouvelle discussion, pour voir si la réponse est la même ou diffère de la réponse d’origine.
Privilégiez les conversations courtes Si vous avez envoyé plusieurs messages dans le cadre d’une même conversation, démarrez-en une nouvelle pour éviter que les réponses précédentes ne déroutent Slackbot.
Fournissez des sources spécifiques Au lieu de demander à Slackbot de chercher d’autres informations ailleurs, indiquez les noms des canaux spécifiques à utiliser pour ses réponses, ou encore les noms de personnes en utilisant une mention.
Signaler des hallucinations
Si la transmission de commentaires sur les réponses de l’IA est activée pour votre espace de travail ou organisation Enterprise, vous pouvez signaler les réponses contenant des hallucinations. Ces signalements nous aident à identifier les tendances et à améliorer Slackbot. Voici comment procéder :
Dans une réponse de Slackbot, cliquez sur le bouton pouce vers le bas.
Cochez les cases en regard des problèmes à signaler, et incluez les messages dans votre conversation, si vous le souhaitez. Nous recevons toujours le dernier message que vous avez envoyé à Slackbot dans le cadre d’un signalement.