Slack from Salesforce 로고
새 소식

Slack이 머신 러닝과 AI를 사용해 고객 데이터를 보호하는 방법

Slack 팀이 작성2024년 5월 17일

최근 Slack 커뮤니티의 멤버들로부터 게시된 개인 정보 처리 방침이 충분히 명확하지 않으며 Slack에서 고객 데이터를 사용하는 방식에 관해 오해가 야기될 수 있다는 얘기를 들었습니다. 이 피드백을 소중히 받아들여 웹사이트에 게시된 내용을 살펴본 결과 그분들의 피드백이 옳았음을 알게 되었습니다. 특히 기존의 머신 러닝(ML) 모델과 생성형 AI에서 데이터가 사용되는 방식에 어떤 차이가 있는지에 관하여 Slack의 접근 방식을 좀 더 제대로 설명드렸어야 했습니다.

오늘 Slack은 Slack에서 ML 및 생성형 AI 경험을 제공하면서 고객 데이터를 어떤 방식으로 보호하고 있는지 더 명확히 설명드릴 수 있도록 해당 방침을 업데이트했습니다.

  • Slack은 채널과 이모티콘 추천과 검색 결과 등에 개인 정보가 보호되는 업계 표준의 머신 러닝 기술을 사용하고 있습니다. Slack에서는 모든 종류의 고객 데이터를 학습, 기억 또는 재현할 수 있는 방식으로 위의 모델들을 구축하거나 교육하지 않습니다. 고객이 거부할 수 있지만 이 모델들은 데이터가 공유될 위험 없이 사용자에게 더 나은 제품 경험을 제공합니다. Slack의 기존 ML 모델은 개인 정보가 제거된 집계 데이터를 사용하며 DM, 비공개 채널 또는 공개 채널의 메시지 콘텐츠에 접근하지 않습니다.
  • Slack의 추가 기능인 생성형 AI 제품, Slack AI는 제3자 거대 언어 모델(LLM)을 활용합니다. LLM 모델을 교육하는 데 어떤 고객 데이터도 사용되지 않습니다. 또, 고객 데이터를 사용해 LLM 또는 다른 생성형 모델을 개발하지도 않습니다.

Slack이 가장 중요한 가치로 여기는 신뢰는 투명성에서 시작됩니다. 고객은 Slack이 가능한 한 최상의 Slack 경험을 제공하기 위해 고객 데이터를 사용하는 방식은 물론, 사용하지 않는 방식에 대해서도 명확한 설명을 들을 자격이 있습니다.

이 포스트는 더 심도 있는 설명으로 더 큰 명확성을 제공합니다. 이 내용이 도움이 되시길 바라며, 언제나 그랬듯이 여러분의 피드백을 매우 소중히 여기겠습니다.

고객 데이터 보호: 기존의 머신 러닝 모델을 사용하는 Slack

Slack의 사명은 사람들이 더 간편하고, 즐겁고, 생산적으로 일할 수 있도록 하는 것입니다. Slack에는 엄청난 양의 정보가 있으며 최상의 성과를 내기 위해서는 이 콘텐츠들을 효과적으로 탐색하여 필요한 내용을 신속히 찾아낼 수 있어야 합니다. 2017년부터 Slack은 개인 정보가 보호되는 업계 표준 머신 러닝 기술을 사용해 적합한 사용자가 적시에 올바른 정보를 입수할 수 있도록 지원해 왔습니다. 그 예로는 검색창에 입력하면 채널 이름을 자동 완성하거나 워크스페이스에 참여할 새 채널을 추천하는 기능 등이 있습니다.

개인 정보 처리 방침에는 Slack에서 머신 러닝 시스템을 사용하는 방식이 규정되어 있습니다. 저희는 투명성과 책임성을 제공하기 위해 이를 외부에 공개하고 있습니다. 이 방침은 Slack에서 오랫동안 고수해 온 고객과 사용자 개인 정보 보호에 대한 약속에 부합하며, Slack은 다음 사항들을 보장하고 있습니다.

  • 워크스페이스 전반에 데이터가 누출되지 않습니다. Slack은 ML 모델이 고객 데이터를 학습, 기억 또는 재현할 수 있는 방식으로 모델을 구축하거나 교육하지 않습니다.
  • ML 모델은 메시지나 파일 내용에 절대로 직접 액세스하지 않습니다. 오히려 신중하게 파생된 수치적 특징에 의존합니다. 그 예시는 다음과 같습니다.
    • 채널에서 전송된 마지막 메시지의 타임스탬프는 Slack이 사용자의 채널 사이드바를 간소화하기 위해 채널을 보관하라고 권장하는 데 도움이 될 수 있습니다.
    • 두 개인이 상호 작용한 횟수가 사용자 추천 리스트에 통합되어 사용자가 새 대화를 시작할 때 관련 동료 리스트가 제시됩니다.
    • 채널 이름과 사용자가 속한 다른 채널 사이에 중복되는 단어의 수가 해당 사용자와의 연관성을 보여줄 수 있습니다.
  • 기술적 제어를 통해 무단 액세스를 방지합니다. Slack은 AI나 ML 모델을 개발하거나 고객 데이터를 분석할 때 기저의 콘텐츠에 액세스하지 않습니다. Slack에는 이를 방지하기 위한 다양한 기술적 조치가 마련되어 있습니다. 고객 데이터의 기밀성과 보안을 보호하는 이러한 제어 기능들에 대해 자세히 알고 싶다면 보안 백서를 참조하세요.
  • 고객은 이 방식들을 선택할 수 있습니다. Slack의 ML 모델을 교육하는 데 본인의 고객 데이터가 사용되지 않기를 바란다면 이 문서에 설명된 대로 거부할 수 있습니다. Slack은 가능한 한 최상의 제품 경험을 제공하기 위해 ML 모델을 안전하게 교육할 수 있는 강력한 보호책을 갖추고 있으므로 워크스페이스가 기본적으로 참여 거부로 설정되어 있지는 않습니다.

다음은 고객이 필요한 정보를 쉽게 찾을 수 있도록 만들기 위해 Slack에서 비생성형 ML 모델을 사용하는 방식에 대한 구체적인 예입니다.

검색 순위

사용자가 사람, 메시지 또는 파일을 검색하면 우선순위가 지정되고 개인화된 결과 리스트를 생성합니다.

작동 방식:
검색 머신 러닝 모델은 특정 쿼리에 적합한 결과를 식별하여 사용자가 원하는 내용을 찾을 수 있도록 돕습니다. 이 기능은 검색 쿼리, 결과 또는 프록시의 기저 텍스트에서 학습하지 않고 과거의 검색 결과와 이전의 참여 내역을 토대로 작동합니다. 간단히 설명드리자면, Slack의 모델은 실제 검색 쿼리를 사용해 교육되는 것이 아니라 쿼리의 단어 개수 등 검색어의 주변 정보로부터 학습됩니다.

추천
고객이 참여할 채널을 제안하는 등 제품의 다양한 지점에서 관련 사용자, 채널, 이모티콘, 기타 콘텐츠를 추천합니다.

작동 방식:
Slack에서 최대한의 가치를 얻을 수 있도록 사용자에게 워크스페이스의 새 공개 채널에 참여하라고 추천하는 경우가 종종 있습니다. 이런 제안은 채널 멤버십, 활동, 주제의 중복을 기반으로 한 것입니다. Slack은 주제 유사성을 평가하고 수치 점수를 도출하기 위해 Slack 데이터를 전혀 사용하지 않고 개발된 오픈 소스 ML 모델을 사용해 개인 정보가 보호되는 방식으로 이를 수행합니다. Slack의 모델은 이런 수치 점수와 비고객 데이터만을 기반으로 추천합니다.

자동 완성
Slack 검색 클라이언트를 사용해 메시지에 사용자, 채널, 파일 이름을 추가할 수 있습니다.

작동 방식:
사용자가 메시지에서 채널이나 사용자를 언급하고자 할 때 #을 입력하고 채널 이름을 입력하기 시작합니다. Slack 모델은 해당 사용자가 속한 채널과 최근의 채널 상호 작용 및 그에 대한 빈도수 등을 포함해 다양한 입력을 토대로 그들이 검색할 만한 가장 관련 있는 채널을 제안합니다.

요약하자면, Slack의 기존 ML 모델은 개인 정보가 제거된 집계 데이터를 사용하며 이러한 제안을 위해 DM, 비공개 채널 또는 공개 채널의 원본 메시지 내용에 접근하지 않습니다. 오히려 집계된 데이터를 수집해 검색을 개선하고 더 나은 추천 항목을 생성하고 제안합니다.

고객 참여 거부 및 사용자 경험

고객은 Slack에 이메일을 보내 비생성형 ML 모델 교육의 참여를 거부할 수 있습니다. 이렇게 하면 해당 고객의 워크스페이스에 연결된 모든 데이터가 자체 워크스페이스에서의 경험을 개선하는 데 사용됩니다. 고객은 기저 모델에 기여하지 않고도 글로벌 교육을 거친 ML 모델의 이점을 모두 누릴 수 있습니다. 사용자가 이전에 피드백을 제공했을 수 있는 제품의 특정 영역은 제거되더라도 비활성화되는 제품 기능은 없습니다. 더 이상 고객 고유의 사용 패턴에 맞게 최적화되진 않으므로 글로벌 모델의 수행 능력은 약간 저하될 가능성이 높습니다.

다시 말하자면, 한 명의 고객이 참여를 거부하는 하는 것은 거의 영향이 느껴지지 않지만 참여 거부하는 고객의 수가 많을수록 이러한 유형의 모델들은 전반적으로 수행 능력이 저하됩니다.

생성형 AI 입력

생성형 AI는 사용자 경험을 개선하는 데 사용되는 대규모 언어 모델(LLM) 등 새로운 종류의 모델들을 도입합니다. LLM은 Slack에서 추가로 구매할 수 있는 제품인 Slack AI에서 사용됩니다. 특히 Slack AI는 다음과 같은 보안 및 신뢰를 우선시하면서 구축되었습니다.

  • 고객 데이터는 Slack 내에서만 사용됩니다.
  • 고객 데이터에 기반해 LLM을 교육하지 않습니다.
  • Slack AI는 사용자가 이미 볼 수 있는 데이터만을 기반으로 작동합니다.
  • Slack AI는 Slack의 엔터프라이즈급 보안 및 규정 준수 사항을 지킵니다.

Slack은 고객 데이터를 기반으로 LLM 및 다른 생성형 모델을 학습시키거나, LLM 공급업체와 고객 데이터를 공유하지 않습니다.

보안 및 개인 정보를 보호하는 Slack AI를 구축한 방법에 대해 여기서 자세히 알아볼 수 있습니다.

이 포스트가 유용했나요?

0/600

훌륭해요!

피드백을 주셔서 감사합니다.

알겠습니다!

피드백을 주셔서 감사합니다.

죄송합니다. 문제가 발생했습니다. 나중에 다시 시도해주세요.

계속 읽기

새 소식

Slack의 모범 사례, 향상된 위협 감지, 알림 제어를 통해 Slack 데이터를 보호하세요

엔터프라이즈 수준의 보안이 사용자가 Slack에서 협업하고 작업을 수행하는 방법의 모든 측면을 지원합니다.

새 소식

심층 방어: Digital HQ를 보호하는 세 가지 새로운 보안 기능

더 많은 투명성을 제공하는 향상된 기능들 덕분에 팀이 안심하고 업무의 미래를 펼쳐나갈 수 있습니다

혁신

새롭고 강력한 엔터프라이즈급 보안 계층 도입하기

Slack은 사이버 보안 위협보다 앞서 귀사를 지키기 위해 끊임없이 혁신하고 있습니다. Slack이 고객의 정보와 데이터를 안전하게 보호하도록 돕는 방법을 만나보세요.

혁신

Slack Enterprise Grid에 도입된 Enterprise Key Management

최고 보안 책임자 Geoff Belknap이 팀 업무를 방해하지 않으면서 보안을 강화하는 Slack EKM에 대해 알려 드려요.