企业数据成“饲料”:Slack的AI模型训练引发公愤

PigSay 2024-05-18 阅读:136

5月18日,一则关于企业协作平台Slack的报道引起了广泛关注。报道指出,Slack被指控在未经用户明确同意的情况下,收集用户数据(包括消息和文件)来训练其人工智能和机器学习模型,这引发了公众对隐私保护的强烈担忧。

Slack方面回应称,其系统默认会分析用户数据和使用情况,以构建AI/ML模型,旨在提升软件性能。尽管Slack声称拥有严格的技术措施来保护用户数据不被滥用,并承诺数据不会在不同的工作场所之间共享,但许多企业管理员仍然选择退出数据收集。

Slack在官方声明中提到,如果用户希望从其全局模型中排除自己的数据,可以通过发送电子邮件给Slack的客户体验团队来选择退出。这一声明在社交媒体上引发了热烈讨论,用户对于自己的私密消息和敏感信息被用于AI/ML模型开发表示担忧。

据SecurityWeek的调查,多位首席信息安全官(CISO)表示,他们对Slack开发AI/ML模型并不感到意外,但认为用户不应该承担退出数据收集的责任。

Slack在社交媒体上回应了这些批评,指出其平台级机器学习模型用于频道推荐、表情符号推荐和搜索结果等,用户可以选择不参与这些模型的训练。此外,Slack还强调,其AI服务是一个可选的附加服务,使用的是大型语言模型(LLM),但这些模型不会基于用户数据进行训练。

Slack进一步明确表示,Slack AI服务是在自己的基础设施上托管模型,用户数据完全由用户控制,仅供用户组织内部使用,不会离开Slack的信任边界,任何第三方,包括模型供应商,都无法访问这些数据。

在Slack的官方文档中,公司也承诺,数据不会在不同的工作空间之间泄露,并强调任何广泛用于所有客户的模型,都不会以能够学习、记忆或重现客户数据的方式构建或训练。