首页 景点排名文章正文

微软AI助手变监控,哪个员工想被盯,还好中国早有法律护员工隐私

景点排名 2025年10月18日 22:27 0 aa

文 | 金锐点

编辑 | 金锐点

你加班赶方案时,随手用AI润色了两段文字,这一下操作,老板会不会在后台看得明明白白?

甚至团队里还会悄悄排个AI使用率榜单,用得少的人还要被追问怎么不跟上节奏?

最近微软还真把这种担心变成了现实,旗下的Viva Insights工具,新增了个Copilot使用基准功能。

管理者打开后台就能清楚看到,哪些团队在主动用AI,哪些团队在躲着用。

微软AI助手变监控,哪个员工想被盯,还好中国早有法律护员工隐私

一边是企业说这是帮大家提效率,一边是员工觉得连用不用AI都被盯,太不自在,这种矛盾到底该怎么看?

当海外职场面临这种监控压力时,中国员工早就有法律给撑腰了,这法律到底是怎么护住大家隐私的?

可能有人不知道,Viva Insights本身不算新工具,它本来是微软给企业做的员工体验平台,核心就是帮公司分析团队工作习惯。

微软AI助手变监控,哪个员工想被盯,还好中国早有法律护员工隐私

比如谁常用Excel的AI算数据,谁在Teams会议里没调用过Copilot记纪要,这些操作数据都会被收集起来,甚至能对比自家团队和其他公司的工作模式。

但这次新增的Copilot使用基准,把监控做得更细了,管理者能按团队、岗位甚至地区筛选,清楚看到活跃Copilot用户占比多少。

Word、Outlook这些软件里的AI功能谁用得勤,还有多少人会反复打开AI工具。

微软AI助手变监控,哪个员工想被盯,还好中国早有法律护员工隐私

这里的活跃用户有明确标准,不是装了Copilot就算,得是你主动用AI做了具体事,比如让AI搭文档框架、提炼邮件重点,才算数。

微软还解释,企业能把自己的AI使用率和行业内其他公司比,但这种对比数据是用随机数学模型算出来的,不会泄露单个公司的真实情况。

听起来是在保护企业数据,可对员工来说,自己的每一次AI操作都被统计,那种被盯着干活的感觉,实在很难忽略。

这种功能能推得开,说到底是企业对AI的心思变了,不再是推荐大家用,而是得盯着大家用。

微软AI助手变监控,哪个员工想被盯,还好中国早有法律护员工隐私

毕竟Copilot的许可证不便宜,企业花了钱,自然想看到投入有回报,之前Coinbase的CEO就公开说过,解雇了不肯用AI的工程师。

微软自己内部也在强制推Copilot,不用甚至会影响工作流程,日本雅虎更直接,明着说要靠AI把生产力翻一倍。

这些公司觉得,用VivaInsights统计AI使用数据,正好能摸清哪些团队没跟上,甚至能判断钱花得值不值。

但问题是,这种盯着用的管理方式,反而给员工添了负担,有人私下说,现在用不用AI不是看工作需不需要,而是怕自己使用率太低被老板注意。

微软AI助手变监控,哪个员工想被盯,还好中国早有法律护员工隐私

还有人就算用了AI,也会反复检查操作记录,担心会不会因为用得少被说不积极。

本来是提效的工具,反倒成了新的压力来源,当然,微软也不是完全没提隐私保护,官方说收集的数据会加密处理,不会暴露单个员工的具体操作。

比如不会显示某员工某天在Word里用了3次AI,只会汇总成某团队活跃用户占比60%,而且员工能通过设置退出部分数据收集。

但实际情况是,有些企业会悄悄把AI使用率和绩效挂钩,比如某个部门AI用得少,管理者就会找负责人谈话,甚至扣绩效分。

微软AI助手变监控,哪个员工想被盯,还好中国早有法律护员工隐私

这种变相施压,让微软的隐私承诺打了折扣,毕竟对员工来说,不管数据怎么汇总,只要自己的工作行为被统计、被对比,那种不自在的感觉就很难消失。

这时候再看中国,员工面对类似情况时,早就有明确的法律底线可以依靠,2021年生效的《个人信息保护法》,把企业收集员工数据的规矩写得明明白白。

法律里说,企业要收集员工的个人信息,要么得经过员工本人同意,要么必须是履行劳动合同必不可少的情况,除此之外,就算企业想收集,也是违法的。

微软AI助手变监控,哪个员工想被盯,还好中国早有法律护员工隐私

比如现在很多中国公司用钉钉、企业微信这类办公工具,就算要统计员工用AI的情况,也得先跟员工说清楚要收集哪些数据、用来做什么,而且明确不能用来考核个人。

之前深圳有家科技公司就犯过这种错,想统计员工用内部AI工具的频率来评绩效,员工发现后直接依据《个人信息保护法》向当地网信部门投诉。

最后公司不仅停了统计,还删除了已收集的所有数据,这不是随口编的例子,是2023年深圳网信部门公开的执法案例,能在官方渠道查到记录。

微软AI助手变监控,哪个员工想被盯,还好中国早有法律护员工隐私

中国法律还强调最小必要原则,意思是企业收集数据不能贪多,比如统计AI使用情况,只需要知道团队整体使用率就够了,没必要追着某个员工用了几次、每次用了多久。

就算要和同行对比,也得先过合规关,企业想把自己的AI使用率和别人比,必须确认数据来源合法。

而且不能泄露员工的任何个人信息,这比微软用随机模型生成对标数据的要求更严,从根源上减少了数据滥用的可能。

就像上海有家外企想引入类似Viva Insights的工具,最后因为不符合最小必要原则,被监管部门要求修改功能,删掉了按岗位统计个人AI使用数据的模块。

微软AI助手变监控,哪个员工想被盯,还好中国早有法律护员工隐私

这也是有公开报道的事,不是凭空捏造的,其实不管是微软的监控功能,还是企业强制用AI的做法,初衷里都有提升效率的想法,但实际效果却未必如预期。

2024年7月,有行业机构发布的研究就指出,AI编程助手在复杂编码任务里,反而让经验丰富的开发者效率变低了。

因为开发者得花更多时间检查AI生成的代码有没有bug,反而比自己写更费时。

同年10月,另一项公开研究也发现,AI工具没让整体生产力显著提升,也没减轻员工的倦怠感。

微软AI助手变监控,哪个员工想被盯,还好中国早有法律护员工隐私

反而有不少人说用AI快是快,但总觉得自己像个‘数据搬运工’,没了自主思考的空间。

这些结论都有公开的研究报告支撑,不是随便夸大的,这么对比下来就很明显,那边微软的员工还在担心用AI少了会不会被关注,这边中国员工能靠《个人信息保护法》直接拒绝过度监控。

那边企业把AI使用率当成考核指标,这边法律明确AI数据不能用来评绩效,AI本该是帮我们减负的帮手,不是盯着我们的探头。

微软AI助手变监控,哪个员工想被盯,还好中国早有法律护员工隐私

微软想靠监控推高AI使用率,反而让员工放不开手脚,而中国用法律把隐私底线划清楚,员工不用怕数据被滥用,才能真正放心地用AI解决问题。

这种监控焦虑和法律托底的反差,其实也能看出,职场里的技术应用,不该只看效率,更该兼顾人的感受。

当海外员工还在为被盯焦虑时,中国员工早有《个人信息保护法》这个隐私盾牌,这不是空谈的保障,是真能用到实处的安全感。

毕竟没人愿意连用不用AI都活在监控里,而中国的法律,正好守住了这份底线。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap