上周三下午,HR小林盯着电脑屏幕发了三分钟呆——不是因为累,是被Excel里一组自动标红的数据震住了。
那是上季度12位实习生的转正答辩评分汇总。按惯例,每位实习生由3位评委打分(业务导师、部门负责人、HRBP),共36条原始分数。小林照例用公式算平均分、剔除最高最低分、再比对答辩录像逐条复核……结果发现,有4份评分表里藏着‘静默冲突’:比如A同学,导师打了92分,部门负责人给了85分,HRBP却只给76分——单看都合理;但翻看答辩记录发现,三位评委对‘需求理解能力’这一项的评语高度一致(‘能快速抓住核心’),可打分却差了16分。
这事儿以前也发生过,但没人系统性地抓。大家默认‘主观评价本就难统一’,顶多会后口头聊两句。直到上个月,小林把评分表搬进了蓝点通用管理系统,试着加了个不起眼的规则:当同一维度下3人评语相似度>85%,但分差>10分时,自动弹出‘打分校准提醒’。
她没指望真能用上。结果第一轮测试就触发了7次提醒,其中3次直接暴露了评委无意识的评分偏差——比如那位HRBP,习惯性给技术岗打分偏低,后来一查,他过去半年所有技术类岗位评分,平均比业务线低8.3分。
这事让我想起去年帮研发部搭‘代码评审质量追踪表’时的老问题:工程师们总说‘评审意见很主观’,可当我们在蓝点里把‘是否指出具体行号’‘是否附带可复现步骤’‘是否标注风险等级’拆成必填字段,并让系统自动统计每位评审员的‘有效意见率’(即被采纳的意见数/总意见数)后,数据开始说话了。原来公认最‘严格’的老张,有效意见率只有41%;而总被吐槽‘太温柔’的实习生小杨,反而高达79%。
管理里最耗神的,往往不是定标准,而是让标准在流动中不走样。就像我们给行政部做的‘供应商样品签收单’,加了个小功能:每次签收时必须上传开箱视频的前3秒(要求拍到封条和时间水印)。起初大家都嫌麻烦,直到第三次,系统自动比对视频里封条编号和采购单备注的批次号,揪出一家供应商用旧批次冒充新品——那之后,没人再跳过这3秒了。
回到实习生评分这事,现在蓝点还会干件更细的事:它把每位评委过去半年所有评分的‘离散度’(标准差)画成趋势图。有人波动大,说明判断依据不稳定;有人长期压分或抬分,系统就悄悄在下次分配评委时,优先匹配风格互补的人。不是取代人的判断,而是让判断更可追溯、更可对话。
上周五,小林把最新版评分表发给几位评委时,顺手附了句:‘这次系统没报警,但您上月在‘沟通表达’项的打分方差下降了32%,进步明显。’
没人觉得被冒犯。倒是有位总监回了句:‘原来我上次给那个孩子打低分,是因为他汇报时没看我眼睛——可这跟‘逻辑清晰度’有啥关系?’
你看,工具不会教人怎么打分,但它能让‘我以为的客观’,露出毛边来。
微信扫码关注关注乱码泥石流,领取限时福利:
- 蓝点管理系统正版授权
- 好书推荐及电子版资源
- 最新管理软件资讯推送
- 不定期随机福利