我们把‘实习生转正答辩打分表’做成了会自己校准的‘公平刻度尺’
上周三下午,技术部小陈第三次修改他的转正答辩PPT,最后一张写着‘自评:85分’。HR小林翻着往期记录叹了口气——上个月市场部两位实习生,一个讲得磕磕绊绊但代码实操满分,另一个演讲像TED现场却连Git分支都拉错,可打分表上居然都是‘综合表现:82分’。
这不是偶然。我们用的是同一张Excel打分表:5项指标,每项1–5分,加权汇总。表面公平,实际漏洞不少:有人习惯性给‘沟通表达’多加0.5分,有人看到‘项目贡献’就下意识联想工时,还有人把‘学习意愿’和‘加班频率’悄悄画了等号。
真正出问题的是‘校准’环节。过去每季度靠HR手动拉齐一次评分逻辑,发个邮件提醒‘请参考附件里的打分说明’,结果附件打开率不到40%,而‘参考’二字,在实操中常被理解为‘参考我上次怎么打的’。
转机来自行政部老张——他去年自学蓝点通用管理系统,顺手把部门打印机报修流程重做了。有天他路过会议室,听见三位导师围着一张打分表争论:‘他写的文档确实规范,但这是不是该算在‘产出质量’里?还是归到‘协作意识’?’
老张没插话,回工位后花了40分钟,在蓝点里搭了个轻量级‘答辩评分校准器’:
- 每个评分项绑定一条‘锚定行为描述’(比如‘项目贡献’下,选项‘能独立修复线上bug并提交PR’自动触发+1.2分,而非笼统的‘较好’);
- 所有导师提交初评后,系统自动比对彼此在同一条锚定行为上的分歧度(如3人中2人勾选‘已提交PR’,1人未勾选,则标黄提示‘行为确认待同步’);
- 最关键的是‘动态权重开关’:当某项得分标准连续3次被多人跳过或标注‘不适用’,系统会在下次开启前弹出提示:‘检测到‘创新尝试’项使用率低于60%,是否需重新定义锚定行为?’
试行两周,变化很细碎,但真实:
- 市场部导师第一次主动退回小陈的初评,补填了‘已复现并优化了A/B测试埋点逻辑’这条锚定行为;
- 技术部带教人发现,自己总忽略‘文档可读性’,因为原表里它藏在‘产出质量’二级菜单里,现在单独成项,还附了往届优秀文档链接;
- 更意外的是,实习生开始提前查‘锚定行为库’——小陈答辩前一周,悄悄在蓝点里建了个私人看板,对照‘技术方案设计’条目逐条自查,还贴了自己画的流程图草稿。
没有推翻旧制度,也没搞全员培训。只是把‘评分’这件事,从‘填数字’变成了‘对行为’。分数本身没变少,但每个数字背后,多了一行可追溯、可讨论、甚至可反悔的小字注解。
昨天小陈转正了。他的最终得分是87.3——系统算的,不是四舍五入来的。HR小林没再发校准邮件,而是把‘锚定行为库’导出PDF,钉在茶水间白板上,标题写着:‘这页,比你的打分表更懂你打的分。’
后来我问老张,为啥不直接买专业人才评估SaaS?他敲了敲显示器边框:‘那些系统卖的是“评估模型”,我们缺的不是模型,是让模型在茶水间、在会议室、在实习生凌晨改PPT时,还能被人摸得着、改得动、信得过的那层手感。’
蓝点没写在合同里,但它就在那里——像一支削好的铅笔,不替你写字,但让你落笔时,心里有底。
微信扫码关注关注乱码泥石流,领取限时福利:
- 蓝点管理系统正版授权
- 好书推荐及电子版资源
- 最新管理软件资讯推送
- 不定期随机福利