九卦 | AI技术在IT资源管理中的探索与思考
创始人
2026-02-28 21:21:59

作 者 | 中国银联技术部 徐静雯、冯奇、马鹏飞、方宇伦、金佳骏

来 源 | BanTech智库

生成式大模型的发展给AI技术带来了又一次的飞跃,但我们认为它更是为数据的使用带来了飞跃。虽然数字化,大数据分析这几年也一直在蓬勃发展,但是都是各领域各单位独立发展,基本都是局部优化应用,没有一个能涉及所有领域的现象级应用的爆发。

同时,传统大数据分析领域更偏重结构化数据,非结构化数据应用也不太突出,但是生成式AI技术改变了这一切,带来了诸多爆点应用,也带来了一个有趣的现象,之前大家普遍认为AI是用来代替体力劳动的,脑力劳动由于包含创造性很难被代替,但生成式AI出现以后,大家发现反而是越来越多的脑力劳动能被代替,这就是因为人类留下了大量的脑力活动产物——知识,AI通过学习这些知识而具有了一定的创造力,这和人类的学习过程相当,人类也是学习前人积累的知识而具有了创造性。只是人类通过文字学习知识,而AI通过由知识转化的数据来进行学习。

数据越来越重要。

正因为AI由数据触发,基本上所有的数据密集型工作均应尝试由AI来改进工作效果,提升工作效率。

IT资源管理,特别是其中的人力资源管理就是数据密集型领域。现代工作基本以项目为维度,而伴随PMP(项目管理认证)工作方式的普及,项目数据异常丰富。在研发过程中,研发人力一定是紧俏资源,为更好地做好IT人力资源管理,我们选择用AI技术来协助更准确高效地识别研发需求需要多少人力资源,和基于历史数据的发展趋势更合理规划人力资源的分配方案,并通过资源归集来校验人力资源分配的合理性。

IT人力资源的管理是贯穿于整个研发过程中的,不同阶段有不同诉求,采用的技术方式也会有所不同。

经过归纳总结,我们聚焦在三个阶段一是开始的工作量预估阶段,通过对需求书的识读按照国家标准进行功能点提取和工作量预估。二是资源分配阶段,通过分析历史数据,按照任务情况分类后,去构建拟合曲线,找到拟合度最高的曲线,并将上一阶段计算的总工作量代入后,计算出下一个拟合节点需要的人力资源,形成分配方案。三是最后的资源归集阶段,将真实使用的总数据按不同任务类型分解,与之前预估的分配方案进行对比,用于后续的修正。

要实现上述每个阶段的目标,首先得让AI能明白这个目标的含义,为此,我们要将这些目标翻译成数据,让AI理解。AI技术其实非常多样,并不应局限在生成式AI层面。我们认为,只要是能协助人类完成一定工作的技术都可以认为是AI技术。

为此,为每个阶段,我们都选择了不同的技术,工作量预估阶段由于要阅读分析需求书这样的非结构化数据,我们构建智能体来调用生成式大模型;资源分配阶段主要在于分析历史任务数据这样的结构化数据,我们自己设计领域专用小模型来进行拟合与预估;资源归集阶段主要在于将归集原则提炼为专家知识,并根据专家知识自动化进行数据读取、分类与汇总,我们自己开发了一个自动化工具。

这是最关键的环节,正如本文开始的分析,数据是AI的源泉,数据的准备也就是训练的过程。

(1)工作量预估阶段的数据准备

我们首先构建了一个知识库,把经过分段与向量化后的国际标准、标准解读、术语定义等各项文本资料作为大模型的非结构化RAG知识库,另外也把之前历史需求中人工归纳分析的一千多个功能点属性、分类、所属系统等构建了一个结构化数据表格形成大模型的结构化数据库,结构化数据与非结构化数据共同形成了一个小型知识库。然后再构建了一个智能体,通过智能体增强检索能力去学习这个知识库,形成自己的理解,再去分析投喂给它的需求书。

(2)资源分配阶段的数据准备

针对该阶段,我们又分了如下几步的数据处理:

一是确定参数。历史数据的维度比较多,包括任务属性,规模,任务起止时间,任务中每个需求提出时间,与每个需求的人力投入。根据预估目标,我们选择时间为X轴,累积人力投入为Y轴,并进行X轴与Y轴的归一化处理后,形成单个任务的历史投入的趋势曲线,其他任务属性、规模、任务提出部门等为不同维度参数,目的是寻找一条能与历史数据中各任务趋势实现最佳拟合的曲线。

二是数据清理。任务都是按项目来管理,但是实际情况下项目情况比较复杂,会出现紧急、突发、提前开始或延期等各种情况,这些都会对整体趋势造成偏差,属于应剔除的噪声。结合实际情况,我们整理了六条数据清洗原则,对数据进行了有效整理。

三是抽样选择。为测试模型的训练效果,我们预留了20%的样本数据作为测试集数据使用,如何抽样20%的数据也是要考虑的问题。开始对全部样本采用随机抽样,由于有些任务需求多,数据会多一些,被抽中的概率就比较大,这样测试时会更偏向这些有更多需求的任务趋势曲线,且需求出现时间的随机性造成了时间信息泄露,使得模型评估结果失真。然后我们尝试了另一种分层的抽样方式,确保每个任务尾部20%的数据被选择,但是这样依然有问题。

因为尾部20%的数据集中到任务临近完成时的数据,而每个任务完成时数据变化会比较剧烈,一般是快速收尾,所以相较于前80%的平缓趋势会突然变得陡峭,对整体趋势预测会带来比较大的干扰。权衡后,我们采用了在任务层面全随机抽样方式,避免了上述问题。

(3)资源归集阶段的数据准备

相对来说,该阶段的数据准备相对简单一些,重点在于将归集原则转换为标准化的专家知识。之前,这些原则都在具体工作人员的记录中,或者通过excel写成了公式,但均不是可以理解的知识,知识应该标准化并可理解、可复用。

在工作量预估方面,由于我们的需求书是很专业的内容,大模型按照常规切片划分,并不能精准理解,经过不断调优后,对于功能点不太多的需求,其识别准确度与人工类似,一旦功能点增多,识别效果显著降低。

另外,考虑到AI提示策略、记忆机制等方面的设置差异,对同一个功能点,当上下文有两次不同的表述时,会被识别两次;对于系统内部已有或已实现的功能点,在大模型并不知情的情况下,也会再次识别,说明提示词工程很重要,需要把关键术语及关联关系提示清楚,以增强大模型的上下文处理能力。同时,也说明,需求书的标准化也很重要,需求书需与提示词配套,才能增加大模型的理解能力。

在资源分配阶段,我们选择了回归问题时常用的模型进行多轮测算,这些模型包括多元线性模型、决策树模型、K近邻模型、支持向量机模型、随机森林模型和Light GBM模型共六个模型,这些模型在不同任务属性下表现效果各异。整体看下来,当任务需求提出的时间分布比较均衡,需求颗粒度大小比较一致的情况下,拟合度较好,最好时可达78.48%。但是如果任务需求的分布不太均衡时,拟合度就不太理想。这提示我们,模型效果和历史数据的有效性密切相关。

在资源归集阶段,专家知识整理好后,AI只是自动化的数据处理,这是AI强项,因此效果非常好,从原来单纯人工处理的几十小时级别压缩到了分钟级,极大提升了工作效率,节约了人力成本。人员可以释放出来做更具创造性的工作,比如不断打磨专家知识。

从上述的实施效果分析,我们做了进一步思考,归纳出如下在AI应用中的几点建议:

一是工作任务的有效拆解,由于AI目前强大的还是其计算与记忆能力,而并不是创造能力,因此工作过程要细分,比如按生命周期拆分,这样可以更准确地给AI提出问题,另外问题也要尽量简单,便于其理解和训练。特别在专业领域中,需要构建更加标准化的提示词,并需将资料文档和提示词有机结合起来,才能让AI逐步理解这些专业知识而发挥作用。

二是数据整理是最关键的一环,脏数据对AI效果的破坏性极强。在我们的资源分配阶段,由于任务中需求的规模、时间周期变化都比较大,致使整体的拟合效果并不理想,这也说明归根结底AI应用是和管理与治理密切相关的。对于新增内容我们要做好更精细化的管理,从源头就做好数据的标准化,保障数据的有效性;对于存量内容要做好治理,提升数据的标准性与有效性。

相关内容

热门资讯

鸿蒙智行Z7轿跑与H7 SUV... (来源:车联新生态)"尚界2026年携Z7轿跑与H7 SUV进军30万+高端市场:Z7以2.9秒破百...
誓师攻坚!卧龙涂料锚定新目标,... (来源:涂料采购网)春潮涌动启新程,奋楫扬帆正当时。为明确2026年发展目标、凝聚全员奋进力量,20...
9000t/d熟料生产线不建了... (来源:水泥网APP)2月24日,河北省工信厅发布“关于邯郸金隅太行水泥有限责任公司日产3000吨、...
小米Watch 5智能手表海外...   炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会! (来源:IT之家)I...
打击伊朗,美国会陷入新的战争泥... 这是2月28日在伊朗德黑兰拍摄的爆炸引发的浓烟。新华社/美联2月28日,美国、以色列联合对伊朗多个目...