自从DeepSeek爆火之后,越来越多的同学咨询我,能否将这种大模型的能力融入到日常的测试工作中,在进一步提升工作效率比的同时,还能有一定的创新。

刚开始我对此是保持谨慎的,因为这一波AI浪潮来得太快太猛了,且无论是通用大模型领域(LLMs),还是AI 应用层面(比如Agent、Manus),技术迭代发展速度太快。

在技术发展脉络还不太明朗的情况下,不要过早投入太多资源,应该保持观察,小范围快速验证为主。试错固然是一种学习方式,但成本太高,反之如果有较为成熟的落地案例,那便可以参考。

经过两个多月的探索实践,以及大量的试错案例积累后,我个人认为在当下来说,适合AI在测试工作中的落地场景,主要有这几个方面:轻应用、企业知识库以及AI测试平台


首先,在测试工作中落地AI,应该对AI相关的基础理论和技术原理有一定的了解

比如几个常见的专业术语如LLM、RAG、MCP和Agent,比如基本的本地化部署大模型,比如DeepSeek的官方提示词模版,再比如AI编码工具如Cursor。

只有对AI的基础理论、专业术语和技术工具有一定了解,才能为我们在日常测试工作场景中落地AI扫平障碍。

其次,在刚开始落地AI时,我个人更推荐从一些轻量级的项目或者场景开始,比如:测试用例生成、测试数据对比、代码审查和评审、性能问题识别分析、AI驱动的自动化测试等场景。

先从局部开始,拿到结果和正向反馈,然后进一步扩大覆盖范围,最终达成AI TestOPS的目标。

再次,当我们有了一定的AI+测试实践经验和落地案例之后,可以考虑基于已有的经验和案例,进一步挖掘AI的效能。如果是我的话,我会在这个阶段尝试推动落地基于RAG技术的企业级AI知识库。

为什么这个阶段要做企业级AI知识库呢?原因在于,如果想让AI深入融入我们日常的测试工作,势必要做好基础建设,而AI知识库则是团队基础设施建设的必备组件。

从需求管理、项目管理,到测试用例、流程规范、故障案例库沉淀,AI知识库都是AI深度融入工作场景的必经之路。

最后,则是基于轻量的技术项目和AI知识库,打造属于我们的AI测试平台

通过已经落地实践的智能测试用例生成和测试数据对比等能力,结合AI知识库,再叠加工作流驱动的AI智能体能力,可以达成AI驱动的全链路测试覆盖,让测试团队具备AI TestOPS能力


当然,这种深度的AI TestOPS能力并不是旦夕即可具备,需要我们长期持续的积累和推动落地实践。如果自己摸索实践不说会投入大量试错成本,且容易走弯路。

点赞(0)

评论列表 共有 0 条评论

暂无评论
发表
评论
顶部