明白了,我的结构和差异化处理残缺,我再调整一下,太感谢了
对于
1.需求文档的类型,我们是那单个功能迭代的,比如我们新增了一个已活跃分为货币的报名方案,他所涉及的测试点有活跃分报名 - 存档 - 复活 - 结算 - 再来一局 - 强制踢出房间整个流程,整个会有一个功能介绍,有些功能是往期已有的,他就会简写成一句话,新增的会比较详细的描述
我从需求中总结到的这些测试点,拿报名这部分内容举例 1.报名费用还涉及金币报名、参赛券报名、金币不足、条件不足、新增活跃分不足等情况兼容,我从我的关键词调用的时候他不是光拿报名费这一个关键词,而是我需求中多个关键词一起去知识库内进行检索,可能能检测到报名费用这块检索 tab5-10,也可能被其他的关键词所污染就会造成丢失,而我如果拆分了需求,他又不能很好的按一个个的拆分点依次去查询
2.如果是跳多个知识库的话,就比如我的复活模块,我先需要知道需求中有复活这个内容,然后手动勾选复活相关得知识库,可能能很好地调用,但是这样的知识库分的太细了,没办法根据一个工作流来达到自动识别、调用的情况
辛苦问个问题,我现在有个困扰,我的需求文档有很多的测试点,直接全量查询 01.目录结构(找到比如报名、开赛模块),随后我让大模型再去找第二个知识库中报名的具体内容的时候,我发现他是拿一堆关键词去知识库里匹配,相当于我拿着一本书(测试点总结)去和另一本书(知识库)在匹配相似度,会导致数据丢失很大一部分,这块是怎么处理的呀,用模糊查询,类似 msql 数据库,先搭建格外完整的体系这样嘛
根据禅道 buglist 拆出来测试点,老员工的个人总结,产品那残留需求,都可以进行整合的
我的目前还好一些,大概能到 70%,希望在我知识库搭建完后能到 80 以上,我目前是先把需求让大模型清洗一遍,然后原版需求 + 清洗完后的需求分别交给 2 个 LLM,分别进行测试点总结和需求拆解,第三个 LLM 根据原需求和测试点总结进行用例生成,感觉会更精准一些
非常感谢,这个流程对我帮助很大,我先尝试用小项目搭建一下
1.请问本地的话是按照类似这种父子结果的框架产生一个总 md 文件?
├── 01_规范与标准/
│ ├── 测试用例编写规范.md (包含用例格式、优先级定义、字段说明)
│ ├── 术语表.md (例如游戏专有名词:硬直、判定框等)
├── 02_策划案与需求/
│ ├── 系统模块/ (如:背包系统、任务系统)
│ └── 战斗模块/ (你的 ACT 战斗相关策划案)
├── 03_Skill 与经验库
└── 04_模板/
└── 测试用例模板.md
2.然后在 dify 知识库中按照框架生成多个模块化知识库,比如知识库 1.规范和标准 2.策划案与需求,当有新需求生成测试用例时,使用类似 GitHub Action,自动更新 dify 知识库,用关键词调用 LLM,检索多个知识库这样来进行嘛
3..这个规范性文件是公司要求需求方小伙伴必须按照相关规定去做需求文档嘛?大家同时遵守规则嘛?还是自己清洗数据呀
如果 xmind 中的内容写的比较详细的话,可以转 markdown 格式表格或者文档也是可以用的
视觉 AI 分析不需要进行提示词控制嘛,可直接用于工作的复用率能有多少呀,能否分享下是什么大模型
没有什么成熟的落地能直接就用的,现在可以做的就是你觉得什么比较好用,直接用,先用起来再优化,哪怕是直接用 deep 拆解需求生成一份测试用例,当你的关键词能把一份需求拆解详细,80% 可直接利用那就已经很厉害了,先点再面测试思路不也是这样的嘛,我现在的想法就是用 dify 把测试用例直接生成出来