第139章 趁着这个机会大干一场

第139章 趁着这个机会大干一场

 

而严谨的测试,当然是按照系统和软件的规范,然后交给小沙操作了:

 

“小沙,测试一下,各种场景,仅使用全量模型的小沙,和使用层级分配模型的小沙,效率和资源利用相差多少。”

 

一句话里边有三个小沙,别说小沙了,就算一般人去分辨哪个小沙是哪个小沙,也得迷瞪一会儿。

 

而小沙,则是迅速的理解了郝成要做的工作,然后去执行了。

 

各个模式与场景,昨天整理分类的时候就已经确定了,这个时候小沙兵分多路,开了n多个分身,以确保测试的时候每个环节和流程都不会错过。

 

就这样,也就过了约莫半个小时的功夫,小沙完成了所有的测试,生成的最终报告就已经到了郝成的设备上:

 

仅仅就软件开发能力这一项而言,使用软件开发专业能力小模型,同样的效果,资源消耗比起使用小沙全量模型几乎节省了95%。

 

当然了,高级标称语言规律性极强且逻辑清晰、规则明确,代码类ai本就是最简单的类型,它能节省较多的资源也是在郝成预料之中的。

 

与其类似的,还有像网络安全、调用元素级应用、ai使用应用等这些ai与机器的交互,中间不涉及人的,资源节省比例都非常大,大都在百分之七八十以上。

 

比较复杂的当然是人,哪怕是语言模型,仅仅只是对话,消耗的资源就比较多。

 

但哪怕如此,人机交互、包括对话理解、场景模拟、复杂工作等所有的项目,进行分拆和分级后,比之前全部使用全量模型也是节省的。

 

比如,模拟法庭的场景,小沙需要识别原告被告法官以及现场所有的人、还要分析案件,这类场景够复杂了,但层级处理的小沙依然能够节省15%左右的资源消耗。

 

且效果丝毫不差——有全量模型最后对结果进行兜底验证,根本就无需担心这个。

 

结合小沙现在对外服务的情况综合分析,小沙给出的综合资源节约比例大约在55%左右。

 

而更具体的数字,需要运行一段时间才能评估。

 

甚至评估更精准了以后,相关的模型还可以再根据需求做进一步的优化和调整。