之前在论坛测试了一些国产模型,最近测试一下gemma2-27B,phi4-Q8(14B),qwen2.5-14B-Q8,截图是以为一位UP主的理论,确实同一模型高B低Q的效果更好。同时UP也列出了几个文学创作、数学推理领域的模型,链接附后。
说一下文学创作方面的测试结果:gemma2-27B推荐,phi4-Q8(14B)推荐,qwen2.5-14B-Q8(自己选吧)
qwen2.5-14B:token比其他模型多1、2百字,但是上下文衔接僵硬(设置了规则,限制角色),偶尔出现文字跳跃的情况(不设置规则会更加严重),还有其他优劣看我之前的帖子,
phi4-Q8(14B)优先推荐:每一个对话都会给出下一步创作建议,而且支持双语(英文更强,写国外背景有一套特色逻辑,英译中效果不错)会根据每一个剧情点给出合适的理由,上下文衔接不错。缺点是国外模型,一些本土语言难理解,网文喂的有点少,可能是B数限制,(phi-Q 4在文本创作、忠实度上出乎意料比各个模型好)
gemma2-27B推荐:这个是在LM测试的,生花笔下载还是慢了,中规中矩,识别目标任务较好,但是创作过程有段落逻辑前后错乱的情况,但是语言精炼,常用短句。
生花笔这个软件的限制还是太多了,本以为能够成为一个备用的创作软件,但是现在最在意的工作流还是问题多多。之后会再发一篇帖子说说。
