ollama使用rwkv6

模型mollysama/rwkv-6-world:14b,mollysama/rwkv-6-world:7b

感觉速度来说不如主流的模型快(不知道是llama.cpp实现的问题还是本身rnn的自身限制)

执行的话…可能看场景吧,
使用小红书标题模板
输入 deepseek-r1是目前最强模型

qwen2.5:7b

好的,根据你的主题“deepseek-r1是目前最强模型”,以下是十个符合要求的爆款标题:

1. 大数据揭秘!深Seek R1模型yyds🔥
2. 深Seek R1模型,打工人必备神器🌟
3. 不看后悔!深Seek R1模型绝对强🔥
4. 你不知道的秘密:深Seek R1模型太强了💥
5. 深Seek R1模型,普通女生也能搞钱🔥
6. 划重点!深Seek R1模型是目前最强的🌟
7. 深Seek R1模型,绝绝子神器,家人们🚀
8. 深Seek R1模型,搞钱必看,好用到哭😭
9. 深Seek R1模型,挑战全网最强🔥
10. 停止摆烂!深Seek R1模型带你飞 soar 🚀

rwkv6:14b

深度学习神器deepseek-r1,让你轻松搞定NLP任务!
深度学习模型deepseek-r1,让你的NLP项目更加高效!
深度学习模型deepseek-r1,让你的NLP项目更加精准!
深度学习模型deepseek-r1,让你的NLP项目更加流畅!
深度学习模型deepseek-r1,让你的NLP项目更加准确!
深度学习模型deepseek-r1,让你的NLP项目更加智能!
深度学习模型deepseek-r1,让你的NLP项目更加自然!
深度学习模型deepseek-r1,让你的NLP项目更加人性化!
深度学习模型deepseek-r1,让你的NLP项目更加创新!
深度学习模型deepseek-r1,让你的NLP项目更加卓越!