| 话题 | 回复 | 浏览量 | 活动 | |
|---|---|---|---|---|
| 2025/6/5 服务器恢复 |
|
1 | 26 | 2025 年6 月 5 日 |
| llama.cpp使用Ollama仓库模型 |
|
0 | 43 | 2025 年6 月 4 日 |
| 请问这个该如何解决 |
|
8 | 64 | 2025 年6 月 2 日 |
| 非OLLAMA官方支持的amd设备使用显卡加速 |
|
7 | 219 | 2025 年5 月 6 日 |
| 小白求教,知识库读取数据有问题 |
|
3 | 38 | 2025 年5 月 29 日 |
| amd/intel核显 显存调整 |
|
0 | 74 | 2025 年5 月 28 日 |
| 1.98.41 |
|
4 | 72 | 2025 年5 月 26 日 |
| qwen3:30b/qwen3:8b速度测试 |
|
0 | 68 | 2025 年5 月 26 日 |
| python附加组件相关安装及问题[废弃][无效] |
|
0 | 35 | 2025 年4 月 12 日 |
| llama.cpp配置及使用 |
|
0 | 98 | 2025 年5 月 24 日 |
| 1.98.35 |
|
1 | 40 | 2025 年5 月 17 日 |
| 关闭qwen3的思考/no_think |
|
0 | 38 | 2025 年5 月 10 日 |
| 反馈一下图谱的合并和拆分问题 |
|
6 | 74 | 2025 年5 月 10 日 |
| 1.98.33 |
|
15 | 60 | 2025 年5 月 8 日 |
| 当前推荐模型`qwen3:30b` |
|
0 | 41 | 2025 年5 月 6 日 |
| [INTEL]ollama版本使用 |
|
0 | 50 | 2025 年5 月 6 日 |
| 1.98.24;qwen3 |
|
7 | 89 | 2025 年5 月 5 日 |
| 网页搜索插件 |
|
9 | 129 | 2025 年5 月 5 日 |
| 1.98.32 |
|
2 | 24 | 2025 年5 月 5 日 |
| qwen3来了 |
|
2 | 31 | 2025 年4 月 30 日 |
| 1.98.19 |
|
48 | 368 | 2025 年4 月 28 日 |
| 废弃python-addon提供的文本纠错 |
|
0 | 84 | 2025 年4 月 22 日 |
| 新建知识库失败,运行错误valierror |
|
1 | 28 | 2025 年4 月 23 日 |
| 1.98.17 |
|
0 | 23 | 2025 年4 月 22 日 |
| 1.98.11 |
|
56 | 497 | 2025 年4 月 21 日 |
| 1.98.16 |
|
0 | 23 | 2025 年4 月 18 日 |
| 知识图谱节点增加问题反馈 |
|
6 | 69 | 2025 年4 月 17 日 |
| 小白不懂什问题,卡在自动检测GPU,纠错也不行 |
|
7 | 57 | 2025 年4 月 17 日 |
| 1.98.13 |
|
0 | 21 | 2025 年4 月 16 日 |
| 1.98.4 |
|
108 | 1253 | 2025 年4 月 12 日 |