ollama相关配置

  • 软件内置了OLLAMA的一些操作,方便本地使用

使用软件内置安装

本机已经部署的OLLAMA

  • 指定本机的OLLAMA所在文件夹

假如可执行文件路径为 C:\data\shb\ollama\ollama.exe,那么配置如下

    "shenghuabi.ollama.dir": "c:\\data\\shb\\ollama",

参考

使用本机的OLLAMA但是已经启动

上面两种都是由软件启用OLLAMA,用户不需要关心
如果指定了shenghuabi.ollama.dir但是不由软件启动,也可以使用下载模型操作

  • 关闭软件启动OLLAMA
    "shenghuabi.ollama.startup": false,
  • 指定api路径(如果有修改)
  "shenghuabi.chat": {
         "baseURL": "http://127.0.0.1:11434/v1",
      },

下载模型

  • 环境配置页面,修改模型名然后点击下载

下载完成后会自动修改使用,如果下载到9x%后速度变慢,可以再次点击,杀掉之前的进程,下载进度会保留,速度会恢复

列出模型

  • 最下面的状态栏悬停显示
  • modified的模型表示这个模型被修改过(比如上下文长度)

这个是由软件在调用时自动实现的,不需要关心
自动生成的模型尺寸并非列举出来的那么大,可以理解为docker的层,只多了一个配置层
目前已经不会再生成带modified的模型,因为ollama新版已经有设置上下文长度的环境变量

环境变量

  • 环境变量在配置中有相应提示

  • 修改模型上下文长度

如果这个值设置的过小,那么如果一条提示词过长时会直接抛弃,一般在知识图谱提取时使用
ollama默认为2048,软件默认设置为32768

  "shenghuabi.ollama.env": {
        "OLLAMA_CONTEXT_LENGTH": 32768
    }