一、启动与停止服务

  1. 启动Ollama服务
  • ollama serve:启动Ollama服务器,以便运行模型和处理请求。首次启动可能会生成ssh私钥文件,并提示服务端口状态。如果服务已在运行中,可以通过netstat -tulpn | grep 11434命令进行确认。
  1. 重启Ollama服务
  • 对于不同操作系统,重启命令可能有所不同。例如,在Ubuntu/Debian系统上,可以使用systemctl daemon-reload和systemctl restart ollama命令;在CentOS系统上,则可能需要使用sudo yum update、sudo yum install lsof、stop ollama、lsof -i :11434、kill 和ollama serve等命令组合。

二、模型管理

  1. 创建模型
    • ollama create [Modelfile路径]:使用包含模型信息的Modelfile来创建一个新模型。
  2. 显示模型信息
    • ollama show:显示特定模型的详细信息,如模型名称、版本等。
  3. 列出模型
    • ollama list:列出本地所有可用的模型。
  4. 从注册表拉取模型
    • ollama pull [模型名称]:从模型注册表中拉取一个模型到本地使用。
  5. 推送模型到注册表
    • ollama push [模型名称]:将本地模型推送到模型注册表中,以便他人或其他系统使用。
  6. 复制模型
    • ollama cp [原模型名称] [新模型名称]:复制一个模型到另一个位置或给定名称的地方。
  7. 删除模型
    • ollama rm [模型名称]:删除一个已安装的模型。

三、运行模型

  • ollama run [模型名称]:运行一个已安装的模型,执行某些任务。可以根据需要指定模型的参数和配置。

四、会话管理

Ollama还提供了一些与会话管理相关的命令,这些命令可以帮助更好地控制和管理与模型的交互:

  1. 加载会话或模型
    • /load <model>:加载一个特定的模型或会话。可以指定一个模型的名称或路径来加载它。
  2. 保存会话
    • /save <model>:保存当前的会话状态或模型。可以将当前会话或模型的配置保存为一个文件,以便以后使用。
  3. 清除会话上下文
    • /clear:清除会话上下文。这将删除当前会话中的所有历史记录或对话内容。
  4. 退出会话
    • /bye:退出会话。这个命令将结束当前与模型的对话,并退出程序。

五、其他命令

  1. 查看帮助信息
    • ollama help [命令名称] 或 ollama --help:获取有关Ollama任何命令的帮助信息。如果指定了命令名称,则显示该命令的详细帮助信息。
  2. 查看版本信息
    • ollama version:显示当前Ollama工具的版本信息。
  3. 设置会话参数和配置
    • /set:用于设置会话参数和配置。例如,设置消息格式、启用或禁用历史记录等。具体参数包括/set system<string>、/set template<string>、/set history、/set nohistory、/set wordwrap、/set nowordwrap、/set format json、/set noformat、/set verbose和/set quiet等。
  4. 显示键盘快捷键
    • /?shortcuts 或 /help shortcuts:显示键盘快捷键的帮助信息,帮助更快速地进行操作。

六、示例:安装qwen

1、安装Ollama

  1. 打开终端或命令提示符。
  2. 输入以下命令以安装Ollama:
curl -fsSL https://ollama.com/install.sh | sh

该命令会从Ollama的官方网站下载并安装Ollama。

2、下载并运行qwen2.5模型

  1. 安装完成后,可以使用以下命令来拉取(下载)qwen2.5模型:
ollama pull qwen2.5-coder:7b

这里以qwen2.5-coder的7b版本为例。如果想下载其他版本的qwen2.5模型,请将7b替换为相应的版本号。

  1. 下载完成后,可以使用以下命令来运行qwen2.5模型:
ollama run qwen2.5-coder:7b

该命令会启动Ollama服务,并加载qwen2.5-coder:7b模型。之后,可以通过Ollama提供的API接口与模型进行交互。

3、测试qwen2.5模型

可以使用curl命令或Python脚本来测试qwen2.5模型是否正常工作。以下是一个使用curl命令测试qwen2.5模型的示例:

curl http://localhost:11434/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{ "model": "qwen2.5-coder:7b","stream":true, "messages": [ { "role": "user", "content": "你好" } ] }'

该命令会向Ollama服务发送一个包含用户消息的请求,并等待模型返回回答。如果模型正常工作,应该能够看到模型返回的“你好”对应的回答。

请注意,随着Ollama的更新和发展,可能会有新的命令和功能被添加或修改。因此,建议定期查看Ollama的官方文档或GitHub仓库以获取最新的命令和功能信息。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐