一、前置条件:

1、本地已经安装部署ollama。
2、已通过ollama安装类开源大模型,如:qwen2.5-coder:14b。

二、问题描述:

在需要暴露本地能力API到公网,但ollama本身没有提供安全认证功能(可能有,我没有找到),暴露api后任何人都可以访问,风险太大。之前一直想着用ollama本身的功能实现api的安全暴露,找了半天没找到。所以转换思路用了以下方式。

三、解决方式:

通过研究发现,一般现成的能力调用工具key的传递方式为:header传递,如下图(idea中的codeGPT插件设置界面):
在这里插入图片描述
因此可以通过nginx转发本地的ollama地址并配置header拦截,打码的地方就是自定义的API key。
在这里插入图片描述

总结

通过nginx的方式实现ollama API 一定程度(专业度不高,不敢说一定安全,但对于我这种小白来说够用了)的安全暴露。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐