
Ollama(本地部署大模型) + LobeChat(聊天界面) = 自己的ChatGPT
本篇文章介绍了本地大模型的部署和 LobeChat 界面的部署,成功在本地部署属于自己的ChatGPT。上面也只是关键步骤的说明,遇到问题多看下官方的安装文档。本文起到抛砖引玉作用。大模型很多技术干货,都可以共享给你们,如果你肯花时间沉下心去学习,它们一定能帮到你!
在本地部署大模型有多种方式,其中Ollama方式是最简单的,但是其也有一定的局限性,比如大模型没有其支持的GGUF二进制格式,就无法使用Ollama方式部署。
GGUF旨在实现快速加载和保存大语言模型,并易于阅读
Ollama 是一个用于部署和运行各种开源大模型的工具。用户通过执行几条命令就能在本地运行开源大模型,极大简化了大模型在本地运行,类似于Docker。
第一步:安装Ollama
支持的操作系统: MacOS/Linux/Windows/Docker
1. 安装(MacOS为例)
使用最简单的方式:使用brew install ollama
安装。
第二种方式:下载安装包,下载对应操作系统的安装包直接安装即可,操作非常简单
2. 验证(是否安装成功)
在Termial
上输入ollama -v
命令,如果出现如下图,则说明安装成功
第二步:在Ollama上安装大模型
1、从 [Ollama] 获取要安装的模型。
已安装 llava
模型为例,先进入[ollama.com/library]网站,然后输入llava
进行搜索,复制安装命令。
说明:Ollama的运行会受到所使用模型大小的影响。留意个人电脑配置选择合适的模型
- 运行一个7B(70亿参数)的模型至少需要8GB的可用内存(RAM),而运行13B(130亿参数)的模型需要16GB内存,33B(330亿参数)的模型需要32GB的内存
- 需要考虑提供足够的磁盘空间,大模型的文件大小可能比较大,建议至少为Ollama和其模型预留50GB磁盘空间。
- 性能较高的CPU可以提供更好的运算速度和效率,多核处理器能够更好的处理并行任务,选择具有足够的核数的CPU
- GPU,Ollama支持纯CPU运行,但可以利用GPU进行加速,提高模型的运行速度和性能。
2、打开Terminal 执行安装命令
打开 Terminal 执行 ollama run llava:7b
命令 至此成功在本地安装一个
llava
参数为7B的大模型,我们可以使用Spring AI 对接本地的大模型,再也不用担心Open AI Key的问题了。
其它本地大模型部署框架
您也可以选择其它的本地部署大模型的框架,将简单的介绍下GPT4ALL和OpenLLM:
GPT4ALL
gpt4all是一个免费使用、本地运行、具有隐私意识的聊天机器人,无需 GPU 或互联网。 可以在任意地方运行大模型的框架
A free-to-use, locally running, privacy-aware chatbot. No GPU or internet required. run open-source LLMs anywhere
OpenLLM
OpenLLM 是一个用于在生产环境中操作大型语言模型(LLM)的开放平台。它使开发人员能够轻松地运行任何开源LLM的推理,部署到云端或本地,并构建强大的AI应用程序。
部署LobeChat界面
LobeChat
是现代化设计的开源 ChatGPT/LLMs
聊天应用与开发框架,支持语音合成、多模态、可扩展的插件系统。一键免费拥有你自己的 ChatGPT/Gemini/Claude/Ollama 应用。
LobeChat 支持多种平台的部署,我们选择最常用的Docker方式部署
第一步:Docker部署 (本地已部署跳过该步)
Docker在不同平台上简单的安装命令,根据自己操作系统进行选择;
- MacOS: brew install docker
- CentOS: yum install docker
- Ubuntu: apt install docker.io
第二步:Docker上部署LobeChat
打开 Terminal 终端执行如下Docker命令,仅限使用本地Ollama;
docker run -d -p 3210:3210 --name lobe-chat lobehub/lobe-chat
如果连接到远程大模型或者使用代理连接远程大模型,可以参考官方提供的Docker启动命令 lobehub.com/zh/docs/sel…. 我们进入 Docker Dashboard
看到如下图所示,证明LobeChat程序启动成功。
第三步:查看界面效果
输入 localhost:3210 界面如下;
第四步:配置LobeChat
当我们进去界面后,点击大脑图标
,需要配置LobeChat使用的大模型。 然后
点击前往设置
进入进行设置界面,如下图所示;
- LobeChat支持很多大模型,我们选择
Ollama
点击获取模型列表
,获取安装在Ollama上的模型,我已经安装了四个了- 模型列表选择上需要的模型,然后返回聊天界面,然后在点击
大脑图标
就有刚才配置的模型,选择需要使用的大模型。
至此已成功安装了LobeChat界面程序,然后测试聊天,如下所示; 至此我们成功部署了属于自己的ChatGPT。
总结
本篇文章介绍了本地大模型的部署和 LobeChat 界面的部署,成功在本地部署属于自己的ChatGPT。上面也只是关键步骤的说明,遇到问题多看下官方的安装文档。本文起到抛砖引玉作用。
零基础如何学习AI大模型
领取方式在文末
为什么要学习大模型?
学习大模型课程的重要性在于它能够极大地促进个人在人工智能领域的专业发展。大模型技术,如自然语言处理和图像识别,正在推动着人工智能的新发展阶段。通过学习大模型课程,可以掌握设计和实现基于大模型的应用系统所需的基本原理和技术,从而提升自己在数据处理、分析和决策制定方面的能力。此外,大模型技术在多个行业中的应用日益增加,掌握这一技术将有助于提高就业竞争力,并为未来的创新创业提供坚实的基础。
大模型典型应用场景
①AI+教育:智能教学助手和自动评分系统使个性化教育成为可能。通过AI分析学生的学习数据,提供量身定制的学习方案,提高学习效果。
②AI+医疗:智能诊断系统和个性化医疗方案让医疗服务更加精准高效。AI可以分析医学影像,辅助医生进行早期诊断,同时根据患者数据制定个性化治疗方案。
③AI+金融:智能投顾和风险管理系统帮助投资者做出更明智的决策,并实时监控金融市场,识别潜在风险。
…
这些案例表明,学习大模型课程不仅能够提升个人技能,还能为企业带来实际效益,推动行业创新发展。
大模型就业发展前景
根据脉脉发布的《2024年度人才迁徙报告》显示,AI相关岗位的需求在2024年就已经十分强劲,TOP20热招岗位中,有5个与AI相关。字节、阿里等多个头部公司AI人才紧缺,包括算法工程师、人工智能工程师、推荐算法、大模型算法以及自然语言处理等。
除了上述技术岗外,AI也催生除了一系列高薪非技术类岗位,如AI产品经理、产品主管等,平均月薪也达到了5-6万左右。
AI正在改变各行各业,行动力强的人,早已吃到了第一波红利。
最后
大模型很多技术干货,都可以共享给你们,如果你肯花时间沉下心去学习,它们一定能帮到你!
大模型全套学习资料领取
如果你对大模型感兴趣,可以看看我整合并且整理成了一份AI大模型资料包,需要的小伙伴文末免费领取哦,无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
部分资料展示
一、 AI大模型学习路线图
整个学习分为7个阶段
二、AI大模型实战案例
涵盖AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,皆可用。
三、视频和书籍PDF合集
从入门到进阶这里都有,跟着老师学习事半功倍。
四、LLM面试题
五、AI产品经理面试题
六、deepseek部署包+技巧大全
😝朋友们如果有需要的话,可以V扫描下方二维码联系领取~
更多推荐
所有评论(0)