简介
本文件为GeekHour的【十分钟部署一个本地大模型】视频的配套教程,
主要介绍如何在本地搭建一个大型语言模型服务。
视频地址:
教程中的所有资料、笔记和文档可以从以下位置得到:
【百度网盘】
https://pan.baidu.com/s/1Q4wVSwKx_qbWUMyDL5rwGA?pwd=7g54 提取码:7g54
【夸克网盘】https://pan.quark.cn/s/b78c37513723提取码:SU5w
Step 1: 安装Ollama
Ollama是一个开源的大型语言模型服务工具,
可以快速在本地安装和运行大模型。
通过一条命令就可以轻松启动和运行各种开源的大型语言模型。
提供了一个简洁易用的命令行界面,专为构建大型语言模型应用而设计。
1.1 安装Ollama
Ollama支持MacOS、Linux和Windows三大主流操作系统,
MacOS和Windows从官网下载自己系统对应的版本安装即可。
Linux系统下可以直接复制以下命令到终端执行:
1 | curl -fsSL https://ollama.com/install.sh | sh |
但是一般会因为网络问题下载不了,可以直接下载一个离线的安装包,
或者从我们提供的资源里面找到对应的安装包来直接解压安装。
1 | # 下载安装包 |
1.2 启动Ollama
1 | ollama serve |
1 | # 设置开机启动 |
1.3 常用命令
1 | ollama serve # 启动Ollama服务 |
Step 2: 安装WebUI界面
由于Ollama是一个命令行工具,如果想要更加直观的管理和使用模型,
可以安装一个WebUI界面,比如MaxKB或者OpenWebUI(二者选一个安装即可)。
MaxKB是一个基于大语言模型和RAG的知识库系统。
安装部署文档在这里
社区版下载地址在这里
2.1 安装MaxKB(使用Docker安装)
网络环境好的话可以直接拉取官方镜像来安装:
1 | docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data 1panel/maxkb |
网络环境不好的话可以下载我们提供的镜像文件,
然后使用下面的命令来安装:
1 | # 导入镜像 |
2.2 安装MaxKB(离线方式)
2.2.1 解压安装包
1 | tar -zxvf maxkb-v1.6.1-offline.tar.gz |
2.2.2 安装前配置(可选)
MaxKB 安装目录、服务运行端口、数据库配置等信息可在安装包中的 install.conf 文件进行配置。
1 | ## 安装目录 |
2.2.3 安装
1 | # 进入安装包解压缩后目录 |
2.2.4 登录访问
安装成功后,通过浏览器访问地址 http://localhost:8080,使用默认的管理员用户和密码登录MaxKB。
1 | 用户名:admin |
2.3 安装OpenWebUI
OpenWebUI和MaxKB类似,都是WebUI界面,两者选一个自己喜欢的安装即可。
1 | # 如果Ollama已经安装在你本地电脑上,可以直接运行下面的命令来启动OpenWebUI |
同样的,如果由于网络原因无法顺利拉取镜像,可以直接下载我们提供的镜像文件,
然后使用下面的命令来安装:
1 | # 导入镜像 |
安装完成之后,可以通过浏览器访问 http://localhost:3000 来使用OpenWebUI。
Step 3: 配置ngrok支持公网访问(可选)
这一步并不是必须的,如果只想要在自己电脑本地访问的话,那么到上面就可以了。
但是如果想要把这个应用发布到公网上,让你的好朋友或者你公司的客户也一起来使用的话,那么需要配置一下ngrok。
ngrok是一个内网穿透工具,可以将本地的应用映射到公网上,下载地址在这里。
安装完成之后需要注册一个账号,
然后在控制台里面找到自己的authtoken,
复制一下Authtoken,然后回到命令行终端,
执行下面的命令来设置一下:
1 | ngrok config add-authtoken <your_auth_token> |
设置完成之后就可以使用下面的命令来映射公网地址到本地:
1 | ngrok http 8080 |
ngrok启动之后就可以通过下面的公网地址访问到本地搭建的大模型了。