云服务器配置指南 (九):拥抱 AI,搭建你的私人 GPT

现在不玩 AI,就像 20 年前不上网一样。

虽然我们可能买不起 H100 显卡来训练大模型,但我们可以利用云服务器搭建一套属于自己的 AI 服务体系:聚合管理各种 API,搭建私有的 ChatGPT 网页版,甚至部署轻量级的本地模型。

本章我们将部署两个神器:New API(API 聚合管理)和 ChatGPT-Next-Web(高颜值 Web 界面)。


9.1 New API:你的 API 管家

痛点

手里的 API Key 太多?OpenAI 的、Claude 的、Gemini 的…乱成一团。
而且直接把 Key 写在代码里很不安全,万一泄露了,信用卡直接刷爆。

解决方案

New API 是一个开源的接口管理系统。它可以把各种大模型的 API 统一封装成 OpenAI 的格式。
你只需要在 New API 里配置好上游的 Key,然后生成一个 New API 的 Key 给应用使用。这样既统一了接口,又保护了原始 Key 的安全,还能通过日志监控使用情况。

部署

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
mkdir -p ~/docker/new-api
cd ~/docker/new-api

cat > docker-compose.yml <<'EOF'
services:
new-api:
image: calciumion/new-api:latest
container_name: new-api
restart: always
ports:
- "3000:3000"
volumes:
- ./data:/data
environment:
- SQL_DSN=/data/new-api.db
- INITIAL_ROOT_PASSWORD=root_password_123
- SESSION_SECRET=random_string
EOF

docker compose up -d

访问 http://ip:3000,使用 root 和你设置的密码登录。
进去后,你可以在“渠道”里添加你的 OpenAI Key,在“令牌”里生成新的 Key 给下面的应用使用。


9.2 ChatGPT-Next-Web:高颜值 Web 界面

痛点

官方的 ChatGPT 界面有时候访问慢,或者你想给朋友分享一个免翻墙的入口,但又不想把账号密码给他们。

解决方案

ChatGPT-Next-Web 是目前 GitHub 上最火的开源 ChatGPT 网页版。界面精美,响应速度快,支持导出聊天记录,支持插件。最重要的是,它支持自定义 API 地址(正好配合上面的 New API)。

部署

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
mkdir -p ~/docker/chatgpt-next-web
cd ~/docker/chatgpt-next-web

cat > docker-compose.yml <<'EOF'
services:
chatgpt-next-web:
image: yidadaa/chatgpt-next-web:latest
container_name: chatgpt-next-web
restart: always
ports:
- "3001:3000"
environment:
# 指向宿主机的 New API 服务
- BASE_URL=http://host.docker.internal:3000
# 使用 New API 生成的令牌
- OPENAI_API_KEY=sk-your-new-api-token
# 设置访问密码,防止被白嫖
- CODE=access_password
EOF

docker compose up -d

访问 http://ip:3001,输入访问密码,你就有了一个私有的 ChatGPT 网页版。


9.3 进阶玩法:本地大模型

如果你的服务器配置还不错(比如有 16G 内存),可以尝试跑一些轻量级的本地模型,比如 Llama 3 8B。

推荐使用 Ollama,它让跑本地模型变得像安装软件一样简单。

1
2
3
4
5
# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 运行 Llama 3
ollama run llama3

然后你可以在 New API 里添加一个 Ollama 渠道,把本地模型也接入到你的 AI 体系中。


总结

通过 New API + ChatGPT-Next-Web,我们搭建了一套可控、可扩展的 AI 服务平台。
你可以把它分享给朋友、家人,或者集成到自己的应用中,而不用担心原始 Key 的安全问题。

下一章,我们将聊聊运维与维护,如何让这台承载了这么多服务的服务器长治久安。