云服务器配置指南 (九):拥抱 AI,搭建你的私人 GPT
现在不玩 AI,就像 20 年前不上网一样。
虽然我们可能买不起 H100 显卡来训练大模型,但我们可以利用云服务器搭建一套属于自己的 AI 服务体系:聚合管理各种 API,搭建私有的 ChatGPT 网页版,甚至部署轻量级的本地模型。
本章我们将部署两个神器:New API(API 聚合管理)和 ChatGPT-Next-Web(高颜值 Web 界面)。
9.1 New API:你的 API 管家
痛点
手里的 API Key 太多?OpenAI 的、Claude 的、Gemini 的…乱成一团。
而且直接把 Key 写在代码里很不安全,万一泄露了,信用卡直接刷爆。
解决方案
New API 是一个开源的接口管理系统。它可以把各种大模型的 API 统一封装成 OpenAI 的格式。
你只需要在 New API 里配置好上游的 Key,然后生成一个 New API 的 Key 给应用使用。这样既统一了接口,又保护了原始 Key 的安全,还能通过日志监控使用情况。
部署
1 | mkdir -p ~/docker/new-api |
访问 http://ip:3000,使用 root 和你设置的密码登录。
进去后,你可以在“渠道”里添加你的 OpenAI Key,在“令牌”里生成新的 Key 给下面的应用使用。
9.2 ChatGPT-Next-Web:高颜值 Web 界面
痛点
官方的 ChatGPT 界面有时候访问慢,或者你想给朋友分享一个免翻墙的入口,但又不想把账号密码给他们。
解决方案
ChatGPT-Next-Web 是目前 GitHub 上最火的开源 ChatGPT 网页版。界面精美,响应速度快,支持导出聊天记录,支持插件。最重要的是,它支持自定义 API 地址(正好配合上面的 New API)。
部署
1 | mkdir -p ~/docker/chatgpt-next-web |
访问 http://ip:3001,输入访问密码,你就有了一个私有的 ChatGPT 网页版。
9.3 进阶玩法:本地大模型
如果你的服务器配置还不错(比如有 16G 内存),可以尝试跑一些轻量级的本地模型,比如 Llama 3 8B。
推荐使用 Ollama,它让跑本地模型变得像安装软件一样简单。
1 | # 安装 Ollama |
然后你可以在 New API 里添加一个 Ollama 渠道,把本地模型也接入到你的 AI 体系中。
总结
通过 New API + ChatGPT-Next-Web,我们搭建了一套可控、可扩展的 AI 服务平台。
你可以把它分享给朋友、家人,或者集成到自己的应用中,而不用担心原始 Key 的安全问题。
下一章,我们将聊聊运维与维护,如何让这台承载了这么多服务的服务器长治久安。