gptsovits安装

gptsovits怎么安装部署(ai语音生成)

想要完整的 GPT-SoVITS 安装部署流程,需要从环境准备、安装步骤、运行测试到常见问题,为你提供一份详细且适合新手的操作指南。

一、GPT-SoVITS 安装部署全流程

1. 前置条件说明

GPT-SoVITS 是一款结合 GPT 和 SoVITS 的语音合成工具,对硬件有基础要求:

显卡:建议 NVIDIA 显卡(显存 ≥ 8GB,12GB+ 最佳),需支持 CUDA(算力 ≥ 7.0);无独显可使用 CPU 运行,但速度极慢,仅用于测试。

系统:Windows 10/11(推荐)、Linux(Ubuntu 20.04+);macOS 仅支持 CPU 模式。

Python:版本需为 3.10(推荐,3.9/3.11 也可兼容,但 3.10 稳定性最佳)。

2. 环境准备

(1)安装 Python 与 Git

下载 Python 3.10:从 Python 官网 下载,安装时勾选「Add Python 3.10 to PATH」。

下载 Git:从 Git 官网 安装,默认选项即可。

(2)安装 CUDA 与 cuDNN(显卡用户必装)

查看显卡支持的 CUDA 版本:打开 NVIDIA 控制面板 → 帮助 → 系统信息 → 组件,查看「NVCUDA.DLL」对应的 CUDA 版本(如 12.1)。

下载对应版本的 CUDA Toolkit:从 NVIDIA 官网 下载,安装时选择「自定义安装」,仅勾选「CUDA → 核心组件」。

下载 cuDNN:需注册 NVIDIA 账号,下载与 CUDA 版本匹配的 cuDNN,解压后将文件夹内的 bin、include、lib 复制到 CUDA 安装目录(如 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.1)。

星宇智算官网支持免费部署立马安装!点击下方立即试用!

3. 安装部署步骤

(1)克隆项目仓库

打开命令提示符(CMD)或终端,执行以下命令:

bash

运行

# 克隆 GPT-SoVITS 仓库

git clone https://github.com/RVC-Boss/GPT-SoVITS.git

# 进入项目目录

cd GPT-SoVITS

(2)创建并激活虚拟环境(推荐)

bash

运行

# 创建虚拟环境

python -m venv venv

# Windows 激活虚拟环境

venv\Scripts\activate

# Linux/macOS 激活虚拟环境

source venv/bin/activate

(3)安装依赖包

bash

运行

# 升级 pip

pip install –upgrade pip

# 安装基础依赖(国内用户建议加清华源)

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

# 安装 PyTorch(关键!需匹配 CUDA 版本)

# CUDA 12.1 版本

pip install torch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 –index-url https://download.pytorch.org/whl/cu121

# 无显卡/CPU 版本

pip install torch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 –index-url https://download.pytorch.org/whl/cpu

(4)下载预训练模型

GPT-SoVITS 运行需要预训练模型,步骤如下:

进入项目目录下的 pretrained_models 文件夹(无则新建);

从项目官方开源地址(如 Hugging Face)下载 GPT 模型、SoVITS 模型、bert 模型,放入该文件夹;

确认模型文件命名与配置文件一致(默认配置无需修改,只需文件存在)。

(5)启动 WebUI

bash

运行

# 运行启动脚本

python webui.py

启动成功后,终端会显示本地访问地址(如 http://127.0.0.1:9880),打开浏览器访问即可使用。

二、常见问题解答(FAQ)

1. 运行 webui.py 提示「No module named xxx」?

原因:依赖包未安装完整,或虚拟环境未激活。

解决:

确认已激活虚拟环境(终端前缀有 (venv));

重新执行 pip install -r requirements.txt,若仍报错,手动安装缺失的包(如 pip install xxx);

国内用户若下载失败,更换阿里云 / 豆瓣源:-i https://mirrors.aliyun.com/pypi/simple/。

2. 显卡可用但提示「CUDA out of memory」?

原因:显存不足,或模型加载时占用过高。

解决:

关闭其他占用显卡的程序(如浏览器、游戏);

修改 webui.py 中的参数,启用显存优化:添加 –low-vram 启动参数(python webui.py –low-vram);

若显存 ≤ 8GB,建议使用 CPU 模式测试,或降低合成时的音频长度。

3. PyTorch 安装后提示「CUDA is not available」?

原因:PyTorch 版本与 CUDA 不匹配,或显卡不支持 CUDA。

解决:

执行 python -c “import torch; print(torch.cuda.is_available())”,若输出 False,重新安装对应 CUDA 版本的 PyTorch;

确认显卡驱动已更新到最新版本(NVIDIA 官网下载 GeForce Experience 更新);

若为笔记本双显卡,需设置 Python 运行时使用独立显卡。

4. 合成音频时无声音 / 音质差?

原因:预训练模型缺失,或输入文本 / 参考音频不符合要求。

解决:

确认 pretrained_models 文件夹内模型完整,无缺失文件;

参考音频需满足:时长 5-30 秒、无杂音、清晰人声;

输入文本语言与模型匹配(如中文模型仅支持中文合成)。

5. Linux 系统启动后无法访问 WebUI?

原因:端口未开放,或绑定地址仅限本地。

解决:

启动时指定绑定所有地址:python webui.py –listen 0.0.0.0 –port 9880;

检查防火墙是否放行 9880 端口(Ubuntu:sudo ufw allow 9880)。

6. 模型下载速度慢 / 失败?

原因:网络限制,或 Hugging Face 访问不稳定。

解决:

使用国内镜像站下载模型(如 ModelScope);

配置 Git 代理:git config –global http.proxy http://127.0.0.1:7890(需替换为自己的代理端口)。

总结:

环境核心:Python 3.10 + 匹配版本的 PyTorch(CUDA/CPU)是安装成功的基础,务必确认版本兼容;

部署步骤:克隆仓库 → 虚拟环境 → 安装依赖 → 下载模型 → 启动 WebUI,按顺序执行可避免 80% 的问题;

常见问题:显存不足用 –low-vram 参数,CUDA 不可用检查 PyTorch 与显卡驱动,依赖缺失重新安装 requirements.txt。

整个安装过程的核心是「版本匹配」和「模型完整」,新手建议先在 Windows 系统测试,熟悉流程后再部署到 Linux 服务器。