一、模型介绍
Linly-Talker 是一款集成了多种人工智能技术的数字人对话系统,它通过多模型集成、多轮对话能力、语音克隆技术、实时互动和视觉增强,为用户提供了一种全新的交互体验。
二、特点
智能和个性化 :系统不仅能够理解并生成自然语言,还能克隆用户声音,实现个性化对话。
广泛应用场景 :支持多种语言,注重隐私保护,并可应用于教育、娱乐、客服等多个场景。
视觉增强 :Linly-Talker 通过数字人生成等技术, 能够生成逼真的数字人形象,提供更加沉浸式的体验。这种视觉增强技术不仅丰富了用户的视觉体验,也在视觉上强化了交流的真实感。
开源与免费 :Linly-Talker 是一个开源项目,任何人都可以访问其源代码并自由使用。
三、构建过程
(1)更新基础软件包:
apt-get update
apt-get install -y wget unzip lsof net-tools openssh-server git git-lfs gcc cmake build-essential
(2)安装GPU依赖:CUDA
下载 CUDA Toolkit 的密钥环 使用wget
工具从 NVIDIA 官方下载 CUDA Toolkit 的 GPG 密钥环。这个密钥环用于在安装过程中验证 CUDA 包的签名。
安装 CUDA Toolkit 的密钥环
使用 dpkg
工具安装下载的密钥环 .deb
文件。这确保了系统可以验证 CUDA 包的真实性。
更新本地包索引
使用 apt-get update
命令更新本地的软件包索引,确保安装时使用的是最新的包信息。
安装 CUDA Toolkit
使用 apt-get install
命令安装 CUDA Toolkit 12.1。-y
选项自动接受所有提示,无需手动确认。以下是具体的命令:
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.0-1_all.deb
dpkg -i cuda-keyring_1.0-1_all.deb
apt-get update
apt-get -y install cuda-toolkit-12-1
配置系统环境
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
source ~/.bashrc
(3)安装Miniconda:
下载 Miniconda 安装脚本:
使用wget
命令从 Anaconda 的官方仓库下载 Miniconda 的安装脚本。Miniconda 是一个更小的 Anaconda 发行版,包含了 Anaconda 的核心组件,用于安装和管理 Python 包。
运行 Miniconda 安装脚本:
使用bash
命令运行下载的 Miniconda 安装脚本。这将启动 Miniconda 的安装过程。
# 下载 Miniconda 安装脚本
wget https://repo.anaconda.com/miniconda/Miniconda3-py310_22.11.1-1-Linux-x86_64.sh
# 运行 Miniconda 安装脚本
bash Miniconda3-py310_22.11.1-1-Linux-x86_64.sh
# 初次安装需要激活base环境
conda init bash
source ~/.bashrc
注意事项:
请确保您的系统是 Linux x86_64 架构,因为下载的 Miniconda 版本是为该架构设计的。
在运行安装脚本之前,您可能需要使用 chmod +x Miniconda3-py310_22.11.1-1-Linux-x86_64.sh
命令给予脚本执行权限。
安装过程中,您将被提示是否同意许可协议,以及是否将 Miniconda 初始化。通常选择 "yes" 以完成安装和初始化。
安装完成后,您可以使用 conda
命令来管理 Python 环境和包。
如果链接无法访问或解析失败,可能是因为网络问题或链接本身的问题。请检查网络连接,并确保链接是最新的和有效的。如果问题依旧,请访问 Anaconda 的官方网站获取最新的下载链接。
(4)从 github 仓库克隆项目:
克隆存储库:
git clone https://github.com/Kedreamix/Linly-Talker.git --depth 1
这个命令使用 git clone
从指定的 GitHub 地址克隆 "Linly-Talker" 项目。--depth 1
参数告诉 Git 只下载最新的历史记录,这减少了需要下载的数据量,使得克隆过程更快。如果没有 --depth
参数,默认情况下 Git 会克隆整个项目的所有提交历史。
切换目录:
cd Linly-Talker
这个命令使用 cd
(change directory)命令切换当前工作目录到刚才克隆的 "Linly-Talker" 目录中。这意味着接下来执行的所有命令都是在该项目目录下执行。
# 克隆 Linly-Talker 项目,只包含最新的提交历史
git clone https://github.com/Kedreamix/Linly-Talker.git --depth 1
# 切换到克隆的项目目录中
cd Linly-Talker
请注意,如果 https://github.com/Kedreamix/Linly-Talker.git
这个链接不存在或者无效,git clone
命令将不会成功克隆项目,并且会报错。请确保链接是有效的,并且您有足够的权限访问该存储库。
(5)创建虚拟环境
# 升级 pip
python -m pip install --upgrade pip
# 更换 pypi 源加速库的安装
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
# 创建一个名为 linly_talker 的新虚拟环境,并指定 Python 版本为 3.10.8
conda create -n linly_talker python=3.10.8
# 激活新创建的虚拟环境
conda activate linly_talker
(6)下载预训练模型:
切换目录:
cd /Linly-Talker
这个命令用于切换当前工作目录到 /Linly-Talker
。这通常是一个项目的根目录,其中包含了项目的所有文件和子目录。
安装 Python 包:
pip install modelscope -i https://pypi.tuna.tsinghua.edu.cn/simple
这个命令使用 pip
工具安装名为 modelscope
的 Python 包。-i
参数指定了包的安装源为清华大学 TUNA 镜像站的 Python 包索引。使用镜像站可以加快下载速度并减少网络延迟。
执行脚本:
sh scripts/download_models.sh
这个命令执行位于 scripts
目录下的 download_models.sh
脚本文件。通常,这类脚本文件用于自动化下载或处理项目所需的数据、模型或其他资源。
# 切换到 Linly-Talker 项目的根目录
cd /Linly-Talker
# 使用清华大学 TUNA 镜像站作为源,安装 modelscope 包
pip install modelscope -i https://pypi.tuna.tsinghua.edu.cn/simple
# 执行下载模型的脚本
sh scripts/download_models.sh
(7)安装模型依赖库:
切换到项目目录# 切换到项目工作目录
cd /Linly-Talker
安装pytorch conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia
安装FFmpeg
# 在base环境中安装特定版本的FFmpeg
conda install ffmpeg==4.2.2
安装curl_cffi
# 安装curl_cffi
pip install curl_cffi
安装TensorBoard nightly版本
# 安装TensorBoard的nightly版本,使用阿里云的PyPI镜像源
pip install tb-nightly -i https://mirrors.aliyun.com/pypi/simple
安装WebUI依赖
# 安装WebUI界面所需的Python依赖库
pip install -r requirements_webui.txt
安装OpenMIM
# 安装OpenMIM,一个用于管理模型和依赖的工具
pip install --no-cache-dir -U openmim
安装MMEngine
# 安装MMEngine,一个通用的深度学习训练框架
mim install mmengine
安装MMCV
# 安装MMCV(MegEngine Model Center Vision),至少2.0.1版本
mim install "mmcv>=2.0.1"
安装MMDetection
# 安装MMDetection,至少3.1.0版本的目标检测框架
mim install "mmdet>=3.1.0"
安装MMPose
# 安装MMPose,至少1.1.0版本的人体姿态估计框架
mim install "mmpose>=1.1.0"
安装PyTorch3D
# 安装PyTorch3D,直接从GitHub仓库安装
pip install "git+https://github.com/facebookresearch/pytorch3d.git"
安装音频处理依赖
# 更新APT包索引并安装音频处理相关的系统库
apt-get update
apt-get install libasound-dev portaudio19-dev libportaudio2 libportaudiocpp0
安装NeRF相关依赖
# 安装NeRF-based项目所需的Python依赖库
pip install -r TFG/requirements_nerf.txt
(8)运行项目
cd /Linly-Talker
python webui.py
总结
### Linly-Talker 数字人对话系统总结**一、模型介绍**
Linly-Talker 是一款创新的数字人对话系统,融合了多种人工智能技术,包括多模型集成、多轮对话能力、语音克隆技术、实时互动及视觉增强功能,旨在为用户提供前所未有的交互体验。
**二、主要特点**
1. **智能和个性化**:该系统不仅深刻理解并生成自然语言,还能克隆用户声音,通过个性化对话提升交互的真实性和亲切感。
2. **广泛应用场景**:支持多种语言,强调隐私保护,被设计用于教育、娱乐、客服等多种场景,满足不同领域的需求。
3. **视觉增强**:借助先进的数字人生成技术,Linly-Talker 能够生成栩栩如生的数字人形象,为用户带来身临其境的体验,增强交流的真实感。
4. **开源与免费**:作为一个开源项目,Linly-Talker 鼓励开发者参与,任何人都能访问其源代码并自由使用,推动技术的普及与创新。
**三、构建过程**
1. **更新基础软件包**:
- 使用 `apt-get` 更新系统并安装必要的基础软件包和工具。
2. **安装GPU依赖(CUDA)**:
- 通过 `wget` 和 `dpkg` 下载和安装CUDA Toolkit的密钥环。
- 使用 `apt-get` 安装CUDA Toolkit,并通过配置环境变量放行使用。
3. **安装Miniconda**:
- 下载并运行Miniconda的安装脚本,用于管理Python环境及包。
4. **从GitHub仓库克隆项目**:
- 使用 `git clone` 克隆Linly-Talker的GitHub仓库,并切换至项目目录。
5. **创建虚拟环境**:
- 升级pip并更换pypi源,使用conda创建并激活名为 `linly_talker` 的新Python环境。
6. **下载预训练模型**:
- 在项目根目录执行脚本,下载所需的预训练模型。
7. **安装模型依赖库**:
- 安装包括PyTorch、FFmpeg、curl_cffi、TensorBoard等在内的一系列依赖库和系统库,确保模型顺利运行。
- 使用`pip`和`conda`安装如MMCV、MMDetection、MMPose等深度学习训练和处理的工具与库。
8. ** 运行项目**:
- 在项目根目录下运行 `webui.py` 启动Linly-Talker系统,进入实时交互和对话模式。
通过上述步骤,开发者可以成功搭建起一套功能丰富的Linly-Talker数字人对话系统,为用户提供智能、个性化的交流体验。