CentOS安装Whisper | RedHat安装Whisper | 服务器上安装Whisper

CentOS安装Whisper | RedHat安装Whisper | 服务器上安装Whisper

    正在检查是否收录...

1、升级Python版本(可选)

CentOS 7.9 系统默认安装的Python版本有两个,如果输入python -V我们看到的是python2的版本信息,如果我们输入python3 -V我们看到的是python3的版本信息。

由于whisper要求使用的是python版本是在3.8到3.11之间的版本。

CentOS 7.9自带的python版本是不符合的,我们需要卸载它或者升级它。如果我们不想要升级python版本,那么我们也可以使用Anaconda中的python版本,并且这里推荐使用Anaconda,如果你想要安装Anaconda,那么可以直接跳到第二步。

查看CentOS版本。我目前使用的是CentOS 7.9。

cat /etc/centos-release 

查看python3版本。

python3 -V 

1.1、升级python版本。

# 安装依赖 yum -y install zlib-devel bzip2 bzip2-devel readline-devel sqlite sqlite-devel openssl-devel xz xz-devel libffi-devel # 创建目录 mkdir -p /usr/local/python3 # 去 https://www.python.org/ftp/python 找一个自己想要下载的版本 wget -c https://www.python.org/ftp/python/3.9.9/Python-3.9.9.tar.xz # 解压 xz -d Python-3.9.9.tar.xz tar -xvf Python-3.9.9.tar.xz # 切换到 Python-3.9.9 目录 cd Python-3.9.9 # 编译并安装 ./configure --prefix=/usr/local/python3 && make && make install 

1.2、修改配置

删除旧的软链接。
# 先查看一下有哪些软链接 ll /usr/bin | grep python ll /usr/bin | grep pip # 删除软链接 rm -rf /usr/bin/python3 rm -rf /usr/bin/pip3 
创建软链接。
ln -s /usr/local/python3/bin/python3 /usr/bin/python3 ln -s /usr/local/python3/bin/pip3 /usr/bin/pip3 

2、安装Anaconda

下载Anaconda可以去官方下载。

创建目录。
mkdir -p /opt/Anaconda 
下载Anaconda。
wget -c https://repo.anaconda.com/archive/Anaconda3-2023.03-1-Linux-x86_64.sh 
执行脚本。
bash Anaconda3-2023.03-1-Linux-x86_64.sh 

然后根据提示进行安装即可。

最后要记得关闭当前连接,重连接进来。

输入下面的命令可以看到版本信息说明已经安装成功了。

conda -V 

3、安装FFmpeg

在CentOS7.9中不能使用下面的命令安装FFmpeg,我们需要从源码编译中安装FFmpeg。

yum install ffmpeg 

FFmpeg部分源码使用汇编编写,所以我们需要安装汇编语言编译器。

安装yasm

# 下载 wget -c http://www.tortall.net/projects/yasm/releases/yasm-1.3.0.tar.gz # 解压 tar -zxvf yasm-1.3.0.tar.gz # 切换目录 cd yasm-1.3.0 # 执行配置 ./configure # 编译并安装 make && make install 

安装FFmpeg

# 下载源码 git clone https://git.ffmpeg.org/ffmpeg.git ffmpeg # 切花目录 cd ffmpeg # 执行配置 ./configure # 编译并安装 make && make install 

查看FFmpeg版本信息

ffmpeg --version 

4、安装CUDA

先执行下面的命令查看你显卡最高支持的CUDA版本。

nvidia-smi 

4.1、安装CUDA

在NVIDIA官网下载支持的CUDA版本,可能国内网络无法正常访问NVIDIA官方CUDA下载网页,为了方便大家,这里我把一些常用的下载链接放到下面。下面下载的CUDA版本都是11.8版本。

4.1.1、CentOS

注意下面安装到CUDA版本都是11.8。

Linux操作系统,x86_64架构,CentOS 7,在线安装方式:(不推荐)经过测试,通过此种方式来安装会导致原来的NVIDIA显卡驱动出现问题,并且默认安装的是最新版本的CUDA。

sudo yum-config-manager --add-repo https://developer.download.nvidia.com/compute/cuda/repos/rhel7/x86_64/cuda-rhel7.repo sudo yum clean all sudo yum -y install nvidia-driver-latest-dkms sudo yum -y install cuda 

Linux操作系统,x86_64架构,CentOS 7,本地安装方式:(推荐)经过测试,这种方式是可以正确安装CUDA的。注意:如果你已经安装了显卡驱动,那么要记得把显卡驱动的选项去掉。

wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda_11.8.0_520.61.05_linux.run sudo sh cuda_11.8.0_520.61.05_linux.run 

Linux操作系统,x86_64架构,CentOS 7,本地安装方式:这种方式没有测试过。

wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda-repo-rhel7-11-8-local-11.8.0_520.61.05-1.x86_64.rpm sudo rpm -i cuda-repo-rhel7-11-8-local-11.8.0_520.61.05-1.x86_64.rpm sudo yum clean all sudo yum -y install nvidia-driver-latest-dkms sudo yum -y install cuda 

4.1.2、RedHat

注意下面安装到CUDA版本都是11.8。

Linux操作系统,x86_64架构,RHEL 7,在线安装方式:(不推荐)

sudo yum-config-manager --add-repo https://developer.download.nvidia.com/compute/cuda/repos/rhel7/x86_64/cuda-rhel7.repo sudo yum clean all sudo yum -y install nvidia-driver-latest-dkms sudo yum -y install cuda 

Linux操作系统,x86_64架构,RHEL 7,本地安装方式:(推荐)

wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda_11.8.0_520.61.05_linux.run sudo sh cuda_11.8.0_520.61.05_linux.run 

Linux操作系统,x86_64架构,RHEL 7,本地安装方式:

wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda-repo-rhel7-11-8-local-11.8.0_520.61.05-1.x86_64.rpm sudo rpm -i cuda-repo-rhel7-11-8-local-11.8.0_520.61.05-1.x86_64.rpm sudo yum clean all sudo yum -y install nvidia-driver-latest-dkms sudo yum -y install cuda 

4.1.3、Ubuntu

注意下面安装到CUDA版本都是11.8。

Linux操作系统,x86_64架构,Ubuntu 22.04,在线安装方式:(不推荐)

wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.0-1_all.deb sudo dpkg -i cuda-keyring_1.0-1_all.deb sudo apt-get update sudo apt-get -y install cuda 

Linux操作系统,x86_64架构,Ubuntu 22.04,本地安装方式:(推荐)

wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda_11.8.0_520.61.05_linux.run sudo sh cuda_11.8.0_520.61.05_linux.run 

Linux操作系统,x86_64架构,Ubuntu 22.04,本地安装方式:

wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-ubuntu2204.pin sudo mv cuda-ubuntu2204.pin /etc/apt/preferences.d/cuda-repository-pin-600 wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda-repo-ubuntu2204-11-8-local_11.8.0-520.61.05-1_amd64.deb sudo dpkg -i cuda-repo-ubuntu2204-11-8-local_11.8.0-520.61.05-1_amd64.deb sudo cp /var/cuda-repo-ubuntu2204-11-8-local/cuda-*-keyring.gpg /usr/share/keyrings/ sudo apt-get update sudo apt-get -y install cuda 

4.2、配置环境变量

编辑下面文件
vim ~/.bashrc 
在文件末尾添加下面的内容
export PATH=/usr/local/cuda-11.8/bin${PATH:+:${PATH}} export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-11.8/lib64 

如果添加失败,可能是你没有正确安装CUDA,默认是安装到/usr/local目录下,你可以去该目录找一下是否有cuda-xx.x的目录,如果没有,那么说明你没有正确安装CUDA。

最后要记得重新载入一下.bashrc文件
source ~/.bashrc sudo ldconfig 

查看CUDA版本

如果能看到版本信息,说明已经正确安装CUDA,并且正确配置CUDA环境变量。

nvcc -V 

5、安装cuDNN(可选)

cuDNN对系统软硬件的要求。 cuDNN对CPU架构和系统版本的要求。

安装cuDNN

具体可以看官方安装指南。

先前条件:已安装NVIDIA显卡驱动,已安装CUDA。

安装zlib

# Ubunut sudo apt-get install zlib1g # RHEL sudo yum install zlib 

下载cuDNN

选择下载的版本

Download cuDNN v8.9.1 (May 5th, 2023), for CUDA 11.x 

选择下载对应系统的安装器

Local Installer for Linux x86_64 (Tar) # 对所有Linux系统可用 

安装cuDNN

tar -xvf cudnn-linux-x86_64-8.x.x.x_cudaX.Y-archive.tar.xz # 把8.x.x.x_cudaX.Y替换为自己下载的cuDNN版本和CUDA版本 

拷贝cuDNN到CUDA中

sudo cp cudnn-*-archive/include/cudnn*.h /usr/local/cuda/include sudo cp -P cudnn-*-archive/lib/libcudnn* /usr/local/cuda/lib64 sudo chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn* 

具体可以查看官方说明文档。

6、安装PyTorch

我这里安装的是PyTorch 2.0.1版本,CUDA 11.8。

下载PyTorch

conda activate whisper pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 

验证是否安装成功

python import torch torch.__version__ torch.cuda.is_available() # 如果返回 True,说明PyTorch可以使用CUDA 

7、安装Whisper

pip install -U openai-whisper 

输入下面的命令可以看到Whisper的帮助信息,说明已经安装成功。

whisper -h 

8、Whisper的使用

具体可以添加哪些参数可以使用下面的命令来查看。

whisper -h 

这里简单的列举一些应用。

audio.mp3使用large模型进行转录,转录的结果保存在/opt/whisper路径下,名称为audio.srt文件,使用的使用CUDA加速转录,指定语言为Chinese。我们可以省略所有的参数,默认使用small模型。

whisper audio.mp3 --model large --output_format srt --output_dir /opt/whisper --device cuda --language Chinese 

最简单的写法。

whisper audio.mp3 

说明:模型越大,转录的结果越准确,转录的时间越长。

更多内容欢迎访问我的博客。

codepythonlinuxwhisperelo操作系统pytorchbashhivegitmp3sqltpuurlclonefixopenainvccpuivashare
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-3762.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
1.3W+
5
0
1
WAP站长官方

[AIGC ~大数据] 深入理解Hadoop、HDFS、Hive和Spark:Java大师的大数据研究之旅

上一篇

Stable Diffusion生成艺术二维码

下一篇
  • 复制图片
按住ctrl可打开默认菜单