wsl中配置cuda,pytorch,cudnn,vscode

news/2024/10/9 7:24:17 标签: pytorch, vscode, 人工智能

参考链接
查看python版本
查看python
从 NVIDIA 的官网上下载 CUDA 的 pin 文件。这个文件确保 CUDA 仓库的优先级更高,防止与其他仓库发生冲突。

wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin

将下载的 cuda-wsl-ubuntu.pin 文件移动到系统的 /etc/apt/preferences.d/ 目录下,并将其重命名为 cuda-repository-pin-600

sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600

下载cuda11.8的安装包

wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda-repo-wsl-ubuntu-11-8-local_11.8.0-1_amd64.deb

在这里插入图片描述
将下载的 CUDA 安装包安装到系统中

sudo dpkg -i cuda-repo-wsl-ubuntu-11-8-local_11.8.0-1_amd64.deb

在这里插入图片描述
将 CUDA 11.8 的 GPG 密钥复制到系统的密钥环中

sudo cp /var/cuda-repo-wsl-ubuntu-11-8-local/cuda-*-keyring.gpg /usr/share/keyrings/

更新包列表并安装 CUDA 11.8 工具包

sudo apt-get update
sudo apt-get -y install cuda-toolkit-11-8

在这里插入图片描述
将 Conda 的路径添加到环境变量中,确保在启动时可以直接使用 conda 命令

export PATH=/home/rachelying/miniconda3/bin:$PATH

在这里插入图片描述

保存后输入下面命令重新加载bashrc文件

source ~/.bashrc

打开 ~/.bashrc 文件

nano ~/.bashrc

将 nvcc 编译器和 CUDA 11.8 的相关库路径添加到 PATH 和 LD_LIBRARY_PATH 环境变量中。添加路径的目的是确保在终端中能直接调用 CUDA 的工具和库。

# add nvcc compiler to path for CUDA 11.8
export PATH=$PATH:/usr/local/cuda-11.8/bin
# add cuBLAS, cuSPARSE, cuRAND, cuSOLVER, cuFFT to library path for CUDA 11.8
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-11.8/lib64:/usr/lib/x86_64-linux-gn

使更改立即生效

source ~/.bashrc

验证cuda是否成功安装

nvcc --version

在这里插入图片描述
cuda安装成功!!!
pytorch官网

在这里插入图片描述
点击对应选项,下方会生成对应的下载命令语句,将命令语句输入到命令行界面即可。
Compute Platform根据CUDA的安装版本来进行选择,CUDA版本高于11.8选择CUDA 12.1,反之选择CUDA 11.8。
测试torch是否安装成功
在这里插入图片描述
成功!!!
cudnn网址
在这里插入图片描述
在这里插入图片描述
下载cudnn本地安装包

wget https://developer.download.nvidia.com/compute/cudnn/9.5.0/local_installers/cudnn-local-repo-ubuntu2204-9.5.0_1.0-1_amd64.deb

安装下载的安装包

sudo dpkg -i cudnn-local-repo-ubuntu2204-9.5.0_1.0-1_amd64.deb

将 cuDNN 的 GPG 密钥添加到系统

sudo cp /var/cudnn-local-repo-ubuntu2204-9.5.0/cudnn-*-keyring.gpg /usr/share/keyrings/

更新包列表

sudo apt-get update

在这里插入图片描述

为 CUDA 11 安装 cuDNN

sudo apt-get -y install cudnn-cuda-11

下载样例文件

sudo apt-get -y install libcudnn9-samples

转到该目录下

cd usr/src/cudnn_samples_v9/mnistCUDNN

在这里插入图片描述
没找到,所以找一下该文件放在哪个路径下

sudo find / -name "cudnn_samples_v9" 2>/dev/null

在这里插入图片描述
切到该目录下

cd /usr/src/cudnn_samples_v9/mnistCUDNN

编译样例程序

sudo make clean && sudo make

在这里插入图片描述
运行样例程序

./mnistCUDNN

在这里插入图片描述
cudnn安装成功!!!
返回主目录

cd ~

安装VScode
由于之前用的就是vscode,所以此处略去安装vscode的教程
在WSL命令行中输入

code .

在这里插入图片描述


http://www.niftyadmin.cn/n/5695468.html

相关文章

App模拟心跳长连接的实现方法demo

摘要 背景:心跳通常是指客户端或服务器定期发送一个小型的、空的消息以保持连接的活动状态。它用于检测连接是否仍然有效,并防止连接由于长时间没有活动而被关闭。 技术原理:App定时发消息给服务器,服务器回消息表示连接依旧有效…

《大规模语言模型从理论到实践》第一轮学习--强化学习(RLHF)

一、强化学习的意义 RLHF(Reinforcement Learning from Human Feedback):强化学习(Reinforcement Learning)结合人类反馈(Human Feedback)来微调大语言模型。 大语言模型的训练步骤包括:预训…

HUAWEI_HCIA_实验指南_Lib1.4_配置通过Telnet登录系统

一、原理概述 Telnet(Telecommunication Network Protocol)起源于ARPANET,是最早的Internet应用之一。 Telnet 通常用在远程登录应用中,以便对本地或远端运行的网络设备进行配置、监控和维护。如网络中有多台设备需要配置和管理,用户无需为每一台设备…

ACM(Association for Computing Machinery)简介

ACM(Association for Computing Machinery)简介 ACM,全称为 Association for Computing Machinery,中文译作“计算机协会”,是全球历史最悠久、规模最大的计算机领域专业组织。成立于1947年,ACM致力于推动…

一个开源可本地部署的英文翻译服务----EnToZhAPI

EnToZhAPI项目简介 项目背景 提供本地化的英文翻译服务API。支持单句翻译请求或者批量翻译请求。支持建立查询词汇表。 项目架构 前端:使用原生js,使用MDB作为CSS框架。django模板引擎渲染可视化界面。 后端:使用waitress作为后端服务器…

GPT-2 的 Transformer Block 设计与基础 Transformer 的比较

随着深度学习在自然语言处理领域的迅猛发展,Transformer 架构逐渐成为了语言模型的主流结构。自从 Vaswani 等人提出的基础 Transformer 在《Attention is All You Need》论文中首次亮相以来,各种改进版本相继问世。GPT-2 是其中一个重要的里程碑&#x…

OCP迎来新版本,让OceanBase的运维管理更高效

近期,OceanBase的OCP发布了新版本,全面支持 OceanBase 内核 4.3.2 及更低版本。新版本针对基础运维、性能监控、运维配置、外部集成等多个方面实现了 20余项的优化及强化措施,增强产品的易用性和稳定性,从而帮助用户更加高效地管理…

大厂面试真题-CAS的弊端和规避措施

CAS 操作的弊端和规避措施 1. CAS 操作的弊端 CAS 操作的弊端主要有以下 4 点。 (1)ABA问题 使用 CAS 操作内存数据时,当数据发生过变化也能更新成功,如操作序列 A>B>A 时,最 后一个 CAS 的预期数据 A 实际…