网站编辑有前途吗,手机端企业网站设计,网络营销的发展现状如何,整合营销网站建设Windows 安装 TensorFlow、CUDA Toolkit、cuDNN 整体流程概述TensorFlow 与 CUDA ToolkitTensorFlow 是一个基于数据流图的深度学习框架CUDA 充分利用 NIVIDIA GPU 的计算能力CUDA Toolkit cuDNN 安装详细流程整理流程一#xff1a;安装 CUDA Toolkit步骤一#xff1a;获取CU… Windows 安装 TensorFlow、CUDA Toolkit、cuDNN 整体流程概述TensorFlow 与 CUDA ToolkitTensorFlow 是一个基于数据流图的深度学习框架CUDA 充分利用 NIVIDIA GPU 的计算能力CUDA Toolkit cuDNN 安装详细流程整理流程一安装 CUDA Toolkit步骤一获取CUDA版本信息步骤二下载安装 CUDA Toolkit步骤三按照默认步骤安装步骤四检查CUDA安装成功 整体流程二安装cuDNN步骤一下载 cuDNN步骤二解压缩下载的 zip并将其中的文件复制到 CUDA Toolkit 的相应目录步骤三配置环境变量 整体流程三安装 TensorFlow-gpu步骤一Anaconda中创建新的环境步骤二查看下载 tensorflow-gpu 的版本号步骤三检查整体流程安装成功步骤四检查 cuDNN 安装成功可用 整体流程概述
TensorFlow 与 CUDA Toolkit
TensorFlow 是一个基于数据流图的深度学习框架
TensorFlow是一个基于数据流图的深度学习框架它使用张量Tensor作为数据的基本单位在GPU上进行张量运算可以极大地提高深度学习模型的训练和推理速度。而CUDA则提供了在GPU上执行高性能并行计算所需的API和运行时环境能够实现深度学习任务的加速。
CUDA 充分利用 NIVIDIA GPU 的计算能力
安装 TensorFlow 之前需要首先安装 CUDA准确的说是 CUDA Toolkit。是因为 TensorFlow 使用 CUDA 作为其后端计算引擎。CUDA 是由 NVIDIA 提供的并行计算平台和编程模型可以充分利用 NVIDIA GPU 的计算能力实现高性能的并行计算。
CUDA Toolkit
即 TensorFlow 默认会安装与系统和 GPU 兼容的版本这需要依赖 CUDA Toolkit。CUDA Toolkit 包含 GPU 驱动程序、CUDA Runtime 库和相关工具使 TensorFlow 能够与 NVIDIA GPU 进行交互并利用其计算能力。 cuDNN 在安装 TensorFlow 之前需要安装 cuDNNCUDA Deep Neural Network library是因为 TensorFlow 使用 cuDNN 来加速深度神经网络的计算。cuDNN 是由 NVIDIA 开发的用于深度学习的 GPU 加速库它针对深度神经网络的计算任务进行了高度优化可以显著加快训练和推理过程。 TensorFlow 通过调用 cuDNN 的 API 来利用 GPU 上的硬件加速功能特别是在卷积操作等深度学习任务中cuDNN 能够提供很大的性能提升。在没有 cuDNN 的情况下TensorFlow 会使用 CPU 来执行这些计算任务但是由于 CPU 的计算速度相对较慢处理大规模的深度学习模型时可能会非常耗时。 安装详细流程 整理流程一安装 CUDA Toolkit
步骤一获取CUDA版本信息 桌面 右键 NVIDIA控制面板 查看系统信息 点击组件 查看 NVCUDA64.DLL 的 CUDA版本 成功获取CUDA版本信息 步骤二下载安装 CUDA Toolkit 访问 CUDA Toolkit Archive https://developer.nvidia.com/cuda-toolkit-archive 下载对应版本的 CUDA Toolkit根据步骤一中的 CUDA 版本信息例如我的CUDA版本为12.0.134选择下载 Toolkit 版本 并开始下载耐心等待10分钟 步骤三按照默认步骤安装 按照向导进行安装即可 步骤四检查CUDA安装成功
安装完成后你可以在命令提示符或 PowerShell 中输入以下命令来验证 CUDA 是否成功安装
nvcc -V或者同
nvcc --version如果安装成功将会输出 CUDA 的版本号。下面我们进行安装 cuDNN 整体流程二安装cuDNN
步骤一下载 cuDNN 访问 cuDNN 下载网址https://developer.nvidia.com/rdp/cudnn-download 出现下图界面说明你需要首先登陆你的 NIVIDIA 账户 出现如下界面需要根据本机的 CUDA 版本选择安装如何获取本机的 CUDA 版本如下 获取CUDA版本信息 桌面 右键 NVIDIA控制面板 查看系统信息 点击组件 查看 NVCUDA64.DLL 的 CUDA版本 成功获取CUDA版本信息即 12.x 根据上述获得的 CUDA 版本信息选择下载 12.x 版本的cuDNN 步骤二解压缩下载的 zip并将其中的文件复制到 CUDA Toolkit 的相应目录
解压缩后应该包含三个文件夹和一个文件 bin、include、lib、LICENSE 将三个文件夹中的文件分别复制到各自的 CUDA Toolkit 目录中 首先打开 bin 文件夹 复制全部文件粘贴到 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.0\bin 文件夹中 然后打开 include 文件夹 同样复制全部文件粘贴到 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.0\include 文件夹中 最后打开 lib\x64 文件夹 将全部文件粘贴到 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.0\lib\x64 文件夹中
步骤三配置环境变量
确保将 CUDA 和 cuDNN 的安装路径添加到系统的环境变量中这样 TensorFlow 才能正确地找到这些库和头文件cuDNN 中不会默认配置环境变量需要读者手动配置环境变量首先打开 环境变量 path 栏目 将解压缩后的 cuDNN 文件夹的 \bin 绝对地址复制粘贴 C:\Users\xhong\Downloads\cudnn-windows-x86_64-8.9.3.28_cuda12-archive\cudnn-windows-x86_64-8.9.3.28_cuda12-archive\bin 完成
cuDNN的完成检查需要等待下一步 tensorflow-gpu 安装完成后 整体流程三安装 TensorFlow-gpu
在安装完 cuDNN 后再安装 TensorFlow 时TensorFlow 将能够识别到你的 cuDNN 并自动与之集成从而在 GPU 上运行深度学习任务时获得显著的加速效果。总之安装cuDNN是为了充分发挥GPU的计算能力提高TensorFlow的性能和效率特别是在处理复杂的深度学习模型时cuDNN的优化可以为你节省大量时间。
步骤一Anaconda中创建新的环境 建议在 Anaconda Prompt 中创建一个新的环境因为我的 base 环境已经安装好了 gpu 版本的 torch而且如果都放在一个环境中更新环境会比较耗时 创建环境 tensorflow conda create -n tensorflow pip python3.8激活环境 tensorflow activate tensorflow步骤二查看下载 tensorflow-gpu 的版本号
https://www.tensorflow.org/install/source_windows?hlzh-cn 网址最下方有一个表格列有 GPU 的 CUDA、cuDNN 对照的安装的 tensorflow-gpu 版本号 很明显根据我的 cuDNN8.9.3.28 与 CUDA12.0.134 版本的短板效应我稳妥选择 tensorflow_gpu-2.4.0 版本建议读者到这里也这么选择稳定能用就是了 输入命令 pip install --ignore-installed --upgrade tensorflow_gpu2.4.0
# 注意将2.4.0替换为你的版本号等待安装完成
步骤三检查整体流程安装成功 打开 Pycharm记得将环境从 base 切换到刚刚创建配置的 tensorflow import tensorflow as tf# 检查是否有可用的 GPU 设备
if tf.config.list_physical_devices(GPU):print(GPU可用)
else:print(GPU不可用)出现上图所示 True即完成安装步骤若出现 curand64_10.dll is not found 等标识即说明下载安装相关 CUDA Toolkit 版本出现意外错误解决办法为通过将文件中已含有的 curand64_11.dll 文件重命名可解决问题如下图所示 bin文件目录地址为C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.0\bin 安装 CUDA 后再安装 TensorFlow 时TensorFlow 将会自动与 CUDA 进行集成并在 GPU 上利用 CUDA 的功能来加速深度学习任务。这样TensorFlow 能够更高效地执行张量计算从而显著提高模型训练和推理的速度。
步骤四检查 cuDNN 安装成功可用
import tensorflow as tf# 检查TensorFlow-gpu是否可用
print(TensorFlow-gpu available:, tf.test.is_gpu_available())# 检查cuDNN是否可用
print(cuDNN version:, tf.config.list_physical_devices(GPU))完结撒花~~~~