如何在Linux上查看CUDNN版本 (linux查看cudnn版本)

在Linux上开发深度学习应用时,经常需要使用CUDA和CUDNN库进行GPU加速。CUDA提供了基本的GPU计算功能,而CUDNN专门为深度学习算法进行了优化,提供了很多高效的深度学习操作。在使用CUDNN库时,我们经常需要知道它的版本号,以便确定是否需要升级或降级CUDNN库,或者查找相关问题的解决方案。下面介绍如何在Linux系统上查看CUDNN版本。

步骤一:打开终端

在Linux系统中,查看CUDNN版本需要使用终端命令行。打开终端的方式取决于不同Linux发行版之间略有不同,通常可以通过点击桌面上的终端图标进入。

步骤二:进入CUDA安装目录

在终端中输入以下命令,进入CUDA安装目录:

“`

cd /usr/local/cuda/

“`

在该目录下,我们将能够看到许多CUDA的相关文件和子目录。

步骤三:进入CUDNN的头文件目录

CUDNN的头文件通常存储在CUDA的include目录下,因此我们需要进入该目录。

“`

cd include

“`

步骤四:查找cudnn.h文件

CUDNN的版本号通常存储在cudnn.h头文件中,我们需要查找该文件。输入以下命令:

“`

ls -l | grep cudnn.h

“`

该命令会在当前目录下查找cudnn.h文件,并输出该文件的相关信息以及所在路径。

如果没有找到cudnn.h文件,请检查CUDA和CUDNN是否正确安装,并确认版本是否正确。

步骤五:查看版本号

找到cudnn.h文件后,我们需要打开该文件并查找版本号。输入以下命令:

“`

cat cudnn.h | grep CUDNN_MAJOR -A 2

“`

该命令会输出cudnn.h文件中定义的CUDNN_MAJOR、CUDNN_MINOR和CUDNN_PATCHLEVEL版本号以及其他相关信息。

例如,输出可能会类似于以下格式:

“`

#define CUDNN_MAJOR 7

#define CUDNN_MINOR 6

#define CUDNN_PATCHLEVEL 5

#if defined(CUDNN_MAJOR) && defined(CUDNN_MINOR) && defined(CUDNN_PATCHLEVEL)

# define CUDNN_VERSION (CUDNN_MAJOR * 1000 + CUDNN_MINOR * 100 + CUDNN_PATCHLEVEL)

#else

# define CUDNN_VERSION 0

#endif

“`

上述输出表明,当前系统中安装的CUDNN版本为7.6.5。

在Linux系统中查看CUDNN的版本号需要使用终端命令行,并需要进入CUDA和CUDNN的相关目录下进行操作。通过查找cudnn.h头文件并查看其中定义的版本号即可确认当前使用的CUDNN版本。了解CUDNN版本号有助于在开发深度学习应用时确定合适的库版本,并查找相关问题的解决方案。

相关问题拓展阅读:

怎样判断cuda和cudnn是否安装成功win10

首先确认你的电脑是否安装了nvidia显卡,目前CUDA只支持Nvida的显卡,不支持AMD/ATI的显卡(AMD对OpenCL支持的很好)。在

设备管理器

中,可以查看显卡信息。如下图所示,含有NVIDIA的显卡,就可安装。

在官启乱网上下载cuda工具包,注意是windows系统的,而且需要看清楚是笔记本还是台式机的

安装包

,下载笔记含漏本的安装套件,名字为cuda_5.0.35_winvista_win7_win8_notebook_32-3,悄老档(cuda5.5类似)双击打开安装即可,,按照提示安装,在这过程中,它也会更新nvidia的

显卡驱动

CUDA工具包安装完成后,我们还需要确认,CUDA是否已经正确安装,我们可以先检查nvcc

编译器

是否正确安装,在

命令提示符

窗口中输入:nvcc -V,回车查看是否有版本信息。若出现版本信息,则证明nvcc安装成功,更一般的,我们会在

命令行

中运行在C:\ProgramData\NVIDIA Corporation\CUDA Samples\v5.0\bin\win32\Release中deviceQuery程序,若能检测到cuda device则证明程序已经正确安装!

tensorflow gpu版本运行时怎么知道有没有调用gpu以及cuda加速

首先需要看你的PC配置是否够,TF的GPU模式只支持N卡,然后计算能力高于3.0,具体可以查:安装教程可以参考:Ubuntu16.04上gtx1080的cuda安装July172023目前tensorflow是一个非常流行的深度学习计算框架,常规硬件及系统的安装方法官方的doc已经说的很清楚了,但是因为系统是ubuntu16.04,显卡是GTX1080,所以不可避免的要折腾起来。在上一篇已经在16.04上安装好了驱动。接下来其实重点安装的是CUDA和拦衡cuDNN.首先说为什么要安装CUDA和cuDNN,关于采用GPU计算比CPU有速度有多少提升的benchmark找找就有,这次重点是怎么让tensorflow充分用的上GTX1080能力。具体的就是如何把支持GTX1080的CUDA和cuDNN装起来,然后让tensorflow认识我们新装的CUDA和cuDNN。首先总体说下安装步骤:1首先要注册NVIDIAdeveloper的帐号,分别下载CUDA和cuDNN2确认准备gcc版本,安装依赖库sudoapt-getinstallfreegl3安装CUDA4解压cuDNN5clonetensorflow源码,configure配置6编译安装7最后一哆嗦,测试!准备工作在正式开始前,需要做几个准备工作,主要是大概先看乱好下文档cudaFAQtensorflow的安装文档cuda-gpu的支持列表/计算能力/FAQcudnn5.1有多牛cudatookit下载页面CUDA_Installation_Guide_Linux.pdfcudnnUserGuide文档看过之后接下来就是实际动手的过程:1注册NVIDIAdeveloper的帐号,分别下载CUDA和cuDNN1.1下载CUDA打开cudatoolkit下载页面,GTX1080要用的是CUDA8。先点击JOIN,注册帐号。完了后,再回到cudatoolkit下载页面。选择linux,x86-64,ubuntu,16.04,runfile(local)1.2下载cuDNN进入cudnn的下载页,一堆调查,日志写时下载的是,点开选linux,不出意外的话这个就是下载地址.2确认GCC版本,安装依赖库确认本机gcc版本,16.04默认的是gcc5,这里安装需要的更高是gcc4.9。接下来就安装配置gcc4.9.2.1安装gcc4.9,并修改系统默认为4.9sudoapt-getinstallgcc-4.9gcc-4.9g++-4.9g++-4.9gcc–versionsudoupdate-alternatives–install/usr/bin/g++g++/usr/bin/g++-4.910sudoupdate-alternatives–install/usr/bin/cccc/usr/bin/gcc30sudoupdate-alternatives–setcc/usr/bin/gccsudoupdate-alternatives–install/usr/bin/c++c++/usr/bin/g++30sudoupdate-alternatives–setc++/usr/bin/g++gcc–version2.2一个小依赖sudoapt-getinstallfreegl3安装CUDA需要注意的是这个地方有个选择安装低版本驱动的地哗衡铅方,选n大致的安装流程如下:3.1安装CUDAchmod+x/cuda_8.0.27_linux.run./cuda_8.0.27_linux.run.DoyouacceptthepreviouslyreadEULA?accept/decline/quit:acceptInstallNVIDIAAcceleratedGraphicsDriverforLinux-x86_64361.62?(y)es/(n)o/(q)uit:nInstalltheCUDA8.0Toolkit?(y)es/(n)o/(q)uit:yEnterToolkitLocation:Doyouwanttoinstallasymboliclinkat/usr/local/cuda?(y)es/(n)o/(q)uit:yInstalltheCUDA8.0Samples?(y)es/(n)o/(q)uit:yEnterCUDASamplesLocation:/home/h/Documents/cuda_samples.3.2写入环境变量vim~/.bashrc#添加下面变量exportPATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}}exportLD_LIBRARY_PATH=/usr/local/cuda-8.0/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}3.3安装好后简单验证a.进入刚配置时指定的cudasample所在文件夹,NVIDIA_CUDA-8.0_Samples/b.cd0_Simple/asyncAPI;sudomakec.NVIDIA_CUDA-8.0_Samples/0_Simple/asyncAPI$./asyncAPI-Starting…GPUDevice0:逗GeForceGTX1080地withcomputecapability6.1CUDAdevicetimespentexecutingbytheGPU:10.94timespentbyCPUinCUDAcalls:0.19CPUexecuted50591iterationswhilewaitingforGPUtofinish4安装cuDNNh@h:~/Downloads$tarxvzfcudnn-8.0-linux-x64-v5.0-ga.tgzcuda/include/cudnn.hcuda/lib64/libcudnn.socuda/lib64/libcudnn.so.5cuda/lib64/libcudnn.so.5.0.5cuda/lib64/libcudnn_static.ah@h:~/Downloads$sudocp-Rcuda/lib64/usr/local/cuda/lib64h@h:~/Downloads$sudomkdir-p/usr/local/cuda/includeh@h:~/Downloads/cuda$sudocpinclude/cudnn.h/usr/local/cuda/include/sudochmoda+r/usr/local/cuda/include/cudnn.h/usr/local/cuda/lib64/libcudnn*5clone,configuretensorflow5.1clone源码$gitclone5.2configure配置整个配置流程应该跟下面的基本一样的h@h:~/Downloads/tensorflow$cd./tensorflow/h@h:~/Downloads/tensorflow$./configurePleasespecifythelocationofpython.:***DoyouwishtobuildTensorFlowwithGoogleCloudPlatformsupport?N***NoGoogleCloudPlatformsupportwillbeenabledforTensorFlow***DoyouwishtobuildTensorFlowwithGPUsupport?y***GPUsupportwillbeenabledforTensorFlowPleasespecifywhichgccnvccshoulduseasthehostcompiler.:**PleasespecifythelocationwhereCUDAtoolkitisinstalled.RefertoREADME.mdformoredetails.:/usr/local/cuda-8.0****PleasespecifytheCudnnversionyouwanttouse.:5.0.5****PleasespecifythelocationwherecuDNN5.0.5libraryisinstalled.RefertoREADME.mdformoredetails.:/usr/local/cuda**Pleasespecifyalistofcomma-separatedCudacomputecapabilitiesyouwanttobuildwith.Youcanfindthecomputecapabilityofyourdeviceat:**Pleasenotethateachadditionalcomputecapabilitysignificantlyincreasesyourbuildtimeandbinarysize.:6.1**SettingupCudaincludeSettingupCudalib64SettingupCudabinSettingupCudanvvmSettingupCUPTIincludeSettingupCUPTIlib64Configurationfinished6编译安装6.1编译工具Bazel安装配置先看一眼文档然后就执行下面的流程:#安装java1.8sudoadd-apt-repositoryppa:webupd8team/javasudoapt-getupdatesudoapt-getinstalloracle-java8-installer#安装好后车参考下java-version#添加源echo”debstablejdk1.8″|sudotee/etc/apt/sources.list.d/bazel.listcurl|sudoapt-keyadd-#下载sudoapt-getupdate&&sudoapt-getinstallbazel#升级sudoapt-getupgradebazel6.2编译tensorflow的pip版本并安装$bazelbuild-copt//tensorflow/tools/pip_package:build_pip_package#TobuildwithGPUsupport:$bazelbuild-copt–config=cuda//tensorflow/tools/pip_package:build_pip_package$bazel-bin/tensorflow/tools/pip_package/build_pip_package/tmp/tensorflow_pkg#Thenameofthe.whlfilewilldependonyourplatform.#注意编译完成后生成的文件名字和官方doc里面的是不一定一致的$sudopipinstall/tmp/tensorflow_pkg/tensorflow-0.*-linux_x86_64.whli6700k32g编译时间:只编译代码不带pipINFO:Elapsedtime:967.271s,CriticalPath:538.38azel-bin/tensorflow/tools/pip_package/build_pip_packageINFO:Elapsedtime:65.183s,CriticalPath:48.587最后测试前面都整完了,现在该测试了,注意前面有两个动态链接库的位置,cuDNN在/usr/local/cuda/lib64,而cuda在/usr/local/cuda-8.0/lib64,所以这个时候的bashrc应该这么写:exportPATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}}exportLD_LIBRARY_PATH=/usr/local/cuda/lib64:/usr/local/cuda-8.0/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}写完后,source~/.bashrccdtensorflow/tensorflow/models/image/mnistpythonconvolutional.py成功的话会出现流畅的跑动:h@h:~/Downloads/tensorflow/tensorflow/models/image/mnist$pythonconvolutional.pyItensorflow/stream_executor/dso_loader.cc:108>successfullyopenedCUDAlibrarylibcublas.solocallyItensorflow/stream_executor/dso_loader.cc:108>successfullyopenedCUDAlibrarylibcudnn.so.5.0.5locallyItensorflow/stream_executor/dso_loader.cc:108>successfullyopenedCUDAlibrarylibcufft.solocallyItensorflow/stream_executor/dso_loader.cc:108>successfullyopenedCUDAlibrarylibcuda.so.1locallyItensorflow/stream_executor/dso_loader.cc:108>successfullyopenedCUDAlibrarylibcurand.solocallyExtractingdata/train-images-idx3-ubyte.gzExtractingdata/train-labels-idx1-ubyte.gzExtractingdata/t10k-images-idx3-ubyte.gzExtractingdata/t10k-labels-idx1-ubyte.gzItensorflow/stream_executor/cuda/cuda_gpu_executor.cc:925>successfulNUMAnodereadfromSysFShadnegativevalue(-1),buttheremustbeatleastoneNUMAnode,soreturningNUMAnodezeroItensorflow/core/common_runtime/gpu/gpu_init.cc:102>Founddevice0withproperties:name:GeForceGTX1080major:6minor:1memoryClockRate(GHz)1.8475pciBusID0000:01:00.0Totalmemory:7.92GiBFreememory:7.41GiBItensorflow/core/common_runtime/gpu/gpu_init.cc:126>DMA:0Itensorflow/core/common_runtime/gpu/gpu_init.cc:136>0:YItensorflow/core/common_runtime/gpu/gpu_device.cc:838>CreatingTensorFlowdevice(/gpu:0)->(device:0,name:GeForceGTX1080,pcibusid:0000:01:00.0)Initialized!Step0(epoch0.00),8.4msMinibatchloss:12.054,learningrate:0.010000Minibatcherror:90.6%Validationerror:84.6%Minibatcherror:0.0%Validationerror:0.7%Step8500(epoch9.89),4.7msMinibatchloss:1.601,learningrate:0.006302Minibatcherror:0.0%Validationerror:0.9%Testerror:0.8%linux查看cudnn版本的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于linux查看cudnn版本,如何在Linux上查看CUDNN版本,怎样判断cuda和cudnn是否安装成功win10,tensorflow gpu版本运行时怎么知道有没有调用gpu以及cuda加速的信息别忘了在本站进行查找喔。


数据运维技术 » 如何在Linux上查看CUDNN版本 (linux查看cudnn版本)