博客
分类
归档
友链
留言箱
关于
更多
主题源码
更新日志
有疑问?
看 FAQ
看 本站源码
提 Issue
文学黑洞
每日一文
马克思主义文库
游戏厅
小众技术工具库
博客
分类
归档
友链
留言箱
关于
更多
主题源码
更新日志
有疑问?
看 FAQ
看 本站源码
提 Issue
文学黑洞
每日一文
马克思主义文库
游戏厅
小众技术工具库
相思似海深旧事如天远
where there is a will there is a way
文档
帮助
示例
社区
博客
源码
Warnings_unsample
参考博文: 1.warnings.warn(“nn.functional.upsample is deprecated. Use nn.functional.interpolate instead.” 刚刚想测试一下grad-cam的代码,结果模型碰到一个问题,就是nn.functional.unsample被抛弃了 问题: UserWarning: nn.functional.upsamp...
2022-09-22
pytorch
阅读全文
visdom使用教程
参考博文: 1.PyTorch深度学习训练可视化工具visdom 在进行深度学习实验时,能够可视化地对训练过程和结果进行展示是非常有必要的。除了Torch版本的TensorBoard工具TensorBoardX之外,Torch官方也提供了一款非常好用的可视化神器——visdom。visdom是一款用于创建、组织和共享实时大量训练数据可视化的灵活工具。 .pulipswqyxev{} 深度学习...
2022-09-20
pytorch
阅读全文
nn.relu和F.relu的区别
参考博文: 1.PyTorch之nn.ReLU与F.ReLU的区别 示例代码: 1234567891011121314151617181920212223242526272829import torch.nn as nnimport torch.nn.functional as Fimport torch.nn as nn class AlexNet_1(nn.Module): de...
2022-06-20
pytorch
阅读全文
pytorch中contiguous函数的用法
参考博文: Pytorch之contiguous的用法 函数会使tensor变量在内存中的存储变得连续。 contiguous,():view只能用在contiguous的variable上。如果在view之前用了transpose%2C permute等,需要用contiguous ()来返回一个contiguous copy。) contiguous tensor变量调用contiguo...
2022-06-12
pytorch
阅读全文
激活函数
参考博文: 1.激活函数介绍 2.pytorch激活函数官方文档) 什么是激活函数活函数(Activation functions)对于神经网络模型学习与理解复杂和非线性的函数来说具有十分重要的作用。它们将非线性特性引入到我们的网络中。 如果网络中不使用激活函数,网络每一层的输出都是上层输入的线性组合,无论神经网络有多少层,输出都是输入的线性组合。 如果使用的话,激活函数给神经元引入了非线性...
2022-04-21
pytorch
阅读全文
数据处理
单进程 在单进程模式下,DataLoader 初始化的进程和取数据的进程是一样的 。因此,数据加载可能会阻止计算。但是,当用于在进程之间共享数据的资源(例如共享内存,文件描述符)有限时,或者当整个数据集很小并且可以完全加载到内存中时,此模式可能是我们首选。此外,单进程加载通常可以显示更多可读的错误跟踪,这对于我们调试代码很有用。 多进程·多进程处理 为了避免...
2022-04-16
pytorch
阅读全文
pytorch官方文档中文版
torch.nnContainerModuleCLASS torch.nn.Module SOURCE 它是所有神经网络模型的基类,你的模块应该继承于该类。 模块还能包含其他模块,允许把它们嵌套在一个树结构中。你可以分配子模块作为常规属性: 123456789101112import torch.nn as nnimport torch.nn.functional as Fcla...
2022-04-16
pytorch
阅读全文
pip换源
由于使用pip或pip3安装python第三方包时,经常出现read timed out问题,所以需要将pip的官方软件源服务器换成国内的镜像服务器,从而提升python软件包安装效率和成功率,pip 国内的一些镜像: 阿里云 http://mirrors.aliyun.com/pypi/simple/ 中国科技大学 https://pypi.mirrors.ustc.edu.cn/sim...
2022-04-16
pytorch
阅读全文
Q & A
就地操作问题来源:看代码发现self.relu=nn.ReLU(inplace=True)不明白inplace=True什么意思。 解答:查看pytorch官网关于ReLU定义,ReLU其中inplace参数表示可以选择就地执行操作,默认为False,就地执行操作是指图像处理函数的输入图像和输出图像是同一对象,即同一张图像,常规的图像处理函数是不支持输入图像和输出图像是同一图像的。 eg:中...
2022-03-17
pytorch
阅读全文