首页
个人主页
管理
不做科研废物🌸
行动起来,活在当下
累计撰写
16
篇文章
累计创建
8
个标签
累计收到
0
条评论
栏目
首页
个人主页
管理
目 录
CONTENT
以下是
深度学习
相关的文章
2024-12-03
Vision Transformer - 当 Transformer 来到 CV
本论文分析了 Vision Transformer (ViT) 在图像识别中的应用,探讨了其与传统卷积神经网络的不同之处,尤其是在图像处理中的创新方法。ViT 通过将图像分割为多个小 Patch,每个 Patch 作为一个 Token 来处理,从而大幅降低了计算复杂度。此外,引入了 CLS Token 以提取类别信息,并使用位置编码来记录图像块位置。实验表明,ViT 在多种数据集上表现出色,不仅提升了计算效率,也显著提高了图像分类的准确性。
2024-12-03
12
0
0
学习
2024-12-03
Transformer 代码解析
本文详细解析了 Transformer 模型的各个组成部分,包括缩放点积注意力、多头注意力、位置编码、前馈神经网络和编码器、解码器层。缩放点积注意力通过温度参数优化注意力权重,而多头注意力机制允许模型并行处理多个注意力头。位置编码为输入添加位置信息,前馈神经网络通过激活函数和线性变换增强特征表达。编码器和解码器层通过多头注意力和前馈网络串联传递信息,整体结构提升了深度学习任务的表现,适用于序列生成和机器翻译等应用。
2024-12-03
8
0
0
学习
2024-12-03
ResNet - 深度神经网络的里程碑
深度学习领域中的残差网络(ResNet)由微软研究所的何凯明等提出,成功解决了深层神经网络训练中的梯度消失和梯度爆炸问题。通过引入跳跃连接和恒等映射,ResNet 有效避免了模型退化,实现了更深网络的有效训练。其结构包括 BasicBlock 和 BottleNeck,后者优化了参数数量和计算效率。ResNet 在视觉任务上取得显著性能提升,成为深度神经网络的重要里程碑,奠定了后续模型设计的基础。
2024-12-03
25
0
0
学习
2024-12-02
当行人重识别遇见 Transformer
本研究综述了 Transformer 在行人重识别(ReID)领域的应用,揭示了其在特征提取和建模中的潜力。通过回顾多个相关工作和数据集,文章展示了 Transformer 在处理图像、视频和不同模态(如红外与可见光)中的有效性。特别地,TransReID 作为首个在 ReID 领域引入 Transformer 的方法,展现了其在捕获远距离依赖和处理细节信息方面的优势。此外,研究还探讨了通过改进注意力机制和结合 CNN 特征的方法,进一步推动了 ReID 技术的发展。
2024-12-02
11
0
0
学习
2024-11-29
恒源云 GPU 平台使用指北
本文介绍了如何使用恒源云 GPU 平台,包括整体流程、数据上传与下载、压缩包解压、更换源、后台运行及执行训练并自动上传结果的步骤。用户可以通过 OSS 命令将本地文件上传至云端,并在云端下载之前上传的文件。此外,文中还说明了如何更换 conda 和 pip 源,以及使用 tmux 管理长时间运行的会话。最后,提供了一个示例脚本,用于训练完成后自动压缩结果文件并上传到个人云空间,同时包含关机的相关提示。
2024-11-29
57
0
0
学习
2024-11-20
百度飞桨创建 Pytorch 环境
引自:https://blog.csdn.net/m0_63706703/article/details/138837331 打开终端,创建虚拟环境: python3 -m venv env_name # (python3 -m 路径 环境名) 激活新的虚拟环境 (linux 终端): source e
2024-11-20
17
0
0
学习