当前位置: 首页 > news >正文

怎样看pytorch源码最有效?

点击上方“计算机视觉工坊”,选择“星标”

干货第一时间送达

现在深度学习项目代码量越来越大,并且单个文件的量也非常的大。笔者总结了一些专家的经验并结合自己看的一些项目,打算总结一下如何探索和深入一个深度学习项目库。

1. 基础知识

首先,需要保证有一定的深度学习基础知识,吴恩达的深度学习课还有斯坦福大学的CS231n都是不错的入门教程,只需要有大学数学的基础就可以看懂。

然后,需要对Linux系统使用有一定的了解,一般选择Ubuntu系统作为主力系统,了解一下基础的系统命令就可以了,比如rm,ls,cd,cat,vim,sudo,find,df,top等,在B站上搜索一下Linux的视频,很快就可以入门。之后遇到新的命令只需要查询API即可。

其次,还需要保证对python语言和深度学习框架的了解,python上手是很快的,可以看一下菜鸟教程或者莫烦python教程,上首页很快。深度学习框架方面可以买一些书籍,边看边敲,找一个小项目敲一敲,了解一下大部分API就已经达到上手水平了。深度学习框架一般选tensorflow、pytorch,因为大部分项目大多是基于这两个框架的。他们官方网站的教程也是非常不错的参考,可以看看官方提供的教程,跑一下github上提供的demo。

最后,营造科研的环境,可以关注一些领域相关的大牛、公众号,也可以加入一些交流群,多和群友交流,尽可能提升领域的常识。不要乱问问题,一定要有自己的思考和想法,然后再到群里问问题和交流。

2. 项目分析阅读

从Github上拿到一个项目,可以按照以下的步骤进行分析和阅读。

  • 项目背景调研:

    • 项目是否是对应一篇论文?如果对应论文,可以先阅读一下Paper,对背景和项目的细节有一个大概的了解。

    • 项目是否有说明文档?一般比较大型的项目,比如pytorch,nni,mmdetection等较多人维护的项目是会在readthedoc上提供说明书,建议优先阅读说明。

    • 项目是否有README?README文件通常包含了项目创建者想要告诉你的信息,对于一些专业的项目库而言,阅读README文件绝对对你理解整个项目代码有帮助。

    • 什么都没有??极少数会遇到这种情况,但如果遇到的话,就进行下一个阶段吧。

  • 通过文件命名分析:

    • 数据处理、数据加载部分,通常命名可能有xxx_dataloader.py等

    • 网络模型构建部分,通常命名可能为 resnet20.py model.py等

    • 训练部分脚本,通常命名可能为train.py等

    • 测试部分脚本,通常命名可能为test.py eval.py 等

    • 工具库,通常命名为utils文件夹。

    • 根据文件夹、文件的命名,判断其可能的功能。一般在深度学习项目中,通常有几部分组成:

    • 举个例子,以once for all项目为例:

.
├── build.sh # 环境构建
├── eval_ofa_net.py
├── eval_specialized_net.py # 验证专用网络
├── figures
│   ├── cnn_imagenet_new.png
│   ├── diverse_hardware.png
│   ├── imagenet_80_acc.png
│   ├── ofa-tutorial.jpg
│   ├── overview.png
│   └── video_figure.png
├── LICENSE
├── ofa 
│   ├── imagenet_classification 
│   │   ├── data_providers # 数据加载
│   │   ├── elastic_nn # 算法核心模块
│   │   ├── __init__.py
│   │   ├── networks # 网络构建
│   │   └── run_manager # 训练代码核心逻辑
│   ├── __init__.py
│   ├── model_zoo.py # 模型库
│   ├── nas # nas相关工具
│   │   ├── accuracy_predictor
│   │   ├── efficiency_predictor
│   │   ├── __init__.py
│   │   └── search_algorithm
│   ├── tutorial # 教程
│   │   ├── accuracy_predictor.py
│   │   ├── evolution_finder.py
│   │   ├── flops_table.py
│   │   ├── imagenet_eval_helper.py
│   │   ├── __init__.py
│   │   └── latency_table.py
│   └── utils # 工具库
│       ├── common_tools.py
│       ├── flops_counter.py
│       ├── __init__.py
│       ├── layers.py
│       ├── my_dataloader
│       ├── my_modules.py
│       ├── pytorch_modules.py
│       └── pytorch_utils.py
├── README.md # 项目介绍,初次接触需要阅读
├── requirements.txt # 环境文件
├── setup.py # pip构建环境所需文件
├── train_ofa_net.py # 训练脚本
└── tutorial # 教程├── local_lut.npy├── ofa.ipynb├── ofa_resnet50_example.ipynb└── README.md
  • 找到程序运行入口:

    • 第一类bug,环境不兼容导致的bug,严格按照作者提供的运行环境,并对照环境的版本信息,对齐本地环境和作者要求的环境。

    • 第二类bug,深度学习框架带来的bug,这部分bug可以在bing上进行搜索,查看解决方案。

    • 第三类bug,项目本身相关的bug,这类bug最好是在github的issue区域进行查找,如果无法解决可以在issue部分详细描述自己的问题,等待项目库作者的解答。

    • 通过上一步的分析,找到了项目的介绍的话,在自己机器上完成环境配置。

    • 一般可以找到项目运行的主入口,比如train.py,试着运行项目。

    • 遇见bug怎么办?

    • 运行顺利的话,代表可以进行debug操作,对文件某些细节不确定的话,可以通过debug的方式查看变量详细内容。

  • 用IDE打开项目:

    • 阅读入口文件的逻辑,查看调用到了哪些包。

    • 通过IDE的功能跳转到对应类或者函数进行继续阅读,配合代码注释进行分析。

    • 分析过程可能会需要软件工程的知识,比如画一个类图来表述项目的关系。

    • 一开始可以泛读,大概了解整体流程,做一些代码注释。而后可以精读,找到文章的核心,反复理解核心实现,抽丝剥茧,一定可以对这个项目有进一步的理解。

    • 笔者是vscode党,推荐使用vscode+scp+mobaxterm+远程服务器的方式进行运行。

    • 打开项目以后,从运行入口(通常是train.py)开始阅读:

  • 实在读不懂怎么办?

    • 在Github的issue上进行提问。

    • 如果有项目作者的联系方式,可以联系作者,发邮件提问。

    • 看看有没有其他人写过相关的博客。

3. 参考

https://www.zhihu.com/question/26480537

https://www.zhihu.com/question/29416073/answer/44301979

https://github.com/phodal/articles/issues/14                                         

本文仅做学术分享,如有侵权,请联系删除。

下载1

在「计算机视觉工坊」公众号后台回复:深度学习,即可下载深度学习算法、3D深度学习、深度学习框架、目标检测、GAN等相关内容近30本pdf书籍。

下载2

在「计算机视觉工坊」公众号后台回复:计算机视觉,即可下载计算机视觉相关17本pdf书籍,包含计算机视觉算法、Python视觉实战、Opencv3.0学习等。

下载3

在「计算机视觉工坊」公众号后台回复:SLAM,即可下载独家SLAM相关视频课程,包含视觉SLAM、激光SLAM精品课程。

重磅!计算机视觉工坊-学习交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有ORB-SLAM系列源码学习、3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、深度估计、学术交流、求职交流等微信群,请扫描下面微信号加群,备注:”研究方向+学校/公司+昵称“,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进去相关微信群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列、三维点云系列、结构光系列、手眼标定、相机标定、orb-slam3等视频课程)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答五个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近2000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

 圈里有高质量教程资料、可答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~  


http://www.taodudu.cc/news/show-1781816.html

相关文章:

  • 【physx/wasm】在physx中添加自定义接口并重新编译wasm
  • excel---常用操作
  • Lora训练Windows[笔记]
  • linux基础指令讲解(ls、pwd、cd、touch、mkdir)
  • InnoDB 事务处理机制
  • 启明云端ESP32 C3 模组WT32C3通过 MQTT 连接 AWS
  • CVPR2021目标检测和语义分割论文分类汇总 | 源码 |
  • 深度学习中的 Attention 机制总结与代码实现(2017-2021年)
  • 使用YOLO V4通过社交距离和口罩检测来缓解COVID
  • 深度学习中的Attention总结
  • CVPR 2021奖项出炉:最佳论文花落马普所,何恺明获提名,首届黄煦涛纪念奖颁布
  • 每天2小时,吃透 985博士总结的这套保姆级TensorFlow + PyTorch笔记(20G高清/PPT/代码)
  • AI总监Karpathy亲自揭秘特斯拉纯视觉系统,还有自动驾驶超算Dojo原型
  • 2021 CVPR | 基于渐进感受局部区域推理的全方位监督点云分割
  • 自动驾驶之多传感器融合-硬件篇(激光雷达)
  • LapStyle - 基于拉普拉斯金字塔的高质量风格化方法 | CVPR2021
  • CVPR 新规严禁审稿期间公开宣传论文,可发 arXiv,LeCun:疯了吧!
  • 详细解读 | CVPR 2021轻量化目标检测模型MobileDets(附论文下载)
  • 基于LOAM框架的激光SLAM开源程序汇总
  • YOLOv4/v5的创新点汇总!
  • 最新!基于深度学习的图像超分技术一览
  • ICRA 2021| 基于精确和减少漂移的关注距离的Camera-IMU-UWB融合定位方法
  • 用简单Mask分类实现语义分割、实例分割“大一统”!FacebookUIUC开源MaskFormer
  • MLP 又又又升级了!港大商汤开源首个用于检测与分割任务的MLP架构
  • ICCV2021|性能优于何恺明团队MoCo v2,DetCo:为目标检测定制任务的对比学习
  • ICCV 2021 | 超越MobileNetV3!SkipNet:面向轻量级CNN的Bias Loss
  • 在手机上实现实时的单眼3D重建
  • 浅谈混合精度训练imagenet
  • ICCV 2021 论文汇总!Vision Transformer
  • 一文详解YOLOX算法实现血细胞检测
  • 终于有人把深度学习讲明白了!
  • ICCV 2021|“白嫖”性能的MixMo,一种新的数据增强or模型融合方法
  • Single-Shot Calibration:基于全景基础设施的多相机和多激光雷达之间的外参标定(ICRA2021)...
  • 基于手机系统的实时目标检测
  • ICCV'21 Oral|拒绝调参,显著提点!检测分割任务的新损失函数RS Loss开源
  • 基于分割的PTD渐进三角网加密滤波(SBF)算法