前言
本文汇总了过去本公众号原创的、国外博客翻译的、从其它公众号转载的、从知乎转载的等一些比较重要的文章,并按照论文分享、技术总结三个方面进行了一个简单分类。点击每篇文章标题可阅读详细内容
欢迎关注公众号 CV技术指南 ,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读。
今年是进入计算机视觉领域的第四年,做公众号的第一年,写了不少原创文章,从国外博客上翻译了不少我认为比较不错的文章,也从知乎上找了不少不错的文章在经作者授权后转载到公众号。
整体上来说,这一年基本保持初心,始终在做一个专注于计算机视觉技术总结、最近技术跟踪、最新论文分享和经典论文解读的公众号。公众号从未采用夸大的标题,宁可不更,也不会强行找一篇无用文章、无用新闻来更新。
今年公众号创立了一个计算机视觉的微信交流群,目前群内氛围还算不错,基本有问有答,想要加群的朋友可以扫描文末的二维码添加编辑微信,经邀请后加群。
与此同时,公众号与一部分互联网企业进行了合作,发布一些计算机视觉的招聘岗位,读者可通过公众号直接内推给HR。
今年主要更新的内容是论文分享和技术总结。
论文分享方面主要介绍论文的研究背景、创新思路和简要介绍创新方法。基本不涉及到代码解读,只提供官方代码的链接,这主要是考虑到对读者负责。计算机是一个对动手能力要求特别高的领域,如果你觉得论文中的方法可以用在你自己的项目或研究上,你应该自己去结合源码完整地阅读整篇论文,这是一种做研究或做项目的正确态度。如果习惯于阅读别人解读得非常详尽的文章,无异于衣来伸手饭来张口,白白丢失了锻炼自己能力的机会,其结果将是始终不具备自学的能力,做事效率极低。
技术总结方面主要对现有的一些技术进行总结,如目标检测、语义分割中的常见的特征金字塔、注意力机制等,神经网络中的初始化方法、归一化方法、损失函数等,各个方向上的一些技术等。通过这些总结,读者能够非常清晰地了解这些方法之间的优缺点,改进思路等。吐槽一句,几乎每篇技术总结都花费了将近两三天的时间,一天时间全面搜寻相关文章,尽可能总结全面,一天时间思考如何写,一天时间完成整体写作,每次更新完一篇技术总结文章,都极其劳累,连玩手机的精力都没有。
接下来一年将继续进行论文分享、技术总结,此外,将会扩展一些代码技术方面的内容。今年始终没有面向读者约稿,这是因为公众号收入比较低,给不出稿费。
如果有读者愿意免费分享的话,可以向公众号提供自己原创的一些技术总结、经验、论文解读等文章,让更多人一起学习进步,共同推动计算机视觉领域的发展。与此同时,读者朋友们也可以把公众号当作是一个自我激励的平台,如一周或两周分享一篇文章到公众号,让自己始终保持不断输入不断输出的状态。公众号也会记录大家供稿的次数,日后若公众号有比较不错的收入,将会向那些给公众号多次供稿的读者们发一些稿费。
补充一句:希望大家养成锻炼身体的习惯,每次更新公众号,都要在座位上四五个小时一动不动,实在辛苦。如果读者朋友们看到觉得不错的文章,可以文末点个赞,会让我更有创作动力。
论文分享
ICCV2021 | 简单有效的长尾视觉识别新方案:蒸馏自监督(SSD)
ICCV2021 | Swin Transformer: 使用移位窗口的分层视觉Transformer
ICCV2021 | SOTR:使用transformer分割物体
ICCV2021 | PnP-DETR:用Transformer进行高效的视觉分析
ICCV2021 | Vision Transformer中相对位置编码的反思与改进
ICCV2021 | 重新思考视觉transformers的空间维度
ICCV2021 | 用于视觉跟踪的学习时空型transformer
ICCV2021 | 渐进采样式Vision Transformer
ICCV2021 | Tokens-to-Token ViT:在ImageNet上从零训练Vision Transformer
ICCV2021 | 医学影像等小数据集的非自然图像领域能否用transformer?
ICCV2021 | TransFER:使用Transformer学习关系感知的面部表情表征
ICCV2021 | SMCA:即插即用的共同注意力模型,可使DETR收敛加速10倍
ICCV2021 | MicroNet:以极低的 FLOPs 改进图像识别
ICCV2021 Oral | AdaFocus:利用空间冗余性实现高效视频识别
CVPR2021 | TrivialAugment:不用调优的SOTA数据增强策略
CVPR2021 | SETR: 使用 Transformer 从序列到序列的角度重新思考语义分割
CVPR2021 | TransCenter: transformer用于多目标跟踪算法
CVPR2021 | Transformer用于End-to-End视频实例分割
CVPR2021 | 重新思考BatchNorm中的Batch
CVPR2021 | 华为诺亚实验室提出Transformer in Transformer
CVPR2021 | 继SE,CBAM后的一种新的注意力机制Coordinate Attention
CVPR2021 | TimeSformer-视频理解的时空注意模型
CVPR2021 | PVT--无卷积密集预测的多功能backbone
CVPR2021 | 华为诺亚实验室提出Transformer in Transformer
CVPR2021 | 行人搜索中的第一个anchor-free模型
Panoptic SegFormer:端到端的 Transformer 全景分割通用框
MobileVIT:轻量级视觉Transformer+移动端部署
AAAI2021 | 任意方向目标检测中的动态Anchor学习
NeurlPS2021 | WBF:继NMS和Soft-NMS后的过滤候选框新方法
ML2021 | PatrickStar:通过基于块的内存管理实现预训练模型的并行训练
OCR开源神器PaddleOCR再升级:效果提升7%、速度增加220%
经典论文系列 | 缩小Anchor-based和Anchor-free检测之间差距的方法:自适应训练样本选择
经典论文系列 | Group Normalization & BN的缺陷
经典论文系列 | 目标检测--CornerNet & 又名 anchor boxes的缺陷
经典论文系列 | NLN: Non-Local Neural Network
经典模型系列 | Inception系列之Inception_v1
经典模型系列 | Inception系列之Inception_v2-v3
经典模型系列 | Inception系列之Inception_v4
经典模型系列 | MobileNet系列之MobileNet_v1
经典模型系列 | MobileNet系列之MobileNet_v2
经典模型系列 | MobileNet系列之MobileNet_v3
经典模型系列 | ShuffleNet系列之ShuffleNet_v1
经典模型系列 | ShuffleNet系列之ShuffleNet_v2
视频理解综述:动作识别、时序动作定位、视频Embedding
欢迎关注公众号 CV技术指南 ,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读。
在公众号中回复关键字 “入门指南“可获取计算机视觉入门所有必备资料。
技术总结
神经网络的初始化方法总结 | 又名“如何选择合适的初始化方法”
PyTorch和TensorFlow在模型可用性、部署便捷度和生态系统方面的对比
工程Tricks | PyTorch有什么节省显存的小技巧?
使用 PyTorch Lightning 将深度学习管道速度提高 10 倍
使用 Ray 将 PyTorch 模型加载速度提高 340 倍
PyTorch 中的 ModuleList 和 Sequential: 区别和使用场景
资源分享 | PyTea:不用运行代码,静态分析pytorch模型的错误
资源分享 | SAHI:超大图片中对小目标检测的切片辅助超推理库
可视化的BatchNorm--它的工作方式以及为什么神经网络需要它
资源分享 | Glint360K: 全球最大人脸数据集, 共36万类别、1800万图像
资源分享 | 一个集图像分割的所有论文、benchmarks、数据集、项目代码等资源的github项目
在做算法工程师的道路上,你掌握了什么概念或技术使你感觉自我提升突飞猛进?
欢迎关注公众号 CV技术指南 ,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读。
在公众号中回复关键字 “入门指南“可获取计算机视觉入门所有必备资料。