本文共 3117 字,大约阅读时间需要 10 分钟。
本周整理了多个CV方向的最新研究成果,涵盖目标检测、图像分割、语音处理、医学影像、图像生成等多个热门方向。这些开源项目不仅提供了丰富的工具,还对技术创新和实际应用具有重要贡献。以下是本周值得关注的几项内容:
研究内容:研究者发现德国训练的3D目标检测模型在美国的道路上表现下降严重,主要原因是汽车尺寸差异大。通过简单的尺度归一化优化,模型的泛化能力得到了显著提升。
参与单位:康奈尔大学;硅谷数据标注公司;哥伦比亚大学;俄亥俄州立大学论文:https://arxiv.org/abs/2005.08139代码:github.com/cxy1997/3D_adapt_auto_driving(尚未开源)研究内容:提出了一种双神经网络框架,包括"What Network"和"Where Network",通过整合选择性关注和定位分类,显著提升了目标检测性能。实验结果在PASCAL VOC和COCO数据集上均超越了现有SOTA。
参与单位:加州大学论文:https://arxiv.org/abs/2005.07787代码:github.com/mkebrahimpour研究内容:通过两层嵌套的U型结构,捕获了更多上下文信息并增加了模型深度。实验结果表明该方法在多个目标检测数据集上均表现优异。
参与单位:阿尔伯塔大学论文:https://arxiv.org/abs/2005.09007代码:github.com/NathanUA/U-2-Net研究内容:提出了一种将雷达数据与摄像头数据融合的目标检测网络,能够检测遮挡或图像质量较差的目标。实验结果表明该方法优于仅使用RGB数据的算法。
参与单位:慕尼黑工业大学论文:https://arxiv.org/abs/2005.07431代码:github.com/TUMFTM/CameraRadar研究内容:提出了一种动态细化网络,用于检测有方向且密集的目标(如遥感图像中的船只)。网络通过特征选择模块和动态细化头实现了精度提升。
参与单位:中科院自动化研究所;优图实验室;CASIA-LVision联合实验室;快手AI实验室论文:https://arxiv.org/abs/2005.09973代码:github.com/Anymake/DRN_CVPR2020研究内容:通过基因表达编程在有限的GPU资源下高效搜索神经架构,实现了CIFAR-10上的最低2.82%错误率。
参与单位:巴西巴拉那联邦大学论文:https://arxiv.org/abs/2005.07669代码:github.com/jeohalves/nasgep研究内容:在网络延迟限制下,找到最优网络宽度,同时提升模型精度。实验结果表明该方法在ImageNet分类任务中性能优于现有高效网络。
参与单位:Amazon Go;鲁汶大学论文:https://arxiv.org/abs/2005.10481代码:github.com/bermanmaxim/AOWS研究内容:提出了一种基于关系驱动的半监督学习模型,改进了医学图像分类性能,打败了大多数SOTA方法。
参与单位:港中大;中科院;斯坦福论文:https://arxiv.org/abs/2005.07377代码:github.com/liuquande/SRC-MT研究内容:提出了一种上下文残差聚合方法,用于超高分辨率图像修复,在GTX 1080 Ti GPU上实现了实时性能。
参与单位:加拿大华为技术有限公司论文:https://arxiv.org/abs/2005.09704代码:github.com/Atlas200dk/sample-imageinpainting-HiFill研究内容:提出了一种Bi-modal Transformer,结合视觉和音频信息,实现了密集视频字幕生成。实验结果在AVA-ActiveSpeaker数据集上取得了87.1% mAP的改进。
参与单位:坦佩雷大学论文:https://arxiv.org/abs/2005.08271代码:github.com/v-iashin/bmt研究内容:提出了一种单级语义分割方法,通过弱监督和自监督训练方案,在单阶段中从图像级标注训练语义蒙版。实验结果与复杂算法相比表现出色。
参与单位:达姆施塔特工业大学论文:https://arxiv.org/abs/2005.08104代码:github.com/visinf/1-stage-wseg研究内容:结合目标检测的实例感知信息,实现了高质量的图像着色,实验结果达到了最先进的性能。
参与单位:清华大学(新竹);弗吉尼亚理工学院暨州立大学论文:https://arxiv.org/abs/2005.10825代码:github.com/ericsujw/InstColorization如需更多信息,请关注各项目的GitHub仓库或官方网站。
如需加入细分方向的交流,请访问我的社交媒体账号或投稿邮箱。转载地址:http://ojysz.baihongyu.com/