tilldream 发表于 2019-1-13 19:42:37

【资源】132页伯克利博士论文,回顾无监督视觉应用最新发展

<p style="margin-bottom: 10px; max-width: 100%; min-height: 1em; letter-spacing: 0.544px; text-align: center; box-sizing: border-box !important; overflow-wrap: break-word !important;"></p><p style="margin-right: 8px; margin-left: 8px; max-width: 100%; min-height: 1em; letter-spacing: 0.544px; line-height: 1.75em; box-sizing: border-box !important; overflow-wrap: break-word !important;"><br style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">作者Tinghui Zhou,加州大学伯克利分校的博士生,拥有强大的学术背景,是CVPR2017年Image-to-Image Translation with Conditional Adversarial Networks(使用条件Gan经行图像的转换)的作者之一,现在Google学术引用已经1600多了。</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><br></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">他的博士论文——元监督视觉学习(Visual Learning Beyond Direct Supervision),主要是针对当前深度学习在解决许多计算机视觉任务方面取得了很大进展,但对于难以或不可能获得标签的任务,进展却有限,这一问题展开,研究如何在不需要任何直接标签的情况下,仍然利用深度学习的计算能力,使用可选的监督信息来学习视觉任务。</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><br></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">作者在文中阐述直观上,虽然不知道ground-truth是什么,但我们可能知道它应该满足的各种属性,关键思想是将这些属性形式为学习目标任务的目标函数。并且也表明这类“元监督”,在学习各种视觉任务时竟然是非常有效的。感兴趣的同学可以仔细品味这一系统性的博士论文和其代表性工作。</span><br></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><br></p><section class="" style="max-width: 100%; box-sizing: border-box; letter-spacing: 0.544px; border-width: 0px; border-style: initial; border-color: initial; clear: both; overflow-wrap: break-word !important;"><section class="" style="padding: 8px;max-width: 100%;box-sizing: border-box;border-left: 6px solid rgb(255, 202, 0);font-size: 18px;line-height: 1.4;font-family: inherit;font-weight: bold;text-decoration: inherit;border-top-color: rgb(255, 202, 0);border-right-color: rgb(255, 202, 0);border-bottom-color: rgb(255, 202, 0);overflow-wrap: break-word !important;"><section class="" style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;">作者简介</section></section></section><p style="margin-right: 8px; margin-left: 8px; max-width: 100%; min-height: 1em; letter-spacing: 0.544px; line-height: 1.75em; box-sizing: border-box !important; overflow-wrap: break-word !important;"><br></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em; text-align: center;"></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em; text-align: center;"><span style="color: rgb(136, 136, 136);">Tinghui Zhou</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">个人主页:</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">https://people.eecs.berkeley.edu/~tinghuiz/</span></p><p><br style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">Tinghui Zhou是加州大学伯克利分校EECS系五年级的博士生,师从Alexei&nbsp;(Alyosha)&nbsp;Efros教授。在此之前他在卡内基梅隆大学获得了机器人学硕士学位,在明尼苏达大学获得了计算机科学学士学位。</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><br></p><section class="" style="max-width: 100%; box-sizing: border-box; letter-spacing: 0.544px; border-width: 0px; border-style: initial; border-color: initial; clear: both; overflow-wrap: break-word !important;"><section class="" style="padding: 8px;max-width: 100%;box-sizing: border-box;border-left: 6px solid rgb(255, 202, 0);font-size: 18px;line-height: 1.4;font-family: inherit;font-weight: bold;text-decoration: inherit;border-top-color: rgb(255, 202, 0);border-right-color: rgb(255, 202, 0);border-bottom-color: rgb(255, 202, 0);overflow-wrap: break-word !important;"><section class="" style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;">博士论文摘要</section></section></section><p style="margin-right: 8px; margin-left: 8px; max-width: 100%; min-height: 1em; letter-spacing: 0.544px; line-height: 1.75em; box-sizing: border-box !important; overflow-wrap: break-word !important;"><br></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">深度学习在解决许多计算机视觉任务方面取得了很大进展,这些任务的标记数据非常丰富。但是,对于难以或不可能获得标签的任务,进展却是有限的。在本文中,我们提出了不需要直接标注的监督学习的替代方法。直观上,虽然我们不知道标签是什么,但我们可能知道它们应该满足的各种属性。关键思想是将这些属性形式化为监督目标任务的目标函数。我们表明,这种“元监督(meta-supervision)”思想在学习各种视觉任务方面证明是非常有效的。</span></p><p><br style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">论文组织如下:</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><br></p><ul class=" list-paddingleft-2"><li><p style="margin-right: 8px;margin-left: 8px;line-height: 1.75em;"><span style="font-size: 15px;">第一部分提出使用循环一致性的概念作为监督信息来学习dense语义对应性;</span></p></li><li><p style="margin-right: 8px;margin-left: 8px;line-height: 1.75em;"><span style="font-size: 15px;">第二部分提出用视图合成任务作为监督信息来学习场景几何的不同表示;</span></p></li><li><p style="margin-right: 8px;margin-left: 8px;line-height: 1.75em;"><span style="font-size: 15px;">第三部分提出使用对抗监督来学习渐进式图像转换的方法;</span></p></li><li><p style="margin-right: 8px;margin-left: 8px;line-height: 1.75em;"><span style="font-size: 15px;">最后,我们讨论了元监督的一般概念,以及如何将其应用于本文之外的任务。</span></p></li></ul><p><br style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"></p><section class="" style="max-width: 100%; box-sizing: border-box; letter-spacing: 0.544px; border-width: 0px; border-style: initial; border-color: initial; clear: both; overflow-wrap: break-word !important;"><section class="" style="padding: 8px;max-width: 100%;box-sizing: border-box;border-left: 6px solid rgb(255, 202, 0);font-size: 18px;line-height: 1.4;font-family: inherit;font-weight: bold;text-decoration: inherit;border-top-color: rgb(255, 202, 0);border-right-color: rgb(255, 202, 0);border-bottom-color: rgb(255, 202, 0);overflow-wrap: break-word !important;"><section class="" style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;">博士论文简介</section></section></section><p style="margin-right: 8px; margin-left: 8px; max-width: 100%; min-height: 1em; letter-spacing: 0.544px; line-height: 1.75em; box-sizing: border-box !important; overflow-wrap: break-word !important;"><br></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">计算机视觉在图像分类,目标检测,语义分割,人体姿态估计等多个领域都取得了很大的进展。&nbsp;这种进步很大程度上是由使用深度神经网络的监督学习的快速发展所推动的。这些网络中可训练参数的数量可能在数百万到数十亿之间,这需要大量标记的示例来进行训练。像 ImageNet 和 COCO 这样的数据集是目前许多识别任务的极好的数据集。</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><br></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">然而,我们还应该注意到存在一系列的视觉任务,对于这些任务而言,大规模获取标记数据是非常困难的,甚至根本不可行——例如,amodal场景补全、场景流估计(scene flow estimation)、密集对应(dense correspondence)、本征图像分解(intrinsic image decomposition)等等。因此,一个很自然的问题出现了:是否有可能在克服标签稀缺的同时仍然利用深度学习的计算能力?</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">&nbsp;</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="color: rgb(255, 76, 0);"><strong><span style="font-size: 15px;">一种可行的解决方案是计算机模拟</span></strong></span><span style="font-size: 15px;">,我们使用计算机图形渲染合成环境,以完全控制数据生成过程。虽然这些环境的质量和可用性多年来一直在提高,但是基于这些数据的模型仍然不能直接应用于真实世界,因为呈现的可视化数据与真实世界的可视化数据之间存在着显著的领域差异。</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><br></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><strong><span style="font-size: 15px;color: rgb(255, 76, 0);">另一种可能的解决方案是迁移学习</span></strong><span style="font-size: 15px;">,其中网络权重通过训练某些预训练任务(如ImageNet分类)进行初始化,然后在目标任务上进行微调。该策略在减少目标任务的训练标签数量方面是有效的,但目前仍需要大量标记数据。</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">&nbsp;</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">在本文中,我们研究如何在不需要任何直接标签的情况下,使用可选的监督信息来学习视觉任务。直观上,虽然我们不知道ground-truth是什么,但我们可能知道它应该满足的各种属性。关键思想是将这些属性形式为学习目标任务的目标函数。正如本文所论证的那样,这类“元监督”,在学习各种视觉任务时竟然是非常有效的。</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">&nbsp;</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">第一部分:学习密集的语义对应(Learning dense semantic correspondence)。我们首先研究了循环一致性的概念,以及如何利用它在图像集合中获得全局一致的语义对应。然后,我们展示了如何使用循环一致性作为监督信号学习成对密集对应。对于这项任务,虽然在真实图像领域收集大规模的ground-truth是不可行的,但我们知道ground-truth应该在同一类别的实例之间保持一致,即使对于合成的实例也是如此。我们使用一致性作为监督来训练深层网络,而无需获得真实领域中的ground-truth对应。</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">&nbsp;</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">第二部分:学习场景几何(Learning scene geometry)。在此基础上,提出了一种基于视图合成的场景几何学习框架,没有ground-truth几何标签。我们围绕观察来制定学习目标函数,即如果从输入图像中正确预测场景几何,则通过新的视图合成任务来一致解释附近的帧。特别地,我们展示了可以从非结构化视频序列学习单眼深度和相机运动估计,以及从构成图像中学习分层场景表示。</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">&nbsp;</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">第三部分:学习渐进式图像转换(Learning gradual image transformation)。最后,我们提出利用对抗性网络提供监督信号,以学习渐进式图像转换。通过使用对抗性训练,加上差异损失(提供转换方向)和内容损失(保留所需的输入语义),我们能够训练网络在不直接标记数据的情况下预测渐进式转换。</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">&nbsp;</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">文章的最后,我们讨论了“元监督(meta-supervision)”的一般概念:监督的不是数据是什么,而是数据应该如何表现,以及如何将其应用于本文之外的各种领域。</span></p><p><br style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="font-size: 15px;">本文大纲<br style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"></span></p><p><br style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"></p><p><br></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"></p><p><br></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="color: rgb(136, 136, 136);">参考链接:<br style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"></span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="color: rgb(136, 136, 136);">https://people.eecs.berkeley.edu/~tinghuiz/</span></p><p style="margin-right: 8px; margin-left: 8px; line-height: 1.75em;"><span style="color: rgb(136, 136, 136);">https://www2.eecs.berkeley.edu/Pubs/TechRpts/2018/EECS-2018-128.pdf</span></p><p style="margin-right: 8px; margin-left: 8px; max-width: 100%; min-height: 1em; letter-spacing: 0.544px; line-height: 1.75em; box-sizing: border-box !important; overflow-wrap: break-word !important;"><br></p><p></p>
页: [1]
查看完整版本: 【资源】132页伯克利博士论文,回顾无监督视觉应用最新发展