【伯克利博士论文】学习在动态环境中泛化,103页pdf

本站小编 免费考研网/2022-11-05

 

 

模型必须能够自我调整,以适应新环境。深度网络在过去十年取得了巨大成功,特别是当训练和测试数据来自相同的分布时。不幸的是,当训练(源)与测试(目标)数据不同时,性能会受到影响,这种情况称为域移位。模型需要自我更新以应对这些意外的自然干扰和对抗性扰动,如天气变化、传感器退化、对抗性攻击等。如果我们有一些标记的目标数据,可以使用一些迁移学习方法,如微调和少样本学习,以有监督的方式优化模型。然而,对目标标签的要求对于大多数现实场景是不实际的。本文专注于无监督学习方法,以将模型泛化到目标域。本文研究了完全测试时自适应的设置,在不获取目标标签和源数据的情况下,将模型更新到不可控的目标数据分布。换句话说,模型在这个设置中只有它的参数和未标记的目标数据。其核心思想是利用测试时间优化目标,熵最小化,作为可学习模型的反馈机制,在测试时间内关闭循环。我们通过在线或离线的方式优化模型,以测量输出熵的置信度。这种简单有效的方法可以降低自然破坏和对抗性扰动图像分类的泛化误差。此外,语义分割模型的自适应特性可用于处理场景理解的动态尺度推理。通过对比学习和扩散模型,我们可以学习目标域特征并生成源风格的图像,进一步提高动态环境下的识别性能。