视频中稳定的跨场景前景分割

时间:2022-03-20 11:15:14
作者:魏宗琪,梁 栋
关键字:前景分割,双重模态,注意力,跨场景,自适应
DOI:10.3969/j.issn.1673-629X.2022.12.006
查看次数:313

如需要完整文档点击下方 "点击下载文档" 按钮

通过训练单个模型进行跨场景前景分割是一项具有挑战性的任务,特别是对于大规模视频监控,因为现有的模型通常严重依赖特定场景的信息。 光流是描述前景目标的运动信息,但现有的光流机制方法只能表示瞬时特征,对开放的环境变化不具有鲁棒性。 为了通过细粒度的运动特征表示并适应场景实现前景分割,一种间隔光流的新模块被设计出来,并使用注意力模块将运动特征融合到模型中。 基于这种互补机制,可以构建实现运动和外观特征交互的跨模态动态特征滤波器。 与现有方法相比,提出的模块倾向于在前景和背景区域的运动模式之间学习更多的语义信息,从而获得更好的跨场景适应性和鲁棒性。 此外,由于数据集偏差问题,在跨场景前景分割任务中小目标的分割结果不佳,因此进一步设计了一个类内尺度的焦点损失函数来平衡前景目标的大小多样性。 提出的模块可以即插即用到任意视频监控识别框架中,提高了跨场景前景分割结果的质量。

如需要完整文档点击下方 "点击下载文档" 按钮

视频中稳定的跨场景前景分割
《视频中稳定的跨场景前景分割》
完整文档 下载到本地,方便收藏和查阅
文件号:060220
视频中稳定的跨场景前景分割
点击下载文档
视频中稳定的跨场景前景分割

点击下载 文件号:060220(点击复制) 公众号(点击复制)

x