全网唯一标准王
(19)国家知识产权局 (12)发明 专利 (10)授权公告 号 (45)授权公告日 (21)申请 号 202211108768.1 (22)申请日 2022.09.13 (65)同一申请的已公布的文献号 申请公布号 CN 115188081 A (43)申请公布日 2022.10.14 (73)专利权人 北京航空航天大 学 地址 100190 北京市海淀区学院路37号 (72)发明人 李波 高渝路 刘偲 汤宗衡  (74)专利代理 机构 北京慕达星云知识产权代理 事务所 (特殊普通合伙) 11465 专利代理师 符继超 (51)Int.Cl. G06V 40/20(2022.01) G06N 3/04(2006.01) G06V 10/25(2022.01)G06V 10/62(2022.01) G06V 10/82(2022.01) G06V 20/52(2022.01) G06V 40/10(2022.01) (56)对比文件 CN 111460926 A,2020.07.28 JP 2007134913 A,20 07.05.31 CN 110688987 A,2020.01.14 CN 111060924 A,2020.04.24 CN 114140822 A,2022.03.04 CN 111639570 A,2020.09.08 CN 113554682 A,2021.10.26 惠冠程等.基于视频行人重识别和时空特 征 融合的跟踪算法. 《激光与光电子学进 展》 .2022, 第59卷(第12期),全 文. 审查员 叶晗 (54)发明名称 一种面向复杂场景的检测跟踪一体化方法 (57)摘要 本发明公开了一种面向复杂场景的检测跟 踪一体化方法, 首先构建检测跟踪深度模型, 包 括检测模块和身份特征提取模块, 其次使用不同 场景的数据进行训练, 得到模型后, 对输入图片 进行目标检测并提取对应的目标身份特征; 然 后, 利用背景建模算法提取图像运动信息; 接着, 设计检测跟踪后处理算法, 融合图像运动信息, 得到目标跟踪结果; 最后, 基于目标跟踪轨迹预 测对下一帧的检测结果进行修正。 本发明所提出 的面向复杂场景的检测跟踪一体化方法解决了 监控场景下行人目标动态变化造成的检测跟踪 困难的问题, 有效提高了行 人检测跟踪精度。 权利要求书1页 说明书5页 附图1页 CN 115188081 B 2022.12.02 CN 115188081 B 1.一种面向复杂场景的检测跟踪一体化方法, 其特 征在于, 具体步骤如下: 步骤1: 选取行人多目标检测跟踪数据集和通用检测模型, 增加身份特征提取模块, 构 建检测跟踪模型并进 行训练; 采用训练后的检测跟踪模型对行人多目标检测跟踪 数据集中 的所有图片, 提取 行人检测结果和对应的行 人身份特 征; 步骤2: 利用背景建模算法提取 所有图片中图像的运动信息; 步骤3: 利用步骤2中提取到的运动信 息, 对检测结果进行修正; 设计检测跟踪后处理算 法, 利用修 正后的行 人检测结果和步骤1中得到的对应的行 人身份特 征得到跟踪轨 迹结果; 步骤4: 构建行人检测跟踪算法: 利用步骤3得到的跟踪轨迹结果对下一帧的检测结果 进行修正, 改进目标检测结果, 后续将继续用于目标跟踪; 步骤5: 根据所述步骤4的行人检测跟踪算法, 对需要检测的视频流中行人进行在线检 测跟踪; 所述步骤1, 包括如下步骤: 步骤11: 选取行人多目标检测跟踪数据集, 选用主流单阶段检测模型; 步骤12: 根据所述步骤11中的检测模型, 增加身份特征提取模块, 采用分类损失对身份 特征模型进行监 督, 构建检测跟踪模型并进行训练; 步骤13: 根据所述步骤12训练的检测跟踪模型, 对所述行人多目标跟踪数据集中的所 有图像同时进 行检测框预测和身份特征预测; 获得的所述行人多目标跟踪图像中的行人检 测结果和对应的行人身份特征; 选取行人检测结果中心 点附近的行人身份特征作为对应的 行人身份特 征; 得到行 人目标框和对应行 人身份特 征; 所述步骤2, 包括如下步骤: 步骤21: 对选取的输入图像, 进行缩放, 降低图像分辨 率; 步骤22: 根据步骤21中缩放的图像, 利用GMM高斯混合模型, 初始化参数, 构建起模型, 区分出前景和背景区域, 从而判断运动目标; 步骤23: 根据步骤22中检测出来运动目标的位置 映射到原始图像中, 获得运动目标在 原始图像中的区域; 所述步骤3, 包括如下步骤: 步骤31: 从所述步骤2中获得运动区域, 利用运动区域对步骤1获得的行人多目标跟踪 图像中的行 人检测结果进行筛 选; 步骤32: 选择基于deepsort的多 目标跟踪后处理算法, 从所述步骤31获得的行人多 目 标跟踪图像中的行人检测结果, 结合所述步骤1中对应的行人身份特征, 构建多级后处理流 程, 进行检测跟踪后处 理, 得到跟踪轨 迹结果; 所述步骤4, 包括如下步骤: 步骤41: 从所述步骤32获得跟踪历史轨迹, 基于历史轨迹预测目标序列在当前帧出现 的位置, 利用该位置修 正范围内目标检测结果, 提升范围内检测结果置信度; 步骤42: 根据步骤41修改后的置信度, 重新确定当前帧检测结果, 改进行人目标检测结 果, 后续结果将用于目标跟踪。权 利 要 求 书 1/1 页 2 CN 115188081 B 2一种面向复杂场景的检测跟踪一体 化方法 技术领域 [0001]本发明涉及计算机视觉中的行人检测和行人跟踪技术领域, 特别是针对目标动态 变化等复杂场景下的行人检测和跟踪 领域, 特别涉及一种面向复杂场景的检测跟踪一体化 方法。 背景技术 [0002]随着深度学习技术的不断突破, 各项人工智能技术最终落地并改善人们的生活。 视频监控中行人检测与跟踪一直是公共安全领域的核心问题之一, 其在案件侦破、 治安态 势预警、 大规模群体事件感知和预防等方面发挥着不可替代的作用。 然而由于视频监控数 据量巨大、 真实场景复杂, 行人动态变化等, 单纯依靠人力识别跟踪跨镜头下的行人效率低 下, 且会消耗大量的人力财力, 而现有的深度学习算法鉴于以上不利因素, 检测跟踪效果不 理想, 也不能较好 地满足行 人检测跟踪任务的需要。 [0003]行人检测就是检测出一个视频某一帧中目标人物的位置。 行人跟踪是给定视频中 第一帧目标人物以及它的位置, 然后利用目标的特征信息跟踪这个目标, 并预测他的轨迹, 如果出现一些遮挡, 也可以根据轨迹来跟踪这个目标。 当前深度学习技术主要基于单阶段、 两阶段的检测器提取目标 的特征信息, 通过相似度计算, 对目标帧内的检测对 象进行排序 和匹配, 从而得到行人在帧之间的连续变化。 但当目标动态变化时, 比如遮挡、 光线变化、 姿 态变化、 相似目标干扰等会导致跟踪轨迹预测 不准和检测器精度不高, 从而出现检测跟踪 错误的情况。 [0004]行人检测跟踪最近几年虽然取得较大进步, 但精度仍然无法达到令人满意程度, 主要存在跟踪过程目标错误, 行人动态变化导致外观特征差异, 检测器精度弱, 效果不理想 等问题, 严重阻碍 了行人检测和行人跟踪再识别算法性能的提升 。 [0005]因此, 如何针对动态变化的行人目标提高检测精度和跟踪准度, 是本领域技术人 员亟需解决的问题。 发明内容 [0006]有鉴于此, 本发明公开了一种面向复杂场景的检测跟踪一体化方法, 解决了监控 场景下行人目标动态变化造成的检测跟踪困难的问题, 通过检测和跟踪相 辅相成, 来提高 行人检测跟踪的精度, 精准识别和描绘行 人运动轨 迹。 [0007]为了实现上述目的, 本发明采用如下技 术方案: [0008]一种面向复杂场景的检测跟踪一体化方法, 包括如下步骤: [0009]步骤1: 选取行人多目标检测跟踪数据集和通用检测模型, 增加身份特征提取模 块, 构建检测跟踪模型并进行训练; 采用训练后的检测跟踪模型对行人多目标检测跟踪数 据集中的所有图片, 提取 行人检测结果和对应的行 人身份特 征; [0010]步骤2: 利用背景建模算法提取 所有图片中图像的运动信息; [0011]步骤3: 利用步骤2中提取到的运动信息, 对检测结果进行修正; 设计检测跟踪后处说 明 书 1/5 页 3 CN 115188081 B 3

PDF文档 专利 一种面向复杂场景的检测跟踪一体化方法

文档预览
中文文档 8 页 50 下载 1000 浏览 0 评论 0 收藏 3.0分
温馨提示:本文档共8页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种面向复杂场景的检测跟踪一体化方法 第 1 页 专利 一种面向复杂场景的检测跟踪一体化方法 第 2 页 专利 一种面向复杂场景的检测跟踪一体化方法 第 3 页
下载文档到电脑,方便使用
本文档由 SC 于 2024-03-03 12:16:55上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。