全网唯一标准王
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 20221020198 8.2 (22)申请日 2022.03.03 (71)申请人 华中科技大 学 地址 430074 湖北省武汉市洪山区珞喻路 1037号 (72)发明人 王晓宇 王成雄 王昕阳 彭廉清  何思义  (74)专利代理 机构 华中科技大 学专利中心 42201 专利代理师 汪洁丽 (51)Int.Cl. G06V 20/56(2022.01) G06V 10/44(2022.01) B60W 30/02(2012.01) (54)发明名称 基于路肩特征的无人车视觉处理方法、 系统 及无人车设备 (57)摘要 本发明公开了一种基于路肩特征的无人车 视觉处理方法及其系统以及无人车设备, 其方法 包括: 步骤S1: 在无人车行驶期间采集路肩的深 度图像; 步骤S2: 分析深度图像得到视觉识别数 据, 视觉识别数据包括无人车的偏角以及与路肩 的间距; 步骤S3: 判断获取当前视觉识别数据是 否存在错误, 若无错误, 则作为当前处理数据进 行存储, 若 错误, 则舍弃当前视觉识别数据, 调取 前一次所存储的视觉识别数据作为当前处理数 据; 步骤S4: 根据当前处理数据计算调节无人车 偏角的调节指令以使无人车与路肩的间距趋近 目标间距。 通过引入错误判别机制, 可 以避免因 为某一帧或某几帧数据出错而导致整个控制过 程失稳的情况, 从而提高控制的可靠性和稳定 性。 权利要求书3页 说明书10页 附图5页 CN 114724102 A 2022.07.08 CN 114724102 A 1.一种基于路肩特 征的无人车视觉处理方法, 其特 征在于, 包括: 步骤S1: 在无 人车行驶期间采集路肩的深度图像; 步骤S2: 分析所述深度图像得到视觉识别数据, 所述视觉识别数据包括无人车的偏角 以及与路肩的间距; 步骤S3: 判断获取当前视觉识别数据是否存在错误, 若无错误, 则作为当前处理数据进 行存储, 若错误, 则舍弃当前视觉识别数据, 调取前一次所存储的视觉识别数据作为当前 处 理数据; 步骤S4: 根据当前处理数据计算调节无人车偏角的调节指令以使无人车与路肩的间距 趋近目标间距。 2.如权利要求1所述的无人车视觉处理方法, 其特征在于, 步骤S3中, 视觉识别数据错 误包括粗大错误和失效错 误两类; 当当前视觉识别数据与所存储的前一帧视觉识别数据之间的差距超过可容忍范围时, 判定为粗大错误; 当获取视 觉识别数据的视 觉识别算法识别失败时, 判定为失效错 误。 3.如权利要求2所述的无人车视觉处理方法, 其特征在于, 当当前视觉识别数据与 前一 次所存储的视觉识别数据之间的差距超过 可容忍范围时, 判定为 粗大错误, 包括: 当当前视觉识别数据中的偏角与前一次所存储的视觉识别数据中的偏角之间的差值 超过容忍值时, 判定为 粗大错误。 4.如权利要求1所述的无 人车视觉处理方法, 其特 征在于, 步骤S4包括: 根据当前处理数据判断无人车是否处于特殊情况, 当无人车处于特殊情况, 则根据当 前无人车与路肩之间的间距计算调节无人车偏角的矫正指令并在矫正指令上叠加补偿值 后得到角度调节指令, 当无人机未处于特殊情况, 则直接根据当前无人车与路肩之间的间 距计算调节无 人车偏角的矫 正指令并直接作为角度调节指令 输出; 所述补偿值的计算公式为: 式中, dy为补偿值, x为当前偏角, ymax为角度控制量最大值, θmax为无人车车轮转角最大 值; 其中, 当无 人处于特殊情况的情形包括: 情形一: 车身左偏、 且与路肩间距小于目标距离; 或 情形二: 车身右偏、 且与路肩间距大于目标距离 。 5.如权利要求1所述的无人车视觉处理方法, 其特征在于, 步骤S2包括: 依次利用第一 至第三重视觉识别算法识别路肩与路面的分 界线, 基于所述分 界线计算无人车的偏角以及 与路肩的间距, 当利用前一视觉识别算法未获取下视觉识别数据时, 跳转至后一视觉识别 算法进行识别, 直至获取到视觉识别数据或全部重视觉识别算法均无法成功识别后结束识 别; 其中, 第一重视觉识别算法用于一般情况下路肩的识别, 第二重视觉识别算法用于针 对接近视域边界、 路肩过矮或 图像质量较差的异常情况下路肩的识别, 第三重视觉识别算 法用于针对 存在异物的异常情况 下路肩的识别。权 利 要 求 书 1/3 页 2 CN 114724102 A 26.如权利要求5所述的无 人车视觉处理方法, 其特 征在于, 第一重视觉识别算法使用Fi nd Straight Edge函数, 参数配置包括: 分界线搜索方向: 从左至右; 边缘极性: 灰度的变化仅从白到黑; 搜索策略: 最佳边 缘; 最小边缘强度: (8.5~ 9.5)×103; 第二重视觉识别算法与第一重 视觉识别算法的区别包括: 分界线搜索方向: 从右至左; 边缘极性: 灰度的变化仅从黑到白; 搜索策略: 最佳边 缘耙; 最小边缘强度: 9 ~11; 第三重视觉识别算法与第二重 视觉识别算法的区别包括: 最小边缘强度: 25~3 5; 搜索策略: 最佳边 缘投影。 7.如权利要求1所述的无人车视觉处理方法, 其特征在于, 步骤S1中, 通过激光雷达采 集路肩的深度图像, 所述激光雷达固定 于无人机的右侧以垂直扫描右侧路肩图像。 8.一种基于路肩特 征的无人车视觉处理系统, 其特 征在于, 包括: 数据提取模块, 用于获取并分析路肩的深度图像, 得到视觉识别数据, 所述视觉识别数 据包括无 人车的偏角以及与路肩的间距; 错误判别模块, 用于判断获取当前视觉识别数据 是否存在错误, 若无错误, 则作为当前 处理数据进 行存储, 若错误, 则舍弃当前视觉识别数据, 调取前一次所存储的视觉识别数据 作为当前处 理数据; 调控模块, 用于根据当前处理数据计算调节无人车偏角的调节指令以使无人车与路肩 的间距趋 近目标间距。 9.如权利要求8所述的无人车视觉处理系统, 其特征在于, 调控模块包括PID控制器、 特 殊情况判定模块和补偿模块, 其中, PID控制器用于根据当前无人车与路肩之间的间距计算 调节无人车偏角的矫 正指令; 所述特殊情况判定模块用于根据当前处理数据判断无人车是否处于特殊情况, 当无人 车处于特殊情况时, 触发补偿模块工作以计算补偿值并将补偿值叠加至PID控制器输出 的 矫正指令上得到角度调节指令, 当无人车未处于特殊情况时, 补偿模块不工作, 以PID控制 器输出的矫 正指令直接作为角度调节指令; 所述补偿值的计算公式为: 式中, dy为补偿值, x为当前偏角, ymax为角度控制量最大值, θmax为无人车车轮转角最大 值; 其中, 当无 人处于特殊情况的情形包括: 情形一: 车身左偏、 且与路肩间距小于目标距离; 或 情形二: 车身右偏、 且与路肩间距大于目标距离 。权 利 要 求 书 2/3 页 3 CN 114724102 A 3

PDF文档 专利 基于路肩特征的无人车视觉处理方法、系统及无人车设备

文档预览
中文文档 19 页 50 下载 1000 浏览 0 评论 0 收藏 3.0分
温馨提示:本文档共19页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 基于路肩特征的无人车视觉处理方法、系统及无人车设备 第 1 页 专利 基于路肩特征的无人车视觉处理方法、系统及无人车设备 第 2 页 专利 基于路肩特征的无人车视觉处理方法、系统及无人车设备 第 3 页
下载文档到电脑,方便使用
本文档由 SC 于 2024-03-03 12:11:54上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。