注册 登录 进入教材巡展
#
  • #

出版时间:2025-04-14

出版社:机械工业出版社

以下为《机器人环境感知》的配套数字资源,这些资源在您购买图书后将免费附送给您:
  • 机械工业出版社
  • 9787111776468
  • 1-1
  • 547241
  • 平装
  • 2025-04-14
  • 345
内容简介
本书旨在深入介绍机器人环境感知技术,为广大工程技术人员学习机器人感知方面的应用和最新理论方法奠定基础,同时也可作为高年级本科生、硕士研究生或博士研究生的学习参考书。本书主要内容包括机器人环境感知绪论、基于视觉的机器人环境感知技术、基于激光雷达的机器人环境感知技术、机器人力触觉环境感知技术、主动视觉感知与点云配准、基于多传感器融合的机器人环境感知技术、基于视觉的机器人三维场景重建技术等。全书从方法到实际应用、从算法分析到模型搭建、从理论模型到编程实现等多角度介绍机器人环境感知方面的研究,并深度结合当前国内外最新研究热点,为业内人士从事相关研究与应用工作提供重要参考。
  本书适合机器人感知技术的初学者、爱好者以及普通高校自动化、机器人、人工智能等相关专业的学生作为工具书、教材或参考书,也可以作为机器人感知、人形机器人、具身智能等从业者的参考书。希望读者在阅读完本书后能根据实际的应用场景需求搭建对应的智能机器人环境感知系统,为提升我国机器人核心感知技术创新水平贡献自己的力量。
  本书配有以下教学资源:PPT课件、教学大纲、习题答案、实验项目和源代码等,欢迎选用本书作教材的教师登录www.cmpedu.com注册后下载,或发邮件至jinacmp@163.com索取。
目录
目录
前言
第1章机器人环境感知绪论1
1.1智能机器人概述 1
1.2机器人环境感知定义和研究现状4
1.2.1机器人环境感知定义5
1.2.2机器人环境感知研究现状7
1.3机器人环境感知传感器12
1.3.1视觉传感器12
1.3.2激光雷达传感器14
1.3.3力触觉传感器15
1.3.4运动传感器15
1.3.5其他类型传感器16
本章小结16
习题16
参考文献16
第2章基于视觉的机器人环境感知技术18
2.1视觉传感器概述及工作原理18
2.1.1摄像机成像模型18
2.1.2摄像机坐标系之间的空间位置转换关系19
2.1.3摄像机参数标定21
2.2基于视觉的机器人障碍物三维识别方法24
2.2.1基于可微置信度传播的障碍物三维重建26
2.2.2基于置信度特征融合的目标检测32
2.2.3实验结果与分析33
2.3基于视觉的机器人抓取工件三维识别方法38
2.3.1基于动态尺度特征卷积的编码特征提取38
2.3.2基于可微归一化匹配代价与联合引导代价聚合的深度估计41
2.3.3基于多尺度特征映射融合的工件三维识别46
2.3.4实验结果与分析46
本章小结50
习题50
参考文献50
第3章基于激光雷达的机器人环境感知技术53
3.1激光雷达传感器原理与预处理53
3.1.1机械式激光雷达54
3.1.2半固态激光雷达54
3.1.3全固态激光雷达56
3.2激光点云配准57
3.2.1最近点迭代算法57
3.2.2正态分布变换算法59
3.3基于激光雷达的环境建图算法61
3.3.1二维栅格地图构建61
3.3.2三维点云地图构建64
3.4基于激光雷达的环境语义分析66
3.4.1基于激光雷达的物体检测67
3.4.2基于激光雷达的语义分割71
本章小结74
习题74
参考文献74
第4章机器人力触觉环境感知技术77
4.1机器人力触觉传感器分类及原理78
4.1.1力触觉传感器分类78
4.1.2力/力矩传感器原理80
4.1.3触觉传感器原理86
4.1.4力传感器性能指标87
4.2机器人力/力矩感知方法90
4.2.1机器人-环境交互力建模92
4.2.2机器人-环境交互力测量94
4.2.3多维力/力矩传感器解耦98
4.3机器人触觉感知方法104
4.3.1基于触觉的目标感知105
4.3.2基于触觉的目标识别107
本章小结117
习题117
参考文献117
第5章主动视觉感知与点云配准118
5.1机器人主动视觉感知系统中的基本概念119
5.1.1机器人主动视觉感知系统概述119
5.1.2主动视觉感知基本工作流程120
5.1.3视觉规划数据表示120
5.2视角规划的基本方法122
5.2.1视角规划的基本方法原理122
5.2.2视角规划基本方法的仿真测试124
5.2.3视角规划基本方法在实际机器人系统上的测试124
5.3基于强化学习的视角规划方法128
5.3.1强化学习的基本原理128
5.3.2视角规划强化学习的建模130
5.4点云及其配准131
5.4.1点云数据131
5.4.2点云配准的概念132
5.5成对点云配准 132
5.5.1问题定义133
5.5.2全局(粗)配准算法133
5.5.3精确配准算法134
5.5.4基于深度神经网络的点云配准135
5.5.5深度点云配准神经网络性能测试141
5.6多视角点云配准 141
5.6.1基于图优化多视角点云配准142
5.6.2基于多视角点云联合距离最小化的配准144
5.6.3直接SE(3)约束多姿态优化146
5.6.4李代数多姿态优化147
本章小结149
习题149
参考文献149
第6章基于多传感器融合的机器人环境感知技术151
6.1多传感器融合概述及工作原理151
6.1.1激光雷达与摄像机联合标定方法152
6.1.2激光雷达与惯性测量单元联合标定153
6.1.3摄像机与惯性测量单元联合标定154
6.1.4激光雷达、摄像机和惯性测量单元联合标定154
6.2 基于视觉与力触觉融合的机器人目标抓取155
6.2.1基于视觉模态特征的目标抓取155
6.2.2基于触觉模态特征的目标抓取159
6.2.3基于视觉与触觉特征融合的目标抓取162
6.3基于多传感器融合的机器人自主定位与导航164
6.3.1基于多传感器融合的机器人语义地图构建164
6.3.2基于多传感器融合的机器人定位导航170
本章小结177
习题177
参考文献178
第7章基于视觉的机器人三维场景重建技术186
7.1三维场景重建视觉传感器概述及工作原理186
7.1.1双目摄像机186
7.1.2多目摄像机188
7.2基于双目视觉的机器人三维语义地图构建方法189
7.2.1多尺度多阶段编码特征提取189
7.2.2多尺度渐进式匹配代价特征融合与深度估计193
7.2.3多尺度特征融合机器人三维语义地图构建197
7.2.4实验结果与分析197
7.3基于双目视觉的机器人导航场景深度估计方法203
7.3.1基于迟滞注意力的编码特征提取205
7.3.2基于三维分组卷积的监督匹配代价构建209
7.3.3实验结果与分析212
本章小结214
习题215
参考文献215