班级规模及环境--热线:4008699035 手机:15921673576( 微信同号) |
坚持小班授课,为保证培训效果,增加互动环节,每期人数限3到5人。 |
上课时间和地点 |
上课地点:【上海】:同济大学(沪西)/新城金郡商务楼(11号线白银路站) 【深圳分部】:电影大厦(地铁一号线大剧院站)/深圳大学成教院 【北京分部】:北京中山学院/福鑫大楼 【南京分部】:金港大厦(和燕路) 【武汉分部】:佳源大厦(高新二路) 【成都分部】:领馆区1号(中和大道) 【沈阳分部】:沈阳理工大学/六宅臻品 【郑州分部】:郑州大学/锦华大厦 【石家庄分部】:河北科技大学/瑞景大厦 【广州分部】:广粮大厦 【西安分部】:协同大厦
最近开课时间(周末班/连续班/晚班):即将开课,详情请咨询客服! |
实验设备 |
☆资深工程师授课
☆注重质量
☆边讲边练
☆合格学员免费推荐工作
★实验设备请点击这儿查看★ |
质量保障 |
1、培训过程中,如有部分内容理解不透或消化不好,可免费在以后培训班中重听;
2、课程完成后,授课老师留给学员手机和Email,保障培训效果,免费提供半年的技术支持。
3、培训合格学员可享受免费推荐就业机会。 |
课程大纲 |
|
第一节课讲SLAM相关的计算机视觉基础。
1 多视图几何基础
1.1 三维空间刚体运动
1.2 射影几何
1.3 单视图几何
1.3.1 摄像机模型
1.3.1.1 针孔摄像机模型
1.3.1.2 鱼眼摄像机模型
1.3.2 摄像机矩阵P
1.4 双视图几何
1.4.1 对极几何
1.4.2 摄像机轨迹的计算
1.5 三维重建
1.5.1 实时与离线
1.5.2 SfM Pipeline
1.5.3 应用
1.6 常用第三方开发库介绍
1.6.1 OpenCV
1.6.2 PCL
1.6.3 VTK
1.6.4 Ceres Solver
1.7 相关应用
1.7.1 全景视频
1.7.2 虚拟现实
1.7.3 增强现实
1.7.4 机器人导航
第二节课讲SLAM相关
2 SLAM基础
2.1 介绍
2.2 不同的传感器
2.2.1 激光传感器、雷达传感器
2.2.2 彩色摄像头
2.2.2.1 单目摄像头
2.2.2.2 双目摄像头
2.2.2.3 鱼眼镜头
2.2.3 深度摄像头
2.2.3.1 双目RGB摄像头
2.2.3.2 单/双目RGB-D摄像头
2.2.3.3 基于飞行时间原理的深度摄像头
2.3 不同的辅助设备
2.3.1 IMU
2.3.2 GPS
2.4 视觉SLAM
2.4.1 基于滤波器的V-SLAM
2.4.2 基于关键帧的V-SLAM
2.4.3 基于直接跟踪的V-SLAM
2.4.4 视觉SLAM算法之间的比较
2.5 激光SLAM
2.5.1 GMapping
2.5.2 Hector SLAM
2.5.3 Cartographer
2.5.4 视觉SLAM和激光SLAM之间的差异
2.6 实践
2.6.1 ROS机器人系统入门
2.6.1.1 ROS是什么
2.6.1.2 ROS的特点
2.6.1.3 如何快速上手ROS
2.6.2 编译SLAM系统
2.6.3 运行实例
第三节课讲经典SLAM框架1
3 经典视觉SLAM框架1
3.1 非线性优化
3.1.1 状态估计问题
3.1.1.1 最大后验与最大似然
3.1.1.2 最小二乘的引出
3.1.2 非线性最小二乘
3.1.2.1 一阶和二阶梯度法
3.1.2.2 高斯-牛顿法
3.1.2.3 列文伯格——马夸尔特方法
3.1.2.4 小结
3.1.3 实践Ceres
3.1.4 实践g2o
3.1.5 小结
3.2 视觉里程计1
3.2.1 特征点法
3.2.1.1 特征点
3.2.1.2 ORB特征
3.2.1.3 特征匹配
3.2.2 实践特征提取和匹配
3.2.3 2D-2D:对极几何
3.2.3.1 对极约束
3.2.3.2 本质矩阵
3.2.3.3 单应矩阵
3.2.4 实践:对极约束求解相机运动
3.2.5 三角测量
3.2.6 实践:三角测量
3.2.7 3D-2D:PnP
3.2.7.1 直接线性变换
3.2.7.2 P3P
3.2.7.3 Bundle Adjustment
3.2.8 实践:求解PnP
3.2.9 3D-3D:ICP
3.2.9.1 SVD方法
3.2.9.2 非线性优化方法
3.2.10 小结
第四节课讲经典SLAM框架2
4 经典视觉SLAM框架2
4.1 视觉里程计2
4.1.1 直接法的引出
4.1.2 光流(Optical Flow)
4.1.3 实践:LK光流
4.1.3.1 使用TUM公开数据集
4.1.3.2 使用LK光流
4.1.4 直接法(Direct Method)
4.1.4.1 直接法的推导
4.1.4.2 直接法的讨论
4.1.5 实践:RGB-D的直接法
4.1.5.1 稀疏直接法
4.1.5.2 定义直接法的边
4.1.5.3 使用直接法估计相机运动
4.1.5.4 半稠密直接法
4.1.5.5 直接法的讨论
4.1.5.6 直接法优缺点总结
4.2 SLAM前端
4.2.1 VO框架
4.2.1.1 程序框架
4.2.1.2 基本数据结构
4.2.1.3 Camera
4.2.1.4 Frame
4.2.1.5 MapPoint
4.2.1.6 Map
4.2.1.7 Config
4.2.2 基本的VO:特征提取和匹配
4.2.2.1 两两帧的视觉里程计
4.2.2.2 讨论
4.2.3 优化PnP的结果
4.2.4 局部地图
4.2.5 小结
第一节课讲经典SLAM框架3
5 经典SLAM框架3
5.1 后端1
5.1.1 概述
5.1.1.1 状态估计的概率解释
5.1.1.2 线性系统和KF
5.1.1.3 非线性系统和EKF
5.1.1.4 EKF的讨论
5.1.2 BA与图优化
5.1.2.1 投影模型和BA代价函数
5.1.2.2 BA的求解
5.1.2.3 稀疏性和边缘化
5.1.2.4 鲁棒核函数
5.1.2.5 小结
5.1.3 实践:g2o
5.1.3.1 BA数据集
5.1.3.2 g2o求解BA
5.1.3.3 求解
5.1.4 实践:Ceres
5.1.4.1 Ceres求解BA
5.1.4.2 求解
5.1.5 小结
5.2 后端2
5.2.1 位姿图(Pose Graph)
5.2.1.1 Pose Graph的意义
5.2.1.2 Pose Graph的优化
5.2.2 实践:位姿图优化
5.2.2.1 g2o原生位姿图
5.2.2.2 李代数上的位姿图优化
5.2.2.3 小结
第二节课讲经典SLAM框架4
6 经典SLAM框架4
6.1 回环检测
6.1.1 回环检测概述
6.1.1.1 回环检测的意义
6.1.1.2 方法
6.1.1.3 准确率和召回率
6.1.2 词袋模型
6.1.3 字典
6.1.3.1 字典的结构
6.1.3.2 实践:创建字典
6.1.4 相似度计算
6.1.4.1 理论部分
6.1.4.2 相似度的计算
6.1.5 实验分析与评述
6.1.5.1 增加字典规模
6.1.5.2 相似性评分的处理
6.1.5.3 关键帧的处理
6.1.5.4 检测之后的验证
6.1.5.5 与机器学习的关系
6.2 建图
6.2.1 概述
6.2.2 单目稠密重建
6.2.2.1 立体视觉
6.2.2.2 极限搜索与快匹配
6.2.2.3 高斯分布的深度滤波器
6.2.3 实践:单目稠密重建
6.2.4 实验分析与讨论
6.2.4.1 像素梯度的问题
6.2.4.2 逆深度
6.2.4.3 图像间的变换
6.2.4.4 并行化:效率的问题
6.2.4.5 其他的改进
6.2.5 RGB-D稠密见图
6.2.5.1 实践:点云地图
6.2.5.2 八叉树地图
6.2.5.3 实践:八叉树地图
6.2.6 小结
6.3 SLAM的未来
6.3.1 视觉+惯性导航SLAM
6.3.2 语义SLAM
第三节课讲深度学习
7 深度学习
7.1 机器学习原理
7.1.1 机器学习术语
7.1.2 深入了解机器学习
7.2 深度学习介绍
7.2.1 神经网络基础
7.3 主流深度学习框架
7.3.1 Tensorflow
7.3.2 Theano
7.3.3 CNTK
7.4 实践:Tensorflow的安装
7.5 实践:简单的识别字符的应用
第四节课讲深度学习和SLAM的结合
8 深度学习和SLAM的结合
8.1 深度学习与帧间估计
8.2 深度学习与闭环检测
8.3 深度学习与语义SLAM
8.4 深度学习方法与传统方法对比
8.5 未来展望
8.5.1 高维传感器数据处理与融合
8.5.2 机器人知识库
8.5.3 云机器人
8.5.4 SLAM促进深度学习
|