Магистерский проект презентация

Содержание

Слайд 1Магистерский проект
2008
Магистрант:
Матрунич
Сергей Анатольевич
Научный руководитель:
Зимянин Л.Ф.
Simultaneous localization
and mapping


Слайд 2Краткое содержание
Введение

SLAM используя фильтр Калмана

SLAM используя фильтр для частиц

Исследование :

проблема поиска



Слайд 3Введение: SLAM
SLAM: Simultaneous Localization and Mapping
Робот изучает незнакомое, статическое окружение.
Дано:


Система управления роботом
Визуальные датчики

Оценка:
Положения робота -- localization
где Я ?
Детализация окружающего пространства – mapping
На что похоже то что вокруг меня?

Оба источника данных зашумлены.


Слайд 4Введение: SLAM
Допущение Маркова
State transition:

Observation function:


Слайд 5Введение: SLAM
Method: Sequentially estimate the probability distribution p(xt) and update the

map.

Prior: p(x0)


Слайд 6Введение: SLAM
Методы:
1. Parametric method – Kalman filter
2. Sample-based method – particle

filter

The robot’s trajectory estimate is a tracking problem

Sequentially update μt and Σt

Represent the distribution of robot location xt (and map mt) by a large amount of simulated samples.

Resample xt (and mt) at each time step


Слайд 7Введение: SLAM
Почему SLAM трудная задача?
Robot location and map are both unknown.
The

small error will quickly accumulated over time steps.

The errors come from inaccurate measurement of actual robot motion (noisy action) and the distance from obstacle/landmark (noisy observation).

When the robot closes a physical loop in the environment, serious misalignment errors could happen.


Слайд 8SLAM: фильтр Калмана
Корректирующее уровнение:
Предположение:
Prior p(x0) is a normal distribution
Observation function

p(o|x) is a normal distribution

Тогда:
Posterior p(x1), …, p(xt) are all normally distributed.


Mean μt and covariance matrix Σt can be derived analytically.
Sequentially update μt and Σt for each time step t


Слайд 9SLAM: фильтр Калмана


Слайд 10SLAM: фильтр Калмана
The hidden state for landmark-based SLAM:
Map with N landmarks:

(3+2N)-dimentional Gaussian

State vector xt can be grown as new landmarks are discovered.


Слайд 11SLAM: фильтр для частиц
Update equation:


Слайд 12SLAM: фильтр для частиц


Слайд 13SLAM: фильтр для частиц


Слайд 14SLAM: фильтр для частиц


Слайд 15SLAM: фильтр для частиц


Слайд 16SLAM: фильтр для частиц
State transition probability:
Observation probability:


Слайд 17SLAM: фильтр для частиц
Lots of work on SLAM using particle filter

are focused on:
Reducing the cumulative error
Fast SLAM (online)
Way to organize the data structure (saving robot path and map).
Maintain single map: cumulative error
Multiple maps: memory and computation time

In Parr’s paper:
Use ancestry tree to record particle history
Each particle has its own map (multiple maps)
Use observation tree for each grid square (cell) to record the map corresponding to each particle.
Update ancestry tree and observation tree at each iteration.
Cell occupancy is represented by a probabilistic approach.


Слайд 18SLAM: фильтр для частиц


Слайд 19Проблема поиска
The agent doesn’t have map, doesn’t know the underlying model,

doesn’t know where the target is.

Agent has 2 sensors:

Camera: tell agent “occupied” or “empty” cells in 4 orientations, noisy sensor.

Acoustic sensor: find the orientation of the target, effective only within certain distance.

Noisy observation, noisy action.

Assumption:


Слайд 20Проблема поиска
Differences from SLAM
Rough map is enough; an accurate map is

not necessary.
Objective is to find the target. Robot need to actively select actions to find the target as soon as possible.

Similar to SLAM
To find the target, agent need build map and estimate its location.


Слайд 21Проблема поиска
Model:

Environment is represented by a rough grid;
Each grid square

(state) is either occupied or empty.
The agent moves between the empty grid squares.
Actions: walk to any one of the 4 directions, or “stay”. Could fail in walking with certain probability.
Observations: observe 4 orientations of its neighbor grid squares: “occupied” or “empty”. Could make a wrong observation with certain probability.
State, action and observation are all discrete.

Слайд 22Проблема поиска
In each step, the agent updates its location and map:
Belief

state: the agent believes which state it is currently in. It is a distribution over all the states in the current map.

The map: The agent thinks what the environment is .

For each state (grid square), a 2-dimentional Dirichlet distribution is used to represent the probability of “empty” and “occupied”.

The hyperparameters of Dirichlet distribution are updated based on current observation and belief state.

Слайд 23Проблема поиска


Слайд 24Проблема поиска
Обновление карты (распределение Дирихле):


Слайд 25Проблема поиска
Предпологаемое изменение:
Map representation update:


a=“right”

a=“up”







a=“right”
a=“up”


Слайд 26Проблема поиска
Выберите действие:
Each state is assigned a reward R(s) according to

following rules:

Less explored grids have higher reward.

Try to walk to the “empty” grid square.

Consider neighbor of s with priority.


x

x









Слайд 27Cпасибо за внимание


Обратная связь

Если не удалось найти и скачать презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое ThePresentation.ru?

Это сайт презентаций, докладов, проектов, шаблонов в формате PowerPoint. Мы помогаем школьникам, студентам, учителям, преподавателям хранить и обмениваться учебными материалами с другими пользователями.


Для правообладателей

Яндекс.Метрика