Слайд 1Методы обработки экспериментальных данных
Слайд 3Окружающий нас мир насыщен информацией…
Ее НЕОБХОДИМО обрабатывать для принятия управленческих решений.
Существует
множество мат. пакетов: MatLab, Statistica, Statgraphics…
НО ЕСТЬ проблема…. понимание и интерпретация результатов!
НЕОБХОДИМО ЗНАТЬ И ПОНИМАТЬ КАК И ЧТО ПРОИСХОДИТ ВНУТРИ МАТ. ПАКЕТОВ!
1.1. Введение
Слайд 4Области применения анализа экспериментальных данных
Химия
Физика
Биология
Техника
Технологии
Гуманитарные науки
Прочая деятельность
Слайд 51.2. Основные этапы анализа данных
1. Планирование и сбор данных
2. Предварительное
исследование данных
3. Оценка неизвестной величины
4. Построение моделей и проверка гипотез
Слайд 61.3. Структуры данных
Одномерные наборы данных (одна переменная) содержат только один признак,
зарегистрированный для каждой элементарной единицы.
Двумерные наборы данных содержат информацию о двух признаках для каждого из объектов. В дополнение к обобщению свойств каждой из этих двух переменных, рассматриваемых как отдельные наборы одномерных данных,
Наборы многомерных данных содержат информацию о трех или более признаках для каждого объекта. В дополнение к обобщению свойств каждой из этих переменных (рассматриваемых как отдельные наборы одномерных данных) и установлению зависимости между парами переменных (как при анализе набора двумерных данных)
Слайд 71.3. Структуры данных
Количественные данные
Дискретные
Непрерывные
Качественные данные
Порядковые
Номинальные
Временные ряды
Слайд 81.3. Структуры данных
Источники данных
Первичные
Вторичные
Планирование и сбор данных
Маркетинговые исследования
Социологические опросы
Проведение экспериментов на
производстве
Поиск в Internet
Специальные издания и журналы
Покупка готовых данных у специализирующихся компаний
Слайд 91.4. Что такое переменная?
Переменная (английский термин variable) — это то, что
можно измерять, контролировать или чем можно манипулировать в исследованиях. Иными словами, переменная — это то, что варьируется, изменяется, а не является постоянным (от английского корня var).
ПРИМЕРЫ: анкетные данные, систолическое давление пациентов, количество лейкоцитов в крови, цена акций, товаров, услуг, потребление, инвестиции, доход, государственные закупки товаров и услуг, инструмент государственного регулирования (в экономике); рейтинг программ, доля зрителей, количество посещений сайта (в рекламе); скорость, температура, объем, масса в (физике) и т. д.
Слайд 101.4. Что такое переменная?
Так как значения переменных не постоянны, нужно научиться
описывать их изменчивость.
Для этого придуманы описательные или дескриптивные статистики.
Минимум и максимум — это минимальное и максимальное значения переменной.
Среднее — сумма значений переменной, деленная на n (число значений переменной).
Дисперсия и стандартное отклонение — наиболее часто используемые меры изменчивости переменной. Дисперсия меняется от нуля до бесконечности. Крайнее значение 0 означает отсутствие изменчивости, когда значения переменной постоянны.
Слайд 111.4. Что такое переменная?
Медиана разбивает выборку на две равные части. Половина
значений переменной лежит ниже медианы, половина — выше.
Медиана дает общее представление о том, где сосредоточены значения переменной, иными словами, где находится ее центр. В некоторых случаях, например при описании доходов населения, медиана более удобна, чем среднее.
Мода представляет собой максимально часто встречающееся значение переменной (иными словами, наиболее «модное" значение переменной), например популярная передача на телевидении, модный цвет платья или марка автомобиля и т. д.
А так же есть еще множество других статистик: квартили, коэффициент асимметрии, эксцесс, коэффициент корреляции и др.
Слайд 121.5. Основные законы распределения случайных величин и их назначение
Законы распределения случайных
величин служат математическими моделями для реальных объектов и явлений, что позволяет в некоторых случаях применять их для расчетов и анализа ситуации.
Слайд 131.5. Основные законы распределения случайных величин и их назначение
Нормальное распределение особенно
часто используется при анализе данных. Нормальное распределение дает хорошую модель для реальных явлений, в которых:
имеется сильная тенденция данных группироваться вокруг центра;
положительные и отрицательные отклонения от центра равновероятны;
частота отклонений быстро падает, когда отклонения от центра становятся большими.
Слайд 141.5. Основные законы распределения случайных величин и их назначение
Равномерное распределение полезно
при описании переменных, у которых каждое значение равновероятно, иными словами, значения переменной равномерно распределены в некоторой области.
Слайд 151.5. Основные законы распределения случайных величин и их назначение
Экспоненциальное распределение. Имеют
место события, которые на обыденном языке можно назвать редкими. Если T – время между наступлениями редких событий, происходящих в среднем с интенсивностью λ, то величина имеет экспоненциальное распределение с параметром λ (лямбда). Экспоненциальное распределение часто используется для описания интервалов между последовательными случайными событиями, например интервалов между заходами на непопулярный сайт, так как эти посещения являются редкими событиями.
Слайд 161.5. Основные законы распределения случайных величин и их назначение
Распределение Лапласа, или,
как его еще называют, двойного экспоненциального, используется, например, для описания распределения ошибок в моделях регрессии.
Слайд 171.5. Основные законы распределения случайных величин и их назначение
Случайная величина h
называется логарифмически нормальной, или логнормальной, если ее натуральный логарифм (lnh) подчинен нормальному закону распределения. Логнормальное распределение используется, например, при моделировании таких переменных, как доходы, возраст новобрачных или допустимое отклонение от стандарта вредных веществ в продуктах питания. Итак, если величина x имеет нормальное распределение, то величина y=ex имеет логнормальное распределение.
Слайд 181.5. Основные законы распределения случайных величин и их назначение
Распределение Пуассона иногда
называют распределением редких событий. Примерами переменных, распределенных по закону Пуассона, могут служить: число несчастных случаев, число дефектов в производственном процессе и т д.
Слайд 191.6. Краткий обзор современных программных средств для проведения анализа данных.
MATLAB –
это высокопроизводительный язык для технических расчетов. Он включает в себя вычисления, визуализацию и программирование в удобной среде, где задачи и решения выражаются в форме, близкой к математической. Типичное использование MATLAB – это:
• математические вычисления
• создание алгоритмов
• моделирование
• анализ данных, исследования и визуализация
• научная и инженерная графика
• разработка приложений, включая создание графического интерфейса
Слайд 201.6. Краткий обзор современных программных средств для проведения анализа данных.
Mathcad –
программное средство, среда для выполнения на компьютере разнообразных математических и технических расчетов, снабженная простым в освоении и в работе графическим интерфейсом, которая предоставляет пользователю инструменты для работы с формулами, числами, графиками и текстами.
В среде Mathcad доступны более сотни операторов и логических функций, предназначенных для численного и символьного решения математических задач различной сложности и применения этих функций для анализа данных.
Слайд 211.6. Краткий обзор современных программных средств для проведения анализа данных.
STATISTICA –
это универсальная интегрированная система, предназначенная для статистического анализа и визуализации данных, управления базами данных и разработки пользовательских приложений, содержащая широкий набор процедур анализа для применения в научных исследованиях, технике, бизнесе, а также специальные методы добычи данных.
С помощью реализованных в системе STATISTICA мощных языков программирования, снабженных специальными средствами поддержки, легко создаются законченные пользовательские решения и встраиваются в различные другие приложения или вычислительные среды.
Слайд 221.6. Краткий обзор современных программных средств для проведения анализа данных.
Deductor
Аналитическая платформа
Deductor реализует практически все современные подходы к анализу структурированной табличной информации: хранилища данных (Data Warehouse), многомерный анализ (OLAP), добыча данных (Data Mining), обнаружение знаний в базах данных (Knowledge Discovery in Databases). Лучшим способом изучить и понять целесообразность использования современных технологий анализа - это испытать все на практике.
Слайд 231.6. Краткий обзор современных программных средств для проведения анализа данных.
STATGRAPHICS –
это универсальный пакет для анализа и визуализации данных. Отличительной особенностью пакета является наличие такого инструмента как StatAdvisor, который помогает пользователям интерпретировать полученные результаты, обеспечивает возможность объединения в одном окне нескольких текстовых и графических подокон.
StatAdvisor дает пользователям понятные разъяснения полученных результатов, определяет, являются ли эти результаты существенными, и обращает особое внимание на любые возможные ошибки в анализе. Пользователи получают немедленную интерпретацию результатов в процедурах, доступных в как основной системе, так и в четырех специальных модулях, поставляемых по выбору: Quality Control (контроль качества), Experimental Design (планирование эксперимента), Time-Series Analysis (анализ временных рядов) и Advanced Multivariate Method (анализ вариаций).
Слайд 25КЛАССИФИКАЦИЯ
В РАСПОЗНАВАНИИ ОБРАЗОВ
Слайд 26Схема системы распознавания
Система распознавания образов состоит из нескольких подсистем:
Обучающая
выборка и решающее правило для случая двух информативных признаков x1, x2 и двух классов.
Слайд 27Байесовская теория принятия решений
при дискретных признаках
Одномерный вариант
Рассматриваем m классов (полную
группу несовместных случайных событий) и один дискретный информативный признак X.
По формуле Байеса вычисляем апостериорные вероятности для всех рассматриваемых классов:
Выносим решение об истинности того класса (с номером ν), для которого апостериорная вероятность максимальная:
Слайд 28Байесовская теория принятия решений
при дискретных признаках
Многомерный вариант
Для простоты считаем, что
имеются два информативных признака X и Y.
X принимает возможные значения x1,…,xn1, Y принимает возможные значения y1,…,yn2.
По формуле Байеса вычисляем апостериорные вероятности для всех рассматриваемых классов:
Выносим решение об истинности того класса (с номером ν), для которого апостериорная вероятность максимальная:
Слайд 29Байесовская теория принятия решений
при дискретных признаках
Одномерный вариант
Многомерный вариант
Слайд 30Байесовская теория принятия решений
при непрерывных признаках
Одномерны вариант:
Апостериорные вероятности классов
по формуле Байеса :
если
то принимается решение о 1-м классе, иначе о 2-м классе.
Слайд 31Байесовская теория принятия решений
при непрерывных признаках
Вероятность ошибки классификации при
двух классах:
Слайд 32Идеи классификации
Случай 1. Известны полностью условные плотности распределения вероятности для
признаков:
Двумерный случай
Одномерный случай
Слайд 33Идеи классификации
Случай 2. Условные плотности распределения вероятности для признаков известны
не полностью, а с точностью до параметров:
Неизвестные параметры θ1 и θ2 доопределяются с помощью одного из методов математической статистики, например с помощью метода максимального правдоподобия, на основе обучающей выборки.
Дальнейшая классификация проводится, как и в случае 1.
По обучающей выборке доопределяются и априорные вероятности:
Слайд 34Идеи классификации
Случай 3. Условные плотности распределения вероятности неизвестны, но известна
обучающая выборка. Здесь возможны два варианта.
Вариант 1. Восстанавливается решающая функция.
Вариант 2. По обучающей выборке восстанавливаются условные плотности
Слайд 35Идеи классификации
Случай 4. Число классов неизвестно и нет обучающей выборки.
Вернее, нет учителя, который мог бы измерения признаков разбить на группы, соответствующие своим классам. Это самая сложная и распространенная на практике ситуация. Приходится строить самообучающиеся системы классификации.
По количеству максимумов определяем кол-во классов
Минимум позволяет разбить выборку на две части – точка c0 (нулевое приближение).
Далее строится процедура последовательного (итерационного) расчета порога c.
В итоге получаем случай 3.
Слайд 36Прямые методы восстановления решающей функции
Слайд 37НЕЙРОННЫЕ СЕТИ: еще один подход к классификации
Идея взята из биологии:
Клетка -
элементарный процессор, способный к простейшей обработке информации
Нейрон - элемент клеточной структуры мозга
Нейрон осуществляет прием и передачу информации в виде импульсов нервной активности
Природа импульсов - электрохимическая
Слайд 39Интересные данные
Тело клетки имеет размер 3 - 100 микрон
Гигантский аксон кальмара
имеет толщину 1 миллиметр и длину несколько метров
Потенциал, превышающий 50 мВ изменяет проводимость мембраны аксона
Общее число нейронов в ЦНС человека порядка 100.000.000.000
Каждая клетка связана в среднем с 10.000 других нейронов
Совокупность в объеме 1 мм*3 - независимая локальная сеть
Слайд 43Нелинейное преобразование
Маккалок - Питтс
Линейная
Сигмоидальная
Слайд 44Перцептрон Розенблата
Розенблат: нейронная сеть рассмотренной
архитектуры будет способна к воспроизведению любой
логической
функции.
(неверное предположение)
Слайд 45Обучение сети
Обучить нейронную сеть это значит, сообщить ей, чего от нее
добиваются.
Показав ребенку изображение буквы и получив неверный ответ, ему сообщается тот, который хотят получить.
Ребенок запоминает этот пример с верным ответом и в его памяти происходят изменения в нужном направлении.
Слайд 46Обучение перцептрона
Начальные значения весов всех нейронов полагаются случайными.
Сети предъявляется входной образ xα, в результате формируется выходной образ.
Слайд 50Что такое планирование эксперимента
Целью планирования эксперимента является создание таких планов
вариации входных переменных, которые обеспечивают более быстрое и точное построение модели объекта.
Выход объекта состоит из неизвестного сигнала (функции от входов) и центрированной помехи
Слайд 51Эксперименты в науке и промышленности
Экспериментальные методы широко используются как в
науке, так и в промышленности, однако нередко с весьма различными целями.
Обычно основная цель научного исследования состоит в том, чтобы показать статистическую значимость эффекта воздействия определенного фактора на изучаемую зависимую переменную.
В условиях промышленного эксперимента основная цель обычно заключается в извлечении максимального количества объективной информации о влиянии изучаемых факторов на производственный процесс с помощью наименьшего числа дорогостоящих наблюдений.
Слайд 52Общие идеи
Обычно любая машина или станок, используемый на производстве, позволяет
операторам изменять различные настройки, влияя на качество производимого продукта. Эксперименты позволяют инженеру, ответственному за производство, улучшать настройки машины, а также выяснить какие факторы вносят наиболее важный вклад в качество продукции. Использование этой информации позволяет улучшить настройки системы, достигнув оптимального качества. Чтобы проиллюстрировать эти рассуждения далее приводится несколько примеров.
Слайд 53Общие идеи
Пример 1: Производство красителей для ткани. Рассмотрим эксперимент по
производству некоторого красителя для ткани. В этом случае качество производимой продукции описывается насыщенностью, яркостью и стойкостью окрашенной ткани. Кроме того, необходимо уточнить, что надо изменять для получения красок различной насыщенности, яркости для удовлетворения потребительского спроса. Другими словами, в этом эксперименте нужно выявить факторы, наиболее заметно влияющие на яркость, насыщенность и стойкость производимой краски. В примере рассматривается 6 различных факторов, влияние которых оценивается с помощью плана 2^6.
Результаты эксперимента показали, что имеется три наиболее важных фактора: Полисульфидный индекс, Время и Температура. Эту информацию теперь можно использовать для более тонкой настройки аппаратуры, что бы улучшить качество красителя.
Слайд 54Общие идеи
Пример 2: Максимизация выхода химической реакции. Выход продукта многих
химических реакций зависит от времени и температуры. К сожалению, эти функции не линейны и не монотонны. Другими словами, нельзя сказать: “чем больше продолжительность реакции, тем больше выход” и “чем выше температура, тем больше выход”.
Формально цель эксперимента заключается в том, чтобы найти оптимальное положение на поверхности выхода, образованной двумя переменными: временем и температурой.
Слайд 55Общие идеи
Пример 3: Улучшение поверхностной однородности при производстве кремниевых кристаллов.
Производство надежных микропроцессоров требует высоко отлаженного производственного процесса. Отметим, что в данном примере одинаково, если не более важно, контролировать как изменчивость некоторых производственных характеристик, так и их средние значения. Например, средняя толщина поверхностного слоя поликремниевой подложки производственный процесс может быть отрегулирован превосходно, однако, если изменчивость этого параметра велика, то микрочипы будут недостаточно надежными. Не существует теоретической модели, которые позволяла бы инженеру предсказать, как эти факторы влияют на однородность поверхности кристаллов. Следовательно, для оптимизации производственного процесса нужно систематизировано проводить эксперименты на различных уровнях факторов.
Слайд 56Что такое планирование эксперимента
Взвешивание трех тел по традиционной схеме ("+"
означает, что тело положено на весы, "–" указывает на отсутствие тела на весах).
Взвешивание трех тел с использованием планирования эксперимента.
Видно, что при новой схеме взвешивания дисперсия веса объектов получается вдвое меньше, чем при традиционном методе взвешивания, хотя
в обоих случаях выполнялось по четыре опыта.
Слайд 57Построение линейной статической модели объекта
Считаем, что входами объекта являются u1,…,um,
а выходом y. Уравнение линейной статической модели объекта имеет вид:
Необходимо на основе эксперимента (на основе нескольких измерений входов и выхода объекта) вычислить коэффициенты модели.
Экспериментальные точки для входных координат зададим в вершинах гиперпрямоугольника.
Интервалы покачивания относительно базовой точки задаются экспериментатором, и они определяют область изучения объекта.
Слайд 58Построение линейной статической модели объекта
С целью унификации процедур построения планов,
исследования их свойств, расчета параметров и исследования качества модели осуществляется переход от размерных входных переменных u1,…,um к безразмерным x1,…,xm.
Точки плана в вершинах прямоугольника в новых координатах оказываются в вершинах квадрата с единичными координатами. Центр плана переходит в начало координат.
В итоге получается план:
Слайд 59Построение линейной статической модели объекта
В новых безразмерных координатах x1,…,xm линейная
модель также сохраняет линейный вид:
Параметры βi модели рассчитаем по критерию наименьших квадратов :
Предполагая, что измерения выхода некоррелированные и равноточные получаем систему линейных алгебраических уравнений:
Слайд 60Крутое восхождение по поверхности отклика
В планировании эксперимента поверхностью отклика называют
уравнение связи выхода объекта с его входами.
В 1951 году Бокс и Уилсон предложили использовать последовательный "шаговый" метод движения к экстремуму выхода объекта.
Коэффициенты αi линейной модели являются оценками составляющих градиента:
Далее движение осуществляется по поверхности отклика в направлении оценки градиента
, где k - величина шага.
Слайд 61Полный факторный эксперимент
Полным факторным экспериментом называется эксперимент, в котором реализуются
все возможные сочетания уровней факторов. Если число факторов равно m, а число уровней каждого фактора равно p. то имеем полный факторный эксперимент типа pm.
При построении линейной модели объекта используется полный факторный эксперимент типа 2m. Условия эксперимента записываются в таблицы, в которых строки соответствуют различным опытам, а столбцы – значениям факторов. Такие таблицы называются матрицами планирования эксперимента.
Слайд 62Полный факторный эксперимент
С использованием ортогонального плана первого порядка можно определять не
только коэффициенты βi, но и коэффициенты βij перед факторами взаимодействия xixj (i≠j)
Например, при m=2 можно рассчитать и коэффициенты модели:
Слайд 63Дробные реплики
При большом числе входов объекта полный факторный эксперимент 2m содержит
большое число экспериментов. Можно этот план разбивать на блоки (дробные реплики) с сохранением ортогональности плана. При этом по меньшему числу точек определяются (также независимо друг от друга) все коэффициенты линейной модели.
Чтобы получить дробную реплику, необходимо за основу взять полный факторный эксперимент (например 23) и в качестве новой переменной взять один из столбцов (например x4), соответствующий фактору взаимодействия (например x4=x1x2). Для данного примера дробная реплика обозначается как 24-1.
Определяющий контраст (или определяющие контрасты, когда их несколько) позволяет установить разрешающую способность дробной реплики. Разрешающая способность будет максимальной, если линейные эффекты будут смешаны с эффектами взаимодействия наибольшего возможного порядка.
Слайд 64Насыщенные планы. Симплекс
Иногда исследователь ставит цель получения линейного уравнения модели
по планам, содержащим минимум точек (количество точек равно числу коэффициентов). Такие планы называют насыщенными.
Ортогональный план проводится в вершинах правильного симплекса. Правильным симплексом называется выпуклая правильная фигура в многомерном пространстве, число вершин которой превышает размерность этого пространства на единицу.
Эти планы центральные и ортогональные.
Слайд 65Насыщенные планы. Симплекс
Один из общих способов построения планов:
Слайд 66Насыщенные планы.
Планы Плаккета – Бермана
Плаккет и Берман в 1946 г.
предложили способ построения насыщенных планов (с единичными координатами) при m=11, 19, 23, 27, 31, 35, 39, 43, 47, 51, 55, 59, 63, 67, 71, ... .
Задаются базовые строки. Каждая следующая строка матрицы планирования образуется из исходной циклическим сдвигом вправо. Получается матрица размером m x m. Последняя (m+1) -я строка матрицы планирования состоит из минус единиц.
Пример базисных строк:
Слайд 67Разбиение матрицы планирования на блоки
При проведении эксперимента выход объекта дрейфует.
Если этот дрейф кусочно-постоянный, то его можно нейтрализовать, изменяя порядок проведения эксперимента во времени. Для этого разбивают матрицу планирования на блоки и последовательно реализуют (во времени) эту матрицу: вначале один блок, затем другой и т. д.
В качестве примера рассмотрим ортогональный план 23 . Считаем, что выход объекта имеет аддитивный дрейф на величину Δ1 (когда проводятся эксперименты с номерами 1, 2, 3, 4) и на величину Δ2 (когда проводятся эксперименты № 5, 6, 7, 8). Этот дрейф приводит к смещению на величину (4Δ1-4 Δ2)/8 параметра β3.
Слайд 68Разбиение матрицы планирования на блоки
Пример эксперимента в котором выход объекта
дрейфует.
Слайд 69Разбиение матрицы планирования на блоки
Для устранения этого недостатка изменим порядок
проведения эксперимента, разбив план на 2 блока.
Слайд 70Обработка результатов эксперимента
1. Проверка однородности дисперсий. Если при реализации ортогонального
плана остается неизвестным, на самом ли деле дисперсии выходов (ошибок измерения) одинаковы в каждой точке плана, то необходимо в каждой точке плана осуществить несколько дополнительных измерений выхода, найти оценку дисперсии (в каждой точке) и проверить гипотезу о равенстве дисперсий.
Проверка однородности дисперсий производится с помощью различных статистик. Простейшей из них является статистика Фишера, представляющая собой отношение наибольшей из оценок к наименьшей:
Так же можно выполнить проверку с использованием статистики Кочрена:
Слайд 71Обработка результатов эксперимента
2. Проверка адекватности модели. Вычисляем остаточную сумму квадратов ,
делим ее на число степеней свободы n-m-1 и получаем остаточную дисперсию (дисперсию адекватности):
На основе дополнительного эксперимента объема n0 в одной из точек плана (например в центре плана) строим оценку для дисперсии выхода объекта. Число степеней свободы для оценки n0 -1. По статистике Фишера проверяем гипотезу о равенстве дисперсий, которая совпадает с гипотезой об адекватности модели.
Если статистика не превосходит порогового значения, то принимается гипотеза об адекватности модели. В противоположном случае эта гипотеза отвергается. Надо заново строить модель, например, усложняя ее за счет введения дополнительных факторов, либо отказываться от линейной модели и переходить к квадратичной модели.
Слайд 72Обработка результатов эксперимента
3. Проверка значимости коэффициентов заключается в проверке гипотезы
H: bj = 0 для каждого j=1,…,m.
Вычисляется статистика Стьюдента:
Если |t|
Слайд 73Обработка результатов эксперимента
4. Интерпретация модели. Производится качественное сопоставление поведения полученной
модели с реальными процессами объекта. При этом привлекается информация от экспертов (например технологов), детально изучивших объект. Знак коэффициентов βj , линейной модели показывает характер влияния входа объекта на выход. Знак "+" свидетельствует о том, что с увеличением входа (фактора) растет величина выхода объекта и наоборот. Величина коэффициентов βj – количественная мера этого влияния.
Если характер связи между входами и выходом объекта на основе построенной модели не соответствует реальным связям (на базе информации от экспертов) в объекте, то такую модель надо поставить под сомнение либо полностью отказаться от нее.
Слайд 74Ортогональное планирование второго порядка
Построение планов второго порядка – задача в
математическом отношении значительно более сложная, чем в случае построения планов первого порядка. Модель второго порядка при m=3 имеет вид:
Для вычисления коэффициентов модели второго порядка необходимо варьировать переменные не менее чем на трех уровнях. Это вызывает необходимость постановки большого числа опытов. Полный факторный эксперимент содержит 3m точек.
Слайд 75Ортогональное планирование второго порядка
В 1951 году Бокс и Уилсон предложили
составлять композиционные планы. Число точек плана равно величине n=n1+2m+n0 . Здесь n1– число точек полного факторного эксперимента или дробной реплики 2m – число парных точек, расположенных на осях координат; n0 – число опытов в центре плана.
Точки на осях координат называют звездными точками. Их количество равно удвоенному числу факторов. Расстояние от центра плана до звездной точки одинаково. Его обозначают буквой α и называют звездным плечом.
Композиционные планы имеют следующие положительные свойства:
1. Они могут быть получены в результате достройки планов первого порядка.
2. Дополнительные точки на осях координат и в центре плана не нарушают ортогональности для столбцов, соответствующих факторам xj и эффектам взаимодействия xixj .
Слайд 76Ортогональное планирование второго порядка
Пример композиционного плана:
С учетом новых переменных xl’
получаем следующее уравнение модели (для случая m=2):
Слайд 77Ротатабельное планирование
Если эта дисперсия одинакова на равном удалении от центра
плана, то такой план называется ротатабельным.
Ортогональный план первого порядка является ротатабельным.
Построение ротатабельного плана второго порядка из симплексных планов:
Слайд 78Метод случайного баланса
Часто влияние факторов на выходную координату объекта имеет затухающий
экспоненциальный вид:
В 1956 году Сатерзвайт предложил метод случайного баланса для отсеивания небольшого числа значимых факторов на шумовом поле. Метод базируется на постановке экспериментов по плану, содержащему координаты точек, выбранных случайным образом.
Построение матрицы планирования осуществляют следующим образом. Все факторы разбивают на группы. Затем для каждой группы строят матрицы планирования, беря за основу полный факторный эксперимент или дробные реплики. План проведения эксперимента образуется путем случайного смешивания строк соответствующих базовых планов (для групп факторов). Полученный план реализуется на объекте, и результаты анализируются с помощью диаграмм рассеяния.
Слайд 79Метод случайного баланса
Пример:
Каждая из диаграмм содержит точки, соответствующие результатам эксперимента. Эти
точки разбиты на две группы. Одна из них соответствует тем опытам, когда исследуемый фактор находился на нижнем уровне, вторая – тем опытам, когда фактор находился на верхнем уровне. Для каждой из групп находятся оценки медианы и вычисляется их разность (из оценки медианы правой группы вычитается оценка медианы левой).
Разность между оценками медиан количественно оценивает линейное влияние фактора на выход объекта.
Слайд 81МЕТОДЫ
НЕПАРАМЕТРИЧЕСКОЙ ОБРАБОТКИ ИНФОРМАЦИИ
Слайд 82Оценивание функционалов
Необходимо по выборке x1,…,xn случайной величины X найти оценку функционала
Рассмотрим некоторые примеры функционалов:
– дисперсия.
– приведенная энтропия.
– математическое ожидание.
Слайд 83Оценивание функционалов
Схема построения оценки Фn следующая. Вначале строится оценка для плотности
вероятности fn(x), а затем она подставляется в функционал.
Основным свойством оценки Фn(x1,…,xn) является ее состоятельность. Оценка Фn функционала Ф называется состоятельной, если:
Оценка Фn параметра Ф называется несмещенной, если:
Требование состоятельности определяет практическую пригодность оценок, ибо в противоположном случае (при несостоятельности оценок) увеличение объема исходной выборки не будет приближать оценку к "истинной" величине. По этой причине свойство состоятельности должно проверяться в первую очередь.
Она является асимптотически несмещенной, если:
Слайд 84Простейшие оценки функции
и плотности распределения вероятности
По упорядоченной независимой выборке x1,…,xn
случайной величины X построим оценку Fn(x) для функции распределения:
где 1(z) – единичная функция:
Слайд 85Простейшие оценки функции
и плотности распределения вероятности
Так как плотность распределения f(x)
связана с функцией распределения F(x) через линейный оператор дифференцирования :
Можно получить оценку для плотности распределения :
Здесь δ(x-xi) – дельта-функция Дирака. Она имеет "игольчатый" ("гребенчатый") вид: уходит до ∞ в точке xi , а при остальных значениях аргумента x равна нулю и обладает свойствами:
- площадь под дельта функцией единичная.
селектирующее свойство дельта-функции позволяет легко выполнять интегрирование. Интеграл оказывается равным подынтегральному выражению, стоящему перед дельта-функцией, в особой точке.
Слайд 86Простейшие оценки функции
и плотности распределения вероятности
Первое свойство показывает, что, несмотря
на экзотическое поведение дельта-функции, площадь под ней единичная.
Второе селектирующее свойство дельта-функции позволяет легко выполнять интегрирование. Интеграл оказывается равным подынтегральному выражению, стоящему перед дельта-функцией, в особой точке.
Оценка плотности распределения является несмещенной, но несостоятельной. В явном виде её использовать нельзя. Ею удобно пользоваться при вычислении оценок моментов (математического ожидания, дисперсии и др.) для случайной величины или для аналитической функции случайной величины. Получаемые оценки являются состоятельными и часто несмещенными.
Слайд 87Простейшие оценки функции
и плотности распределения вероятности
Многомерный случай:
Кратные измерения. При кратных
измерениях значение x1 повторяется k1 раз, x2 – k2 раз,…, xm – km раз, при этом k1+…+km = n.
Слайд 88Полиграммы
Повысим степень гладкости оценки fn(x) по сравнению с простейшей оценкой функции
плотности. Для этого надо повысить соответственно степень гладкости для оценки функции распределения Fn(x). Если Fn(x) будет состоять из отрезков прямых, то fn(x) будет состоять из прямоугольников. Такая кусочно-постоянная оценка называется полиграммой первого порядка.
Она строится на выборочных интервалах, ограниченных выборочными значениями упорядоченной выборки x1,…,xn. Площадь каждого прямоугольника равна 1/(n-1)
Слайд 89Полиграммы
Для улучшения сглаживающих свойств оценки плотности построены полиграммы более высоких порядков:
Слайд 90Метод "К ближайших соседей"
Считаем, что для одномерной случайной величины X имеется
n независимых наблюдений x1,…,xn. Зафиксируем некоторое целое положительное число kn: 1 ≤ kn ≤ n. Для каждой выбранной точки x существует интервал длительностью 2p(kn,n,x) который охватывает kn ближайших к x точек выборки. Одна точка попадает на границу интервала, а kn-1 точка – внутрь интервала. Оценкой плотности распределения вероятности fn(x) служит частота (kn-1)/n попадания в интервал 2p, приведенная к единичной величине интервала:
Многомерный случай:
Слайд 91Оценка Розенблатта – Парзена
Плотность распределения вероятности связана с функцией распределения через
оператор дифференцирования:
Слайд 92Оценка Розенблатта – Парзена
Степень гладкости оценки плотности зависит от степени гладкости
ядра. Заменим в оценке fn(x) прямоугольное ядро I(z) на произвольное K(z) и получим:
Здесь h – коэффициент размытости ядра. Примеры треугольного, параболического и кубического ядер приведены ниже:
Слайд 93Оценка Розенблатта – Парзена
Многомерный случай:
Слайд 94Оценка условной плотности вероятности
Рассматриваем объект, имеющий случайный вход (либо несколько входов)
X и выход Y. Связь между случайными величинами характеризуют условные характеристики, например, условная плотность распределения вероятности f(x|y).
Слайд 95Оценка регрессии
Регрессией называют первый начальный условный момент
Это некоторая усредненная количественная
зависимость между выходом и входом объекта. Регрессия (4.7.1) удовлетворяет квадратичному критерию
Получим оценку регрессии:
Слайд 96Оценка регрессии
Подбор оптимального параметра коэффициента размытости для оценки регрессии. Перейдем от
размерного параметра с к безразмерному β.
При β=0 ядро K(·) не зависит от x.
Оценка регрессии равна среднему арифметическому выборочных значений выхода объекта для любых x.
Слайд 97Оценка регрессии
Возьмем теперь другое крайнее состояние для β: β=1. Оценка регрессии
проходит через экспериментальные точки и состоит из кусков линий, соединяющих точки выборки.
Оптимальный параметр β лежит в интервале [0; 1].
Слайд 98Оценка регрессии
Рекуррентный расчет оценки регрессии. Для каждого фиксированного x на основе
использования рекуррентной схемы расчета получаем алгоритм адаптивного сглаживания:
Слайд 99Оценка регрессии
Инверсная модель. Для объекта с одним входом X и одним
выходом Y основной инверсной характеристикой является регрессия
и получаем оценку инверсной регрессии:
Слайд 100Робастные оценки регрессии
В реальной ситуации исходные экспериментальные данные xi, yi могут
содержать аномальные измерения, называемые выбросами. Даже наличие малого процента выбросов приводит к сильному искажению оценок. Поставим задачу построения оценки регрессии, которая была бы более устойчивая (малочувствительная, робастная (в переводе с английского "крепкая") к выбросам по отношению к ранее построенной оценке:
Кроме математического ожидания случайной величины Y есть другая характеристика среднего положения – медиана. Медиана – это среднее по вероятности значение. Состоятельная оценка медианы представляет собой среднее по номеру значение в упорядоченной выборке:
Слайд 101Робастные оценки регрессии
Запишем критериальную форму получения оценки:
Слайд 102Робастные оценки регрессии
Модульный критерий не является единственным для получения робастных оценок.
Более общий критерий имеет вид :
Некоторые виды функций F(v):
Слайд 103Адаптивное управление при априорной неопределенности
Адаптацией природа наделила все живое. Она представляет
собой приспособление к различным изменениям. Эти изменения происходят как внутри живого организма, так и во внешней среде.
Свойством адаптации человек наделил и созданные им устройства. Управление в этих устройствах осуществляется таким образом, чтобы как можно быстрее и лучше нейтрализовать влияние непредвиденных изменений или приспособиться к ним.
Слайд 106Постановка проблемы
Дисперсионный анализ является статистическим методом анализа результатов наблюдений, зависящих от
различных одновременно действующих факторов, с целью выбора наиболее значимых факторов и оценки их влияния на исследуемый процесс.
Методами дисперсионного анализа устанавливается наличие влияния заданного фактора на изучаемый процесс (на выходную переменную процесса) за счёт статистической обработки наблюдаемой совокупности выборочных данных.
Слайд 107Однофакторный дисперсионный анализ
Предположим, что анализируется влияние на случайную величину X фактора
A, изучаемого на k уровнях (A1, A2,…, Ak). На каждом уровне Ai проведены n наблюдений (xi1, xi2,…,xin) случайной величины X.
Расположим эксперимен-тальные данные в виде таблицы
Слайд 108Однофакторный дисперсионный анализ
Рассмотрим оценки различных дисперсий, возникающие при анализе таблицы результатов
наблюдений. Для оценки дисперсии, характеризующей изменение данных на уровне Ai (по строкам таблицы), имеем:
Из предпосылок дисперсионного анализа следует, что должно иметь место равенство всех дисперсий. При выполнении этого условия находим оценку дисперсии, характеризующей рассеяние значений xij вне влияния фактора A, по формуле:
, то влияние A – значимо.
Сравниваем и устанавливаем наличие влияния фактора A.
Однофакторный дисперсионный анализ
Для упрощения вычислений приведем алгоритм их выполнения. Вычисляем последовательно суммы:
Слайд 110Двухфакторный дисперсионный анализ
Рассмотренный ранее однофакторный дисперси-онный анализ обладает информативностью, не большей,
чем методы множественного сравнения средних. Информативность дисперсионного анализа возрастает при одновременном изучении влияния нескольких факторов.
Рассмотрим случай, когда анализируется влияние одновременно двух факторов A и B.
Слайд 111Двухфакторный дисперсионный анализ
Пусть результаты эксперимента представлены таблицей:
, то влияние фактора A признается значимым.
Двухфакторный дисперсионный анализ
Дисперсионный анализ для двухфакторных таблиц проводится в следующей последовательности. Вычисляются суммы:
Далее находятся оценки дисперсий:
Если , то влияние фактора B признается значимым.
Слайд 113Для оценки влияния взаимодействия факторов AB вычисляем дополнительную сумму:
Двухфакторный дисперсионный анализ
Приведенный
анализ предполагает независимость факторов A и B. Если они зависимы, то взаимодействие факторов C=AB также является фактором, которому соответствует своя дисперсия. Для того чтобы выделить такое взаимодействие, необходимы параллельные наблюдения в каждой клетке таблицы, т.е. при каждом сочетании факторов A и B на уровнях Ai и Bj соответственно необходимо не одно наблюдение, а серия наблюдений.
Далее анализ проводится, как и ранее, с той лишь разницей, что в клетках таблицы вместо отдельных значений используется их средние значения. Вычисляется оценка дисперсии и проверяется значимость взаимодействия факторов:
Слайд 114Планирование эксперимента при дисперсионном анализе
Дисперсионный анализ тесно связан с соответствующим планированием
эксперимента. Удачно спланированный эксперимент, выявляя все необходимые эффекты, оказывается всегда либо более точным, либо менее трудоемким по сравнению с непродуманным экспериментом.
Если на результат эксперимента действуют одновременно несколько факторов, то наилучший эффект дает одновременный дисперсионный анализ всех этих факторов (многофакторный анализ).
Методы дисперсионного анализа позволяют исследовать и такой случай, когда некоторые сочетания уровней пропущены. Такой эксперимент называется дробным факторным экспериментом (ДФЭ). Планирование при ДФЭ приобретает особо важную роль, ибо пропущенные сочетания уровней не так-то просто нейтрализовать.
Слайд 115Планирование эксперимента при дисперсионном анализе
Такие способы планирования существуют и притом не
единственные; согласно Фишеру их называют латинскими квадратами. Эти расположения приводятся в специальных справочниках; для примера приведен один вид такого квадрата:
Слайд 116Планирование эксперимента при дисперсионном анализе
Схема расчетов для латинского квадрата очень похожа
на обычный двухфакторный анализ:
Находим сумму квадратов по столбцам, деленную на число наблюдений в столбце:
Находим сумму квадратов итогов по строкам, деленную на число наблюдений в строке:
Находим квадрат общего итога, деленный на число всех наблюдений:
Находим сумму квадратов итогов по уровням фактора C, деленную на число уровней:
Слайд 117Планирование эксперимента при дисперсионном анализе
Перейдем теперь к вычислению и оценке значимости
дисперсий:
Если отличие будет значимым, то
Если отличие будет значимым, то
Слайд 120Введение
Временные ряды отличаются от обычных данных об одном временном срезе в
том отношении, что в случае временных рядов сама последовательность наблюдений несет в себе важную информацию.
Теперь чтобы охарактеризовать совокупность данных в целом, уже недостаточно знать лишь типичное значение этих данных (среднее значение) или даже изменчивость этой совокупности данных (дисперсия). В этом случае желательно знать, что, скорее всего, произойдет дальше. НУЖЕН ПРОГНОЗ!
Слайд 121Введение
ПРИМЕР. Чтобы составить бюджет на следующий квартал, требуется достоверная оценка ожидаемого
объема продаж. Этот прогноз послужит основой для прогнозирования других показателей бюджета (возможно, с помощью регрессионного анализа). Проанализировав временной ряд фактических квартальных объемов продажи за последние несколько лет, можно выдать прогноз, который будет представлять собой наиболее достоверную оценку, базирующуюся на общих тенденциях продаж, с учетом любых сезонных колебаний спроса.
Слайд 122Анализ трендов и сезонности
Анализ трендов и сезонности представляет собой непосредственный, интуитивный
подход к оцениванию четырех базовых компонентов помесячных или поквартальных временных рядов: долгосрочный тренд (тенденция), сезонность, циклическая вариация и нерегулярный компонент.
Базовая модель временного ряда представляет числа в этом ряде в виде произведения, получаемого путем умножения перечисленных компонентов.
Слайд 124Анализ трендов и сезонности
Тренд и циклический компонент: скользящее среднее
Скользящее среднее
представляет собой новый ряд, полученный путем усреднения соседних наблюдений временного ряда и перехода к следующему периоду времени – в итоге получается более гладкий ряд.
Слайд 125Анализ трендов и сезонности
Сезонный индекс: среднее значение отношения к скользящему среднему
отражает сезонное поведение
Чтобы выделить сезонное поведение, прежде всего, следует получить отношение исходных значений к скользящему среднему. Полученный результат будет включать сезонный и нерегулярный компоненты, поскольку скользящее среднее исключает из данных тренд и циклический компонент.
Слайд 126Анализ трендов и сезонности
Затем, чтобы устранить нерегулярный компонент, надо усреднить эти
значения для каждого сезона. Сезонный компонент проявляется, поскольку он присутствует ежегодно, тогда как нерегулярный компонент, как правило, удается усреднить.
Слайд 127Анализ трендов и сезонности
Поправка на сезон: деление ряда на сезонный индекс.
Поправка
на сезонные колебания устраняет из результатов измерения ожидаемый сезонный компонент (путем деления ряда на сезонный индекс для соответствующего периода), что позволяет нам непосредственно сравнивать один квартал или месяц с другим (после внесения поправки на сезон), выявляя те или иные скрытые тенденции.
Слайд 128Анализ трендов и сезонности
Долгосрочный тренд и прогноз с поправкой на сезонные
колебания: линия регрессии
Когда временной ряд демонстрирует долгосрочную линейную тенденцию к нарастанию или снижению, для оценки этой тенденции и прогнозирования будущего можно воспользоваться регрессионным анализом.
Слайд 129Анализ трендов и сезонности
Прогноз: тренд с учетом сезонности
Чтобы прогнозировать будущее, надо
учесть сезонность в долгосрочном тренде, вернув ему ожидаемую сезонную вариацию. Для этого достаточно умножить значение тренда на значение сезонного индекса для того периода времени, который вы прогнозируете. Этот процесс является обратным по отношению к внесению поправки на сезонные колебания. Результирующий прогноз включает долгосрочный тренд и сезонную вариацию.
Слайд 130Моделирование циклического поведения с помощью ARIMA-процессов Бокса-Дженкинса
АRIМА-процессы Бокса-Дженкинса представляют собой семейство
линейных статистических моделей, основанных на нормальном распределении, которые позволяют имитировать поведение множества различных реальных временных рядов путем комбинирования процессов авторегрессии, процессов интегрирования и процессов скользящего среднего.
ARIMA - сокращение от Autoregressive Integrated Moving Average
Слайд 131Моделирование циклического поведения с помощью ARIMA-процессов Бокса-Дженкинса
Процесс случайного шума не обладает
памятью: отправная точка
Процесс случайного шума состоит из случайной выборки (независимых наблюдений) из нормального распределения с постоянным средним и стандартным отклонением. Какие-либо тенденции (тренды) в этом случае отсутствуют, поскольку – по причине независимости - наблюдения не помнят о прошлом поведении ряда.
Слайд 132Моделирование циклического поведения с помощью ARIMA-процессов Бокса-Дженкинса
Процесс авторегрессии (AR) обладает памятью
о своем прошлом
Любое наблюдение процесса авторегрессии (часть "AR" названия ARIMA) представляет собой линейную функцию от предыдущего наблюдения плюс случайный шум. Таким образом, процесс авторегрессии помнит о своем предыдущем состоянии и использует эту информацию для определения своего дальнейшего поведения.
Слайд 133Моделирование циклического поведения с помощью ARIMA-процессов Бокса-Дженкинса
Процесс скользящего среднего (МА) имеет
ограниченную память
Любое наблюдение процесса скользящего среднего состоит из константы, (долгосрочное среднее значение процесса), плюс независимый случайный шум минус часть предыдущего случайного шума. Процесс скользящего среднего не помнит в точности своего прошлого, но помнит компонент случайного шума того состояния, в котором он (процесс) находился. Таким образом, его память ограничена одним шагом в будущее; за пределами этого шага для процесса все начинается заново.
Слайд 134Моделирование циклического поведения с помощью ARIMA-процессов Бокса-Дженкинса
Процесс авторегрессии и скользящего среднего
(ARMA) сочетает в себе AR и МА
Любое наблюдение процесса авторегрессии и скользящего среднего состоит из линейной функции от предыдущего наблюдения плюс независимый случайный шум минус некоторая доля предыдущего случайного шума. Процесс авторегрессии и скользящего среднего запоминает как свое предыдущее состояние, так и компонент случайного шума предыдущего состояния. Таким образом, его память сочетает в себе память процесса авторегрессии с памятью процесса скользящего среднего.
Слайд 135Моделирование циклического поведения с помощью ARIMA-процессов Бокса-Дженкинса
Чистый интегрированный (I) процесс помнит,
где он находился, и затем движется случайно
Каждое наблюдение чистого интегрированного (I) процесса (pure integrated (I) process), называемого также случайным блужданием, заключается в случайном шаге в сторону от текущего наблюдения. Этот процесс знает, где он находится, но забыл, как он попал туда.
Слайд 136Моделирование циклического поведения с помощью ARIMA-процессов Бокса-Дженкинса
Процесс авторегрессионного интегрированного скользящего среднего
(ARIMA) помнит свои изменения
Процесс состоит из линейной функции предыдущего изменения плюс независимый случайный шум минус определенная доля предыдущего случайного шума. Этот процесс знает, где он находится, помнит, как он попал в это состояние, и помнит даже часть предыдущего шумового компонента.
Слайд 138ИДЕНТИФИКАЦИЯ СТАТИЧЕСКИХ МОДЕЛЕЙ ОБЪЕКТОВ
Слайд 139Общие понятия
Идентификация – это процесс построения моделей объектов различной природы. Теория
идентификации имеет в своем арсенале достаточно эффективные методы и алгоритмы, на базе которых разработаны и широко используются программные комплексы.
Модели делятся на статические и динамические. Первые из них описывают объекты в стационарных режимах их работы. Динамические модели описывают переходные процессы в объектах, например, возникающие при переходе с одного стационарного режима работы объекта на другой.
Процесс идентификации складывается из двух взаимосвязанных этапов: идентификации структуры моделей и идентификации параметров в моделях выбранной структуры. При построении структуры модели (или набора конкурирующих либо взаимодополняющих структур) используется априорная информация об объекте. Для каждого класса объектов формируются банки структур с сопутствующей информацией.
Слайд 140Постановка задачи подстройки
параметров нелинейных моделей
Модель объекта берем в виде функции
η(u, α). Основная задача теперь сводится к расчету параметров α модели.
Алгоритмы расчета будем строить, используя критерий наименьших квадратов и близкие к нему критерии, например наименьших модулей невязок. В зависимости от свойств помехи критерий наименьших квадратов приобретает различные формы – от простейшей до самой общей.
Считаем, что выход объекта состоит из полезного сигнала η(u, a) и центрированной помехи ξ.
Сигнальная часть выхода представляет собой известную функцию от входа с неизвестными параметрами a. В структуру функции η(u, a) . Все, что не удается описать в объекте, относят к помехе.
Слайд 141Критерий наименьших квадратов
При равноточных измерениях весовые коэффициенты 1/σi2, характеризующие информативность
измерений, одинаковы. Тогда критерий имеет вид:
Считаем, что в каждый момент времени ti (момент измерения входа и выхода объекта) помехи ξi, являются центрированными случайными величинами с дисперсиями σi2. Если дисперсии различны, то измерения называются неравноточными.
Тогда критерий наименьших квадратов имеет вид:
Слайд 142Критерий наименьших квадратов
то критерий наименьших квадратов базируется на элементах cij
матрицы, обратной корреляционной:
Если все помехи ξi коррелированны, т. е:
Это общая форма критерия. Она включает в себя (при соответствующих упрощениях) все предыдущие формы. Запишем критерий в матричной форме.
Слайд 143Метод наименьших квадратов
при линейной параметризации модели
Модель объекта задана в виде
линейной комбинации известных (базисных) функций φ1(u),…, φm(u):
Параметры α находим по критерию наименьших квадратов:
Слайд 144Метод наименьших квадратов
при линейной параметризации модели
Пример расчета параметров:
Слайд 145Метод последовательной линеаризации
при подстройке параметров на основе критерия наименьших квадратов
Построим
итерационную процедуру расчета параметров α модели
в соответствии с критерием наименьших квадратов. Так как функционал квадратичный, то первая стадия метода не реализуется и на каждой итерации используется только линейная аппроксимация выхода модели по параметрам:
Необходимое условие минимума приводит к системе линейных алгебраических уравнений:
Слайд 146Робастные оценки параметров
Параметры модели (которые являются оценками параметров объекта), полученные на
основе критерия наименьших квадратов, сильно реагируют на выбросы помех. Аномальные отклонения в измерениях очень редки, но амплитуда их велика.
Так же существуют другие критерии вида:
Примеры функции ψ(e):
Слайд 147Простейший адаптивный алгоритм
подстройки параметров
Линейная параметризация модели:
На каждой итерации, например n
и n-1, параметры модели находим из условия равенства выходов модели и объекта:
Каждому уравнению в пространстве параметров соответствует своя линия
Слайд 148Простейший адаптивный алгоритм
подстройки параметров
Нелинейная модель: На каждом шаге линеаризуем модель
и приращения параметров отыскиваем из равенства выхода модели и линеаризованной модели:
В итоге получаем алгоритм перестройки параметров нелинейной модели:
Слайд 150ИДЕНТИФИКАЦИЯ И
АДАПТИВНОЕ УПРАВЛЕНИЕ
ДИНАМИЧЕСКИМИ ОБЪЕКТАМИ
Слайд 151Дискретные динамические модели
стохастических объектов
В динамическом режиме поведение объектов описывается различными
динамическими уравнениями: обыкновенными дифференциальными, интегральными, интегродифференциальными уравнениями; уравнениями с запаздываниями; уравнениями в частных производных и их дискретными аналогами. С целью упрощения будем рассматривать наиболее простые дискретные модели. Последние выбраны именно потому, что получаемые алгоритмы идентификации и управления напрямую реализуемы на цифровой вычислительной технике (мини-,микро-ЭВМ, микропроцессоры).
Дискретные модели привязаны к номерам дискретных моментов времени и поэтому основным аргументом для входных u(t) и выходных x(t), y(t) переменных является номер дискреты t = 0, 1, 2,…
Например:
Слайд 152Дискретные динамические модели
стохастических объектов
Считаем, что объект описывается дискретным уравнением:
Модель имеет вид:
Слайд 153Дискретные динамические модели
стохастических объектов
Если объект имеет вид:
То оптимальная модель имеет вид:
Слайд 154Подстройка параметров
с использованием функций чувствительности
Для примера рассмотрим модель:
Построим алгоритм расчета
параметров:
Линеаризуем модель относительно параметров α(t-1) , вычисленных в предыдущий момент времени:
Здесь y(t|α(t-1)) – выход модели в момент времени t при значениях параметров, полученных в предыдущий момент времени t-1
ω(t) – вектор-столбец функций чувствительности выхода модели к параметрам модели.
Слайд 155Подстройка параметров
с использованием функций чувствительности
Функции чувствительности удовлетворяют уравнениям чувствительности:
Каждое
уравнение чувствительности получается дифференцированием уравнения модели по соответствующему параметру.
Для расчета параметров α(t) можно использовать, например, простейший адаптивный алгоритм:
Слайд 156Применение простейшего адаптивного алгоритма
Рассчитаем параметры линейных и нелинейных динамических моделей
на основе простейшего адаптивного алгоритма.
Пример: Рассмотрим модель без обратной связи:
Функциями чувствительности выхода модели к ее параметрам являются измеренные значения выхода и входа объекта:
Слайд 157Применение простейшего адаптивного алгоритма
В каждый текущий момент времени t на
основе измерений x(t); x(t-1), u(t-1); x(t-2), u(t-2) параметры корректируем по простейшему адаптивному алгоритму:
Слайд 158Применение простейшего адаптивного алгоритма
Рассмотрим нелинейную модель без обратной связи:
Алгоритм перестройки
параметров:
Получаем следующие выход модели и функции чувствительности:
Слайд 159Адаптивные системы обработки информации
В адаптивных системах обработки информации и управления
происходит приспособление к изменяющимся условиям и неизвестным характеристикам объекта.
Слайд 160Постановка задачи адаптивного управления
Рассматриваем адаптивную систему с идентификацией (АСИ). Синтезируем
алгоритм расчета управления (алгоритм работы устройства управления) u(t) в каждый текущий момент времени t. Исходными экспериментальными данными о входе и выходе объекта.
Необходимо рассчитать управляющее воздействие u(t) , обеспечивающее достижение следующей цели: наименьшего уклонения выхода системы x от заданной траектории x* в каждый текущий момент времени.
Считаем, что поведение объекта в динамическом режиме описывается разностным уравнением:
Обозначим через y(k|α(t)) выход модели в момент времени k при значении вектора параметров α(t), вычисленных в момент времени. Если шум – белый, то
Слайд 161Примеры синтеза устройств управления
для простейших линейных систем
Формируем модель объекта:
Пример 1.
Считаем, что объект описывается уравнением:
Находим параметры:
Из локального квадратичного критерия оптимальности
Рассчитываем оптимальное управление:
Слайд 162Примеры синтеза устройств управления
для простейших линейных систем
Модель объекта:
Пример 2. Объект
описывается уравнением:
Параметры:
Находим управляющее воздействие :
Слайд 163Синтез алгоритмов управления для линейных систем
Объект:
Слайд 164Алгоритмы адаптивного управления
для нелинейных систем
Объект описывается нелинейным разностным уравнением:
Слайд 165Управление динамическими системами
с чистыми запаздываниями
Рассматриваем объект, описываемый разностным уравнением:
Строим
модель объекта:
Выход модели находим из критерия наименьших квадратов:
Решение получается в форме
Слайд 166Управление динамическими системами
с чистыми запаздываниями
Пример: на примере гальванической ванны
одного из заводов при однопроцентном уровне помех приведены входная и выходная переменные замкнутой системы управления, а также кусочно-постоянный заданный температурный режим x*(t). В начальный момент температура ванны равна 20 °С. На первых двадцати тактах происходит основная настройка параметров модели, хотя и далее алгоритм коррекции параметров продолжает непрерывно работать. Если в объекте произойдут какие-либо изменения, то идентификатор отследит их. После основной коррекции параметров алгоритм управления обеспечивает перевод системы на новый уровень стабилизации за минимальное время и без перерегулирования.